Enciclopedia/Diccionario de Psicología y Neurociencias:
ıllı Unidad de procesamiento tensorial wiki: info, libros pdf y vídeos
- Detalles
- Categoría: PSICOLOGIA (WIKINFO)
Unidad de procesamiento tensorial
Una unidad de procesamiento tensorial o bien TPU (del inglés tensor processing unit) es un circuito integrado desarrollado por Google particularmente para el aprendizaje automático. En comparación con las unidades de procesamiento gráfico (que desde dos mil dieciseis se emplean con cierta frecuencia para exactamente las mismas labores), estas unidades están diseñadas implícitamente para un mayor volumen de cálculo de precisión reducida (por poner un ejemplo, desde ocho bits de precisión) y carecen de hardware para la rasterización/cartografía de textura. El término ha sido acuñado para un chip concreto desarrollado para el marco Tensor Flow de Google. Otros diseños de aceleradores de IA están apareciendo asimismo en otros distribuidores y están dirigidos a mercados de robótica y también engastados. Google asimismo ha usado las TPU para el procesamiento de texto de Street View y ha podido localizar todo el texto en la base de datos de Street View en menos de 5 días. En Fotografías, una TPU individual puede procesar más de cien millones de fotografías al día. Asimismo se usa en Rank Brain, usado por Google para otorgar resultados de la búsqueda. La unidad de procesamiento de tensores se anunció en dos mil dieciseis en Google I/O, si bien la compañía declaró que el TPU había sido usado en su centro de datos a lo largo de más de un año antes El tamaño del chip puede caber en una ranura de disco duro en un bastidor de un centro de datos, conforme con el ingeniero de hardware Norm Jouppi de Google. Google ha declarado que sus unidades de procesamiento de tensor dueña se emplearon en la serie AlphaGo contra Lee Sedol de juegos Go hombre vs máquina. La primera generación de las TPU de Google se presentó en la conferencia I/O dos mil dieciseis, desarrollado particularmente para ejecutar redes neuronales entrenadas. Estas TPU tienen menos precisión en comparación con los cómputos efectuados en una CPU o bien GPU normales, mas basta para los cálculos que deben efectuar. En la primera generación, la TPU es un motor de multiplicación matricial de ocho bits, controlado con un juego de instrucciones CISC por un procesador host sobre un autobus PCIe tres.0. Está fabricado con un proceso de 28nm en un chip con tamaño = trescientos treinta y uno mm2. Tiene un reloj a setecientos MHz y un diseño térmico de potencia de veintiocho-cuarenta W. Tiene veintiocho MB de memoria en chip y cuatro MB de acumuladores de treinta y dos bits, que toman los resultados de una matriz doscientos cincuenta y seis × doscientos cincuenta y seis de multiplicadores de ocho bits. Las instrucciones trasfieren datos cara o bien desde el anfitrión o bien host, efectuando multiplicaciones matriciales o bien convoluciones, y aplicando funciones de activación La segunda generación de la TPU de Google se presentó en el I/O dos mil diecisiete. Esto no solo va a apresurar la aplicación de redes neuronales (inferencia), sino más bien asimismo la capacitación de estas redes. Estas TPU tienen una potencia de procesamiento de ciento ochenta TFLOPS y están interconectados a un con ciento quince PFLOPS. La topología de la arquitectura del sistema de conjuntos tiene esferas en forma de red de ocho × ocho TPU. La TPU de segunda generación son parte del Google Compute Engine, una oferta de servicios en la nube de la compañía. Los detalles técnicos de la segunda generación en la actualidad (mayo de dos mil diecisiete) no están libres. No obstante, se supone que usa memoria GDDR5. Google anunció en la conferencia inaugural del I/O dos mil dieciocho, su congreso de desarrolladores, la tercera generación de su TPU. Es 8 veces más potente que la generación precedente, con hasta cien PFLOPS de desempeño. Primera generación
Segunda generación
Tercera generación