La empresa tecnológica destacó algunos hitos de la IA, desde el uso de aprendizaje automático para mejorar la ortografía en la búsqueda web en 2001 hasta el lanzamiento de PaLM 2 en 2023.
Por Canal26
Sábado 30 de Septiembre de 2023 - 17:00
Sin dudas, la inteligencia artificial (IA) se convirtió en una de las herramientas más relevantes en los últimos años. En base a ello, Google, quien celebra 25 años, decidió destacar algunas claves de su evolución e importancia en la historia de la empresa tecnológica. A continuación, su cronología.
Te puede interesar:
Los increíbles anteojos tecnológicos de Samsung que cuentan con inteligencia artificial
El cofundador de Google, Larry Page, alguna vez expresó: "El motor de búsqueda perfecto debe entender exactamente lo que quieres decir y entregarte exactamente lo que necesitas". Dimos un gran paso en el avance de esa visión cuando comenzamos a usar una versión simple de aprendizaje automático para sugerir mejoras ortográficas en las búsquedas web. Incluso si no lo escribes a la perfección, aún así podemos darte lo que necesitas.
Te puede interesar:
Los mejores trucos para usar correctamente Gemini, la inteligencia artificial de Google
Cinco años después, se lanzó Google Translate, que usa el aprendizaje automático para traducir idiomas automáticamente. Comenzamos con traducciones de árabe a inglés e inglés a árabe, pero hoy Google Translate admite 133 idiomas hablados por millones de personas alrededor del mundo.
Esta tecnología puede traducir texto, imágenes o incluso una conversación en tiempo real, rompiendo las barreras del idioma en toda la comunidad global, ayudando a las personas a comunicarse y ampliando el acceso a la información como nunca antes.
Te puede interesar:
La IA en la educación, el entretenimiento y la economía
La introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, hizo que la IA fuera más accesible, escalable y eficiente. También ayudó a acelerar el ritmo de la investigación y el desarrollo de la IA alrededor del mundo.
TensorFlow es ahora uno de los marcos de aprendizaje automático más populares y se utilizó para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática.
Te puede interesar:
Cómo será la nueva tablet de pared de Apple con IA que busca controlar todo el hogar
Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron en línea cómo AlphaGo se convirtió en el primer programa de IA en derrotar a un campeón mundial humano en Go, un complejo juego de mesa que antes se consideraba fuera del alcance de las máquinas.
Esta victoria histórica demostró el potencial del aprendizaje profundo para resolver problemas complejos que antes se consideraban imposibles para las computadoras. La victoria de AlphaGo sobre Lee Sedol, uno de los mejores jugadores de Go del mundo, provocó una conversación global sobre el futuro de la IA y demostró que los sistemas de IA ahora podrían aprender a dominar juegos complejos que requieren pensamiento estratégico y creatividad.
Te puede interesar:
Microsoft Teams ofrecerá una IA que permitirá a los usuarios hablar en nueve idiomas
Las unidades de procesamiento tensorial, o TPU, son chips de silicio diseñados a la medida que inventamos específicamente para el aprendizaje automático y optimizados para TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es el TPU en la nube más rentable, versátil y escalable hasta la fecha.
Te puede interesar:
China y EEUU acordaron que el uso de armas nucleares no debe decidirse con intervención de la IA
El artículo de investigación de Google Research 'Attention Is All You Need' presentó el Transformer, una nueva arquitectura de red neuronal que ayudó a la comprensión del lenguaje. Antes de Transformer, las máquinas no eran muy buenas para entender el significado de oraciones largas: no podían ver las relaciones entre palabras que estaban muy separadas.
Transformer mejoró enormemente esto y se convirtió en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más impresionantes de la actualidad. Transformer revolucionó lo que significa para las máquinas traducir, resumir textos, responder preguntas e incluso generar imágenes y la robótica.
Te puede interesar:
Innovación para estacionar: de qué se trata la app que te permite saber si hay lugar cerca de tu casa
Nuestra investigación sobre Transformers condujo a la introducción del 'Bidirectional Encoder Representations from Transformers' (Representaciones bidireccionales de codificadores a partir de Transformers), o BERT para abreviar, que ayudó a la Búsqueda a comprender las consultas de los usuarios mejor que nunca.
En lugar de tratar de entender las palabras individualmente, nuestros algoritmos BERT ayudaron a Google a entender las palabras en contexto. Esto condujo a una gran mejora de la calidad en la Búsqueda y facilitó que las personas hicieran preguntas como lo harían naturalmente, en lugar de encadenar palabras clave.
Te puede interesar:
Gemini destrona a Siri: la Inteligencia Artificial de Google ya está disponible en iPhone
En 2020, DeepMind dio un salto en el campo de la IA con su sistema, AlphaFold, que fue reconocido como una solución al "problema del plegamiento de proteínas". Las proteínas son los componentes básicos de la vida, y la forma en que una proteína se pliega determina su función; una proteína mal plegada podría causar enfermedades. Durante 50 años, los científicos habían estado tratando de predecir cómo se plegaría una proteína para ayudar a comprender y tratar enfermedades. AlphaFold hizo exactamente eso.
Luego, en 2022, compartió 200 millones de estructuras de proteínas de AlphaFold, que cubren casi todos los organismos del planeta de los que se secuenció su genoma, libremente con la comunidad científica a través de la base de datos de estructuras de proteínas de AlphaFold. Más de 1 millón de investigadores ya lo utilizaron para trabajar en una diversidad de cosas, desde acelerar nuevas vacunas contra la malaria en un tiempo récord y avanzar en el descubrimiento de fármacos contra el cáncer, hasta desarrollar enzimas que se alimentan de plástico.
Te puede interesar:
Tecnofeudalismo: cuando los magnates tecnológicos marcan la agenda de países y gobiernos
LaMDA, un modelo de lenguaje de gran tamaño conversacional lanzado por Google Research en 2021, allanó el camino para muchos sistemas de IA generativa que han capturado la imaginación del mundo, incluido Bard. Lanzado en marzo, Bard ahora está disponible en la mayor parte del mundo y en más de 40 idiomas, por lo que más personas que nunca pueden usarlo para aumentar la productividad, acelerar las ideas y alimentar la curiosidad.
Y combinó el modelo más inteligente y capaz de Bard con los servicios de Google que usas todos los días, como Gmail, Docs, Drive, Vuelos/Hoteles, Maps y YouTube, para que sea aún más útil con tareas como la planificación de viajes, la verificación de respuestas y el resumen de correos electrónicos o documentos.
Te puede interesar:
Llegaron a la Argentina los nuevos televisores con Inteligencia Artificial: conocé lo nuevo de Samsung
En mayo de este año, se presentó PaLM 2, el modelo de lenguaje de gran tamaño de próxima generación que ha mejorado las capacidades multilingües, de razonamiento y de codificación. Es más capaz, más rápido y más eficiente que sus predecesores, y ya está impulsando más de 25 productos y funciones de Google, incluidas Bard, funciones de IA generativa en Gmail y Workspace, y SGE, nuestro experimento para integrar profundamente la IA generativa en la Búsqueda de Google. También, se utiliza PaLM 2 para avanzar en la investigación interna sobre una infinidad de cosas, desde la atención médica hasta la ciberseguridad.
Estas son sólo algunas de las innovaciones de IA de Google que están permitiendo muchos de los productos que miles de millones de personas usan todos los días. Con nuestros principios de IA para guiarnos mientras adoptamos un enfoque audaz y responsable de IA, ya estamos trabajando en Gemini, nuestro próximo modelo creado para permitir futuros avances en nuestros siguientes 25 años.
1
¿Conectar primero el celular o el cargador?: qué hacer para evitar daños en tu teléfono
2
WhatsApp dejará de funcionar en algunos celulares a partir de diciembre 2024: los modelos afectados
3
WhatsApp: qué significa sacar la foto de perfil, según la psicología
4
Adiós a la PlayStation 4: a partir de qué fecha Sony dejará de dar soporte a la consola
5
Eliminación de impuestos: cuánto saldrá comprar un iPhone 15 en el exterior desde diciembre