La guerra por la IA entre las bigs-techs es a bayoneta calada

La guerra por la IA entre las bigs-techs es a bayoneta calada

Samsung lanza un modelo de IA generativa diseñado para sus dispositivos, superando a Apple

Samsung Electronics presentó el miércoles un nuevo modelo de inteligencia artificial generativa, dando a entender que el software llegará pronto a sus dispositivos.

La IA generativa ha sido popularizada por Microsoft OpenAI y ChatGPT, respaldados por Google, que se lanzó el año pasado y ha provocado una carrera entre los gigantes tecnológicos del mundo para salir adelante. La IA generativa se basa en los llamados modelos de lenguaje grande, que se entrenan con grandes cantidades de datos.

 Samsung dijo que su tecnología, llamada Samsung Gauss, está diseñada para aplicaciones de inteligencia artificial en dispositivos.

Samsung dijo que su modelo de IA lleva el nombre de Carl Friedrich Gauss, “el legendario matemático que estableció la teoría de la distribución normal, la columna vertebral del aprendizaje automático y la IA”.

El sistema de IA tiene una serie de características: la primera, Samsung Gauss Language, es un modelo de lenguaje generativo que puede ayudar a redactar correos electrónicos y traducir contenido, así como “mejorar la experiencia del consumidor al permitir un control más inteligente del dispositivo cuando se integra en los productos”.

La segunda característica permite a los desarrolladores de software internos escribir código rápidamente, mientras que la tercera, Samsung Gauss Image, puede generar o editar imágenes.

“Samsung Gauss se utiliza actualmente en la productividad de los empleados, pero se ampliará a una variedad de aplicaciones de productos Samsung para brindar una nueva experiencia de usuario en un futuro cercano”, dijo Samsung en un comunicado de prensa el miércoles.

 Samsung podría estar entre los primeros fabricantes de teléfonos del mundo en introducir IA generativa en sus dispositivos. Daniel Araujo, vicepresidente del negocio móvil de Samsung, dijo en la conferencia telefónica sobre resultados de la compañía el mes pasado que la tecnología de IA generativa probablemente llegará a los clientes el próximo año.

Apple , el mayor rival de Samsung en el espacio de los teléfonos inteligentes, aún no ha anunciado su propio producto de IA generativa. El director ejecutivo de la compañía, Tim Cook, dijo el mes pasado durante la conferencia telefónica sobre resultados de Apple que el gigante tecnológico está “trabajando” en IA generativa, pero se negó a dar más detalles.

LAS TRES ETAPAS DE LA INTELIGENCIA ARTIFICIAL

Las tecnologías de IA se clasifican por su capacidad para imitar las características humanas.
1. Inteligencia artificial estrecha (ANI)
La categoría más básica de IA es más conocida por sus siglas en inglés: ANI, por Artificial Narrow Intelligence.
Se llama así porque se enfoca estrechamente en una sola tarea, realizando un trabajo repetitivo dentro de un rango predefinido por sus creadores.
Los sistemas de ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo de internet) y pueden tomar decisiones o realizar acciones basadas en ese entrenamiento.
Una ANI puede igualar o superar a la inteligencia y eficiencia humana pero solo en esa área específica en la que opera.
Un ejemplo son los programas de ajedrez que usan IA. Son capaces de vencer al campeón mundial de esa disciplina, pero no pueden realizar otras tareas.

Es por eso que también se la conoce como «IA débil».
Todos los programas y herramientas que utilizan IA hoy, incluso las más avanzadas y complejas, son formas de ANI. Y estos sistemas están en todas partes.
Los smartphones están llenos de apps que usan esta tecnología, desde los mapas con GPS que te permiten ubicarte en cualquier lugar del mundo o saber el clima, hasta los programas de música y videos que conocen tus gustos y te hacen recomendaciones.
También los asistentes virtuales como Siri y Alexa son formas de ANI. Al igual que el buscador de Google y el robot que limpia tu casa.
El mundo empresarial también utiliza mucho esta tecnología. Se usa en las computadoras internas de los autos, en la manufactura de miles de productos, en el mundo financiero e incluso en hospitales, para realizar diagnósticos.
Incluso sistemas más sofisticados como los autos sin conductor (o vehículos autónomos) y el popular ChatGPT son formas de ANI, ya que no pueden operar fuera del rango predefinido por sus programadores, por lo que no pueden tomar decisiones por su cuenta.
Tampoco tienen autoconciencia, otro rasgo de la inteligencia humana.
Sin embargo, algunos expertos creen que los sistemas que están programados para aprender automáticamente (machine learning) como ChatGPT o AutoGPT (un «agente autónomo» o «agente inteligente» que utiliza información del ChatGPT para realizar ciertas subtareas de forma autónoma) podrían pasar a la siguiente etapa de desarrollo.

2. Inteligencia artificial general (AGI)
Esta categoría -Artificial General Intelligence- se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano.
Es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona.

También se la conoce como «IA fuerte».
Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que en marzo pasado más de 1.000 expertos en tecnología pidieron a las empresas de IA que dejen de entrenar, por al menos seis meses, a aquellos programas que sean más poderosos que GPT-4, la versión más reciente de ChatGPT.
«Los sistemas de IA con inteligencia que compite con la humana pueden plantear profundos riesgos para la sociedad y la humanidad», advirtieron en una carta abierta, entre otros, el cofundador de Apple, Steve Wozniak, y el dueño de Tesla, SpaceX, Neuralink y Twitter, Elon Musk (quien fue uno de los cofundadores de Open AI antes de renunciar de la junta por desacuerdos con la conducción de la compañía).
La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una «amenaza para la humanidad»
En la carta, publicada por la organización sin fines de lucro Future of Life Institute, los expertos dijeron que si las empresas no acceden rápidamente a frenar sus proyectos «los gobiernos deberían intervenir e instituir una moratoria» para que se puedan diseñar e implementar medidas de seguridad sólidas.
Aunque esto es algo que -por el momento- no ha ocurrido, el gobierno de Estados Unidos sí convocó a los dueños de las principales empresas de IA – Alphabet, Anthropic, Microsoft, y OpenAI- para acordar «nuevas acciones para promover la innovación responsable de IA».
«La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos», declaró a través de un comunicado la Casa Blanca el pasado 4 de mayo.
El Congreso de EE.UU., por su parte, convocó este martes al CEO de OpenAI, Sam Altman, a responder preguntas sobre ChatGPT.
Durante la audiencia en el Senado, Altman dijo que es «crucial» que su industria sea regulada por el gobierno a medida que la IA se vuelve «cada vez más poderosa».
Carlos Ignacio Gutiérrez, investigador de políticas públicas en el Future of Life Institute, explicó a BBC Mundo que uno de los grandes desafíos que presenta la IA es que «no existe un cuerpo colegiado de expertos que deciden cómo regularlo, como ocurre, por ejemplo, con el Panel Intergubernamental sobre Cambio Climático (IPCC)».
En la carta de los expertos, estos definieron cuáles eran sus principales preocupaciones.
«¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?», cuestionaron.
«¿Deberíamos arriesgarnos a perder el control de nuestra civilización?».

3. Súper Inteligencia Artificial (ASI)
La preocupación de estos científicos informáticos tiene que ver con una teoría muy establecida que sostiene que, cuando alcancemos la AGI, poco tiempo después se arribará al último estadio en el desarollo de esta tecnología: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana.
El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como «un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales».
La teoría es que cuando una máquina logre tener una inteligencia a la par con la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando la ASI.
«Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo. El tema con la AGI es que es escalable de inmediato», señala Gutiérrez.
Esto es gracias a un proceso llamado superación personal recursiva (recursive self-improvement) que permite a una aplicación de IA «continuamente mejorarse, en un tiempo que nosotros no podríamos hacerlo».
Si bien existe mucho debate sobre si una máquina realmente puede adquirir el tipo de inteligencia amplia que tiene un ser humano -en especial en lo que hace a la inteligencia emocional-, es una de las cosas que más preocupa a quienes creen que estamos cerca de lograr la AGI.
Recientemente, el llamado «padrino de la inteligencia artificial» Geoffrey Hinton, pionero en la investigación de redes neuronales y aprendizaje profundo que permiten a las máquinas aprender de la experiencia, igual que los humanos, alertó en una entrevista con la BBC que podríamos estar cerca de ese hito.
«En este momento (las máquinas) no son más inteligentes que nosotros, por lo que puedo ver. Pero creo que pronto podrían serlo», dijo el hombre de 75 años, quien acaba de retirarse de Google.
«En este momento los sistemas de IA no son más inteligentes que nosotros, pero creo que pronto lo serán» | Entrevista a Geoffrey Hinton, «padrino de la inteligencia artificial»
Extinción o inmortalidad
Existen, en reglas generales, dos campos de pensamiento con relación a la ASI: están los que creen que esta superinteligencia será beneficiosa para la humanidad y los que creen todo lo contrario.
Entre estos últimos estaba el famoso físico británico Stephen Hawking, quien creía que las máquinas súper inteligentes representaban una amenaza para nuestra existencia.

PUBLICIDAD (google adsense)