Skip to main content
  1. Casa
  2. Computación

De Altman a Musk: 5 visiones recientes sobre la inteligencia artificial

Ya estamos inmersos en un mundo de inteligencia artificial (IA), desde que tomamos una foto con el celular y es mejorada con algoritmos hasta cuando le decimos a Alexa que encienda las luces de la casa. Lo cierto es que la irrupción de ChatGPT nos ha traído otro concepto que para más de uno era desconocido: la inteligencia artificial generativa, que básicamente está especializada en el diálogo.

Desde que se lanzó, en noviembre de 2022, la propuesta de OpenAI no ha dejado de llamar la atención, sobre todo por la forma en que interactúa con las personas. Eso no significa que no contenga datos inexactos, lo cual se advierte por sus desarrolladores cada que tienen oportunidad.

Recommended Videos

Para aclarar un poco el panorama alrededor del tema, presentamos cinco visiones recientes sobre inteligencia artificial, en las que se incluye la de Sam Altman, consejero delegado de OpenAI, y la de Bill Gates, filántropo y cofundador de Microsoft.

Sam Altman, consejero delegado de OpenAI

Altman indicó que la IA puede ser la mayor tecnología que la humanidad haya desarrollado hasta ahora, sin embargo, ello también conlleva riesgos. “La manera correcta de pensar en los modelos que creamos es como un motor de razonamiento, no como una base de datos de hechos. También pueden actuar como una base de datos de hechos, pero eso no es realmente lo que tienen de especial: lo que queremos que realicen es algo más cercano a la capacidad de razonar, no de memorizar”, declaró el directivo en una entrevista con ABC News.

Sobre los riesgos, Altman apuntó su preocupación de que implementaciones como ChatGPT, desarrollado por OpenAI, puedan usarse para desinformar a gran escala o ataques cibernéticos ofensivos.

¿Tecnologías basadas en IA sustituirán algunos trabajos? Altman dijo que es probable que sí cumpla esta predicción, sin embargo, alentó a las personas a ver más a ChatGPT como una herramienta de apoyo. “La creatividad humana es ilimitada y encontraremos nuevos trabajos. Encontraremos nuevas cosas que hacer”, acotó.

Bill Gates, cofundador de Microsoft y filántropo

“El desarrollo de la IA es tan fundamental como la creación del microprocesador, la computadora personal, internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, obtienen atención médica y se comunican entre sí. Industrias enteras se reorientarán alrededor de esta. Las empresas se distinguirán por lo bien que la usen”, reflexionó Bill Gates en su sitio personal, después de que pudo ver las máximas capacidades de ChatGPT en septiembre del año pasado.

Imagen utilizada con permiso del titular de los derechos de autor

Sobre los principios que deben guiar la discusión de la IA, propone equilibrar los temores sobre sus desventajas con su capacidad para mejorar la vida de las personas; que los gobiernos y la filantropía puedan garantizar que las IA se utilicen para reducir la inequidad mediante financiamiento confiable y políticas correctas, y estar conscientes de que las limitaciones que tiene hoy, desaparecerán sin que las personas se den cuenta.

Jaron Lanier, gurú tecnológico, informático y compositor

“Esta idea de superar la habilidad humana es una tontería porque (la IA) está hecha de habilidades humanas. Es como decir que un automóvil puede ir más rápido que un corredor humano. Por supuesto que puede, sin embargo, no decimos que el vehículo se ha convertido en un mejor corredor”, declaró Lanier al periódico The Guardian.

Para el gurú tecnológico, desarrollos como ChatGPT y Bard, contrario a lo que se podría pensar, no ofrecen respuestas limitadas, sino una distinta cada vez que se usan, lo que también marca su diferencia con internet. Asimismo, ratificó que la IA no reemplazará a las personas en su trabajo. Todo dependerá de cómo se emplee la tecnología, añadió.

Elon Musk, Steve Wozniak, Evan Sharp…

En una carta abierta publicada el 22 de marzo pasado, expertos en tecnología, directivos y líderes empresariales hicieron el llamado para que los laboratorios de IA detengan el entrenamiento de los sistemas más poderosos que GPT-4 por lo menos seis meses.

“Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”, se lee en el documento publicado en Future of Life Institute.

Los firmantes indicaron que la pausa debe ser pública y verificable. “Si esta no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, enfatizaron.

Los laboratorios de IA y los expertos independientes, advirtieron, deben aprovechar el lapso para implementar conjuntamente protocolos de seguridad compartidos para el diseño y desarrollo avanzados de la tecnología.

“Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, apuntaron.

Evgeny Morozov, fundador de The Syllabus y autor de libros de tecnología

“Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de ‘artificialidad’. Pero los de hoy, lo que incluye el favorito de todos, ChatGPT, obtienen su fuerza del trabajo de humanos reales: artistas, músicos, programadores y escritores, cuya producción creativa y profesional ahora se apropia en nombre de salvar la civilización. En el mejor de los casos, esto es ‘inteligencia no artificial’”, indicó el experto a The Guardian en una columna.

Aseguró que el peligro de seguir utilizando el concepto de IA es que se corre el riesgo de convencer a todos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría.

“Pero la razón por la que las herramientas como ChatGPT pueden hacer cualquier cosa, incluso remotamente creativa, es porque sus conjuntos de entrenamiento fueron producidos por humanos realmente existentes, con sus emociones complejas, ansiedades y todo. Si queremos que esa creatividad persista, también deberíamos financiar la producción de arte, ficción e historias, no solo los centros de datos y el aprendizaje automático”, cerró.

Topics
Luis Miguel Paredes
Luis Miguel Paredes tiene interés en temas como computación, Motorola, Netflix, YouTube, Telegram, WhatsApp y Huawei…
Todo sobre Venice AI: qué es y cómo usar la plataforma de inteligencia artificial sin censura
Venice AI

Venice AI es una plataforma de inteligencia artificial que ha llegado para romper las reglas del juego. Creada por Erik Voorhees, el fundador del servicio de criptomonedas ShapeShift, esta herramienta pone el foco en dos pilares fundamentales: la privacidad y la libertad total, sin censura. Si te interesa una IA sin restricciones, sigue leyendo que te contamos de qué se trata, cómo funciona y cómo sacarle el máximo provecho.
¿Qué es Venice AI y cómo funciona?

Venice AI es una aplicación de inteligencia artificial generativa. Es decir, puedes usarla para generar texto, imágenes e incluso código, simplemente escribiendo lo que necesitas, al igual que ChatGPT. Sin embargo, lo interesante de Venice AI es que, a diferencia de otras plataformas, aquí no hay temas prohibidos. Puedes pedir lo que quieras sin preocuparte por restricciones o filtros. ¿Te suena raro? Es porque la mayoría de las IA convencionales censuran ciertos temas, ya sea por razones legales o éticas. Pero Venice apuesta por la libertad total.

Leer más
Sam Altman se puso mesiánico: define qué es la era de la inteligencia
Sam Altman

Sam Altman parece haber entrado en Modo Dios, porque una publicación de su blog personal titulada "La era de la inteligencia", da a entender de que estamos ante un cambio de paradigma en la humanidad y que nada volverá a ser como antes con el advenimiento de la IA.

Veamos las frases más controvertidas de esta publicación en su página, y por qué parece estar entrando en un espiral peligroso.
El evangelio de La era de la inteligencia, según Sam Altman

Leer más
ChatGPT: la cantidad de recursos que necesita para funcionar se está saliendo de control
IA generativa ChatGPT.

No es un secreto que el crecimiento de la IA generativa ha requerido cantidades cada vez mayores de agua y electricidad, dado que la infraestructura necesaria para soportar estas tecnologías implica un uso intensivo de recursos. Sin embargo, un nuevo estudio de The Washington Post e investigadores de la Universidad de California, Riverside, muestra cuántos recursos necesita el chatbot de OpenAI para realizar incluso sus funciones más básicas.

En términos de uso de agua, la cantidad necesaria para que ChatGPT redacte un correo electrónico de 100 palabras depende del estado y de la proximidad del al centro de datos más cercano de OpenAI. Cuanto menos prevalente sea el agua en una región determinada y cuanto más barato sea la electricidad, más probable es que el centro de datos dependa de unidades de aire acondicionado eléctricas. En Texas, por ejemplo, el chatbot solo consume un estimado de 235 mililitros para generar un correo electrónico de 100 palabras. Ese mismo correo redactado en Washington, por otro lado, requeriría 1,408 mililitros (casi un litro y medio) por correo.

Leer más