¿CUÁLES SON LOS PARALELISMOS ENTRE CHATGPT Y LA INTELIGENCIA HUMANA?

Management
rMIX: Il Portale del Riciclo nell'Economia Circolare - ¿Cuáles Son los Paralelismos entre ChatGPT y la Inteligencia Humana?

Las computadoras se consideraban máquinas de trabajo eficientes pero estúpidas, ahora quizás debamos cambiar de opinión


Los sistemas de aprendizaje predictivo no nacieron recientemente, de hecho, se han estado estudiando durante décadas y se han aplicado en muchas formas de dispositivos electrónicos.

Pero el sistema educativo ChatGPT y la cantidad de datos disponibles que puede usar e interactuar entre sí, lo llevan a acercarse al cerebro humano a través de algunas similitudes de aprendizaje de la información y cómo se utiliza para realizar algunas tareas.

Ciertamente, ChatGPT no tiene un alma, un personaje, no sueña, no amor, pero simula el comportamiento humano en base a lo que ha aprendido a través de la red, para bien o para mal.


¿Qué es ChatGPT y cómo se acerca al cerebro humano?

Como nos dice Corrie Picul, ChatGPT es una nueva tecnología desarrollada por OpenAI, tan extraordinariamente hábil para imitar al ser humano comunicación que pronto conquistará el mundo y todos los trabajos en él. O al menos eso es lo que los titulares harían creer al mundo.

En una conversación organizada por el Instituto Carney para la Ciencia del Cerebro de la Universidad de Brown, dos académicos de Brown de diferentes campos de estudio discutieron los paralelismos entre la inteligencia artificial y la inteligencia humana.

La discusión sobre neurociencia de ChatGPT les dio a los asistentes un vistazo detrás del capó del modelo actual de aprendizaje automático.

Ellie Pavlick es profesora asistente de ciencias de la computación e investigadora en Google AI que estudia cómo funciona el lenguaje y cómo hacer que las computadoras entiendan el lenguaje como lo hacen los humanos.

Thomas Serre es profesor de ciencias cognitivas, lingüística, psicología e informática que estudia los cálculos neuronales que respaldan la percepción visual, centrándose en la intersección de la visión biológica y la visión artificial.

Acompañándolos como moderadores se encontraban la directora del Instituto Carney y la directora asociada Diane Lipscombe y Christopher Moore respectivamente.

Pavlick y Serre ofrecieron explicaciones complementarias cómo funciona ChatGPT en relación con el cerebro humano y qué revela lo que la tecnología puede y no puede hacer. A pesar de toda la charla sobre nuevas tecnologías, el modelo no es tan complicado y ni siquiera es nuevo, dijo Pavlick.

En su nivel más básico, explicó, ChatGPT es un modelo de aprendizaje automático diseñado para predecir la siguiente palabra en una oración, la siguiente palabra, etc.

Este tipo de modelo de aprendizaje predictivo existe desde hace décadas, dijo Pavlick, que se especializa en el procesamiento del lenguaje natural.

Los científicos informáticos han buscado durante mucho tiempo construir modelos que muestren este comportamiento y puedan hablar con los humanos en lenguaje natural. Para ello, un modelo necesita acceder a una base de datos de componentes informáticos tradicionales que le permitan "razonar" ideas excesivamente complejas.

La novedad es cómo ChatGPT está capacitado o desarrollado. Tiene acceso a cantidades insondablemente grandes de datos, como dijo Pavlick, "todos los juicios en Internet".

"ChatGPT, per se, no cambia las reglas del juego", dijo Pavlick. “El punto de inflexión fue que en los últimos cinco años ha habido un repunte en la construcción de modelos que son básicamente iguales, pero se han hecho más grandes. Y lo que sucede es que a medida que se hacen más y más grandes, se desempeñan mejor".

También es nueva la forma en que ChatGPT y sus competidores están disponibles para uso público gratuito.

Para interactuar con un sistema como ChatGPT incluso hace un año, dijo Pavlick, una persona necesitaría acceso a un sistema como Compute Grid de Brown, un herramienta especializada disponible para estudiantes, profesores y personal solo con ciertos permisos, y también requeriría una buena cantidad de experiencia en tecnología.

Pero ahora cualquier persona, con cualquier habilidad tecnológica, puede jugar con la interfaz elegante y optimizada de ChatGPT.


¿ChatGPT realmente piensa como un humano?

Pavlick dijo que el resultado de entrenar un sistema informático con un conjunto de datos tan grande, da la impresión de poder generar artículos , cuentos, poemas, diálogos, obras de teatro y más de una forma muy realista. Puede generar informes de noticias falsos, avances científicos falsos y producir todo tipo de resultados sorprendentemente efectivos.

La efectividad de sus resultados ha llevado a muchas personas a creer que los modelos de aprendizaje automático tienen la capacidad de pensar como humanos. ¿Pero lo hacen?

ChatGPT es un tipo de red neuronal artificial, explicó Serre, cuya formación es en neurociencia, informática e ingeniería. Esto significa que el hardware y la programación se basan en un grupo de nodos interconectados inspirados en una simplificación de las neuronas en un cerebro.

Serre dijo que de hecho hay una serie de similitudes fascinantes en la forma en que el cerebro de la computadora y el cerebro humano aprenden nueva informacióni y usan ellos para realizar tareas.

"Hay trabajos que comienzan a sugerir que, al menos superficialmente, puede haber algunas conexiones entre los tipos de representaciones de palabras y frases que usan y explotan algoritmos como ChatGPT para procesar la información lingüística, en comparación con lo que parece estar haciendo el cerebro", dijo Serre.

Por ejemplo, dijo, la columna vertebral de ChatGPT es un tipo de red neuronal artificial de vanguardia llamada red de transformación.

Estas redes, nacidas del estudio del procesamiento del lenguaje natural, han llegado recientemente a dominar todo el campo de la inteligencia artificial. Las redes de transformación tienen un mecanismo particular que los informáticos denominan "autoatención", que está relacionado con los mecanismos de atención que se sabe que tienen lugar en el cerebro humano.

Otra similitud con el cerebro humano es un aspecto clave de lo que ha permitido que la tecnología sea tan avanzada, dijo Serre.

En el pasado, explicó, entrenar las redes neuronales artificiales de una computadora, para aprender y usar el lenguaje o realizar el reconocimiento de imágenes, requería científicos para realizar tareas manuales tediosas y lentas, como crear bases de datos y etiquetar categorías de objetos.

Los modelos modernos de lenguaje grande, como los que se usan en ChatGPT, se entrenan sin necesidad de esta supervisión humana explícita. Y esto parece estar relacionado con lo que Serre ha llamado una influyente teoría del cerebro conocida como teoría de la codificación predictiva.

Esta es la suposición de que cuando un ser humano escucha a alguien hablar, el cerebro está constantemente haciendo predicciones y desarrollando expectativas sobre lo que se dirá a continuación.

Aunque la teoría se postuló hace décadas, Serre dijo que no ha sido completamente probada en neurociencia. Sin embargo, actualmente está liderando una gran cantidad de trabajo experimental.

"Diría que el nivel de atención de los mecanismos al motor central de estas redes que constantemente están haciendo predicciones sobre lo que se dirá, lo que parece ser, de una manera muy burda, acorde con ideas relacionadas con la neurociencia”, dijo Serre en el evento.

Ha habido investigaciones recientes que relacionan las estrategias utilizadas por los patrones de habla extensos con los procesos cerebrales reales , señaló: "Todavía hay mucho que necesito averiguarlo, pero hay un creciente cuerpo de investigación en las neurociencias que sugiere que lo que hacen estos modelos [en las computadoras] no está completamente desconectado del tipo de cosas que hace nuestro cerebro cuando procesamos el lenguaje natural.

También puede haber peligros, de hecho, de la misma manera que el proceso de aprendizaje humano es susceptible de sesgo o corrupción, también lo son modelos de IA. Estos sistemas aprenden por asociación estadística, dijo Serre. Lo que sea dominante en el conjunto de datos se hará cargo y eliminará otra información.

"Esta es un área de gran preocupación para la inteligencia artificial", dijo Serre. Citó en apoyo de esta afirmación cómo la representación de hombres caucásicos en Internet ha sesgado algunos sistemas de reconocimiento facial hasta el punto de que no han podido reconocer rostros que no parecen ser blancos o masculinos.

La última iteración de ChatCPT, dijo Pavlick, incluye capas de aprendizaje reforzado que actúan como un divisor y ayudan a prevenir la producción de contenido dañino o de odio. Pero estos son todavía un trabajo en progreso.

"Parte del desafío es que... no se puede dar una regla al modelo, no se puede simplemente decir 'nunca generar esto y aquello', dijo Pavlick. “Él aprende con el ejemplo, y luego le das muchos ejemplos de cosas y le dices, 'No hagas cosas así. Haz cosas como esta. Y por eso siempre será posible encontrar algún pequeño truco para que haga lo malo.


Traducción automática. Nos disculpamos por cualquier inexactitud. Artículo original en italiano.


Fuente: Universidad de Brown


Suscríbete gratis a rNEWS para leer el artículo completo
Si ya eres suscriptor lee el artículo

CONTÁCTENOS

Copyright © 2024 - Privacy Policy - Cookie Policy | Tailor made by plastica riciclata da post consumoeWeb

plastica riciclata da post consumo