OPINIONES EN LAS REDES Lunes 12 de Junio de 2023

3 cosas que siguen siendo exclusivamente humanas

97_3-cosas.jpg Rawpixel.com | Shutterstock

COMPARTIR ESTA NOTA

A pesar de toda la promesa de esta nueva tecnología, también es esencial reconocer los aspectos del pensamiento humano que la IA no podrá replicar

Este artículo es del Dr. Daniel Kuebler con The Purposeful Universe.

Al igual que la máquina de vapor, el automóvil e Internet, la inteligencia artificial se perfila como el próximo gran disruptor de la sociedad. Transformará la forma en que trabajamos, la forma en que educamos, la forma en que hacemos ciencia y medicina, y la forma en que vemos las interacciones sociales.

El gran avance de los modelos de lenguaje grande

El último avance, los modelos de lenguaje grande (LLM), es la culminación de años de trabajo que implicó desarrollar algoritmos cada vez más sofisticados y seleccionar montañas de datos para que los programas de IA los clasifiquen y aprendan. La investigación ha resultado en lanzamientos recientes de LLM de OpenAI, Google y muchos otros que pueden producir en segundos respuestas a una variedad de consultas que habrían requerido horas o días de investigación y revisión humana.

¿Cuáles son las implicaciones éticas de ChatGPT?

Al implementar ChatGPT, el LLM más comentado, a principios de este año, y su sucesor aún más capaz, GPT-4, OpenAI desató una tormenta de preguntas (y algunas respuestas) con respecto a las implicaciones éticas, el mal uso potencial y las limitaciones de la IA. sistemas

A medida que continuamos explorando e integrando estas poderosas herramientas en varios aspectos de nuestras vidas, desde la educación hasta la atención médica y las redes sociales, es esencial que la tecnología de IA se aproveche de manera responsable, ética y de una manera que complemente y mejore las capacidades humanas sin invadir o incluso socavar nuestras cualidades únicas.

Grandes modelos de lenguaje en el aula

Como profesor universitario y científico, está claro que los LLM tendrán un impacto significativo tanto en mi salón de clases como en mi investigación. Los estudiantes ahora pueden «producir» ensayos en solo minutos, aunque las versiones actuales de IA a menudo escriben artículos empañados con razonamiento circular y ejemplos poco esclarecedores (no muy diferente de un estudiante universitario típico).

Pero a medida que mejoren los LLM, los educadores deberán repensar las tareas de escritura, lo que significa que ahora el instructor tiene el ímpetu de asegurarse de que los estudiantes usen sus propias lecturas, palabras y observaciones para las tareas y no el cuadro de chat en una plataforma de IA.

Pero estos programas también pueden ser herramientas para el aprendizaje. Pedirles a los estudiantes que critiquen y amplíen los ensayos generados por IA puede enseñar habilidades de pensamiento crítico y ayudarlos a detectar explicaciones mediocres o conclusiones equívocas.

La Inteligencia Artificial como herramienta para amplificar el ingenio humano

La IA tiene una gran promesa con respecto al descubrimiento científico, no para reemplazar el papel humano en el descubrimiento científico, sino para aumentarlo. Desde los grandes pensadores del Renacimiento que exploran el cosmos hasta la generación actual de científicos que prueban los componentes básicos de la materia y mapean genomas, es la exploración de lo desconocido, el impulso para comprender el mundo que nos rodea y dar sentido a sus innumerables complejidades, eso es el sello distintivo de la empresa científica, y esta es una característica exclusivamente humana.

La IA es simplemente una herramienta, aunque poderosa, para ayudar a la ciencia. No reemplazará el papel de los humanos en el descubrimiento científico, pero al igual que los telescopios de Galileo, nos ayudará a descubrir más secretos de la naturaleza. La IA permite a los investigadores y médicos ver las tendencias en los datos y los resultados que antes se pasaban por alto, lo que permite lograr avances en plazos más cortos que nunca.

Pero a pesar de toda la promesa de esta nueva tecnología, también es esencial reconocer los aspectos del pensamiento humano que la IA no podrá replicar. En la parte superior de la lista están la autoconciencia, la moralidad y la creatividad.

La IA nunca tendrá conciencia de sí misma

La inteligencia artificial (desafortunadamente para cualquier fanático de Terminator que lea esto) no puede replicar la condición humana de autoconciencia. Esta cualidad distinta de la conciencia nos permite comprender nuestros pensamientos y emociones y reconocernos como individuos. Si bien los organismos de nivel superior, como los caninos y los primates, comparten experiencias conscientes con nosotros, nuestro mayor sentido de autoconciencia nos hace únicos (al menos en el planeta Tierra).

En este punto, la conciencia, en general, es un misterio que la ciencia aún tiene que resolver. La autoconciencia se comprende aún menos y es lo que el filósofo David Chalmers ha denominado «el problema difícil». Con lo poco que sabemos sobre la fuente de la conciencia, no hay razón para creer que los algoritmos avanzados, los procesadores más rápidos y más datos, de manera espontánea, o incluso gradual, harán que las computadoras se vuelvan autoconscientes.

La inteligencia artificial nunca puede poseer agencia moral

Debido a que la moralidad está tan profundamente entrelazada con la experiencia consciente, una inteligencia artificial inconsciente no poseerá agencia moral (es decir, la capacidad de hacer y ser responsable de decisiones morales).

Si bien es posible programar la IA con pautas morales específicas, estos sistemas en última instancia se limitarán a seguir reglas predeterminadas. Para nosotros, la moralidad está formada por nuestro sentido innato del bien y el mal y nuestra continua reflexión sobre nuestras acciones y juicios. Esta comprensión se basa en las señales sociales, las relaciones interpersonales y la vida cotidiana como personas que viven en comunidades y grupos. De hecho, los nuevos datos o la capacitación pueden cambiar las respuestas de un sistema de IA a cuestiones de moralidad.

Aún así, dada su falta de autoconciencia, nunca podrá comprender genuinamente ni participar en un razonamiento moral auténtico, ya que no puede experimentar emociones ni empatizar con las consecuencias de sus decisiones para los demás.

La inteligencia artificial carece de verdadera autoexpresión

La capacidad de crear deliberadamente también es algo que requiere autoconciencia. La IA puede estar programada para crear arte, poesía o historias, pero carece del impulso innato para expresarse. Si bien las creaciones generadas por IA pueden ser impresionantes y aparentemente creativas, en última instancia siguen siendo un reflejo del ingenio humano en lugar de una manifestación auténtica de los propios deseos, emociones o experiencias del sistema de IA. Esta distinción destaca la importancia de valorar y fomentar la creatividad humana, incluso mientras continuamos desarrollando y utilizando tecnologías avanzadas de IA.

Un futuro ilusionante… con mucha responsabilidad

La inteligencia artificial cambiará la forma en que trabajamos e interactuamos en los próximos años. Este nuevo campo, sin duda, hará avanzar el descubrimiento científico y la productividad humana si se usa correctamente. Sin embargo, no debemos ceder a AI lo que nos pertenece por derecho. Un cálculo ciego, por avanzado que sea, solo puede imitar la autoconciencia, el juicio moral y la creatividad. No nos dejemos deslumbrar tanto por nuestro nuevo invento que empecemos a creer que tiene una mente propia, no es así.

«La tecnología no es nada. Lo importante es que tengas fe en la gente». Steve Jobs.

Fuente: ALETEIA / Purposeful Universe

Teléfono: (0351) 4215298
E-mail: info@losprincipios.org
Arturo M. Bas 308 - 6º piso - Oficina ‘A’ – Córdoba ARG

Los Principios 2014 ®
todos los derechos reservados