logo
BlackBox Vision
Tecnología

ChatGPT: ética e inteligencia (sin conciencia)


Una participación del 49 % en la compañía OpenAI, propietaria de ChatGPT, ha sido recientemente adquirida por Microsoft por 10 000 millones de dólares.

ChatGPT es una plataforma de inteligencia artificial con un modelo de procesamiento del lenguaje natural (NLP, por sus siglas en inglés) que genera texto coherente y natural en respuesta a una variedad de consultas. Para ello, el modelo ha sido entrenado con un gran corpus de texto. Esto permite su utilización para tareas como la generación de texto, la respuesta a preguntas y el procesamiento del lenguaje natural en general.

Por Javier Morales Mediano Codirector del DBA in Management and Technology y Profesor del Departamento de Marketing, Universidad Pontificia Comillas y Diana Loyola Chávez Profesora de Filosofía. Ética aplicada y Filosofía práctica, Universidad Pontificia Comillas

Uso académico: problemas de integridad y originalidad

El uso de modelos de lenguaje como ChatGPT para trabajos académicos plantea una serie de preocupaciones éticas. Aunque pueden hacer que las tareas de investigación y escritura sean más eficientes, permitiendo a los académicos enfocarse en aspectos de su trabajo más complejos y de mayor valor añadido, surgen dudas sobre la integridad y originalidad del trabajo que se está produciendo.

Una de las principales preocupaciones éticas con el uso de modelos de lenguaje para el trabajo académico es el problema del plagio. Al utilizar un modelo para generar texto, se vuelve mucho más fácil para las personas presentar el trabajo de otros como propio. Simplemente parafraseando de manera automática, es decir, diciendo lo mismo con otras palabras y otro orden sintáctico, el mismo trabajo puede hacerse pasar por otro.

Esto puede llevar a una devaluación del arduo trabajo y dedicación que se requiere para producir trabajos de investigación. Lo que a su vez también puede socavar la credibilidad de la comunidad académica en su conjunto.

La propia detección del plagio es mucho más difícil. Esta dificultad se produce porque el texto generado por el modelo probablemente será diferente de la fuente original. Como mencionaba el investigador Daniel González Padilla, los modelos de lenguaje generativo como ChatGPT pueden ser utilizados para generar textos plagiados cuyos contenidos son siempre distintos a los originales y, por tanto, difíciles de detectar.

Falta de originalidad

Otra preocupación ética es que el uso de modelos de lenguaje para el trabajo académico podría conducir a una homogeneización de las ideas y los puntos de vista.

Si las personas se basan en estos modelos, es posible que el texto generado sea menos diverso que el producido únicamente mediante esfuerzo humano. Esto podría conducir a un estancamiento de las ideas y una falta de pensamiento crítico. Un tipo de pensamiento especialmente necesario dentro de la comunidad académica.

Falta de contexto e implicaciones

Además, los modelos de lenguaje no están diseñados para proporcionar un contexto completo para la información que genera, como el propio ChatGPT reconoce. El modelo genera texto basado en la entrada y sus datos de entrenamiento, pero no tiene la capacidad de entender las implicaciones éticas, culturales o políticas de la información proporcionada.

Esta falta de reflexión podría conducir a la propagación de información falsa, sesgos o incluso discriminación. Todas estas preocupaciones éticas deben ser tenidas en cuenta antes de utilizar estos modelos para el trabajo académico.

También sería conveniente desarrollar directrices y mejores prácticas para garantizar la integridad y originalidad del trabajo que se está produciendo.

Inteligencia con conciencia

El filósofo Juan Arana afirma que la conciencia es y seguirá siendo un misterio inabordable para la ciencia. La conciencia moral nos hace libres para la acción moral y trasciende la experiencia meramente cognitiva.

Si los nuevos y sofisticados avances llegarán a generar conciencia es algo tan incierto como resolver el enigma de por qué los humanos la tenemos, continúa Arana. Así, advierte de la necesidad de detenernos a pensar sobre los avances científicos y sus consecuencias. Para ello, apela precisamente a la conciencia, afirmando que es una facultad irreductible a los sistemas de información técnicos. Los seres humanos tendremos que pensar sobre nosotros mismos y nuestras producciones en nuestro quehacer profesional y personal.

¿Una ayuda?

Como quizá todavía no se haya notado, este artículo ha sido escrito con la ayuda de ChatGPT. La finalidad ha sido doble: probar el modelo e invitar al lector a plantearse algunas cuestiones.

Inicialmente, utilizamos ChatGPT lanzándole la pregunta sobre cuáles serían los dilemas éticos que su propia utilización podría acarrear. Enseguida nos dio la idea de los tres problemas presentados.

Luego quisimos profundizar en uno de ellos y nos llevó a uno de los autores citados. Por último, tomamos sus propias respuestas como referencias en algunas partes del artículo.

Podemos decir que la prueba fue un éxito, pero no pudimos dejar de hacernos las siguientes cuestiones que creemos trascienden el mundo académico: ¿debemos acudir al uso de estas aplicaciones para lograr satisfacer una cada vez mayor exigencia de nuestro trabajo? ¿Cuáles serían los límites de este uso en caso de ser aceptado?

Inteligencia con o sin conciencia

En palabras del filósofo François Vallaeys, debemos preguntarnos cuál es la combinación idónea entre inteligencia sin conciencia (como sería ChatGPT) y la inteligencia con conciencia (la nuestra). Sin querer posicionarnos respecto a las cuestiones planteadas, sí es necesaria la reflexión sobre su uso, utilidad y consecuencias.

Según Vallaeys, no podemos ignorar las herramientas que nos ayudan en la simplificación de algunas tareas. Pero su uso se debe completar con la experiencia personal y empática del autor del trabajo. Es esta aportación la que permitirá profundizar en el diálogo y la reflexión crítica.

Se trata de buscar equilibrios y posibles soluciones entre todos. Respuestas que vayan más allá de salidas simplistas. Sólo así salvaremos lo diferente, lo asombroso, lo no trivial y verdadero de la condición humana.

Cortesía para con ACERCANDO NACIONES de The Conversation



En esta nota
#Ética
#Inteligenciaartificial
#ChatGPT
Compartir en
Assekuransa
Sonido Gremial
AN logo

Newsletter

Suscribite para recibir las últimas noticias.

Acercando Naciones
Últimas noticias
  • España como oportunidad para Startups Argentinas


  • India, la superpotencia del siglo XXI


  • Viajes personalizados con IA


  • Buenos Aires en el Consejo Federal de Relaciones Exteriores


  • Argentina y Francia unidas la economía sostenible


  • El Malbec, símbolo de Argentina brilla en su día


  • Fracaso de la Intelectualidad progresista (y otras)


  • Taiwán y Argentina fortalecen vínculos comerciales


  • Argentina condena el ataque Iraní contra Israel


  • El Jorobado de París regresó al Luna

Tal vez te interese leer

Tecnología
La IA llega a celulares, notes, TV y donde mas?
La IA llega a celulares, notes, TV y donde mas?

18 de enero, 2024 - 5 min de lectura

Tecnología
Inteligencia artificial vs. olfato periodístico
Inteligencia artificial vs. olfato periodístico

5 de septiembre, 2023 - 7 min de lectura

Tecnología
Inteligencia Artificial, Terminator es posible?
Inteligencia Artificial, Terminator es posible?

21 de mayo, 2023 - 3 min de lectura

Editor responsable

Asociación Civil Acercando Naciones

Registro DNDA

RL-2021-66369778-APN-DNDA#MJ

Teléfono

(011) 6824-8706

Email

[email protected]

[email protected]

Secciones

Home

Actualidad

Diplomacia

Cultura

Negocios

Guía diplomática

Recursos

Media kit

Términos y condiciones

Política de privacidad

Política de cookies

Seguí a AN en nuestras redes sociales

Descargate nuestra app

Google Play
App Store

Newsletter

Suscribite para recibir las últimas noticias.

jueves 25 de abril de 2024

Copyright © 2024 Acercando Naciones - Buenos Aires, Argentina. Todos los derechos reservados.