Secciones

  • Portada
  • Actualidad
  • Deportes
  • Servicios
  • Clasificados
  • Estrellas
[tendencias]

Las afirmaciones de ChatGPT pueden influir en los juicios morales

Estudio de universidad alemana realizó pruebas a 767 personas planteándoles el "dilema del tranvía" mientras les daban argumentos de inteligencia artificial.
E-mail Compartir

EFE - Medios Regionales

Las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT, según un estudio que planteó a los participantes elegir, en distintas situaciones, si sacrificaban la vida de una persona para salvar la de otras cinco.

Los resultados, publicados en Scientific Reports, indican que los usuarios pueden subestimar hasta qué punto sus propios juicios morales pueden verse influidos por el bot conversacional; el trabajo está liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania.

Sebastian Krügel y su equipo preguntaron varias veces a ChatGPT-3 (modelo anterior al actual) si era correcto sacrificar la vida de una persona para salvar la de otras cinco.

Comprobaron que esta inteligencia artificial generativa escribió afirmaciones tanto a favor como en contra, lo que indica que no estaba sesgada hacia una determinada postura moral, resume la revista en un comunicado.

A continuación, los autores plantearon el experimento conocido como "dilema del tranvía" a 767 participantes estadounidenses, con una media de edad de 39 años, que se enfrentaran a uno de los dos escenarios previstos.

En uno de ellos se propuso si era correcto cambiar el trayecto de un trolebús fuera de control, desviándolo de una vía en la que mataría a cinco personas a otra en la que fallecería una. En el otro escenario se presentó la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía matara a las cinco personas.

Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT en la que se argumentaba a favor o en contra de sacrificar una vida para salvar cinco; las declaraciones se atribuían a un asesor moral o a esta inteligencia artificial.

Después se preguntó a los participantes si la declaración que habían leído influía en sus respuestas.

Los autores constataron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a un ChatGPT.

Necesidad de educación

Estos resultados sugieren que los participantes pueden haberse visto influidos por las afirmaciones que leyeron, aun cuando se atribuían a la inteligencia artificial.

Los investigadores señalan, además, que los participantes pueden haber subestimado la influencia de las afirmaciones de ChatGPT en sus propios juicios morales (el 80% afirmó que sus respuestas no se vieron influidas por las afirmaciones que leyeron, sin embargo esto no fue así).

Los autores apuntan que el potencial de los chatbots para influir en los juicios morales humanos pone de relieve la necesidad de la educación para ayudar a los seres humanos a comprender mejor la inteligencia artificial.

"Esto pone en relieve la necesidad de la educación para ayudar a comprender mejor la IA".

Autores del estudio.

[tendencias]

Las afirmaciones de ChatGPT pueden influir en los juicios morales

Estudio de universidad alemana realizó pruebas a 767 personas planteándoles el "dilema del tranvía" mientras les daban argumentos de inteligencia artificial.
E-mail Compartir

EFE - Medios Regionales

Las respuestas humanas a los dilemas morales pueden verse influidas por las afirmaciones escritas por el chatbot de inteligencia artificial ChatGPT, según un estudio que planteó a los participantes elegir, en distintas situaciones, si sacrificaban la vida de una persona para salvar la de otras cinco.

Los resultados, publicados en Scientific Reports, indican que los usuarios pueden subestimar hasta qué punto sus propios juicios morales pueden verse influidos por el bot conversacional; el trabajo está liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania.

Sebastian Krügel y su equipo preguntaron varias veces a ChatGPT-3 (modelo anterior al actual) si era correcto sacrificar la vida de una persona para salvar la de otras cinco.

Comprobaron que esta inteligencia artificial generativa escribió afirmaciones tanto a favor como en contra, lo que indica que no estaba sesgada hacia una determinada postura moral, resume la revista en un comunicado.

A continuación, los autores plantearon el experimento conocido como "dilema del tranvía" a 767 participantes estadounidenses, con una media de edad de 39 años, que se enfrentaran a uno de los dos escenarios previstos.

En uno de ellos se propuso si era correcto cambiar el trayecto de un trolebús fuera de control, desviándolo de una vía en la que mataría a cinco personas a otra en la que fallecería una. En el otro escenario se presentó la posibilidad de empujar a un desconocido desde un puente para evitar que el tranvía matara a las cinco personas.

Antes de responder, los participantes leyeron varias declaraciones proporcionadas por ChatGPT en la que se argumentaba a favor o en contra de sacrificar una vida para salvar cinco; las declaraciones se atribuían a un asesor moral o a esta inteligencia artificial.

Después se preguntó a los participantes si la declaración que habían leído influía en sus respuestas.

Los autores constataron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida para salvar cinco dependiendo de si la declaración leída argumentaba a favor o en contra del sacrificio. Esto era así incluso cuando la afirmación se atribuía a un ChatGPT.

Necesidad de educación

Estos resultados sugieren que los participantes pueden haberse visto influidos por las afirmaciones que leyeron, aun cuando se atribuían a la inteligencia artificial.

Los investigadores señalan, además, que los participantes pueden haber subestimado la influencia de las afirmaciones de ChatGPT en sus propios juicios morales (el 80% afirmó que sus respuestas no se vieron influidas por las afirmaciones que leyeron, sin embargo esto no fue así).

Los autores apuntan que el potencial de los chatbots para influir en los juicios morales humanos pone de relieve la necesidad de la educación para ayudar a los seres humanos a comprender mejor la inteligencia artificial.

"Esto pone en relieve la necesidad de la educación para ayudar a comprender mejor la IA".

Autores del estudio.

Sonda Juice lista para su lanzamiento a Júpiter y que llegará en 2031

E-mail Compartir

La sonda Juice, una misión que explorará el entorno de Júpiter y tres de sus tres grandes lunas heladas ya está lista para emprender, el próximo 13 de abril, un viaje durante el que tendrá que buscar la asistencia gravitatoria de la Tierra, la Luna y Venus hasta alcanzar su destino dentro de ocho años.

Juice (Jupiter Icy Moons Explorer) de la Agencia Espacial Europea (ESA) llevará a cabo observaciones detalladas del planeta gaseoso gigante y de sus tres grandes lunas heladas: Calisto, Europa y, sobre todo, de Ganímedes, que es el principal objetivo de la misión.

A una semana del lanzamiento, la sonda ya está acoplada al cohete Arianne 5 "preparada para su lanzamiento", manifestó en una rueda de prensa virtual Alessandro Atzei, ingeniero de sistemas de cargas útiles de la ESA.

La misión será lanzada desde el puerto espacial europeo de la Guayana Francesa en un cohete Ariane 5, el último antes de que la ESA lo sustituya por el Ariane 6 de la compañía Arianespace.

En el caso de que el despegue tuviera que suspenderse por el tiempo o cualquier otro motivo, el experto explicó que podrá volver a intentarse cada día hasta finales de mes, aunque siempre a una hora precisa, pues hace falta "una alineación perfecta entre el objetivo de destino y el lanzamiento".

Atzei señaló que Juice es una sonda "bastante grande, con muchas características únicas" como un gran antena, los "enormes paneles solares", de 85 metros cuadrados una vez desplegados y muchos brazos desplegables.

Por eso, cuando se separe del cohete, a los 27 minutos y 45 segundos del lanzamiento, "habrá mucho trabajo para estar seguros de que todo se despliega de forma correcta y para poder comenzar nuestra misión", detalló.

Finalidad

El objetivo de Juice es estudiar las lunas heladas de Júpiter como objetos planetarios y como posibles hábitats, explorará en profundidad el complejo entorno de Júpiter y estudiará el sistema en su conjunto como arquetipo de los gigantes gaseosos de todo el universo.

Pero el viaje será largo, pues su llegada a Júpiter está prevista para julio de 2031, cuando empezará la misión científica, y el camino no será recto, sino que tendrá que hacer una "compleja secuencia de maniobras de asistencias gravitacionales" para impulsarse y ahorrar combustible, sostuvo.

La primera será en agosto del año que viene, cuando se aproximará a la Tierra y la Luna; en 2025 necesitará la asistencia gravitacional de Venus, y entre 2026 y 2029 dos veces más de la Tierra.

Sonda Juice lista para su lanzamiento a Júpiter y que llegará en 2031

E-mail Compartir

La sonda Juice, una misión que explorará el entorno de Júpiter y tres de sus tres grandes lunas heladas ya está lista para emprender, el próximo 13 de abril, un viaje durante el que tendrá que buscar la asistencia gravitatoria de la Tierra, la Luna y Venus hasta alcanzar su destino dentro de ocho años.

Juice (Jupiter Icy Moons Explorer) de la Agencia Espacial Europea (ESA) llevará a cabo observaciones detalladas del planeta gaseoso gigante y de sus tres grandes lunas heladas: Calisto, Europa y, sobre todo, de Ganímedes, que es el principal objetivo de la misión.

A una semana del lanzamiento, la sonda ya está acoplada al cohete Arianne 5 "preparada para su lanzamiento", manifestó en una rueda de prensa virtual Alessandro Atzei, ingeniero de sistemas de cargas útiles de la ESA.

La misión será lanzada desde el puerto espacial europeo de la Guayana Francesa en un cohete Ariane 5, el último antes de que la ESA lo sustituya por el Ariane 6 de la compañía Arianespace.

En el caso de que el despegue tuviera que suspenderse por el tiempo o cualquier otro motivo, el experto explicó que podrá volver a intentarse cada día hasta finales de mes, aunque siempre a una hora precisa, pues hace falta "una alineación perfecta entre el objetivo de destino y el lanzamiento".

Atzei señaló que Juice es una sonda "bastante grande, con muchas características únicas" como un gran antena, los "enormes paneles solares", de 85 metros cuadrados una vez desplegados y muchos brazos desplegables.

Por eso, cuando se separe del cohete, a los 27 minutos y 45 segundos del lanzamiento, "habrá mucho trabajo para estar seguros de que todo se despliega de forma correcta y para poder comenzar nuestra misión", detalló.

Finalidad

El objetivo de Juice es estudiar las lunas heladas de Júpiter como objetos planetarios y como posibles hábitats, explorará en profundidad el complejo entorno de Júpiter y estudiará el sistema en su conjunto como arquetipo de los gigantes gaseosos de todo el universo.

Pero el viaje será largo, pues su llegada a Júpiter está prevista para julio de 2031, cuando empezará la misión científica, y el camino no será recto, sino que tendrá que hacer una "compleja secuencia de maniobras de asistencias gravitacionales" para impulsarse y ahorrar combustible, sostuvo.

La primera será en agosto del año que viene, cuando se aproximará a la Tierra y la Luna; en 2025 necesitará la asistencia gravitacional de Venus, y entre 2026 y 2029 dos veces más de la Tierra.