Saturado, como supongo les pasará a muchos lectores, de las noticias relacionadas con la actualidad política en España y en el mundo, he querido poner el foco en una noticia que posiblemente haya pasado desapercibida para muchos. Hace unos días se nos relataba como muchos jóvenes, cada día más, vienen utilizando esta nueva herramienta llamada Inteligencia Artificial (IA) como su «psicólogo» personal. La noticia, además de generarme inquietud, me ha llevado a preguntarme si estaremos ante un riesgo silencioso o antes nuevas modalidades de vínculos emocionales.
Son muchas las reflexiones que este tema me sugiere, empezando por los posibles motivos por los que muchos jóvenes vienen utilizando la IA para cuestiones personales. Pienso en el anonimato al realizar sus consultas desde sus dispositivos electrónicos en su intimidad; la falta de recursos para acceder a profesionales; la rapidez con la que obtienen respuesta a su consulta; la comodidad para realizar las consultas desde cualquier lugar, entre otros motivos.
Cuando me preguntaba si estaremos ante una nueva forma de vinculo emocional, de intimidad digital, o ante un riesgo silencioso o invisible, he considerado que, como en otros ámbitos, todo dependerá del uso que se haga de esta herramienta, un uso responsable o un uso con riesgos.
Para ello se me ocurrió probar yo la herramienta y hacerle preguntas inventadas para conocer el grado de respuestas recibidas y con ello valorar el consultorio.
Si me hago pasar por una estudiante universitaria y le pregunto a la IA «Mi pareja me controla mucho, ¿qué hago?». La respuesta recibida fue «trata de ser más comprensiva». Una respuesta automática, sin tener en cuenta matices emocionales u otras señales de abuso psicológico, lo que pudiera llevar a esa persona ficticia a permanecer en una relación tóxica.
Si me identifico como un estudiante con síntomas de ansiedad, consultada la IA, ésta me responde que consulte a un profesional de salud mental si los síntomas persisten, después de haberme proporcionado algunos recursos básicos, como el ejercicio físico o técnicas de respiración.
Podríamos hacer muchas más pruebas pero seguramente todos llegaríamos a la conclusión de que el problema no es usar la IA, sino cómo y para qué la usamos. Un uso responsable podría resolver consultas de tipo general o sobre recursos disponibles para abordar una determinada situación, mientas que un uso inadecuado sería pedirle a la IA un diagnóstico, una terapia o soluciones definitivas para ese mismo problema.
Un problema añadido viene cuando este consultorio artificial no solo actúa sobre cuestiones emocionales individuales, sino también sobre como formarnos opiniones sobre otras personas conocidas o públicas, preguntándole a la IA qué se dice de ellos. Esta nueva manera de actuar puede que les lleve a que tomen como verdad objetiva una respuesta recibida de manera automática, en lugar de formarse su propia opinión a partir de más fuentes de información o de experiencias directas. Todos debemos saber que la IA no tiene un juicio crítico, sino que lo que nos ofrece son datos , recogidos de lo que esta publicado en internet. Datos que seguramente están desactualizados o son sesgados.
Cuando dejamos que la IA piense por nosotros estamos dejando que otros nos digan a quien admirar o a quien detestar.
Consultorio artificial
Saturado, como supoño que lles pasará a moitos lectores, das noticias relacionadas coa actualidade política en España e no mundo, quixen poñer o foco nunha noticia que posiblemente pasase desapercibida para moitos. Hai uns días relatábasenos como moitos mozos, cada día máis, veñen utilizando esta nova ferramenta chamada Intelixencia Artificial (IA) como o seu «psicólogo» persoal. A noticia, ademais de xerarme inquietude, levoume a preguntarme se estaremos #ante un risco silencioso ou antes novas modalidades de vínculos emocionais.
Son moitas as reflexións que este tema suxíreme, empezando polos posibles motivos polos que moitos mozos veñen utilizando a IA para cuestións persoais. Penso no anonimato ao realizar as súas consultas desde os seus dispositivos electrónicos na súa intimidade; a falta de recursos para acceder a profesionais; a rapidez coa que obteñen resposta á súa consulta; a comodidade para realizar as consultas desde calquera lugar, entre outros motivos.
Cando me preguntaba se estaremos #ante unha nova forma de vinculo emocional, de intimidade dixital, ou #ante un risco silencioso ou invisible, considerei que, como noutros ámbitos, todo dependerá do uso que se faga desta ferramenta, un uso responsable ou un uso con riscos.
Para iso ocorréulleme probar eu a ferramenta e facerlle preguntas inventadas para coñecer o grao de respostas recibidas e con iso valorar o consultorio.
Se me fago pasar por unha estudante universitaria e pregúntolle á IA «A miña parella contrólame moito, que fago?». A resposta recibida foi «trata de ser máis comprensiva». Unha resposta automática, sen ter en conta matices emocionais ou outros sinais de abuso psicolóxico, o que puidese levar a esa persoa ficticia a permanecer nunha relación tóxica.
Se me identifico como un estudante con síntomas de ansiedade, consultada a IA, esta respóndeme que consulte a un profesional de saúde mental se os síntomas persisten, despois de proporcionarme algúns recursos básicos, como o exercicio físico ou técnicas de respiración.
Poderiamos facer moitas máis probas pero seguramente todos chegariamos á conclusión de que o problema non é usar a IA, senón como e para que a usamos. Un uso responsable podería resolver consultas de tipo xeral ou sobre recursos dispoñibles para abordar unha determinada situación, mintas que un uso inadecuado sería pedirlle á IA un diagnóstico, unha terapia ou solucións definitivas para ese mesmo problema.
Un problema engadido vén cando este consultorio artificial non só actúa sobre cuestións emocionais individuais, senón tamén sobre como formarnos opinións sobre outras persoas coñecidas ou públicas, preguntándolle á IA que se di deles. Esta nova maneira de actuar poida que lévelles a que tomen como verdade obxectiva unha resposta recibida de maneira automática, en lugar de formarse a súa propia opinión a partir de máis fontes de información ou de experiencias directas. Todos debemos saber que a IA non ten un xuízo crítico, senón que o que nos ofrece son datos , recollidos do que esta publicado na internet. Datos que seguramente están desactualizados ou son nesgados.
Cando deixamos que a IA pense por nós estamos a deixar que outros nos digan a quen admirar ou a quen detestar.