La rápida difusión en el uso de las herramientas de inteligencia artificial (IA) y la facilidad de acceso gratuito en algunas de sus modalidades, está modificando los procedimientos de trabajo de muchos ciudadanos.
Aplicadas en la empresa, la enseñanza, los organismos oficiales, los programas de cálculo o diseño, las bases de datos y un largo etcétera, encuentran también su utilidad en el campo de la investigación científica.
En un artículo recientemente publicado en Nature se comenta que la herramienta de OpenIA llamada “herramienta de investigación profunda” o “deep research”, que fue lanzada el 2 de febrero, es capaz de sintetizar información de decenas de páginas web en informes extensos. En diciembre Google lanzó una herramienta similar llamada Gemini.
Varios científicos que lo han probado están sorprendidos por su capacidad para escribir revisiones bibliográficas o artículos de revisión completos. Entre las ventajas de su utilización destacan su velocidad, su capacidad para realizar búsquedas en internet y las habilidades de razonamiento mejoradas del modelo de lenguaje.
A pesar de ello, en su página web, OpenIA admite que su herramienta tiene limitaciones y puede cometer errores en las citas bibliográficas y no distinguir entre información fidedigna o rumores.
El pasado 18 de febrero se ha presentado Grok 3, la nueva versión de IA desarrollada por xIA, la compañía de Inteligencia Artificial de Elon Musk.
Se trata de una versión mejorada de la herramienta lanzada en agosto, con un rendimiento 10 veces superior al de la versión previa. Además, emplea mecanismos de autocorrección que evitan los errores de algunos chatbots de IA, que dan como ciertos hechos falsos.
Según afirman sus promotores, se trata de una herramienta muy precisa que estará integrada en X, lo que le permitirá acceder a datos en tiempo real. Se trata de una herramienta de pago a la que se accederá abonando una cuota mensual de Premium+ X.
En pruebas de rendimiento que han realizado desde la empresa xIA, Grok 3 ha superado a Gemini de Google, DeepSeek y Chat GPT de OpenIA.
Valoración bioética
La rápida evolución de la IA accesible al gran público presenta tantas posibilidades como riesgos. Estas herramientas utilizan algoritmos diseñados para manejar una ingente cantidad de datos, combinándolos de una manera preestablecida para arrojar resultados no exentos de sesgos.
Estos sesgos pueden deberse a las limitaciones propias de estas herramientas, pero también al diseño mismo de los algoritmos que pueden seleccionar cierta información, censurarla o manipularla, lo que exige su uso prudente, junto con la necesidad de un aprendizaje que permita servirse de su amplia utilidad sin caer en una confianza indiscriminada en la veracidad de sus resultados.
La propuesta de un uso ético de estas herramientas pasa por su aplicación prudente, y el análisis crítico de sus resultados, que eviten trasladar los posibles sesgos y errores inherentes a su utilización a la vida de los ciudadanos, su formación o su cultura.
*Fuente: Observatorio de bioética UCV, BIOÉTICA PRESS. Marzo 2025.