https://doi.org/10.61154/rue.v12i1.3732  

 

NOTA EDITORIAL

 

¿Es ético el uso de herramientas de inteligencia artificial en el desarrollo de una investigación?

Is it ethical the artificial intelligence tools use in the research’s development?

 

Raúl Comas Rodríguez I

 

I. Universidad Regional Autónoma de los Andes, Ambato, Tungurahua, Ecuador.

ua.raulcomas@uniandes.edu.ec, https://orcid.org/0000-0003-1353-2279  

 

En la era digital, la adopción de tecnologías de inteligencia artificial (IA) es de las principales transformaciones en la ciencia. A partir de los cambios desarrollados, se han transformado las investigaciones desde una perspectiva teórica y práctica; su uso afecta a los individuos que componen las instituciones científicas al integrar los seres humanos con la inteligencia artificial.

Las aplicaciones de inteligencia artificial en los últimos años son herramientas, con una autonomía limitada de apoyo a los investigadores. Por tanto, el qué, para qué y cómo de la investigación no desaparece, y con ello, tampoco desaparece el entramado ético en el que se desarrolla la actividad investigadora. Por tanto, siempre detrás de las herramientas de inteligencia artificial tienen que existir investigadores que, en el diseño de la investigación tienen que establecer los qué, para qué y cómo se realizará la investigación; apareciendo nuevas interrogantes éticas en su desarrollo.

El uso de la inteligencia artificial en los proceso de investigación tiene múltiples ventajas como son: contribuye al trabajo multidisciplinario y a la generación de hipótesis, la mejora en la toma de decisiones, rapidez en el análisis de datos, entre otros. No obstante, junto a estas ventajas, hay un sinnúmero de desventajas que afectan los procesos investigativos, si no son asistidos y supervisados adecuadamente por investigadores. Por ejemplo:

·         Las herramientas de IA no pueden asegurar el cumplimiento de un objetivo real de investigación que permita nuevos descubrimientos científicos.

·         Existe un número alto de efectos indeseables en las investigaciones, con un uso inadecuado de las herramientas de IA como son: el overfitting (sobreajuste), la data snooping (filtro de datos) y el p-hacking (falsas evidencias).

·         El desplazamiento del conocimiento científico por un conocimiento aplicado o la sobreestimación del progreso técnico en detrimento del progreso científico.

·         La IA es tan buena como los datos con los que se entrena. Si los datos utilizados contienen sesgos, la IA puede perpetuar o incluso amplificar esos sesgos en sus análisis y conclusiones, lo cual puede tener consecuencias graves en las investigaciones.

Por tanto, los aspectos éticos necesitan ser pensados en los nuevos ambientes de investigación derivados de los avances científicos y tecnológicos, específicamente con el uso de las herramientas de la IA. Las rutas de decisión en ámbitos investigativos como: selección de problemas, definición de los objetivos, elección de los actores y discusión de las hipótesis son cuestiones analizadas y objeto de debate en el ámbito de la investigación, porque, con frecuencia, el proceder ideal desde un punto de vista ético ofrece al usuario un elevado costo a nivel práctico.

Resulta esencial que los investigadores especifiquen y justifiquen el abordaje ético que propugnan para el uso de herramientas de IA, dejando constancia de diversos aspectos claves. Los aspectos éticos debe quedar recogidos inicialmente en el diseño de la investigación, designación de los recursos, plantilla o documentos seleccionados para el tratamiento automatizado, requerimientos específicos del modelo o algoritmo seleccionado, y la supervisión de los resultados. Se plantea también la necesaria reflexión sobre algoritmos en fase de prueba o desarrollo experimental.

Entre las cuestiones a analizar sobre los problemas éticos en el uso de la IA en las publicaciones científicas se tienen:

1.    La ética en la autoría y atribución de créditos: Cuando los datos obtenidos para el entrenamiento de la IA son de autores no identificados, se estaría cometiendo una falta a las normas de conducta de la comunidad científica.

2.    La ética en la transparencia: El desconocimiento de los mecanismos de trabajo de la IA puede dificultar la comprensión de como se generan los resultados impactando en la reproducibilidad y la transparencia a la hora de validar los hallazgos.

3.    La ética en la validación y revisión de pares: No debe subestimarse la importancia de la revisión por pares para validar los resultados. La validación de algoritmos, en general, y de las técnicas de IA en particular, debe basarse en los datos que utiliza, y en el escenario y contexto en el que se despliega.

Por otra parte, en el contexto de la investigación, las técnicas de inteligencia artificial han sido puestas en cuestión a la hora de asegurar la integridad y reproducibilidad de los procesos del método científico. Desde un punto de vista metodológico, la utilización de técnicas de inteligencia artificial en la investigación conlleva una disminución en la exactitud, en el sentido de que provoca que los resultados obtenidos pueden estar probablemente dentro de un rango de error o incertidumbre, y no necesariamente ser absolutamente ciertos o determinados.

Por tanto, en ausencia de una regulación específica que aborde los retos derivados del uso de las nuevas tecnologías en la práctica investigadora, será de interés analizar las posibles limitaciones éticas dentro del marco normativo existente, así como las directrices y documentos éticos que ofrezcan soluciones a los retos conocidos o potenciales de la práctica científica.

Resumiendo el análisis realizado se considera que las principales acciones a desarrollar para garantizar la ética en el uso de la IA son:

·         Mejorar la visualización y el acceso a los parámetros que permiten entender cómo funciona un determinado algoritmo de IA y, sobre todo, cómo toma sus decisiones.

·         Se requiere disponer de las herramientas/datos necesarios para evaluar críticamente la calidad de los resultados obtenidos.

·         Es necesario adoptar modelos y metodologías inteligentes aplicables (o transferibles) a la investigación científica, que respondan a las exigencias específicas del método científico.

·         Se sugiere la transversalidad de la formación y de la información que, a pesar de ser siempre general, puede ser abordada desde diferentes disciplinas, parcial o transversalmente. 

·         Se requiere la acción concertada entre redes, grupos, centros, departamentos, subcomités o programas estratégicos establecidos en las organizaciones con: recursos, el consenso y convicción de los actores. Asumir un liderazgo académico y científico crítico, proactivo, no complaciente, innovador, constructivo, realista y flexible.

Por tanto, al integración de la inteligencia artificial en las publicaciones científicas ofrece oportunidades significativas, pero también presenta desafíos éticos que deben ser abordados. Es necesario trabajar y dejar claro, por parte de las instituciones, en establecer normas y directrices que aseguren un uso responsable y ético de la IA en la investigación.