Hola a todos,
A raiz de un comentario del profesor Pedro Carmona en otros hilos quizá merece la pena abrir una pregunta que ya está empezando a transformar muchos entornos científicos y técnicos: ¿cómo puede impactar la IA generativa en las habilidades que esperamos de un bioinformático?
En este contexto, cuando hablamos de IA generativa, no nos referimos solo a herramientas que “escriben texto”, sino a sistemas capaces de generar código, sugerir documentación, proponer explicaciones, ayudar a depurar errores, estructurar análisis e incluso esbozar pipelines completos a partir de instrucciones en lenguaje natural. Es decir, no sustituyen el razonamiento científico, pero sí pueden intervenir en muchas tareas cotidianas del trabajo bioinformático.
Esto abre un debate interesante.
Por un lado, estas herramientas pueden aumentar mucho la productividad: pueden
acelerar la escritura de scripts, facilitar la documentación, ayudar a detectar
errores, traducir código entre lenguajes o servir como apoyo en la construcción
de workflows reproducibles.
Pero, por otro lado, también plantean riesgos claros: generar código que
“parece correcto” pero no lo es, ocultar errores conceptuales, fomentar una
dependencia excesiva o reducir la comprensión profunda de lo que realmente está
haciendo el pipeline.
Quizá por eso la cuestión no sea si la IA generativa debe utilizarse o no, sino qué habilidades humanas se vuelven todavía más importantes cuando estas herramientas entran en juego. Tal vez en el futuro se valore menos escribir código desde cero y más saber validarlo, interpretarlo, auditarlo, adaptarlo al contexto biológico correcto y detectar sus fallos.
Y relacionado con esto, surge una segundasegunda pregunta: ¿cómo debería incorporarse el uso de estas
herramientas en tareas como depurar código, documentarlo o desarrollar
pipelines?
- ¿Como asistentes supervisados?
- ¿Como apoyo para tareas repetitivas?
- ¿Como parte natural de la formación, pero siempre con revisión crítica?
- ¿Dónde creéis que debería estar el límite entre automatización útil y pérdida de criterio técnico?
¿qué tipo de bioinformático creéis que se va a necesitar en un contexto donde la IA generativa ya forma parte del trabajo diario?
****************
Hi everyone,
after some messages in the forum Pedro Carmona brought a very interesting topic, that it may be worth opening a question that is already beginning to reshape many scientific and technical environments: how might generative AI affect the skills we expect from a bioinformatician?
In this context, when we talk about generative AI, we do not mean only tools that “write text,” but systems capable of generating code, suggesting documentation, proposing explanations, helping debug errors, structuring analyses, and even drafting complete pipelines from natural-language instructions. In other words, they do not replace scientific reasoning, but they can intervene in many everyday bioinformatics tasks.
This raises an interesting debate.
On the one hand, these tools can greatly increase productivity: they can speed
up script writing, make documentation easier, help identify errors, translate
code between languages, or support the design of reproducible workflows. On the other hand, they also introduce clear risks: generating code that “looks
correct” but is not, hiding conceptual mistakes, encouraging excessive
dependence, or reducing deep understanding of what a pipeline is actually
doing.
That is why the real question may not be whether generative AI should be used, but rather which human skills become even more important once these tools enter the workflow. Perhaps in the future, writing code entirely from scratch will matter less than being able to validate it, interpret it, audit it, adapt it to the correct biological context, and detect its weaknesses.
This leads to a second question: how should these tools be
incorporated into tasks such as debugging code, documenting it, or developing
pipelines?
- As supervised assistants?
- As support for repetitive tasks?
- As a natural part of training, but always under critical review?
- Where do you think the boundary should lie between useful automation and the loss of technical judgment?
I would be very interested to hear your perspective, whether from practice,
teaching, or learning:
what kind of bioinformatician do you think will be needed in a context
where generative AI is already part of everyday work?