La comunidad científica aún no tiene forma de saber si la inteligencia artificial (IA) es consciente, ni siquiera si algún día lo será. Así lo sostiene el filósofo Tom McClelland, de la Universidad de Cambridge, quien advierte que cualquier prueba válida para determinar conciencia en sistemas artificiales seguirá siendo inalcanzable en el futuro previsible.

Las reflexiones del académico británico han sido publicadas en la revista Mind and Language, en un contexto donde el debate sobre derechos, ética y regulaciones para inteligencias artificiales ha ganado terreno en gobiernos, empresas tecnológicas y el ámbito académico.

McClelland afirma que, si bien la conciencia suele relacionarse con los derechos de la IA, lo que realmente debería preocupar es la sintiencia: la capacidad de experimentar sensaciones positivas o negativas, lo que convierte a una entidad en susceptible al sufrimiento o al disfrute.

“La consciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral”, explica el filósofo.

“La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética”, subraya.

En su análisis, señala que un coche autónomo que "perciba" la carretera no representa un dilema ético, pero si llegara a tener una reacción emocional ante su destino, la discusión cambiaría radicalmente.

El problema, advierte, es que ni siquiera entendemos qué origina la conciencia en los seres humanos, lo que impide establecer criterios claros para identificarla en una máquina.

“No hay evidencia que sugiera que la consciencia pueda surgir con la estructura computacional adecuada, ni que sea esencialmente biológica”, aclara. “Estamos a una revolución intelectual de cualquier prueba viable de consciencia”.

McClelland plantea que los argumentos a favor o en contra de una conciencia artificial dependen más de creencias que de datos. Mientras algunos sostienen que replicar la arquitectura funcional del cerebro en chips de silicio bastaría para generar conciencia, otros creen que esta solo puede emerger en organismos biológicos.

En este sentido, considera que ambas posturas caen en “un salto de fe”, pues no hay pruebas científicas sólidas que respalden ni una ni otra hipótesis. “Creo que mi gato es consciente… pero eso se basa en el sentido común, no en la ciencia. Y ese mismo sentido común no se puede aplicar a la inteligencia artificial”, ilustra.

Finalmente, advierte que el entusiasmo con el que la industria tecnológica promueve la noción de una IA consciente puede ser parte de una estrategia publicitaria. “Existe el riesgo de que la industria aproveche la incapacidad de demostrar la conciencia para hacer afirmaciones descabelladas sobre su tecnología”, apuntó.

Según McClelland, la atención excesiva en este tema podría desviar recursos de investigación que podrían usarse en desafíos más concretos, mientras el misterio de la conciencia —en humanos o máquinas— sigue sin resolverse.