El concepto de responsabilidad sigue siendo exclusivo para para los seres humanos. Nadie espera que un perro sea responsable, en el sentido estricto del término, puesto que la asunción de obligaciones es un compromiso racional y, posiblemente, meditado. Por consiguiente, las máquinas tampoco se han visto nunca sujetas a los cánones de responsabilidad. A lo sumo, han sido sus desarrolladores o controladores quienes han asumido los posibles errores. Esta situación podría empezar a cambiar a medida que la Inteligencia Artificial (IA) vaya superando obstáculos que parecían insalvables para un robot.

Un estudio elaborado por Accenture nos indica que el 81% de los empresarios consultados consideran que la IA ocupará un lugar destacado en las oficinas. De hecho, los robots equipados con esta tecnología no solo ayudarán a los empleados sino que serán trabajadores a todos los efectos. En algunas compañías, esta situación ya se estaría produciendo, especialmente en ámbitos como la atención al público o la interacción con otros usuarios a través de chats o del correo electrónico. Llegados a este punto, muchos se preguntan si los sistemas de IA pueden asumir responsabilidades en el mundo corporativo, cumpliendo las normas de la empresa como cualquier trabajador.

Se trata de una cuestión espinosa que algunos comparan con el propio periodo de formación de las personas, que inician su andadura tutelados por padres, maestros u otros profesionales pero, en un momento dado, comienzan a ser responsables. Este planteamiento, aplicado a la IA, implica que los robots deberían disponer de las mismas herramientas que el resto de la plantilla. Por ejemplo, tendrían que acceder a los programas informáticos pertinentes, cumplir plazos y alcanzar objetivos. Para ello, los sistemas automatizados se verían obligados a diferenciar lo bueno de lo malo, colaborar con otros robots o con humanos y ejecutar acciones inesperadas.

Este último aspecto suscita, obviamente, las reacciones más encontradas. De entrada, la posibilidad de que un sistema electrónico sea impredecible supondría dar un salto cualitativo a la IA tal y como la entendemos hoy. Esto, sin embargo, no tiene por qué plantear problemas de seguridad ni generar situaciones de riesgo para la plantilla o los clientes. Sencillamente, las empresas tendrán que dotar a sus sistemas de IA de un contexto claro en el que desenvolverse, dejando a un lado todo lo que pueda ser negativo. Dicho de otro modo, los robots podrán ser autónomos pero siempre dentro de unos parámetros preestablecidos (no podrían desafiar la autoridad del jefe, por ejemplo).

Para concluir, no podemos olvidarnos de que la asunción de responsabilidades no es solamente una cuestión moral sino que también tiene implicaciones legales. Así, dado que el robot no podrá enfrentarse a un proceso judicial por sus acciones, alguien deberá asumir esa parte de la responsabilidad. Evidentemente, la compañía será la que responda en este caso. Por ejemplo, Audi ha confirmado que será totalmente responsable de los accidentes provocados por sus futuros coches autónomos (que incorporarán el sistema Traffic Jam Pilot).