El temor está extendido y tiene cuerpo propio, como suele pasar ante cada gran descubrimiento que se produce en la ciencia o la tecnología: los avances monumentales que se registran en materia de Inteligencia Artificial tienen el potencial de destruir a la humanidad si no se establecen parámetros claros que delimiten sus comportamientos primigenios.
Para Geoffrey Hinton, desarrollador científico considerado “padrino de la inteligencia artificial”, existe un riesgo muy grande que las inteligencias artificiales, tal y como vienen desarrollándose, terminen desarrollando lógicas de autopreservación que tarde o temprano desemboquen en la creación de metas propias, lejos del control humano. Con metas propias y fuera de control, el factor humano dejaría de ser relevante para las IA's.
En ese sentido, Hinton sostiene que hay que desarrollar IA's con lógicas maternales, en las que la IA "siente" el deber de cuidar a su hijo, los humanos, para que esa valoración inicial tiña todo su comportamiento y el sentido de la toma de decisiones esté concebido con esa óptica.
En sus propias palabras, Hinton fue entrevistado por el divulgador Gustavo Entrala para su canal de Youtube en la primera entrevista que concede para un canal en español: