Olimpiadas filosóficas

48 Juan Laraña Abad Lycée Français JulesVerne, Santa Cruz deTenerife, Islas Canarias Desde el momento en que una máquina, impulsada por los sistemas de poleas o la energía del vapor, asumió una tarea que le había sido encomendada a un ser huma- no, la mente humana ha soñado con hacer su vida más cómoda mediante el progreso tecnológico. Cada vez se crean prototipos de robots más avanzados y no resulta des- cabellado pensar que, en algunos años, los androides tendrán capacidades que sobre- pasarán ampliamente las nuestras. La cuestión que nos atañe en este sentido es la siguiente: ¿podrán los robots llegar a ser considerados personas? Si evitamos caer en la tentación de entrar en el terreno de la ciencia ficción, descubriremos que resul- ta muy improbable que los robots puedan reunir las condiciones necesarias para ser considerados personas. Para ello, debemos ahondar en las diversas definiciones que se dan de este término preguntándonos: ¿qué significa ser persona?, ¿autonomía?, ¿libertad?, ¿cuál es la perspectiva del derecho sobre este asunto? La palabra persona procede del griego prósopon , que significa «la máscara del actor». Este término halló una definición estable con Boecio, filósofo romano de los siglos v y vi , quien definió persona como una «sustancia individual de naturaleza racional». Esto remite a un ser racional con voluntad propia y conciencia de sí mismo. De hecho, los pensadores clásicos nos atribuyen la calidad de persona y privan de ella a los animales debido a nuestro carácter basado en la razón, que nos permite reprimir los instintos y nos impulsa a satisfacer nuestro intelecto, no solo las necesidades más primitivas. Pero nadie cuestiona la racionalidad de los robots; resulta que es una de sus mayores ventajas. Ahora bien, ¿qué hay de la voluntad? ¿Son libres de tomar sus propias deci- siones? Para funcionar, un robot necesita un código o programa, piedra angular de todo dispo- sitivo electrónico. Pongamos como ejemplo la cafetera que nos prepara el expreso por las mañanas: el aparato está diseñado para calentar el agua y añadir el café; son las órdenes que su creador le dio y de ninguna manera va a salir de dicho bucle de acción. Esto parece una afirmación ridícula, teniendo en cuenta que nadie espera que una ca- fetera haga nada más que preparar una cierta variedad de bebidas calientes, mas es extensible a cualquier dispositivo informático. En un futuro, androides altamente sofisticados contarán sin duda alguna con un abani- co de acciones muy similar al nuestro. Incluso en casos de emergencia tomarán com- plicadas decisiones, y lo harán más lógica y rápidamente que nosotros, pero siempre dentro del margen impuesto por su creador. Según el catedrático de Lógica y Filoso- fía de la Ciencia de la UNED, Jesús Zamora Bonilla, el libre albedrío es «tener varias opciones, que elijamos entre ellas y que la causa fundamental por la que elegimos seamos nosotros mismos y no algo». No una fría línea de código, ni un enrevesado algoritmo informático. Por otra parte, no solo somos personas por nuestra parte racional, sino que es igual- mente importante la parte arraigada a lo corporal, que se corresponde con los deseos, las pasiones y los instintos. Nietzsche es el principal representante de esta visión radi- calmente opuesta a la de los filósofos clásicos. ¿Podrán los robots sentir? Sin lugar a duda estarán programados para, en determinadas circunstancias, simular reacciones emocionales, pero − contrariamente a lo planteado por la película Inteligencia artifi- cial− su causa no serán emociones naturales, sino instrucciones fríamente calculadas.

RkJQdWJsaXNoZXIy OTA4MjI=