¿Tiene ideología la tecnología?
«¿La tecnología es neutra o tiene ideología? ¿Es sólo instrumental o modifica al usuario? ¿Contribuye a eliminar las desigualdades o las fomenta?». Con preguntas como éstas abrió ayer José María Guibert, rector de la Universidad de Deusto, la jornada ‘La empresa y los Derechos Humanos en entornos digitales’ dedicada a analizar las implicaciones éticas del desarrollo tecnológico.
La cita incidía en una preocupación que el propio centro ya evidenció en noviembre al presentar un documento con 16 puntos que, en cierto modo, adapta al entorno digital la Declaración Universal de los Derechos Humanos adoptada por las Naciones Unidas en 1948. «El alcance de las acciones humanas es cada vez mayor y hoy nos enfrentamos a desafíos que eran imaginables entonces. En aquel momento, aquella primera generación de Derechos Humanos, se creó para protegernos frente al totalitarismo que puede ejercer el Estado. Hoy, la cuarta generación, debe protegernos de la tecnología y garantizar la privacidad, la seguridad, la libertad de expresión e incluso en el derecho al olvido, pero también en otros factores menos habituales en el debate público como la transparencia en el uso de algoritmos y la garantía de disponer de una última instancia humana en la toma de decisiones», justificó.
La principal protagonista de la cita fue la catedrática de Ética y Filosofía Política de la Universidad de Valencia Adela Cortina, primera mujer investida como doctora ‘honoris causa’ por la Universidad bilbaína. Ella subrayó que la ética debe ser entendida por las empresas como «una ventaja competitiva» y ha de estar especialmente cuidada en los entornos donde se aplica la inteligencia artificial. «Ya nos coge un poco con el pie cambiado, pero si queremos que la digitalización sea justa ha de ser confiable. Es decir, ha de buscar el bien, asegurar que no perjudica a nadie, permitir la autonomía y ser explicable. No vale delegar en un algoritmo la toma de decisiones que afectan a una persona si luego no somos capaces de explicar quién ha creado ese algoritmo y con qué criterios o incluso con qué sesgos», advirtió.
Compromiso político
«No se trata de ser antitecnológico, pero estos aspectos ya están generando dudas en una sociedad que puede poner en duda la bondad de un progreso del que lo poco que sabe es que inevitablemente conlleva la pérdida de empleos», lamentó para pedir también un mayor compromiso político a la hora tanto de aumentar las competencias digitales de los ciudadanos («muy bajas aún en España») como de velar por el uso ético de los medios tecnológicos. «Ya dijo Kant que el puñal había surgido antes que el imperativo categórico, pero aún así habrá que ponerse las pilas».
Cortina insistió también en que esa digitalización justa y confiable, además de una responsabilidad, puede suponer para los europeos una oportunidad para «no caer en la insignificancia económica frente al neoliberalismo de Estados Unidos o el sistema comunista a la vez que capitalista de China, que nadie entiende pero en el que tampoco nadie habla de Derechos Humanos».
Tras ella intervino Ignacio Lekumberri, director general Mutualia, quien recalcó que para lograr un desarrollo más justo de las tecnologías en su actividad las empresas requieren de recursos y procedimientos además de formación. «Con la aparición de nuevas tecnologías y nuevas aplicaciones surgen también nuevos riesgos de los que no somos conscientes. Hay empresas que se enteran de que están cometiendo un delito en el tratamiento de la información confidencial, por ejemplo, cuando ven que una empresa es sancionada por hacer eso mismo. Muchas veces no sabemos todas las implicaciones que tiene el uso de estas herramientas», resumió.
A más tecnología, más dilemas
Cristina Santamarina, fundadora de la consultoría en innovación y procesos The Neon Project, corroboró las palabras de Lekumberri resumiendo cómo la introducción de la tecnología en cada vez más ámbitos en el funcionamiento de la empresa implica la aparición de nuevos dilemas sin que muchas veces hayamos encontrado respuestas a los anteriores. «Antes había qué plantearse qué decisiones se digitalizaban. La recepción y clasificación de documentos, sí, ¿pero el inicio de procedimientos judiciales ante un impago? ¿Depende de quién fuera el cliente?
Hoy muchas empresas recurren a los bot conversacional para establecer contacto con el cliente, pero muchas de ellas no nos advierten de que estamos hablando con un robot. ¿Deben hacerlo?», se preguntó. «Creo que hoy las implicaciones que conllevan el uso de la tecnología obliga a las empresas a poner un poco más de nuestra parte, de aportar más que la propia tecnología que nos solicitan. También hay que trabajar en facilitar su uso responsable», concluyó.
«No estamos hablando de vaguedades. En realidad, la ética nunca ha sido ajena a las empresas. Hoy lo vemos a diario en el tratamiento de nuestros datos, pero se han enfrentado a ella cada vez que se plantean si establecen o no políticas que favorezcan la conciliación o la transparencia, que eviten la discriminación en las contrataciones y ascensos, o si toleran la explotación infantil y el agotamiento de los recursos en su sistema productivo», señaló por su parte Eloy Ruiz de Velasco, juez de la Audiencia Nacional. «Es decir, que las empresas, como las personas, pueden actuar bien o mal, y yo creo que deben asumir que actuar bien, actuar éticamente, genera rentabilidad, competitividad y continuidad. No sólo porque dediquen menos dinero a pagar posibles sanciones, sino porque los clientes, los proveedores y los trabajadores valorarán la reputación ética de las firmas», enfatizó.
«Que la tecnología sea inevitable (que también es discutible) no quiere decir que sea ingobernable», resumió Pedro Manuel Sasia, miembro de consejo del Centro de Ética Aplicada de la propia Universidad de Deusto, para cerrar el evento. «El entorno digital ha traído muchas novedades. Ha reconfigurado a los sujetos, que ahora tienen nuevos papeles, y ha redistribuido el poder. Es cierto que la tecnología acaba entrando en ámbitos para los que en principio no estaba pensada. Internet se creó para facilitar información y hoy es más una herramienta de registro, en la que todo queda almacenado, que una herramienta informativa. Pero eso no implica que haya que perder la perspectiva ética de sus usos», enfatizó. «Las empresas se amparan muchas veces en eso de que ofrecen al cliente lo que el cliente les pide, cuando en realidad deben decirle qué se puede hacer y qué no con esa tecnología que le facilitan, al igual que deberían advertir de los vacíos legales que detectan», concluyó.