El uso de las redes sociales por personas ya de por sí muy polarizadas podría comprometer el debate democrático racional, desembocando en un mundo de desinformación, fake news y manipulación de imágenes y personajes por parte de la inteligencia artificial (IA). La advertencia es del sociólogo y profesor español Manuel Castells, uno de los ponentes del Seminario Internacional sobre Democracia y Nuevas Tecnologías, que el Senado promoverá entre el 25 y el 27 de marzo.
Castells afirma que el mal uso de la tecnología se está agravando en un momento en que la humanidad se enfrenta a grandes problemas. Según el profesor, el debate público se ha convertido en una serie de manipulaciones que afectan negativamente a la democracia. En una entrevista concedida a TV Senado, Castells afirma que la tecnología puede aumentar la crisis de la democracia. Cita el ejemplo de las elecciones en Estados Unidos y Brasil, en las que la polarización y el uso de las redes sociales fueron muy evidentes.
El catedrático español subraya que las tecnologías no son la causa del problema, pero lo "amplifican enormemente". Para Castells, el origen de la crisis democrática es la falta de confianza en los políticos y en las instituciones políticas. Señala como posible salida la regulación de las redes sociales y el uso de la inteligencia artificial.
Según Castells, tres cuartas partes de los ciudadanos no confían en sus políticos ni en las instituciones políticas democráticas. También informa de que 77% de los encuestados están a favor de la democracia. Sin embargo, reflexiona el profesor, la gente considera que "la democracia en la que vive no es una democracia". Así que, como la gente ya piensa que los políticos no son de fiar, que la política democrática no es la que viven en su país, las redes sociales con toda esta desinformación amplifican enormemente la crisis de legitimidad y, cada vez más, la gente reacciona emocionalmente. No creen ni a los medios ni a lo que ven en las redes, porque cada uno cree su parte de lo que ve en las redes.
- Creo que la tecnología en sí misma no causa efectos sociales y políticos. Es cómo se utiliza la tecnología, por quién y para quién. Así que lo que está ocurriendo es que a medida que se deciden los procesos políticos, sobre todo en la mente de las personas, la capacidad tecnológica de hacer que los procesos de comunicación tecnológica se basen en visiones ficticias de la realidad, (se) deforma en función de los intereses políticos y sociales.
Conscientes de la advertencia de Castells, los senadores han presentado varios proyectos de ley que abordan el uso de la inteligencia artificial. Para el senador Styvenson Valentim (Podemos-RN), autor del primer proyecto de ley presentado en el Senado sobre el tema (PL 5.051/2019), la inteligencia artificial puede aportar importantes ganancias de productividad en la industria y la prestación de servicios. Sin embargo, subraya, la inteligencia artificial no puede adoptarse sin una regulación mínima. Styvenson también es autor del proyecto de ley que establece la Política Nacional de Inteligencia Artificial, con el objetivo de estimular la formación de un ambiente favorable para el desarrollo de tecnologías de IA (PL 5.691/2019).
Las cuestiones planteadas por Styvenson se están tramitando junto con otras propuestas en la Comisión Interna Temporal sobre Inteligencia Artificial (CTIA). La CTIA fue creada en agosto del año pasado para analizar, en un plazo de 120 días, el anteproyecto presentado en diciembre de 2022 por la Comisión de Juristas sobre Inteligencia Artificial. Basándose en el texto de los juristas, el presidente del Senado, Rodrigo Pacheco, presentó el proyecto de ley 2.338/2023, que regula el uso de la IA. El texto crea reglas para los sistemas de inteligencia que se pondrán a disposición en Brasil, estableciendo los derechos de los afectados por su funcionamiento. También define criterios para el uso de estos sistemas por parte de las autoridades públicas, previendo castigos para cualquier violación de la ley y otorgando al poder ejecutivo la prerrogativa de decidir qué órgano supervisará y regulará el sector. La CTIA fue autorizada a funcionar hasta el 23 de mayo de este año. La comisión está presidida por el senador Carlos Viana (Podemos-MG) y su ponente es el senador Eduardo Gomes (PL-TO).
Para Pacheco, el desarrollo y la popularización de las tecnologías de IA han revolucionado diversos ámbitos de la actividad humana. Según él, "las previsiones apuntan a que la inteligencia artificial provocará cambios económicos y sociales aún más profundos en un futuro próximo". Según el presidente, las propuestas legislativas presentadas indican que el Senado reconoce la relevancia del tema. Pacheco señala también que su proyecto de ley "pretende conciliar, en la disciplina jurídica, la protección de los derechos y libertades fundamentales, la valorización del trabajo y la dignidad de la persona humana y la innovación tecnológica que representa la IA".
El senador Randolfe Rodrigues (Sem partido-AP) es el primer firmante de una propuesta de enmienda de la Constitución para incluir la protección de la integridad mental y la transparencia algorítmica entre los derechos y garantías fundamentales (PEC 29/2023). Randolfe sostiene que existe consenso en que los mecanismos de inteligencia artificial están promoviendo grandes cambios propositivos en la vida cotidiana, agilizando trámites, aunando voluntades y ayudando en la búsqueda de soluciones, especialmente en las plataformas virtuales de búsqueda. Sin embargo, señala el senador, estos avances apuntan a una "preocupación fundada y real sobre los límites éticos y normativos que deben ser observados por la neurotecnología, trayendo también a colación discusiones y estudios cada vez más frecuentes sobre la adicción digital, especialmente en niños y adolescentes". El PEC está a la espera del nombramiento de un ponente en la Comisión de Constitución y Justicia (CCJ).
Algunos proyectos de ley pretenden reprimir los delitos cometidos con el uso de inteligencia artificial. Dos de ellos son del senador Chico Rodrigues (PSB-RR). El proyecto de ley 145/2024 prohíbe el uso, en un mensaje publicitario, de inteligencia artificial para generar la imagen o la voz de una persona viva o fallecida sin su consentimiento claro e inequívoco, o el del titular del derecho de imagen. El anuncio también debe indicar que ha utilizado inteligencia artificial. Si no se cumplen estos requisitos, el anunciante podría ser sancionado por publicidad engañosa. La pena es de prisión de tres meses a un año y multa. La cadena de televisión, página web u otro medio también pueden ser sancionados si no dejan de emitir en el plazo de tres días desde la notificación de la infracción, que pueden hacer los organismos de inspección de la Administración o incluso el titular de los derechos de imagen del ofendido.
El proyecto de ley 146/2024 modifica el Código Penal (Decreto-Ley 2.848 de 1940) para aumentar la pena por delitos contra el honor cometidos en redes sociales que utilicen deepfakes con inteligencia artificial. Quien utilice este tipo de herramientas para producir un vídeo o imagen falsos podría quintuplicar la pena por un delito contra el honor -como injurias o calumnias-. Esto podría suponer hasta tres años de cárcel por injurias, o diez años por calumnias, además de una multa. En opinión del autor, el texto actual de la ley no frena la gravedad del delito que pueden generar los deepfakes.
- El potencial dañino de crear este tipo de material y difundirlo es mucho mayor y más devastador que en el pasado, cuando creamos nuestro Código Penal. Por esta razón, propongo que se quintupliquen las penas por crear material utilizando inteligencia artificial. Pero el daño no lo causa sólo quien crea el material, sino también quien lo divulga o distribuye - explicó Rodrigues a Agência Senado.
El senador Jader Barbalho (MDB-PA) ha presentado un proyecto de ley que tipifica como delito la manipulación no autorizada de imágenes (PL 623/2024). Según el proyecto de ley, la manipulación de una fotografía o vídeo sin la autorización de la víctima, con o sin el uso de recursos tecnológicos, con la intención de producir una imagen de desnudez, un acto sexual o libidinoso de naturaleza íntima, podría dar lugar a una pena de prisión de uno a dos años, así como a una multa. La pena podría duplicarse si el delito se comete contra un menor, e incluso triplicarse si el material se difunde en las redes sociales.
Otro proyecto de ley, del senador Jorge Kajuru (PSB-GO), aumenta la pena para quien utilice inteligencia artificial para editar una fotografía o un vídeo íntimos. Según el proyecto de ley 5.722/2023, la pena será de uno a dos años de prisión. Actualmente, la pena es de seis meses a un año. Se mantiene la disposición sobre multas. En la misma línea, el senador Weverton (PDT-CE) también presentó un proyecto de ley para penalizar la creación, utilización y difusión, sin el consentimiento de la víctima, de contenidos fraudulentos que contengan sexo, desnudos o pornografía, incluidos los que afecten a niños y adolescentes (PL 5.721/2023). Los proyectos de ley Weverton, Kajuru y Jáder están siendo analizados actualmente por la Comisión de Comunicación y Derecho Digital (CCDD).
También ha llegado al Senado un proyecto de ley que aumenta la pena por el delito de violencia psicológica contra la mujer en 50% cuando se comete con el uso de IA (PL 370/2024). Como resultado, la pena podría ser de hasta nueve meses de prisión. El proyecto es autoría de la diputada Jandira Feghali (PcdoB-RJ) y está pendiente de distribución a las comisiones.
Además de actuar como relator de la CTIA, el senador Eduardo Gomes es autor, junto con el diputado Eduardo Bismarck (PDT-CE), de un proyecto que crea la Comisión Mixta Permanente de Protección de Datos, Inteligencia Artificial y Ciberseguridad (CMCiber - PRN 01/2024). El senador sostiene que la importancia de crear la comisión radica en "la imperiosa necesidad de regular, reglamentar y fiscalizar las cuestiones relacionadas con la protección de datos, la inteligencia artificial y la ciberseguridad, temas que han cobrado creciente relevancia en el contexto nacional y mundial". La propuesta aún debe ser votada por el Congreso Nacional.
El senador Angelo Coronel (PSD-BA) presentó un proyecto para crear el Frente Parlamentario Mixto para la Inteligencia Artificial, las Tecnologías de la Información, la Ciberseguridad y la Lucha contra la Desinformación (PRS 93/2023). El nombre podría acortarse a Frente Parlamentario para la Seguridad Digital. Tanto diputados como senadores pueden unirse al frente. Coronel afirma que los fenómenos de la inteligencia artificial, la ciberseguridad y la propia desinformación se presentan como desafíos para el mundo. De ahí la importancia del frente. El asunto está pendiente de la designación de un ponente en el CCDD.
Creada a finales de marzo de 2022, la comisión organizó 12 paneles y un seminario internacional para debatir la regulación de la inteligencia artificial, así como discusiones sobre temas como los conceptos, comprensión y clasificación de la inteligencia artificial; los impactos de la inteligencia artificial; derechos y deberes; responsabilidad, gobernanza y supervisión. La comisión estaba compuesta por 18 miembros y su ponente era Laura Schertel Mendes, profesora de Derecho Civil. El magistrado Ricardo Villas Bôas Cueva, del Superior Tribunal de Justicia (STJ), presidió la comisión. El trabajo final de la comisión, de más de 900 páginas, fue entregado al Presidente Pacheco a finales de 2022.
El texto final presentado a Pacheco contiene principios, normas, directrices y fundamentos para regular el desarrollo y la aplicación de la inteligencia artificial en Brasil. Hay tres pilares centrales: garantía de los derechos de las personas afectadas por el sistema; gradación del nivel de riesgos; y previsión de medidas de gobernanza aplicadas a las empresas que suministren u operen el sistema de inteligencia artificial.
La preocupación por el uso indebido de la tecnología también afecta a las elecciones. Una reciente resolución del Tribunal Superior Electoral (TSE) para las elecciones municipales de este año caracterizó los deepfakes como contenidos de audio o vídeo, generados digitalmente o manipulados por inteligencia artificial, para "crear, sustituir o alterar la imagen o la voz de una persona viva, fallecida o ficticia" (Resolución 23.732/2024). Se prohíbe el uso de este recurso. Además, habrá restricciones al uso de robots (programas informáticos) en contacto con los votantes. También será obligatorio incluir una advertencia sobre el uso de IA en la propaganda electoral. Con esta validación, la sociedad podrá estar informada, con una etiqueta en la pantalla, de si la imagen que se emite es veraz o no.
Estas son algunas de las propuestas y medidas que se están debatiendo en el Senado para hacer frente a los retos e impactos de la inteligencia artificial en la sociedad y la democracia. La regulación y el uso responsable de la IA son cuestiones esenciales para garantizar la protección de los derechos individuales y la integridad del debate público en un mundo cada vez más digitalizado.