
Los intermediarios en línea tales como buscadores de internet, redes sociales o plataformas que comparten vídeos, ¿son legalmente responsables de los contenidos publicados por sus usuarios? Esta es una cuestión que ha ocupado a juristas, legisladores, reguladores y jueces desde los inicios del funcionamiento de la red mundial.
Hay quien piensa que la discusión viene de antes. El académico y estudioso de la materia Jeff Kosseff ha recordado en sus obras el caso llamado “Smith contra California”, decidido por la Corte Suprema de los Estados Unidos nada menos que en 1959. El caso involucraba al propietario de una librería en Los Ángeles, condenado por vender un libro en violación de una ordenanza que prohibía a los libreros poseer libros indecentes u obscenos. El librero cuestionó la condena con base en una posible violación del derecho a la libertad de expresión recogido en la Primera Enmienda, derivada de la imposición de responsabilidad objetiva por el mero hecho de facilitar el acceso a una de las centenares o miles de publicaciones disponibles en su establecimiento. En la decisión de la Corte, el juez William Brennan reconoció que la Primera Enmienda no protege la obscenidad, pero al mismo tiempo estableció que un régimen de responsabilidad estricta abriría las puertas a un riesgo excesivo de limitación a la distribución de libros no obscenos y por ello protegidos en la constitución.
Medio siglo más tarde este precedente bien pudo haber inspirado la adopción de la sección 230 de la llamada Ley de Decencia de las Comunicaciones. Esa ley establece el principio fundamental de exención de responsabilidad de los servicios de intermediación tanto en lo que se refiere al contenido de terceros que alojan cuanto por lo que respecta a sus decisiones de eliminar contenido considerado como objetable por parte de dichos actores. Este principio llegó a Europa a través de la Directiva denominada de Comercio Electrónico[1], transformada hoy en Reglamento de Servicios Digitales[2] y, lo que es más importante, ha sido incorporado al marco internacional y regional de los derechos humanos.
Sobre el último aspecto, tanto los sucesivos Relatores Especiales en materia de libertad de opinión y de expresión de Naciones Unidas como los titulares de la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos, han enfatizado que la preservación adecuada del principio de exención de responsabilidad se encuentra atada a la protección de la libertad de expresión y la libertad de información como derechos humanos universales, y ello por una serie de motivos fundamentales.
Implicaciones desde el punto de vista de la libertad de expresión
En primer lugar, porque hacer a las plataformas legalmente responsables por el contenido que alojan supone en la praxis la delegación o privatización de la determinación de los límites de la libertad de expresión. En ese escenario no corresponderá ya en la práctica a los órganos estatales dotados de legitimidad y de las garantías y salvaguardas propias del Estado de derecho el establecer qué contenidos se ajustan a la legalidad, sino que serán las plataformas las que a cada segundo y a gran escala llevarán a cabo dicha determinación con el uso de algoritmos.
En segundo lugar, porque si dicha responsabilidad se articula de la forma mencionada, con tal de evitar cualquier responsabilidad ulterior las plataformas tenderán a usar un celo extremo en la consideración de cualquier contenido que pueda incurrir en el riesgo de ser ilegal. Como consecuencia de ello, los casos de restricciones excesivas, innecesarias y desproporcionadas serán lo habitual, con el correspondiente severo menoscabo de la libertad de expresión. Será este el caso tanto en los supuestos en los que dichas acciones se lleven a cabo motu proprio por parte de las propias plataformas, como cuando sea un tercero quien se limite a esgrimir la existencia de una ilegalidad, aunque la misma no haya sido declarada en cuanto tal por ninguna autoridad con poder para ello.
En este contexto, y en tercer lugar, resulta ilusorio asumir que cualquier plataforma, por ingentes que sean sus recursos, va a poder monitorizar y establecer la legalidad de todos y cada uno de los contenidos que aloja. Ignorar este aspecto técnico económico abre la puerta, vale la pena insistir en ello, a masivas retiradas de contenidos por la mera sospecha de que puedan incurrir en algún tipo de ilegalidad. A mayor abundamiento, atribuir legal o jurisprudencialmente a plataformas privadas dicha obligación de monitoreo y eliminación de contenido sobre la base de criterios vagos y no predeterminados por la ley no constituiría sino una modalidad de censura previa prohibida por el artículo 13 de la Convención Americana de Derechos Humanos.
Es por ello que el principio de exención de responsabilidad no es un capricho legislativo o un supuesto privilegio para las plataformas en línea. Se trata en última instancia de una garantía no sólo de la libertad de expresión sino también de la seguridad jurídica y del mantenimiento de todas las garantías y salvaguardas necesarias en la determinación y apreciación de los límites legítimos de la libertad de expresión. Y es por ello que, según se ha dicho ya, dicho principio ha sido acogido en los modelos comparados más relevantes (no solo en Estados Unidos y la Unión Europea, sino también en países como Argentina o Colombia), así como en los estándares de derechos humanos a nivel universal y regional de aplicación en México, por no mencionar las previsiones establecidas en el Tratado de Libre Comercio entre México y los Estados Unidos (T-MEC), por el que México se compromete a respetar un sólido sistema de exención de responsabilidad de los intermediarios con relación a contenidos o servicios suministrados o provenientes de terceros.
Todas estas cuestiones, que no son baladíes, se encuentran en juego en el marco del caso, pendiente de resolución final y de gran repercusión mediática, de la condena a Google por parte de un juzgado civil a una sustanciosa indemnización pecuniaria, aumentada con ocasión de la primera apelación, por la causación de daños morales a un abogado del país por la difusión de información injuriosa y calumniosa a través de un blog cuyo servicio de alojamiento (Blogger) era proporcionado por parte de dicha compañía.
La exención de responsabilidad (y la libertad de expresión) en jaque frente a la Suprema Corte
A la vista de los elementos que han sido mencionados hasta el momento voy a centrar mis reflexiones en un ámbito muy específico del caso, como es la atribución de responsabilidad a Google en los términos antes expresados. No voy a entrar pues en el análisis de la legalidad de los contenidos difundidos y ni siquiera en la cuestión de la proporcionalidad o incluso arbitrariedad de las sumas establecidas. Siendo éstos aspectos relevantes del caso, me quiero centrar en la cuestión concreta del posible cambio del régimen de exención de responsabilidad que una sentencia confirmatoria de las anteriores pudiera generar.
A mi entender, y desde una perspectiva jurídica, el órgano jurisdiccional que decida este caso en última instancia debería considerar una serie de elementos que, en mi opinión, no han sido ponderados en las decisiones dictadas hasta el momento.
En primer lugar, es necesario entender la diferencia entre intermediarios y medios de comunicación. A pesar de que prestadores de servicios tales como proveedores de acceso a internet, aplicaciones de mensajería, servicios de indexación o redes sociales son plataformas o instrumentos para la comunicación, no pueden equipararse a los casos en los que, desde el control editorial y selección previa de contenidos, y bajo criterios de profesionalismo periodístico, se decide la publicación de un determinado contenido bajo la propia responsabilidad. Ello se extiende también a aquellos casos, como el que nos ocupa, en el que existe un sujeto autor y responsable de la publicación de cualesquiera contenidos aprovechando las facilidades que servicios de intermediación como el de Blogger pueden ofrecer.
En segundo lugar, y vinculado con lo anterior, hay que deslindar las cuestiones o discusiones acerca de la legalidad de un determinado contenido, respecto del establecimiento, por parte de determinadas plataformas de alojamiento de contenidos, de una serie de políticas internas que van a determinar, en lo que a su relación con los usuarios se refiere, lo que resulta aceptable dentro de dicho espacio. En particular, el hecho de que las plataformas tengan sus propias políticas internas de contenidos, así como lleven a cabo actividades de supervisión y moderación de éste, no supone que deba atribuírseles una paralela responsabilidad en lo que se refiere a la detección y determinación de la ilegalidad de los contenidos. Se trata de dos dinámicas en paralelo; la primera privada y base de la relación contractual entre una plataforma y sus usuarios, y la segunda, resultante de la aplicación de los criterios de legalidad por parte de las autoridades competentes a quienes usan las plataformas para distribuir su contenido.
En tercer lugar, incluso en aquellos casos en los que exista algún tipo de denuncia o reporte por parte de un tercero acerca de la posible ilegalidad de un contenido, ello no puede comportar la atribución de responsabilidad a la plataforma por el hecho de decidir no adoptar medidas o esperar a un pronunciamiento judicial. Tal y como se ha apuntado ya, atribuir de forma automática efectos vinculantes y derivar responsabilidades legales con respecto de la mera recepción de una comunicación de un tercero sería tanto como conferir a éstos la capacidad de censurar discursos inconvenientes o incómodos a partir de una mera denuncia y en ausencia de todo tipo de garantía y salvaguardas procesales. Sistemas legales como el de la Ley de Servicios Digitales en la Unión Europea contemplan los sistemas de “notificación y acción”, si bien en tales casos la denuncia de terceros debe encontrarse fundamentada y argumentada en Derecho, y tratarse de una cuestión para la que no sea necesario el previo emprendimiento de una acción de parte frente a un tribunal u otra autoridad competente. No hay que olvidar en este sentido que hay áreas en las que, por la claridad y naturaleza de la infracción contemplada, son las propias plataformas las que llevan ya a cabo funciones de monitoreo y supresión de contenidos (por ejemplo, pornografía infantil y ciertos tipos de contenidos terroristas).
El principio de exención de responsabilidad de intermediarios ha demostrado ser una pieza fundamental en la protección de la libertad de expresión en el ámbito de internet, sin impedir al mismo tiempo el establecimiento de políticas privadas y sistemas de moderación de contenido indeseable (aun cuando no ilegal). Cualquier cambio legal o jurisprudencial en este ámbito no resolvería posibles problemas de difusión de contenido ilegal en redes sociales, generando más bien serios problemas de inseguridad jurídica y afectación arbitraria de la libertad de expresión. Por este motivo, ha permanecido vigente en el marco de los sistemas jurídicos de las democracias liberales más consolidadas, así como en el sistema universal y regional de derechos humanos. Si lo que se quiere es aumentar la “responsabilidad” de las plataformas en la protección del entorno virtual y de usuarios y terceros frente a determinadas formas de contenidos, existen ya modelos (por ejemplo, en la legislación de la Unión Europea y el Reino Unido), de obligaciones que no se centran ya en los contenidos en cuanto tales, sino en el respeto de una serie de deberes de cuidado. Estos deberes incluyen transparencia en términos de uso y moderación de contenidos, dar cuenta de los motivos por los que una plataforma decide eliminar o mantener un contenido frente a una queja o denuncia (con los correspondientes sistemas internos o externos de apelación), mantener canales claros para el envío y ejecución de órdenes provenientes de autoridades competentes, sistemas procedimentalmente rigurosos de denuncia de contenidos por parte de terceros u obligaciones de establecer procesos y mecanismos que limiten el riesgo de publicación de contenidos ilegales.
En todo caso, es necesario entender que en estos momentos la justicia mexicana tiene la posibilidad de dictar una resolución la cual, lejos de poner en entredicho derechos fundamentales y los hitos más destacados de la regulación de plataformas de conformidad con éstos, permita a México seguir por la senda de un modelo regulatorio que no garantiza derechos sino también permite el adecuado desarrollo y liderazgo de su industria digital.
Joan Barata
Trabaja sobre libertad de expresión y regulación de medios, plataformas y contenidos en el proyecto The Future of Free Speech de la Universidad Vanderbilt.
[1] Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, relativa a determinados aspectos jurídicos de los servicios de la sociedad de la información, en particular el comercio electrónico en el mercado interior (Directiva sobre el comercio electrónico).
[2] Reglamento (UE) 2022/2065 relativo a un mercado único de servicios digitales y por el que se modifica la Directiva 2000/31/CE (Reglamento de Servicios Digitales).