T-256-25

Tutelas 2025

  T-256-25 

REPÚBLICA  DE COLOMBIA        

CORTE  CONSTITUCIONAL    

Sala  Primera de Revisión    

     

SENTENCIA  T-256 DE 2025    

Referencia:  Expediente T-8.764.298.    

     

Acción de tutela  presentada por Esperanza Gómez Silva en contra de Facebook Colombia S.A.S y  Meta Platforms, Inc.    

     

Magistrada  ponente:    

Natalia  Ángel Cabo.    

     

Bogotá D.C., doce (12) de junio de  dos mil veinticinco (2025).    

     

La  Sala Primera de Revisión de la Corte Constitucional, integrada por la  magistrada Natalia Ángel Cabo, quien la preside, y los magistrados Juan Carlos Cortés González y César Humberto Carvajal Santoyo (e), en ejercicio de sus competencias  constitucionales y legales establecidas en el artículo 86 y el numeral 9 del  artículo 241 de la Constitución Política, en concordancia con los artículos 33  y 34 del Decreto 2591 de 1991, profiere la siguiente    

     

SENTENCIA.    

     

Esta  decisión se adopta en el trámite de revisión del fallo proferido por el Juzgado  34 Penal Municipal con función de conocimiento de Cali el 17 de febrero de  2023, que declaró la improcedencia de la acción de tutela formulada por  Esperanza Gómez Silva contra Facebook Colombia S.A.S. y Meta Platforms, Inc.    

     

SINTESIS  DE LA DECISIÓN    

     

La Sala Primera de Revisión de Tutelas resolvió la  acción de tutela presentada por Esperanza Gómez Silva contra Meta Platforms,  Inc. La demandante alegó la violación de sus derechos a la libertad de  expresión, la igualdad y no discriminación, al debido proceso, al trabajo y a la  libertad de escoger profesión u oficio. La Corte encontró  que Meta vulneró los derechos fundamentales de la accionante.    

     

En  sus consideraciones, la Corte reconoció  la novedad del asunto objeto de estudio, toda vez que es el primero de esta Corporación  en abordar de forma amplia el debate sobre los derechos fundamentales y la  moderación de contenidos que adelantan los operadores de redes sociales. Sobre  el particular, la Corte destacó que,  si bien dicha facultad es esencial para garantizar un Internet libre y seguro, los operadores de redes sociales deben respetar unos  límites que se enmarcan en la protección de derechos fundamentales reconocidos  en la Constitución y el bloque de constitucionalidad.    

     

Este  caso también planteó un debate novedoso sobre la competencia de los jueces  colombianos para pronunciarse sobre controversias relacionadas con redes  sociales, las cuales suceden en un espacio virtual, pero cuya casa matriz está  ubicada en el exterior. La Corte explicó que, cuando una controversia sucede en  el ciberespacio, los jueces nacionales deben adaptar el principio de  territorialidad para identificar si la controversia tiene una conexión  relevante con el país, como la prestación de servicios a usuarios en Colombia o  el tratamiento de datos personales en el territorio nacional. En este sentido,  la Corte enfatizó que el carácter trasnacional de Internet no excluye la  obligación del Estado colombiano de proteger los derechos fundamentales. De  esta forma, cuando la amenaza o vulneración de los derechos fundamentales  sucede en el ciberespacio, el juez de tutela tendrá competencia para  pronunciarse si dicha amenaza o vulneración produce efectos relevantes en Colombia.    

     

La Corte también señaló que las empresas que  administran redes sociales son un espacio sui generis en el que  convergen su naturaleza de foro público digital con la administración exclusiva  de compañías con intereses económicos, entre otros, relacionados con la  obtención masiva de datos. Esta característica no excluye a los intermediarios  de redes sociales del deber de maximizar la libertad de expresión y otros  derechos fundamentales al establecer sus normas comunitarias o las llamadas  “normas de la casa”. Ello implica que toda restricción a los discursos que  circulan en redes sociales debe cumplir con los elementos del test tripartito  de libertad de expresión: legalidad de la medida, su necesidad y su  proporcionalidad.    

     

Asimismo,  la Corte destacó que los  intermediarios tienen un deber de transparencia no sólo frente a sus normas  comunitarias, sino también frente a los procedimientos de moderación de  contenidos. Esto se traduce en que los intermediarios deben fijar reglas claras  tanto sobre los procedimientos a seguir como sobre las consecuencias de  publicar un contenido infractor. En el mismo sentido, la Sala destacó que los  intermediarios tienen un deber de asegurar una aplicación uniforme, coherente,  no discriminatoria y sensible al contexto de sus normas comunitarias.    

     

Por  último, la Corte señaló que, aunque  no existe una regulación precisa en el ámbito nacional sobre el alcance de las  actividades como influenciador o influenciadora en redes sociales, lo cierto es  que estas actividades, en el marco de actividades no prohibidas, pueden  calificarse como propias de un trabajo independiente y, por lo tanto,  susceptibles de protección a la luz de la Constitución Política.    

     

Si bien la Corte reconoció que en la creación de perfiles  de redes sociales hay varios riesgos de que personas inescrupulosas los  utilicen para actividades ilícitas, como por ejemplo para  fines de explotación sexual, este hecho no puede servir como fundamento para  que se cierren sin transparencia y justificación suficiente las cuentas de  personas que ejercen o han ejercido la pornografía fuera de línea. Si las redes  sociales tienen como criterios para la moderación de contenidos las actividades  offline que ejercen las personas, estos criterios deben ser expuestos  con claridad en sus reglas de casa. También debe permitirse un debido proceso  para poder cuestionar de manera razonable la decisión de la red social.    

     

A la  luz de estos criterios, la Corte concluyó  que las decisiones que resultaron en la eliminación de los contenidos de la  cuenta de Instagram de la accionante y, finalmente, en la supresión de la  cuenta misma restringieron ilegítimamente su derecho a la libertad de  expresión, entre otras razones, porque la compañía no fue transparente en sus  procedimientos y en la aplicación de sanciones en su caso. En consecuencia, la  Corte determinó que también se vulneró el derecho al debido proceso.    

     

     

Por  estas razones, la Corte estableció una serie de órdenes encaminadas a  garantizar la aplicación uniforme y no discriminatoria de sus normas  comunitarias. En igual sentido, dio órdenes para asegurar el acceso a las  políticas de la compañía en castellano y en un sitio web unificado, así como  los mecanismos con los que cuentan los usuarios para impugnar las decisiones  propias de la moderación de contenidos. Por último, la Corte invitó al Consejo  Asesor de Meta a publicar un dictamen consultivo sobre la aplicación de  estándares de derechos humanos frente a contenidos potencialmente violatorios  de las normas sobre desnudos y actividad sexual entre adultos.    

     

TABLA DE CONTENIDO    

I.     ANTECEDENTES    

1.    La demanda de tutela    

2.    Traslado y contestación de la tutela    

3.    Decisiones objeto de revisión inicial    

3.1.     Primera instancia    

3.2.     Impugnación    

3.3.     Segunda instancia    

4.    Primeras actuaciones en sede de revisión    

5.    Decisión de primera  instancia objeto de revisión    

6.    Nuevas actuaciones en sede de revisión    

7.    Intervenciones presentadas en el trámite de  tutela    

II.       CONSIDERACIONES    

1.    Planteamiento del caso y problema  jurídico a resolver    

2.    Controversias jurisdiccionales en casos  relacionados con redes sociales y la competencia del juez de tutela    

3.    Consideraciones generales sobre la moderación de contenidos    

3.1.     Evolución de la moderación de  contenidos y su funcionamiento    

3.2.     Críticas y desafíos de la  moderación de contenidos    

3.3.     La intervención del Estado en  la moderación de contenidos    

4.    Debates en materia de derechos fundamentales  en el marco de la facultad amplia de moderación de contenidos    

4.1.     Libertad de expresión y moderación de  contenidos    

4.2.     Debido proceso y moderación de contenidos    

4.3.     Igualdad y no discriminación en la moderación de contenidos    

4.4.     Naturaleza jurídica y protección constitucional de las  actividades desarrolladas por los y las influenciadoras digitales    

5.    Análisis del  caso concreto    

5.1.     Competencia de la Corte Constitucional    

5.2.     Análisis de los requisitos  de procedibilidad    

5.2.1.      Legitimación por activa    

5.2.2.      Legitimación por pasiva    

5.2.3.      Subsidiariedad    

5.2.4.      Inmediatez    

5.3.     Sobre la alegada carencia actual de objeto    

5.4.     Estudio de los debates de fondo    

5.4.1.      El  contenido de las normas comunitarias de Instagram sobre “desnudez y actividad  sexual de adultos” y de “servicios sexuales entre adultos”    

5.4.2.      Descripción  del procedimiento de moderación de contenidos aplicado por Meta a publicaciones  violatorias de sus normas comunitarias    

5.4.3.      La  aplicación de las normas comunitarias y el procedimiento de moderación de  contenidos adelantado en el caso de la demandante    

5.5.     Conclusión    

6.    Órdenes de tutela    

III.      DECISIÓN    

     

I.                   ANTECEDENTES    

     

1.             La demanda de tutela    

     

1.                  Esperanza Gómez Silva es una ciudadana colombiana  que, según indica en su demanda, goza de amplio reconocimiento nacional e  internacional como modelo y por haber participado en actividades de pornografía[1]. En su escrito de tutela, la accionante señaló que con el objetivo de  consolidar su marca personal y diversificar sus negocios, abrió una cuenta en  la red social Instagram hace varios años.    

     

2.                  Entre el mes de marzo y el 15 de mayo de 2021, los  administradores de la plataforma le informaron a la demandante que habían  eliminado al menos 17 de sus publicaciones debido a que contenían fotografías  calificadas de ofrecer “servicios sexuales de adultos”, de manera que  infringían las normas comunitarias de Instagram[2]. La red social también le advirtió a la señora Gómez Silva que, para  evitar la eliminación total de su cuenta, incluidos sus archivos,  publicaciones, mensajes y seguidores, debía cumplir con las normas comunitarias[3].    

     

3.                  El 16 de mayo de 2021, Meta desactivó su cuenta de  Instagram, en la que tenía más de cinco millones cuatrocientos mil seguidores[4]. La accionante consideró que esta acción fue arbitraria porque ella  cumplió con las normas comunitarias. Al respecto, aseguró que: (i) nunca  infringió los derechos de autor; (ii) siempre publicó contenido real apto para  todo público; (iii) no promovió servicios sexuales, actos de terrorismo, de  odio, ni juegos de azar; (iv) tampoco promovió drogas ilegales, medicamentos  sin receta médica o armas de fuego; (v) respetó al resto de miembros de la  comunidad pues no discriminó,  amenazó ni acosó a persona alguna; (vi) siempre  usó un lenguaje apropiado; (vii) no fomentó autolesiones; y, (viii) sus  publicaciones nunca promovieron la violencia o alguna práctica inadecuada[5]. La peticionaria insistió especialmente en que las publicaciones que  originaron el cierre de su cuenta nunca incluyeron servicios sexuales para  adultos; ellas consistieron en fotografías suyas en las que aparecía en ropa  interior, similares a las de otras modelos e influencers, cuyas cuentas  no fueron desactivadas[6].    

4.                   Según el escrito de tutela, Esperanza Gómez Silva  presentó sin éxito alrededor de veinte solicitudes al operador de Instagram  para que restableciera su cuenta[7]. La accionante indicó, además, que, si bien abrió una nueva cuenta en  Instagram, la desactivación de la original, con más de cinco millones de  usuarios, le causó graves perjuicios económicos. Lo anterior, según queda  expuesto en su demanda, se debe a que el éxito de las actividades publicitarias  como influencer dependen de la cantidad de seguidores que se tengan en  una cuenta[8].      

     

5.                  En diciembre de 2021, con fundamento en los hechos  expuestos, Esperanza Gómez Silva formuló una acción de tutela en contra de  Facebook Colombia S.A.S e Instagram Colombia, para obtener la protección de sus  derechos fundamentales a la igualdad y a la no discriminación, a la libertad de  expresión, al libre desarrollo de la personalidad, al trabajo, a la vida digna  y al mínimo vital y móvil. Estos derechos, en su opinión, fueron vulnerados por  las accionadas que tomaron la determinación de eliminar su cuenta. En  particular, argumentó que Instagram la discriminó por subir contenidos que  otras personas publican libremente en esa red social pero que, a diferencia de  ella, no desarrollan actividades de pornografía fuera de la plataforma. En  consecuencia, la demandante solicitó al juez constitucional ordenarle a las  accionadas restablecer su cuenta de Instagram (con seguidores incluidos),  conminarlas a cesar la persecución en su contra y condenarlas en abstracto al  pago de una indemnización por lucro cesante y daño emergente[9].    

     

2.             Traslado y contestación de  la tutela    

     

6.                  Mediante el Auto 488 del 10 de diciembre de 2021, el Juzgado  Treinta y Cuatro Penal Municipal con Funciones de Conocimiento de Cali admitió  la demanda de tutela, ordenó el traslado a Facebook Colombia S.A.S y vinculó a  “META PLATFORMS, INC. con sede en Colombia”, a la Superintendencia de Industria  y Comercio y al Ministerio de Tecnologías de la Información y las  Comunicaciones (en adelante MinTIC)[10]. Asimismo, el juzgador de primera instancia ordenó a Facebook Colombia  y al MinTIC aportar la dirección de correo electrónico para notificaciones de  Facebook, Inc. y Meta Platforms, Inc. A continuación, se reseñan las respuestas  de las entidades accionadas y vinculadas al proceso.    

     

2.1.           Facebook  Colombia S.A.S.    

     

7.                   Facebook  Colombia S.A.S declaró carecer de legitimación en la causa por pasiva, por  cuanto Meta Platforms, Inc. es la empresa encargada del manejo y administración  del servicio de Instagram para los usuarios que residen en Colombia. Asimismo,  la sociedad manifestó que la acción resulta improcedente porque: (i) no tiene  relevancia constitucional, al tratarse de un asunto estrictamente económico; y  (ii) no cumple con los requisitos de inmediatez y subsidiariedad. Al respecto,  Facebook Colombia S.A.S. sostuvo que el amparo fue interpuesto más de seis  meses después de la vulneración alegada y que la tutelante cuenta con otros  mecanismos de defensa judicial, en la jurisdicción ordinaria, para ventilar la  discusión contractual por las condiciones de uso de la cuenta de Instagram. La  entidad también aseguró que la actora si bien hubiera podido acudir a las  herramientas disponibles en el servicio de Instagram no demostró haber  completado el proceso ante el operador de la red social para solicitar la  reactivación de su cuenta[11]. Por todo  ello, la sociedad solicitó su desvinculación del proceso y, de forma  subsidiaria, rechazar la acción por improcedente o denegar la protección  solicitada.    

     

2.2.           Instagram  Colombia, Meta Platforms, Inc. “con sede en Colombia”    

     

8.                  Los  accionados no dieron respuesta a la acción de tutela de la referencia.    

     

2.3.           Superintendencia  de Industria y Comercio y Ministerio de Tecnologías de la Información y las  Comunicaciones    

     

9.                  La  Superintendencia de Industria y Comercio indicó que, a la fecha de la  contestación de la acción de tutela de la referencia, no existían procesos  adelantados por Esperanza Gómez Silva ante dicha entidad. En el escrito la  Superintendencia reseñó sus competencias, e insistió en que en el presente caso  debería ser desvinculada del proceso debido a que no vulneró los derechos  fundamentales de la accionante[12].    

     

10.             Por  su parte, el Ministerio de Tecnologías de la Información y las Comunicaciones  no respondió a la acción de tutela.    

     

3.             Decisiones objeto de  revisión inicial    

     

3.1.     Primera instancia    

     

11.             El Juzgado 34 Penal Municipal con función de conocimiento  de Cali, en sentencia del 20 de diciembre de 2021, declaró  improcedente la acción de tutela por incumplimiento del requisito de  subsidiariedad. El juez estimó que la  demandante no agotó en debida forma los mecanismos de protección que tenía a su  alcance ni demostró un perjuicio irremediable. Por un lado, la accionante no  probó haber completado el proceso de restablecimiento de su cuenta ante el  operador de la red social y, por el otro, no acudió a la jurisdicción ordinaria  para dirimir un conflicto que versaba sobre cuestiones legales derivadas del  incumplimiento de las políticas comunitarias establecidas por Instagram. El  juez de primera instancia también sostuvo que la empresa Meta Platforms, Inc.  era la encargada del manejo y administración del servicio de Instagram y, como  se trata de una compañía con sede en el extranjero, no  podía “emitir algún tipo de orden en su contra”[13].    

3.2.     Impugnación    

     

12.             Esperanza Gómez Silva impugnó la sentencia de  primera instancia con base en los siguientes argumentos. En primer lugar, la  accionante indicó que, al contrario de lo señalado por el juez de primera  instancia, Meta Platforms Inc. sí está sometida a la jurisdicción constitucional  del país, puesto que todas las empresas nacionales o extranjeras que usan el espectro  electromagnético colombiano para desarrollar actividades comerciales, deben  respetar la Constitución y a las leyes de Colombia. Asimismo, Esperanza Gómez  Silva manifestó que el juez de primera instancia desconoció que, según las  condiciones de uso de Instagram, los tribunales nacionales son competentes para  resolver los conflictos que se presenten entre los usuarios de esa red social y  la empresa Meta Platforms, Inc.    

     

13.             En segundo lugar, la demandante señaló que la  controversia planteada en su acción de tutela no versa sobre un asunto de  naturaleza civil relacionado con las obligaciones que se desprenden de un  contrato de adhesión, sino que su petición está dirigida a obtener la  protección de sus derechos fundamentales a la libertad de expresión, a la  igualdad y a la no discriminación, al libre desarrollo de la personalidad, al  trabajo, a la vida digna y al mínimo vital y móvil. En tercer lugar, la  accionante manifestó que, al contrario de lo señalado por el juez de primera  instancia, antes de acudir a la acción de tutela, le solicitó en más de veinte  ocasiones a Instagram que restableciera su cuenta y siguió el procedimiento interno  para tal efecto, sin obtener una respuesta. En cuarto y último lugar, la señora  Esperanza Gómez Silva afirmó que el juez de primera instancia omitió vincular  al proceso en debida forma a Meta Platforms, Inc. y usar la figura del curador ad  litem para garantizar el derecho al debido proceso de dicha empresa[14].    

     

3.3.     Segunda instancia    

     

14.             El Juzgado 7 Penal del Circuito con función de conocimiento  de Cali, en sentencia del 9 de febrero de 2022, confirmó la decisión impugnada.  Este juzgado también consideró que la tutela no cumplía con el requisito de subsidiariedad, pues la accionante contaba con  medios judiciales ordinarios para resolver cualquier controversia relacionada con las condiciones de uso de Instagram[15].    

     

4.             Primeras actuaciones en sede de revisión    

     

La Sala de Selección de Tutelas Número 6  seleccionó el expediente de la referencia por medio del auto del 30 de junio de  2022. La sustanciación de su trámite fue asignada por sorteo a la Sala Novena  de Revisión[16]. A partir del 11 de enero de 2023, de conformidad con el cambio en la  integración de las Salas de Revisión de Tutelas, el análisis del presente  expediente pasó a la Sala Primera. A continuación, se resumen los autos  proferidos por esta corporación en el proceso.    

     

4.1.      Auto del 26 de septiembre de 2022    

     

15.             La Sala Novena de Revisión de la Corte  Constitucional profirió el Auto del 26 de septiembre de  2022 a través del cual decretó la práctica de pruebas y la suspensión del  término para fallar. En la providencia, ordenó a Facebook Colombia S.A.S. y  a Instagram Colombia allegar al despacho de la magistrada sustanciadora un certificado de existencia y representación legal de la  empresa Instagram Colombia, y responder a un conjunto de cuestiones  relacionadas con: (i) las condiciones de uso y la política comunitaria de  Instagram; (ii) el cierre de cuentas, su restablecimiento y la moderación de  contenidos; (iii) el procedimiento que pueden seguir los usuarios para  controvertir la inhabilitación de una cuenta; (iv) las razones y procedimientos  usados para la desactivación de la cuenta de Esperanza Gómez Silva; (v) el  correo electrónico de notificaciones de Meta Platforms, Inc; y (vi) las  relaciones entre Facebook Colombia S.A.S. y Meta Platforms, Inc.    

     

16.             Dentro del término probatorio, Facebook Colombia  S.A.S. informó al despacho de la magistrada sustanciadora que “no está en  capacidad legal de proporcionar la información requerida por cuanto no es la  entidad encargada legalmente del manejo y la administración del servicio de  Instagram”[17]. Al respecto, reiteró que su objeto social se limita a brindar  “servicios relacionados con soportes de ventas para publicidad, marketing y  relaciones públicas”, que es una empresa “distinta y autónoma de Meta (…), con  personalidad jurídica y patrimonio propio e independiente de terceros” y no es  “la mandataria, agente o representante de Meta”[18].    

     

17.             La apoderada también informó que Facebook Colombia  S.A.S. está en una situación de control indirecto respecto de Meta Platforms,  Inc. a través de Facebook Global Holdings II LLC, conforme a lo señalado en su  certificado de existencia y representación. Pese a lo anterior, Facebook  Colombia S.A.S. manifestó que, “en el espíritu de colaboración y buena fe, se  proporciona información públicamente disponible en relación con el Servicio de  Instagram”[19]. En este sentido, dicha empresa señaló que, para fallar el caso de la  referencia, la Corte Constitucional puede consultar: (i) las condiciones de  uso, (ii) las normas comunitarias, (iii) las herramientas de información para  reportar o apelar la inhabilitación de cuentas, (iv) las políticas de desnudos  y actividad sexual de adultos y servicios sexuales y (v) las medidas para  aplicar las políticas del servicio de Instagram e inhabilitar cuentas[20].    

     

4.2.      Auto 1678 de 2022    

     

18.             El 4 de noviembre de 2022, la Sala Novena de  Revisión de Tutelas de la Corte Constitucional profirió el Auto 1678 de 2022, a  través del cual vinculó al proceso a Meta Platforms, Inc. En esa misma  providencia, se convocó a Meta Platforms, Inc., a Facebook Colombia S.A.S, a  Esperanza Gómez Silva y a diecisiete expertos a una sesión técnica, para  obtener mayores elementos de juicio para adoptar una decisión de fondo en  virtud de los debates complejos y novedad que representa el caso. Esa sesión se  celebró el 15 de noviembre de 2022 de forma virtual.    

     

19.             Por otro lado, la entonces Sala Novena de Revisión  de Tutelas ordenó a Meta Platforms, Inc. responder un conjunto de preguntas  relacionadas con: (i) las condiciones de uso y  la política comunitaria de Instagram que prohíben la publicación de contenido  calificado de ofrecer servicios sexuales para adultos; (ii) las reglas y los  procedimientos aplicables al cierre de cuentas, su restablecimiento y la  moderación de contenidos; (iii) las actuaciones que pueden seguir los usuarios  para controvertir la inhabilitación de una cuenta; (iv) el procedimiento  seguido para desactivar la cuenta de la accionante; (v) el correo electrónico  de notificaciones de Meta Platforms, Inc.; (vi) las herramientas técnicas que  usa la plataforma para luchar en contra de la trata de personas y la  pornografía infantil; (vii) la temática de las y los influencers y la  monetización de publicaciones; y (viii) las relaciones entre Facebook Colombia  S.A.S. y Meta Platforms, Inc.    

     

4.3.      Contestación de Meta Platforms, Inc. y solicitud de nulidad    

     

20.             Dentro del término de  traslado, Meta Platforms, Inc. presentó un memorial  mediante el cual se  pronunció sobre la acción de tutela de la referencia[21] y, además, solicitó decretar la nulidad del  proceso y ordenar la devolución del expediente al juez de primera instancia  “para que realice el trámite de la acción de tutela integrando debidamente el  contradictorio”[22]. En esencia, dicha sociedad sostuvo que el  proceso debía anularse pues “no fue debidamente vinculada y notificada en el  trámite de las dos instancias que se surtieron en este expediente”[23]. Además, según lo dispuesto en el Auto 288 de 2009, cuando una parte  no es debidamente vinculada, “el procedimiento adecuado consiste en devolver el  expediente al juez de instancia con la finalidad que subsane el vicio y se  integre correctamente el contradictorio”[24].    

     

21.             Asimismo, Meta Platforms, Inc. solicitó a esta  Corporación tener en cuenta que no tuvo oportunidad de participar en la sesión  técnica que celebró la Corte Constitucional debido a que dicha diligencia tuvo  lugar el 15 de noviembre de 2022 y dicha empresa recibió en sus oficinas  principales en Menlo Park el  correo certificado en donde se le notificó el Auto 1678 de 2022 el 14 de  noviembre de 2022. Por ese motivo, consideró que:    

     

“Meta ha sido privada de la misma oportunidad que se les  otorgó a las demás partes del proceso de poder actuar en la audiencia y hablar  directamente ante la H. Corte Constitucional, así como de debatir en tiempo  real las consideraciones de los demás intervinientes, y de responder las  preguntas de los H. Magistrados en el marco de una audiencia pública.”[25].    

     

22.             Por otra parte, Meta Platforms, Inc. señaló que, de conformidad con lo expresado por la  demandante en la sesión técnica del 15 de noviembre de 2022 y en diversos  medios de comunicación, existen indicios de que Esperanza Gómez Silva está  domiciliada en Miami, situación que, de comprobarse, “sustraería la  jurisdicción y competencia de los jueces colombianos para conocer de este  asunto”[26], en virtud de lo señalado en los artículos 37 del Decreto 2591 de  1991, 18 y 19 del Código Civil, la Sentencia T-213 de 2001 y las condiciones de  uso del servicio de Instagram. Por ese motivo, con base en los artículos 265 a  268 del Código General del Proceso y con el fin de determinar cuál es el domicilio  de la peticionaria, la sociedad accionada solicitó,  primero, que se ordene a Esperanza Gómez Silva allegar una copia de las páginas  de su pasaporte en las que consten los registros de entrada y salida a Colombia  desde el 1º de enero de 2019 hasta la fecha de la exhibición del mencionado  documento. Segundo, que se oficie al Ministerio de Relaciones Exteriores y a  Migración Colombia, para que alleguen al proceso una certificación de los  movimientos migratorios de la peticionaria desde el 1º de enero de 2019.    

     

4.4.      Auto 063 de 2023    

     

23.             El 30 de enero de 2023, la Sala Primera de Revisión  de la Corte Constitucional estudió la solicitud de nulidad elevada por la parte  accionada. En su análisis, la Sala encontró que, efectivamente, se produjo una  vulneración del derecho a la defensa de Meta Platforms, Inc. porque no se le  notificó adecuadamente del auto admisorio del trámite de tutela. En sus  consideraciones, la Sala estimó que, en primer lugar, por ser una sociedad  extranjera constituida al amparo de las leyes del estado de Delaware, Estados  Unidos, y domiciliada en 1601 Willow Road, Menlo  Park, California 94025, Meta Platforms, Inc. no contaba con una dirección para  ser notificada en Colombia.    

     

24.             En segundo lugar, la  providencia señaló que la vinculación de Facebook Colombia S.A.S. desde el inicio  del trámite no subsanó la falta de notificación a Meta Platforms, Inc. En tercer lugar, la providencia indicó que, aunque en el presente caso  se alega la presunta vulneración de los derechos fundamentales de la señora  Esperanza Gómez Silva, lo cierto es que la  actora no se encuentra en una situación de debilidad manifiesta que haga  imperioso resolver el asunto inmediatamente. En cuarto lugar, aunque las  decisiones de instancia no afectaron materialmente los intereses de Meta  Platforms, Inc., la Sala consideró esencial surtir el trámite de primera  instancia con la debida notificación.    

     

25.             En todo caso, la Corte Constitucional consideró que  no se configuró una vulneración del derecho al debido  proceso de Meta Platforms, Inc. por la ausencia de participación en la sesión  técnica que se celebró el 15 de noviembre de 2022. En particular, para la  Sala no se violó el derecho al debido proceso, porque: (i) la sesión técnica es  un espacio para la consecución de pruebas, pero no es el único escenario ni  oportunidad para que la Corte recoja un acervo probatorio; (ii) no se trata de  un espacio de confrontación entre partes; y, (iii) Meta tuvo la oportunidad de  pronunciarse sobre las preguntas que le fueron remitidas a propósito de la  convocatoria a la sesión técnica.    

     

26.             En consecuencia, por medio  del Auto 064 de 2023 se declaró la nulidad de todas las actuaciones surtidas en  el proceso T-8.764.298 luego del auto admisorio de la demanda, salvo de las  pruebas recaudas en el curso del proceso de tutela -incluida la sesión técnica-  y se ordenó al Juzgado 34 Penal Municipal con función de conocimiento de Cali  rehacer el trámite.    

     

5.             Decisión de primera instancia objeto de revisión    

27.             Una vez se avocó nuevamente conocimiento del  proceso, el juez de primera instancia ordenó la práctica de las pruebas  solicitadas por Meta Platforms, Inc., de manera que le pidió a la accionante  remitir copia de las hojas de su pasaporte y ofició a Migración Colombia para  que informara sobre las entradas y salidas de Esperanza Gómez Silva entre el 2019  y la fecha de la providencia. Surtido el traslado de las pruebas, Meta  Platforms, Inc. indicó que, teniendo en cuenta que la señora Gómez permaneció  tan solo 352 días en el país entre enero de 2019 y diciembre de 2022, era  evidente que su domicilio principal no estaba en Colombia y, por ende, el juez  de tutela carecía de competencia para pronunciarse de fondo. La accionante  también respondió con la reiteración de que su domicilio principal estaba en  Cali, pero que ocasionalmente viajaba a Miami por cuestiones laborales.    

     

28.             Por otro lado, el juez de primera instancia vinculó  al proceso al Ministerio de Tecnologías de la Información y las Comunicación  (MINTIC) y a la Superintendencia de Industria y Comercio para que se  pronunciaran sobre la demanda[27]. Sin embargo, no consta en el expediente respuesta alguna por parte de  MINTIC. Por su parte, la Superintendencia de Industria y Comercio se pronunció  sobre el caso. En su respuesta referenció el alcance de su competencia  jurisdiccional específicamente en relación con el derecho a la protección de  datos personales o habeas data. Según la Superintendencia, a partir de  las leyes 1266 de 2008 y 1581 de 2015, el legislador le confió a dicha entidad  la facultad de vigilar que el tratamiento de datos personales respete “los  principios, derechos, garantías y procedimientos previstos” en la ley. En ese  sentido, argumentó que no tiene competencia para vigilar la posible violación  de los derechos que alega la accionante, a saber, libertad de expresión,  igualdad, debido proceso, entre otros[28]. En consecuencia, solicitó ser desvinculada. No obstante, el juez no  se pronunció sobre tal solicitud[29].    

     

29.             Mediante sentencia del 17 de febrero de 2023, el  Juzgado 34 Penal Municipal con función de conocimiento de Cali declaró  nuevamente la improcedencia de la acción de tutela. El juez fundamentó su  decisión en el incumplimiento del principio de subsidiariedad. Al respecto, el juez  señaló que la accionante contaba con un mecanismo idóneo para impugnar las  decisiones de eliminación de cuentas o contenido de Instagram, esto es, la  impugnación directa ante Instagram[30]. Sobre este punto, el juzgador consideró que la accionante no probó  que hubiera acudido a esos mecanismos[31].    

     

30.             Por último, el juez señaló que si la demandante  tenía objeciones sobre las Condiciones de Uso de Instagram podría ventilarlas  ante la jurisdicción ordinaria, especialidad civil[32]. En efecto, el juez señaló que, aunque la accionante alega una  violación a sus derechos fundamentales, en el fondo la disputa se relaciona con  la interpretación y aplicación de las Condiciones de Uso de Instagram, que  según indicó el juzgador, fueron aceptadas libre y voluntariamente por la  demandante. Así las cosas, el juez consideró que todas las objeciones que tenga  la accionante sobre la aplicación de esas normas constituye una disputa de tipo  legal y no constitucional, de manera que es la jurisdicción ordinaria,  especialidad civil, la llamada a conocerlas.    

     

31.             La sentencia de primera instancia después de la  nulidad no fue impugnada. Por eso, el 1 de marzo de 2023, el Juzgado 34 Penal  Municipal con función de conocimiento de Cali remitió el expediente al despacho  de la magistrada sustanciadora. Mediante informe secretarial de 2 de marzo, la  Secretaría General de la Corte Constitucional envió el expediente con la  subsanación del trámite de primera instancia para proceder con el estudio del  caso.    

     

6.             Nuevas actuaciones en sede de revisión    

     

32.             Mediante el auto de 29 de mayo de 2023, la Sala  Primera de Revisión de Tutelas ordenó: (i) remitir un cuestionario a Meta  Platforms, Inc.[33] y otro a Esperanza Gómez Silva[34]; y (ii) poner a disposición de Meta Platforms, Inc. el contenido de la  sesión técnica celebrada el 16 de noviembre de 2022 con el ánimo de que se  pronuncie, de considerarlo pertinente, sobre las preguntas que allí se  realizaron.    

     

33.             Esperanza Gómez Silva remitió oficio de respuesta a  las preguntas formuladas por el despacho sustanciador el 6 de junio de 2023, en  el que afirmó estar domiciliada en Cali. Además, aportó pruebas de nuevos  cierres en su cuenta actual de Instagram. Por su parte, Meta Platforms, Inc.,  el 29 de junio de 2023, remitió oficio de respuesta al cuestionario formulado  por la Corte y no aportó pruebas adicionales.    

     

34.             La Sala emitió un último auto de pruebas y  suspensión de términos el 9 de octubre de 2023, con el fin de consultar a  expertos sobre temáticas relacionadas con la moderación de contenidos e  inteligencia artificial. En respuesta, las partes enviaron sus apreciaciones  sobre el cuestionario remitido. Además, la organización Internet Lab remitió  un concepto sobre los procesos automatizados de moderación de contenidos.  Mediante auto del 12 de diciembre, el despacho sustanciador formuló una  actualización de términos para dejar claro el término para emitir sentencia.    

     

7.             Intervenciones presentadas en el trámite de tutela    

     

35.             La Sala convocó una sesión  técnica mediante el Auto 1678 de 2022, de manera que académicos, organizaciones  sociales que trabajan en temas de Internet y derechos humanos y expertos independientes pudiesen ilustrar a la  Corte sobre varias temáticas como la libertad de expresión, el enfoque de  género en la curación de contenidos en redes sociales, el tema de los  influenciadores y la administración de redes sociales. Además, la Corte recibió  varios conceptos a lo largo del trámite de tutela. A continuación, se presenta  un resumen de cada una de las intervenciones con una síntesis de las  experticias presentadas, según los bloques temáticos propuestos por la Sala  durante la audiencia pública celebrada.    

     

Tabla 1. Intervenciones recibidas en el trámite de la  tutela.    

Tema    1: libertad de expresión en redes sociales, enfoque de género, moderación de    contenidos y límites a lo que puede o no ser publicado en redes sociales   

Interviniente                    

Contenido    de la intervención   

Profesor Eric Goldman. Decano Asociado para la Investigación,    Facultad de Derecho de la Universidad de Santa Clara                    

El profesor Goldman presentó un    escrito y una intervención oral en los que abordó dos cuestiones. En primer    lugar, explicó la naturaleza jurídica de las demandas por la eliminación de    cuentas en plataformas digitales en Estados Unidos. En segundo lugar, argumentó    que imponer restricciones legales a la capacidad de los servicios de Internet para recoger, organizar y    diseminar contenido generado por usuarios, con el fin de eliminar cuentas o    remover contenido, puede conducir a resultados contraproducentes para la    libertad de expresión, en la medida en que puede permitir aún más    limitaciones a las voces que pueden participar en el entorno digital.   

Lorna Woods. Miembro del Centro de Derechos Humanos y docente de    Derecho de la Internet en la Universidad de Essex en el Reino Unido                    

Respecto de este bloque temático, la experticia oral y escrita de la    profesora Woods hizo referencia a las obligaciones de derechos humanos que    les corresponde observar a las empresas que prestan servicios de    intermediación en Internet, y las tensiones que pueden existir en el entorno    europeo frente al ejercicio de sus derechos como empresa. Al respecto,    mencionó la necesidad de abordar las tensiones mencionadas desde un estudio    de proporcionalidad que, entre otros elementos, tenga en cuenta las    alternativas con las que cuentan los intermediarios, diferentes a la    eliminación de cuentas, para limitar la circulación de contenidos chocantes    en sus plataformas.   

Fundación Pro-bono Colombia                    

Respecto de este bloque temático, la Fundación se refirió a la    tensión entre libertad de empresa y libertad de expresión que se configura en    el caso objeto de estudio. Al respecto, la Fundación señaló que, si bien la    definición de las reglas o condiciones de uso está amparada por la libertad    de empresa, es deber de la compañía respetar los derechos humanos y “no    establecer condiciones de uso ambiguas que permitan la vulneración de    derechos”. Además, propuso un análisis a partir del juicio de    proporcionalidad para establecer si las medidas adoptadas por Meta en este    caso son idóneas, necesarias y proporcionales para satisfacer el interés    superior de los niños, niñas y adolescentes. Al respecto, concluyó que no    hubo proporcionalidad con la medida relativa al cierre de las cuentas para    proteger los derechos de los niños, niñas y adolescentes.   

Juan Carlos Cortés. Director de la Organización Linterna Verde                    

En primer lugar, la organización se refirió a la relación entre    moderación de contenidos, censura y libertad de expresión. Al respecto,    indicó que la moderación de contenidos a escala es fundamental para mantener    a flote el ecosistema digital, por lo que no es deseable comparar esa    actividad con la censura. En segundo lugar, Linterna Verde se refirió a las    normas sobre desnudos y servicios sexuales de adultos de Instagram, las    cuales a su juicio buscan evitar que las plataformas de Meta se conviertan en    “espacios para la promoción de servicios comerciales que puedan involucrar el    tráfico, la coerción y los actos sexuales no consentidos”. En tercer lugar,    se refirió al problema de consistencia, escala y localización del modelo de    moderación de contenidos que aplica Meta. Por último, la organización se    refirió a los problemas de transparencia y debido proceso en la moderación de    contenidos, especialmente respecto de los creadores de contenido. Sobre este    asunto, destacó la importancia de contar con procedimientos y normas claras    que le permitan a quien crea un contenido -que le permite adquirir una    tribuna y un músculo económico- tener la confianza de que habrá garantías a    la hora de usar el servicio de las plataformas.   

Francisco Reyes Villamizar                    

El experto argumentó que el proceso analizado es, en realidad, de    naturaleza civil y está relacionado con la formación de los contratos que    suscriben las personas al crear cuentas en plataformas de redes sociales. A    su juicio, el contrato es de prestación de servicios de naturaleza onerosa,    en la medida en que el usuario paga en especie al proporcionar sus datos que,    posteriormente, explota el intermediario comercialmente. Además, señaló que,    al aceptar las reglas de la plataforma, los usuarios se obligan a desplegar ciertos    deberes de conducta. Estas reglas imponen algunas restricciones y limitan la    posibilidad de que los usuarios usen sus cuentas en contravía de los    principios de la plataforma. Para el interviniente, las reglas de Meta son    amplias o liberales y, por lo tanto, permiten un ejercicio amplio de la    libertad de expresión. En ese sentido, a partir del principio de normatividad    del contrato, siempre que esas reglas no sean ostensiblemente opresivas, son    obligatorias para las partes. En suma, para el interviniente, la eliminación    de los contenidos y las cuentas que incumplan los deberes de conducta    plasmados en las reglas de la red social, es una consecuencia razonable.   

Daniel Peña Valenzuela con apoyo de Juan    Simón Larrea. Universidad    Externado de Colombia                    

En primer lugar, el académico señaló que los operadores de redes    sociales no deben restringir la presencia digital de mujeres influenciadoras    y emprendedoras digitales por actividades vinculadas a la llamada industria    del entretenimiento para adultos, pues ello constituye una forma de    discriminación incompatible con los derechos fundamentales. Para el    interviniente, si bien la definición de reglas y procedimientos de moderación    de contenidos está amparada por la libertad de empresa, también es cierto que    dicha actividad encuentra un límite en los derechos fundamentales de las    personas. Además, el profesor destacó que, si bien es importante que las    plataformas protejan los derechos de personas más vulnerables frente a    ciertos contenidos, como los niños, las niñas y los adolescentes, subrayó la    necesidad de distinguir entre las redes sociales y otros medios como la    televisión, pues aquí no hay una relación de completa sujeción del consumidor    a la programación del medio, sino un contenido que se consume a discreción o    por demanda (rogado), y que se desprende de una interacción activa a través    de la predicción de los gustos y deseos del usuario. Por eso, el    interviniente consideró que no es acertado como mecanismo para proteger a los    niños, niñas y adolescentes apelar a procedimientos que victimicen a otras    poblaciones, en desmedro de la libertad de expresión. Por último, se refirió    a los estándares de derechos humanos que deben considerarse a la hora de    calificar un procedimiento de moderación de contenidos, especialmente para    evitar la discriminación y la vulneración de otros derechos.   

En primer lugar, la Fundación se refirió a la legitimidad de la    exclusión de publicaciones que se califican como relacionadas con servicios    sexuales para adultos. Sobre este asunto, presentó las distintas posturas que    existen al respecto y destacó la importancia de reconocer que estas reglas se    desprenden de la libertad de empresa, pero pueden chocar o entrar en tensión    con otros derechos, especialmente con la libertad de expresión. En segundo    lugar, Karisma se refirió a los estándares y garantías que deben tenerse en    cuenta a la hora de evaluar ejercicios de moderación de contenido, frente a    lo cual reseñó múltiples pronunciamientos de relatores de Naciones Unidas y del    Sistema Interamericano. A su juicio, en la moderación de contenidos, las    plataformas tienen un deber de respetar los derechos humanos y actuar con    debida diligencia para evitar abusos. En tercer lugar, la interviniente le    propuso a la Corte analizar las normas comunitarias utilizadas en el caso de    la peticionaria a la luz de estándares de derechos humanos, especialmente del    test tripartito sobre libertad de expresión. En cuarto lugar, Karisma se    refirió a la naturaleza de las redes sociales e indicó que no es adecuado    aproximarse a ellas a partir de la dicotomía clásica entre espacios públicos    y privados. Por último, se refirió a las afectaciones diferenciales que, en    el marco de la moderación de contenidos, pueden enfrentar las mujeres debido    al estigma que recae sobre los oficios que algunas de ellas desempeñan fuera    de la plataforma de la red social respectiva. Al respecto, sugirió aplicar    varias herramientas del enfoque de género al caso concreto.   

Ángela María Andrade Perdomo                    

La abogada Andrade señaló que este caso constituye un ejemplo de    misoginia digital y propuso el amparo de los derechos de la accionante al    trabajo, al debido proceso, al libre desarrollo de la personalidad y a la    igualdad.   

Gustavo Gómez. Director ejecutivo del Observatorio Latinoamericano    de Regulación, Medios y Convergencia (OBSERVACOM)                    

El interviniente trajo a colación las obligaciones que se desprenden    del Sistema Interamericano de Protección de Derechos Humanos sobre actores no    estatales obligados a la protección de derechos humanos. El director del    Observatorio, además, se refirió a las obligaciones específicas de las    plataformas. Allí, destacó la importancia de aplicar un test tripartito de    libertad de expresión a la moderación de contenidos en la medida en que dicha    actividad puede implicar restricciones ilegítimas a la libertad de expresión.    Por último, destacó la necesidad de establecer límites a esa facultad, en    particular desde la perspectiva del derecho a la igualdad y no discriminación    y de la libertad de expresión.   

Alma Beltrán y Puga, Universidad del Rosario                    

La profesora Beltrán centró su intervención en las dimensiones de    género del caso y en las posibles herramientas que la perspectiva de género    ofrece para su abordaje. En particular, se refirió a la estigmatización que    enfrentan las mujeres que se dedican a actividades como la pornografía, que    pueden redundar en actos discriminatorios en su contra en otros espacios. La    profesora consideró que, en este caso, el contenido producido por la    accionante en la plataforma Instagram es claramente distinguible del    contenido pornográfico.   

Tema 2: la actividad de influenciadores en    redes sociales   

Interviniente                    

Contenido    de la intervención   

Natalia Ramírez Bustamante. Universidad de los Andes, Semillero de    Investigación Trabajo y Derecho                    

La profesora Ramírez y los demás miembros del Semillero tocaron tres    puntos en su intervención oral y escrita. En primer lugar, se refirieron a la    naturaleza de la actividad de Esperanza Gómez Silva en Instagram, la cual    calificaron como una forma de trabajo independiente. En segundo lugar, se    refirieron a la cancelación de la cuenta de la señora Gómez, a la facultad de    moderación de contenidos y a la razonabilidad de dicha medida. Por último,    destacaron las garantías que deben ofrecer los operadores de redes sociales a    la hora de moderar contenidos, que incluyen, entre otros, claridad sobre sus    normas, debido proceso y sanciones menos lesivas a la cancelación y de    aplicación gradual incremental.   

Daniel Peña Valenzuela con apoyo de Juan    Simón Larrea. Universidad    Externado de Colombia                    

Frente a este asunto, el profesor Valenzuela se refirió al derecho al    trabajo digital y a la forma en la que la censura de ciertos contenidos en    redes sociales puede llevar no sólo a limitar el ejercicio del derecho al    trabajo, sino a profundizar estigmas sobre mujeres que, como la peticionaria,    suben contenidos sensuales sin coacción y en ejercicio de sus derechos a la    libertad de expresión y a la libertad individual.   

José Luciano Sanín. Viva la Ciudadanía                    

El interviniente se refirió específicamente a la naturaleza de la    actividad desarrollada por la accionante en la red social Instagram. A su    juicio, como influenciadora, la peticionaria es trabajadora y, por lo tanto,    tiene derecho a una serie de protecciones. Para esos efectos, trajo a cuento    la jurisprudencia constitucional sobre los trabajos independientes que se    realizan en espacios públicos y desarrolló una analogía con el espacio    digital. En ese sentido, señaló que a la accionante deben reconocérsele    dichas prerrogativas y, por lo tanto, su caso debe analizarse a la luz de los    derechos de los trabajadores independientes.   

Iván Daniel Jaramillo. Universidad del Rosario    

                     

El profesor Jaramillo se refirió al ámbito de trabajo en espacios    digitales, e insistió en la necesidad de establecer mecanismos de protección    de los derechos de los influencers en las redes sociales.   

Tema 3: administración, corresponsabilidad y    territorialidad en las disputas relacionadas con las redes sociales   

Interviniente                    

Contenido    de la intervención   

Wikimedia Foundation                    

La Fundación abordó varios puntos en su presentación oral y escrita.    En primer lugar, se refirió a las discusiones relacionadas con la    jurisdicción para juzgar actos potencialmente violatorios de derechos humanos    en Internet. Sobre el punto, insistió en la necesidad de que las empresas    intermediarias de Internet tengan una oficina física y cuenten con    representación legal en todos los países donde tienen operaciones comerciales.    En segundo lugar, Wikimedia se refirió a los procesos de moderación de    contenido, y destacó que ellos pueden abordarse desde diferentes enfoques y    modelos, pero que ninguno es perfecto y, por lo tanto, es necesario propender    por su eficacia y no por su perfección. Por último, la Fundación mencionó la    importancia de distinguir entre moderación de contenidos y protección de    datos.   

Nelson Remolina. Universidad de los Andes                    

El profesor Remolina señaló las deficiencias del sistema jurídico    vigente para comprender las dinámicas propias de Internet, donde confluyen    millones de personas de todo el mundo en tiempo real. Asimismo, se refirió a    decisiones de la Superintendencia de Industria y Comercio donde se ha    reconocido la corresponsabilidad entre las compañías nacionales y las    extranjeras por el uso compartido que hacen de los datos personales. En tal    sentido, subrayó que, si bien la autorregulación es la regla general,    los jueces nacionales pueden proponer fórmulas de regulación para    salvaguardar derechos humanos en Internet.   

Henry Sanabria. Universidad Externado de Colombia                    

El profesor Sanabria señaló que, a la luz del Código de Comercio    vigente, las empresas como Meta no tienen la obligación de tener un    representante directo en Colombia, a menos que desarrollen negocios de manera    permanente en el país. El interviniente señaló que, dado que Meta desarrolla    sus negocios en el extranjero, no debe tener una sucursal permanente en    Colombia. En tal sentido, se le debe notificar en el extranjero. Frente a    Facebook Colombia, afirmó que no debería estar vinculada al proceso y que a    través suyo no se puede vincular a Meta a un proceso judicial.   

José Alberto Toro. EAFIT                    

El profesor Toro abordó la cuestión de la corresponsabilidad entre    una empresa matriz y sus subsidiarias, que suelen ser personas jurídicas    independientes. Al respecto, señaló que, si bien hay varias tendencias, en    todo caso hay un marco de sentido común conforme al cual las empresas tienen    un deber de respetar derechos humanos y que la corresponsabilidad en estos    casos debe observarse a la luz del control efectivo que ejerce la matriz    sobre la filial.   

Fundación Karisma y El Veinte.                    

Como se detallará más adelante, estas organizaciones se pronunciaron    sobre la competencia de los jueces colombianos para conocer de este asunto.    Además, se pronunciaron sobre la solicitud de nulidad presentada por Meta    Platforms, Inc., al no haber podido participar de la sesión técnica    organizada por la Sala en este proceso. Frente a esa solicitud, la Fundación    Karisma y El Veinte insistieron en que no obran pruebas en el expediente que    permitan afirmar que Meta Plattforms no tuvo oportunidades de participar en    el proceso, especialmente en la sesión técnica adelantada por la Corte el 15    de noviembre de 2022.   

Tema 4: inteligencia artificial, actividades    offline y moderación de contenidos   

Interviniente                    

Contenido    de la intervención   

InternetLab                    

La organización basada en Brasil intervino por solicitud de la Corte    Constitucional, en virtud de su amplia experticia el estudio de la    inteligencia artificial como herramienta para la moderación de contenidos. En    su intervención, la organización señaló que la moderación de contenidos se    enfrenta al enorme reto de revisar miles de millones de contenidos publicados    en pocos segundos. Por eso, la inteligencia artificial opera como “un    artefacto fundamental en la moderación a gran escala”. Sin embargo, la    organización señaló que la inteligencia artificial “no puede evitar    completamente el riesgo de cometer errores en sus tareas de moderación de    contenido” y que en sus investigaciones ha constatado que las inteligencias    artificiales empleadas para la moderación de contenidos pueden reproducir    desigualdades estructurales y potenciar violencias contra poblaciones    subrepresentadas en el espacio digital, como las mujeres o las personas    LGBT+. En todo caso, la organización manifestó que existen mecanismos para la    mitigación de estos riesgos como, por ejemplo, diseñar bases de datos más    complejas y completas que permitan dar cuenta de los contextos en los que se    publican ciertos contenidos o pasos que aseguren la revisión por parte de    personas formadas en asuntos de género y otras áreas del conocimiento.    

     

II.                CONSIDERACIONES    

     

1.             Planteamiento del caso y problema jurídico a resolver    

     

36.              La peticionaria demandó por vía de tutela el  restablecimiento de una cuenta de la que era titular en Instagram, uno de los  servicios que ofrece la multinacional Meta Platforms, Inc. Según la accionante,  su cuenta alcanzó una comunidad de más de cinco (5) millones de seguidores en  dicha red social por cuenta de su trabajo como influencer. Sin embargo,  de acuerdo con Meta Platforms, Inc., la cuenta de la actora fue eliminada  después de al menos treinta y una (31) violaciones a las “Condiciones de Uso y  de las Normas Comunitarias sobre ofrecimiento de servicios sexuales y  desnudez”.[35]  Según la accionante, después de intentar el restablecimiento de la cuenta por  vía de reclamación directa a Instagram, interpuso la acción de tutela pues  consideró vulnerados sus derechos a la igualdad y no discriminación, al mínimo  vital, la libertad de expresión y al debido proceso. A su juicio, Meta desplegó  una conducta discriminatoria en su contra, pues mientras otras influenciadoras  publican contenido similar o idéntico al suyo en Instagram, a ella se la  censura porque fuera de esa red social ha desarrollado actividades de  pornografía.    

37.             Por su parte, Meta Platforms, Inc. señaló que los  jueces colombianos carecen de jurisdicción y competencia para resolver la  tutela de la referencia y que la demanda es improcedente. Asimismo, la empresa explicó  que la cuenta de la actora no fue eliminada de manera incorrecta o arbitraria,  pues en al menos 31 oportunidades la accionante violó las “Condiciones de Uso y  las Normas Comunitarias sobre ofrecimiento de servicios sexuales y desnudez”, a  las cuales la demandante se sometió voluntariamente, en calidad de contratante[36]. Por lo tanto, según la accionada, no removió la cuenta porque la  peticionaria sea “modelo o estrella de cine para adultos”[37], sino  que lo hizo porque ella infringió de forma repetitiva las políticas de la  plataforma. Meta también adujo que no vulneró los derechos fundamentales de la  peticionaria porque: (i) siempre le suministró una explicación suficiente sobre  las razones por las cuales sus publicaciones vulneraron las reglas de la  plataforma y le dio la oportunidad de apelar esas decisiones; (ii) las Condiciones  de Uso y las Normas Comunitarias de Instagram se aplican a todos los usuarios  por igual, buscan garantizar un equilibrio entre los derechos fundamentales de  esas personas y combatir conductas perjudiciales con el fin de proteger a la  comunidad; y (iii) la accionante tiene otra cuenta en Instagram, a través de la  cual se expresa, comparte contenido y promueve su actividad económica.    

     

38.             Los asuntos que pone de presente la tutela en  cuestión son novedosos, en especial porque es la primera vez que la Corte  Constitucional se enfrenta a un caso de moderación de contenidos por parte de  redes sociales y su relación con los derechos fundamentales de sus usuarios. Particularmente,  el caso concreto plantea debates contemporáneos relacionados con: (i) la  jurisdicción para resolver controversias suscitadas por la moderación de  contenidos hecha por parte de las redes sociales; y (ii) el alcance de dicha moderación  por parte de las plataformas, incluido un asunto sobre el que poco se ha  discutido, no solo en Colombia sino en otros lugares, acerca de si las  conductas fuera de línea (offline) pueden ser tenidas en cuenta para  determinar la permanencia en una determinada red social. Además, la presente  tutela permite discutir temas que hasta ahora se empiezan a abordar en nuestra  jurisprudencia, como el rol de los llamados influencers y la naturaleza  constitucional de su actividad en Internet. Finalmente, y en relación específica con los hechos de este caso, hay  una discusión compleja sobre la moderación de contenidos frente a publicaciones  que incluyen semidesnudos o un contenido sexualmente sugerente, aunque no  explícito.    

     

39.             Por ende, y antes de analizar el caso concreto, la  Corte brindará un panorama general sobre las discusiones que se han avanzado  alrededor de las temáticas descritas, y que son centrales para el análisis de  la presente tutela. Así, en primer lugar, y dado que una de las primeras  cuestiones que planteó Meta es la posible falta de jurisdicción del juez de  tutela para conocer de la presente acción, la Corte iniciará con una referencia  sobre las discusiones en materia jurisdiccional cuando están involucradas  controversias relacionadas con el Internet y las redes sociales. En particular, la Corte se enfocará en esta  parte en las reglas que determinan la competencia del juez de tutela en este  tipo de casos.    

     

40.             En segundo lugar, la Corte se referirá a la  naturaleza de las redes sociales y al concepto y alcance de la moderación de contenidos  en relación con el ejercicio de derechos fundamentales, como la libertad de  expresión, el debido proceso y la igualdad. En relación con la igualdad, la  Corte se concentrará en algunas de las discusiones que se han gestado en el  ámbito internacional sobre el género y la sexualidad en el proceso de  moderación de contenidos. En tercer lugar, la Corte se referirá al ejercicio  del oficio de influencer, a la naturaleza de dicha actividad y al ámbito  de su protección.    

     

41.             Finalmente, y luego de este recuento, la Corte  abordará el caso concreto. Inicialmente, analizará el asunto de la competencia  en concreto y la procedibilidad de la acción. Debido a que en este caso se  superan dichos requisitos, enseguida la Sala explicará por qué en este caso se  configura la carencia actual de objeto por daño consumado, derivada de la  imposibilidad –alegada por Meta Platforms, Inc.– de reactivar la cuenta de  Instagram de la accionante que fue eliminada. En todo caso, ante la importancia  de pronunciarse sobre el contenido de los derechos en discusión, la Corte  estudiará de fondo los hechos alegados por la demandante.    

     

42.             Como se ilustrará tras el análisis, para la Corte,  en efecto, Meta Platforms, Inc. restringió ilegítimamente el derecho a la  libertad de expresión de la accionante, al no ser transparente en los  procedimientos ni en la aplicación de las sanciones que llevaron a la  eliminación de varios de sus contenidos y, en última instancia, de su cuenta en  Instagram. Al tomar aquellas decisiones, la accionada vulneró además los  derechos a la igualdad y no discriminación, a la libertad de escoger profesión  u oficio, al debido proceso y al trabajo de la accionante. Por lo tanto, la Corte  adoptará órdenes para evitar que las vulneraciones a estos derechos se repitan.    

     

2.             Controversias jurisdiccionales en casos  relacionados con redes sociales y la competencia del juez de tutela                     

     

43.             Internet es un fenómeno global que cuestiona la  división política del mundo en Estados nacionales. Su capacidad para influir de  manera simultánea en la vida de miles de millones de personas en el mundo revela  su naturaleza trasnacional. Si bien las conexiones que posibilita estimulan la interacción entre personas de  diversos contextos culturales, sociales y económicos, también genera nuevas  conflictividades. La resolución de estas controversias constituye, por tanto,  un desafío tanto para los Estados como para los intermediarios privados que  administran de forma predominante la infraestructura de Internet.    

     

44.             El caso de las redes sociales es paradigmático:  como más adelante se ilustrará, la capacidad de que los usuarios creen sus  propios contenidos y la moderación ejercida por los intermediarios dan lugar a  no pocos conflictos. Para abordarlos, las redes sociales han adoptado reglas orientadas  a facilitar la resolución de controversias. Sin embargo, ellas pueden entrar en  tensión con las normas estatales que, con el fin de proteger a sus ciudadanos,  también prevén reglas para resolverlas.    

     

45.             En esa medida, la presente tutela se enfrenta a un  primer problema de si los jueces nacionales, en este caso el juez de tutela  colombiano, tiene jurisdicción para abordar una controversia que involucra a  una red social cuya casa matriz se encuentra en el extranjero y, más aún, si el  juez puede ejercerla cuando un usuario pueda no estar domiciliado en Colombia.  Así, y sin perjuicio del análisis del caso concreto, que se adelantará en la  sección correspondiente, es importante abordar aquí algunas consideraciones en  materia de jurisdicción del juez constitucional en casos relacionados con Internet y, en particular, con las redes sociales.  En este sentido, la Corte se referirá, primero, a algunos de los dilemas que  surgen al definir la jurisdicción en casos relacionados por Internet. Segundo,  la Corte estudiará los criterios que la legislación y la jurisprudencia colombiana  ofrecen para resolver tales dilemas.     

     

46.             Los casos relacionados con Internet ponen a prueba  las reglas tradicionales sobre conflictos internacionales de jurisdicción, las  cuales se basan –por lo general– en el principio de territorialidad. En efecto,  como lo señaló esta Corte, dicho principio se refiere a que “cada Estado puede  prescribir y aplicar normas dentro de su respectivo territorio, por ser éste su  ‘natural’ ámbito espacial de validez”[38]. Sin embargo, como lo nota Uta Kohl, “la actividad online no  está por defecto ubicada en un único territorio. Prima facie, una página  web puede accederse en todas partes. ¿Significa esto que todo Estado puede  regular todo sitio web y, si no, cuál Estado puede y cuál no?”[39]    

     

47.             Al definir las reglas para asumir jurisdicción  sobre casos relacionados con Internet,  los sistemas jurídicos se enfrentan a dos extremos problemáticos. Por una  parte, si el principio de territorialidad se entiende en forma muy estricta, se  podría dejar sin regulación o en impunidad conductas que no suceden en ningún  lugar físico, pero que en todo caso impactan a personas o intereses de los  Estados. Por otra parte, si no se delimitan criterios para que los Estados  ejerzan su jurisdicción en disputas relacionadas con Internet, cada uno  asumiría una especie de jurisdicción universal por el solo hecho de que una  conducta tenga lugar en el ciberespacio. Esta situación generaría inseguridad  jurídica a los particulares y empresas, quienes no podrían saber a qué normas  se deben acoger.    

     

48.             El primer extremo, consistente en una aplicación  irreflexiva del principio de territorialidad, es problemático, porque  implicaría la existencia de espacios vedados para la acción del Estado. Esta situación es  inaceptable a la luz de la Constitución, pues sus autoridades no pueden  renunciar a garantizar la vigencia del orden constitucional y los derechos  fundamentales de las personas. Como bien lo señaló esta Corte en la sentencia  C-1147 de 2001, aunque la existencia de un “mundo virtual” o ciberespacio  desborda las fronteras nacionales, nadie podría sostener que, por tratarse de Internet, los  usuarios no pueden ver amenazados sus derechos constitucionales[40].  En Internet, como dijo la Corte en la mencionada sentencia, “puede haber una  realidad virtual, pero ello no significa que los derechos, en dicho contexto,  también lo sean. (…) [Los derechos] no son virtuales: se trata de garantías  expresas por cuyo goce efectivo en el llamado ‘ciberespacio’ también debe velar  el juez constitucional”[41].    

     

49.             Varias  de las intervenciones en este proceso dan cuenta de lo mismo. Así, la  Universidad de Essex[42], la Fundación Karisma, El  Veinte[43] y el profesor Nelson Remolina[44] señalaron que, si bien las  actividades de los intermediarios en redes sociales suelen trascender las  fronteras nacionales, los Estados no pueden renunciar a su deber de proteger y  garantizar los derechos humanos. Por su parte, el abogado Francisco Reyes  Villamizar[45] destacó que las propias  reglas de Meta Platforms, Inc. reconocen la competencia de los jueces  nacionales para resolver controversias que se susciten entre la compañía y los  usuarios, mientras que el profesor Eric Goldman señaló que siempre que la  compañía despliegue su actividad en el país no habría dificultad para que los  jueces domésticos ejerzan su jurisdicción[46].    

     

50.             Ahora bien, así como es problemático renunciar a  regular la Internet, otro extremo peligroso es que los Estados extiendan su  jurisdicción a cualquier disputa que suceda en la red, bajo el argumento de que  no ocurre en “ningún” territorio. Que los Estados se abstengan de definir  criterios claros y consistentes para aplicar las normas nacionales en espacios  virtuales trae problemas de legitimidad y soberanía. Por ejemplo, “¿puede un  Estado A prohibir a los ciudadanos de un Estado B, ubicados en el Estado B,  publicar anuncios de tractores morados en Internet solo porque el Estado A prohíbe la venta de tractores morados?”[47]. Es  más, aún si fuera legítimo que los Estados extendieran su jurisdicción a  cualquier disputa que suceda en Internet, entender la jurisdicción estatal de esta forma podría llevar a que  las normas no cumplan su propósito central, que es guiar la conducta de quienes  están sujetos a ellas. Si un usuario de Internet puede estar sujeto a cualquier  sistema jurídico por el solo hecho de conectarse a la red, sería muy difícil  que ajuste su comportamiento a las normas de todos ellos.    

     

51.             Adicionalmente, al definir reglas para intervenir  en disputas online, los Estados deben ser cuidadosos de no limitar  injustificadamente la circulación libre de ideas en Internet. Al respecto, en  su intervención en este proceso, Wikimedia resaltó que si bien la Corte es  dueña de su competencia y puede establecer el alcance de su intervención en  asuntos que involucran plataformas digitales, también recalcó la importancia de  evitar que dichas intervenciones supongan una limitación a los derechos de la  ciudadanía según agendas gubernamentales[48].  Asimismo, los intervinientes señalaron que dichas intervenciones no pueden  menoscabar la facultad de moderación de contenidos, que además de ser legítima  es necesaria para garantizar un Internet libre y seguro[49].    

     

52.             En otras palabras, los tribunales tienen que  desarrollar reglas para determinar hasta dónde llega su competencia para  regular fenómenos que tienen alcance global, pero que también pueden tener  implicaciones nacionales. De hecho, la necesidad de fijar reglas sobre  jurisdicción para fenómenos que pueden estar vinculados con más de un  territorio no es nueva[50]. Por ejemplo, con los avances en medios de transporte y la  multiplicación de transacciones internacionales es común que sobre un mismo  asunto puedan concurrir los intereses de varios Estados. Es una realidad  entonces que, ante una misma disputa, pueden existir vínculos con varias  jurisdicciones. Lo que hace el Internet es extender los límites de esta realidad.    

     

53.             En este sentido, los casos relacionados con Internet  pueden estar vinculados con más de un territorio, pero esto no significa que  las reglas sobre jurisdicción desarrolladas por cada sistema jurídico dejen de  tener aplicación. En efecto, como indica la Cepal, “entre los Estados existe  una amplia tendencia a hacer valer su jurisdicción respecto de conductas y  actividades que tienen origen en otro Estado o territorio, siempre que tengan  una conexión relevante con el país que la establece. Esta conexión suele  entenderse en relación con la actividad de dirigirse a los consumidores, hacer  negocios, causar un daño o afectar de alguna manera concreta a personas o  bienes ubicados dentro de las fronteras de un país”[51]. Lo relevante, para que una corte asuma competencia, es establecer la  fuerza de la relación entre la controversia y su país. Este no es un proceso  estático: depende, por una parte, de los factores que cada sistema jurídico use  para asignarle jurisdicción a sus tribunales y, por otra parte, del contexto  del caso concreto[52].    

     

54.             Ahora bien, si el ciberespacio no está ubicado en  ningún territorio, ¿cómo se puede establecer dicha conexión entre una disputa y  la jurisdicción de un Estado? La doctrina se refiere a dos enfoques del  principio de territorialidad en Internet: los enfoques país-de-origen y país-de-destino. En el primero, las  cortes solo pueden ejercer competencia sobre las actividades online  originadas en su país, ya sea porque ahí se ubica el servidor o porque el juez  estudia una conducta realizada por una persona en su territorio. En el segundo  enfoque, lo relevante es dónde se concretan los efectos de la actividad. Sin  embargo, como lo señala la misma doctrina:    

     

“[h]ay  una tercera vía. Los Estados en ocasiones, [especialmente] en el contexto del  derecho privado, han intentado evitar las posiciones extremas de los enfoques  país-de-origen y país-de-destino, optando por una opción intermedia. Esa  posición intermedia está ocupada por un enfoque país-de-destino moderado, según  el cual solo los Estados a los que se ha dirigido específicamente la actividad  online tienen competencia para regularla”[53].    

     

55.             A partir de las consideraciones que anteceden, la  Corte concluye que el Estado no puede renunciar a ejercer su jurisdicción sobre  la Internet. Asimismo, es necesario que existan criterios claros para aplicar  la jurisdicción en casos relacionados con Internet, los cuales no se limitan a  un entendimiento estricto del principio de territorialidad. Sin embargo, sí es  necesario establecer algún tipo de conexión entre la disputa que se quiere  someter al conocimiento de los tribunales nacionales y el territorio de ese  país. La fuerza de dicha conexión puede depender de distintos factores, debido  a que cada Estado tiene sus propias normas para determinar el alcance de su  jurisdicción.    

     

56.             En Colombia, existen criterios para definir si una  controversia relacionada con Internet tiene una conexión relevante con el país.  Por ejemplo, el artículo 2º de la Ley 1581 de 2012, que establece el régimen de  protección de datos personales, señala que “[l]a presente ley aplicará al  tratamiento de datos personales efectuado en territorio colombiano o cuando al  Responsable del Tratamiento o Encargado del Tratamiento no establecido en  territorio nacional le sea aplicable la legislación colombiana en virtud de  normas y tratados internacionales”[54].  Esta norma desarrolla el mandato del artículo 15 de la Constitución, según el  cual “[e]n la recolección, tratamiento y circulación de datos se respetarán la  libertad y demás garantías consagradas en la Constitución”.    

     

57.             El ámbito de aplicación de la Ley 1581 de 2012  muestra que el principio de territorialidad se puede adaptar al mundo virtual.  En efecto, la ley aplica sobre quien recolecta, usa, almacena o trata datos  personales en el territorio colombiano, con independencia de que esté o no  domiciliado en Colombia. Incluso, la ley trae una regla adicional, según la cual  esta regulación puede aplicar sobre el tratamiento de datos que no tenga lugar  en el territorio colombiano, si hay normas o tratados internacionales que  establezcan la aplicación de la ley colombiana. Al respecto, la Corte nota que  la Delegatura para la Protección de Datos de la Superintendencia de Industria y  Comercio reiteró en varias decisiones que la ley colombiana es aplicable al  tratamiento de datos incluso si el responsable o encargado no está domiciliado  en el país[55].  De estas decisiones se evidencia que, mediante plataformas como Google,  Facebook y WhatsApp, las empresas que las operan recolectan datos personales en  Colombia y en esa medida están sometidas a la legislación colombiana en lo  relacionado con su tratamiento.    

     

58.             Ahora bien, tratándose de procesos de tutela, la  manera en que la Corte aborda esta acción también permite identificar criterios  para asignar la jurisdicción. En efecto, la Constitución dispone en su artículo  86 que “toda persona” tiene acción de tutela para la protección de sus derechos  fundamentales. Por su parte, el artículo 37 del Decreto 2591 de 1991 establece  la competencia a prevención para conocer de las acciones de tutela en primera  instancia en cabeza de “los jueces o tribunales con jurisdicción en el lugar  donde ocurriere la violación o la amenaza que motivaren la presentación de la  solicitud”. De acuerdo con lo anterior, el factor territorial de competencia de  los jueces de tutela lo determina el lugar físico en el que se produjo la  vulneración o amenaza a los derechos fundamentales de la parte afectada o, como  también lo ha precisado la jurisprudencia, donde dicha situación produjo sus  efectos[56].    

59.             Aunque estos criterios se usan para la distribución  interna de las competencias entre los jueces de tutela, ellos ilustran que el  ordenamiento colombiano adopta un enfoque de territorialidad mixto. En este enfoque,  lo relevante para determinar la competencia es la vulneración o amenaza de los  derechos fundamentales. Así las cosas, el juez competente es el del lugar donde  ocurre la amenaza o vulneración o, de forma subsidiaria, donde esta produce sus  efectos.    

     

60.             En resumen, el hecho de que una disputa se  relacione con Internet no quiere decir que los jueces nacionales carezcan de  competencia para conocerla. Por el contrario, aunque Internet pone a prueba los criterios tradicionales para asignar la jurisdicción,  es posible establecer reglas que permitan regular lo que sucede en el  ciberespacio sin que se convierta en una intervención ilimitada en el mundo  virtual. En Colombia, el régimen de protección de datos personales ofrece un  ejemplo de cómo el criterio de territorialidad se puede redefinir para incluir  asuntos que, aunque pueden no suceder físicamente en el país, sí tienen una  conexión relevante con el territorio nacional. De igual forma, en línea con la  jurisprudencia de esta Corte en materia de acción de tutela, el juez  constitucional puede ser competente para conocer una disputa cuando la  vulneración o amenaza de los derechos fundamentales ocurre en Colombia o, en subsidio,  cuando de forma clara produce efectos en el país.    

     

3.             Consideraciones generales  sobre la moderación de contenidos    

     

61.             Como arriba se indicó, uno de los asuntos centrales  del caso que ocupa la atención de la Corte se refiere al alcance de la moderación de contenidos ejercida por las  plataformas de redes sociales. En particular, versa sobre la manera en que esta  función incide en el ejercicio de derechos fundamentales como la libertad de  expresión, la igualdad y el debido proceso.    

     

62.             La moderación de contenidos se puede definir como “la práctica  organizada de revisión de los contenidos generados por usuarios en páginas de  Internet, redes sociales u otras plataformas”[57].  Generalmente, el proceso de moderación de contenidos, realizado  principalmente por los intermediarios de internet, busca identificar y  abordar contenidos que son perjudiciales, ilegales o que violen las normas de  la comunidad de una determinada plataforma, lo que puede derivar en distintas  consecuencias, que van desde limitar la visualización de un contenido  específico hasta el cierre definitivo de una particular cuenta[58].    

     

63.             La moderación de  contenidos, pese a ser un fenómeno cotidiano en el ecosistema digital, no deja  de ser una cuestión novedosa para el derecho constitucional, pues plantea  interrogantes sensibles sobre la interacción entre las reglas privadas de las  plataformas, la intervención del Estado y los estándares internacionales en  materia de derechos humanos, entre otras cuestiones.    

     

64.             En esta sección, la Corte discutirá  el origen y funcionamiento de la moderación de contenidos, y expondrá algunos de los desafíos y  cuestionamientos que se han identificado alrededor de esta actividad. Asimismo,  la Corte se detendrá en el papel que debe jugar el Estado frente a la actividad  de moderación de contenidos.    

     

65.             Como resultado de este  análisis, un punto en el que se insistirá es que si bien es natural que sean  las plataformas o administradoras de redes sociales quienes realicen  principalmente la moderación de contenidos y cuenten con cierta flexibilidad  para adelantar dicha actividad, ella está sujeta a ciertos límites que pueden  ser protegidos por los Estados.  Dichos límites obedecen fundamentalmente  al respeto por los derechos humanos.    

     

3.1.     Evolución de la moderación de contenidos y su funcionamiento    

     

66.             Desde la Declaración de Principios sobre la  Sociedad de la Información, adoptada hace más de dos décadas, se reconoció que  el nuevo milenio estaría marcado por el desarrollo de tecnologías para “crear, consultar, utilizar y compartir la información y el conocimiento”[59] como elementos esenciales de la vida social, cultural y económica. En  el centro de esta transformación se ubicó la Internet, cuyo alcance global,  luego de aquella Declaración, ha tenido un impacto significativo en la vida de  los seres humanos.    

     

67.             Entre las múltiples expresiones de esta  transformación se encuentran los servicios de redes sociales (social  networking services) definidos como “servicios basados en la web que permiten a los usuarios construir un  perfil público o semipúblico dentro de un sistema delimitado, conectar con  otros usuarios y explorar sus redes”[60]. Estos servicios de redes sociales habitan Internet como espacios  dinámicos y en constante actualización, donde la comunicación fluye de manera  inmediata y global. Ellos  son administrados por intermediarios de Internet, en su mayoría empresas  privadas, que poseen y gestionan la infraestructura tecnológica y definen las  políticas de uso. Como lo indicó esta Corte en la sentencia SU-420 de 2019, son  estos intermediarios los “que de  una u otra forma determinan y posibilitan las interacciones en línea”[61].    

     

68.             El impacto de las redes sociales  en la vida de las personas es indiscutible. En estas redes las personas se  encuentran, interactúan, crean contenido, se informan, discuten, acceden a  productos y servicios entre muchas otras actividades[62]. Lo hacen, además, a una escala sin precedentes. A  enero de 2024 se calculaba que alrededor de 5.4 billones de personas usaban  redes sociales[63]; esto es, más  del 60% de la población mundial[64]. Instagram, el servicio de Meta Platforms, Inc. que se encuentra en el centro de esta disputa,  tenía a febrero de 2023 1.35 billones de usuarios[65]. A mayo del 2024, el  promedio global de minutos diarios consagrados al consumo de contenido de redes  sociales fue de 143, es decir, poco más de 2 horas al día[66]. Si nos concentramos en Colombia, más de 38 millones de personas son  usuarias de redes sociales en el país, es decir, cerca del 75% de sus habitantes.  Esta población usuaria invirtió, a enero de 2024, un promedio de 3 horas y 23  minutos diarios en redes sociales, mucho más que el promedio global[67]. Como bien lo dice Robert  Post, “las redes sociales se han vuelto omnipresentes en nuestras vidas de  formas en que otros medios nunca lo fueron.”[68]    

     

69.             La  interacción masiva entre personas ofrece beneficios  evidentes, como la conexión entre personas en distintos lugares, el acceso a la  información, la promoción de la investigación, la deliberación pública y las  oportunidades para la defensa de los derechos humanos[69]. Sin embargo, como lo advirtió la anterior Alta Comisionada de las  Naciones Unidas para los Derechos Humanos: “[l]a  revolución digital plantea [igualmente] un considerable problema de derechos  humanos a escala mundial. Sus beneficios indudables no anulan sus riesgos  evidentes”[70]. Las redes sociales en particular enfrentan como  ningún otro servicio digital los desafíos propios del proyecto casi utópico de  un Internet libre y abierto para todas las personas del  mundo[71]: acoso en línea -que puede traducirse en  violencia en el mundo real-, aumento de la discriminación en desmedro de los  más vulnerables, engaño y abuso de niñas, niños y adolescentes, compromiso del  derecho a la intimidad, uso indebido de los datos de las personas, riesgos  democráticos sin precedentes a través de noticias falsas y manipulación de  información[72], por citar solo algunos de los desafíos.    

70.             En medio de la discusión sobre cómo preservar los  beneficios de un Internet libre, pero minimizando algunos de sus riesgos más  problemáticos, tempranamente surgió la pregunta sobre cómo arbitrar lo que circula en Internet, que se conoce como moderación de  contenidos. Esta actividad que, como se indicó, es realizada principalmente por  los intermediarios de internet, se ha ido transformado a lo largo de los años,  y ha estado lejos de ser pacífica.    

     

71.             A continuación, y sin pretender ser exhaustivos, se presentan algunos de  los hitos más relevantes de la trayectoria que se ha surtido en relación con la  moderación de contenidos, que muestra cómo las plataformas han pasado de  aplicar reglas dispersas a desarrollar políticas explícitas, mecanismos de  supervisión y procesos de rendición de cuentas frente a sus decisiones de  moderación[73].  Sin embargo, también concluye con la descripción del modelo de moderación de  contenidos que han adoptado de manera reciente algunas plataformas, y que ha  generado en unos sectores no pocas manifestaciones de preocupación.    

     

72.             Hitos en la moderación de contenidos. Con la proliferación  de plataformas digitales en la década de los noventa, la principal preocupación  de los usuarios y de las instituciones públicas giraba en torno a la  circulación descontrolada de pornografía infantil y a la violación de derechos  de autor[74].  Con la aparición de las redes sociales a mediados de la primera década del  nuevo milenio, esas preocupaciones terminaron trasladándose a ellas. Así, por  ejemplo, plataformas pioneras como YouTube establecieron desde sus inicios  normas de uso que delimitaban lo que podía y no podía publicarse[75], enfocadas en  atender esas dos inquietudes centrales: la pornografía y los derechos de autor.    

     

73.             Sin embargo, un evento en la plataforma MySpace  en 2006 implicó un giro radical en la aproximación de los intermediarios de  redes sociales a su discurso sobre la libertad de expresión en Internet. Este fue el caso de Megan Meier. En 2006, Megan Meier, una  joven de 13 años, fue contactada por el perfil de Josh Evans, quien decía ser un joven de 16 años. Eventualmente, Evans comenzó  a insultar a Meier y le dijo: “Eres una persona horrible, y el mundo sería un  mejor lugar sin ti en él”. Minutos después de leer este mensaje, Meier se colgó  con una correa en su habitación[76]. Al investigar los hechos,  se descubrió que Josh Evans no existía. Se trataba realmente de Lori Drew, una  mujer de 47 años y madre de una antigua amiga de Megan con quien tuvo una  discusión que rompió su lazo de amistad tiempo atrás.    

     

74.             Además de la investigación judicial, la discusión  pública dirigió sus críticas hacia MySpace: ¿cómo era posible que  la red social permitiera la creación de una identidad falsa para matonear a una  niña hasta llevarla al suicidio? La condena pública a MySpace supuso un  declive irreversible de la compañía, y obligó a otros intermediarios a  considerar con más seriedad la necesidad de regular la conducta digital de sus  usuarios y de disponer equipos para asegurar la supervisión y cumplimiento de  estas reglas[77].  En efecto, el caso de Megan Meier ilustró el nivel de penetración de las redes  sociales en la vida cotidiana de las personas, y sus posibles consecuencias  negativas en el mundo offline. En ese contexto, se volvió ilusorio  pensar en redes sociales abiertas y desreguladas. Se hizo, entonces, central  pensar en la moderación de contenidos en estos espacios[78].    

     

75.             La década siguiente  ilustró un fortalecimiento en los procesos de moderación de contenidos por  parte de las plataformas. En esa época, se comenzaron a expedir normas  comunitarias y ofrecer reportes de transparencia y posibilidades de apelación  de sus decisiones. En efecto, entre 2010 y 2011, Facebook introdujo sus  primeros Community standards en diferentes idiomas, lo que marcó un hito  en la explicación de las reglas de conducta para sus usuarios. Paralelamente,  Twitter, Youtube e Instagram comenzaron a ofrecer reportes de transparencia y  posibilidades de apelación a sus decisiones[79].    

     

76.             En ese tiempo, además, las redes  sociales empezaron a tener un gran protagonismo, por hechos como la Primavera  Árabe, que mostraron que estas podrían servir como canales centrales para  amplificar voces ciudadanas y difundir información sobre protestas y  violaciones de derechos humanos[80]. En materia de moderación de contenidos, las  plataformas, en respuesta, adoptaron decisiones complejas, y no exentas de  controversia. Por ejemplo, en 2011, Youtube permitió, por razones educativas,  documentales y científicas, la publicación de videos violentos, como los que mostraban  torturas policiales en Egipto y Libia. Al mismo tiempo, bloqueó en varios  países un video que era considerado ofensivo para las personas musulmanas, como  forma de prevenir la violencia. Por su parte, otras plataformas como Twitter  (hoy X) adoptaron políticas que permitían bloquear contenidos únicamente en  jurisdicciones específicas, sin eliminarlos globalmente[81].    

     

77.             Otro hito que marcó las discusiones de la época en materia de  moderación de contenidos ocurrió en el 2012 con la filtración de documentos  internos de Facebook, sobre los criterios que la empresa utilizaba para decidir  qué se eliminaba y qué no. Esto propició un amplio debate sobre la opacidad en  los criterios y funcionamiento de dicha moderación. En respuesta, en el 2013,  Facebook publicó su primer informe de transparencia. Este periodo marcó un  cambio claro: las plataformas pasaron de aplicar reglas ad hoc a diseñar  políticas explícitas y, aunque de forma incipiente, a rendir cuentas sobre su  implementación[82].    

     

78.             En los años que siguieron, las plataformas se enfrentaron a  desafíos muy complejos. Por ejemplo, en el 2014 apareció en Internet el video  de la decapitación del periodista estadounidense James Foley, lo que motivó a  YouTube a revertir su política previa y restringir la difusión de material  violento. Paralelamente, se introdujeron reglas contra “organizaciones  peligrosas” vinculadas al terrorismo. En 2015 y 2016, Twitter reformó sus  políticas de acoso tras un caso de hostigamiento masivo contra el elenco  femenino de una película. En el mismo periodo, las elecciones presidenciales de  Estados Unidos revelaron la magnitud de las campañas de desinformación impulsadas  tanto por actores estatales como por grupos organizados, lo que llevó a  Facebook a implementar un programa de verificación de hechos en alianza con  organizaciones acreditadas por la International Fact-Checking Network  (IFCN)[83].  Sin embargo, las plataformas fueron criticadas por su incapacidad para contener  la violencia étnica en lugares como Myanmar.    

     

79.             En 2017 y 2018 se lanzó el Global Internet Forum to Counter  Terrorism (GIFCT)[84],  un esfuerzo conjunto entre industria tecnológica, gobiernos, sociedad civil y  academia para coordinar la respuesta frente a contenidos terroristas y  extremistas violentos en línea. Sin embargo, también se multiplicaron los  problemas: Facebook Live comenzó a ser utilizado para transmitir suicidios y  tiroteos, como el asesinato de Philando Castile en 2018. Ese mismo año, Twitter  eliminó 70 millones de cuentas automatizadas, YouTube publicó su primer informe  de aplicación de normas comunitarias y Facebook creó el Oversight Board o  Consejo Asesor de Contenido (en adelante, el “Consejo Asesor”)[85], un  órgano independiente concebido como una especie de “tribunal supremo” para  resolver apelaciones y casos emblemáticos sobre moderación.    

     

80.             En el 2020, el Consejo Asesor, compuesto por 20 personas de  diversos campos, comenzó operaciones. Ese mismo año la pandemia del Covid-19 las  plataformas tomaron distintas medidas para contrarrestar la desinformación sanitaria[86]. Entre otras  cosas, prohibieron contenidos que estuvieran en contra de las fuentes oficiales  e hicieron una campaña masiva para etiquetar publicaciones relacionadas con la  pandemia. Ese año también, las plataformas se vieron enfrentadas con hechos  políticos complejos. Por ejemplo, a finales del 2020 se gestó una campaña de  desinformación para insistir en un posible fraude electoral en Estados Unidos.  Esta campaña escaló, tras el asalto al Capitolio de ese país, el 6 de enero de  2021. Facebook y Twitter bloquearon la cuenta del entonces presidente y  candidato Donald Trump y luego lo expulsaron[87].  En una de sus decisiones más conocidas, el Consejo Asesor revisó el caso, y  confirmó la suspensión, pero exigió criterios claros para determinar su  duración y alcance[88].    

     

81.             El 7 de enero de 2025, después de la elección de Donald Trump  para un nuevo periodo presidencial, Mark Zuckerberg, director ejecutivo de Meta  (antes Facebook) anunció cambios sustanciales en las políticas de verificación  de datos de sus plataformas Facebook, Instagram y Threads. Con  anterioridad se utilizaban verificadores externos, y ahora se pasa a un modelo  de arbitramento, que contiene “notas de la comunidad, siguiendo el modelo que  con anterioridad había adoptado X (antes Twitter) al cambiar de dueño[89]. Como se  discutirá más adelante, este cambio ha sido recibido por algunos como un  espacio de mayor libertad de expresión, pero por otros como una política que  puede exacerbar los discursos de odio y poner en riesgo a los más vulnerables.    

     

82.             En síntesis, lo que este recuento de unos cuantos hitos sobre la  evolución de la moderación de contenidos busca ilustrar, es que se trata de un  proceso complejo que se ha desarrollado en medio de hechos, tensiones y debates  éticos y políticos muy sensibles. La experiencia reciente muestra que la  moderación de contenidos tiene profundas repercusiones sociales y democráticas,  y que hay reservas sobre la completa dependencia del arbitrio de actores  privados, punto sobre el cual esta Corte se referirá más adelante.    

     

83.             Cómo se hace la  moderación de contenidos.  Como arriba se indicó, la  moderación de contenidos implica la práctica o proceso de revisar los  contenidos generados por los usuarios publicados en plataformas digitales. Lo que se busca es determinar si esos contenidos cumplen o no las  llamadas “normas comunitarias” o “reglas de la casa”. Si no lo hacen, se  generan una serie de consecuencias, como restricciones a la visualización de un  determinado contenido o su eliminación, la suspensión del usuario o el cierre  definitivo de la cuenta[90].    

     

84.             Las llamadas “normas comunitarias” o “reglas de la casa” son adoptadas por los operadores  de redes sociales que buscan definir cuáles contenidos o comportamientos son o no admisibles en una determinada plataforma. Se habla de que estas  normas tienen tres niveles[91]:    

     

·         Primer nivel. Suele corresponder con normas legales más o  menos uniformes alrededor del mundo sobre discursos considerados prohibidos,  como la pornografía infantil, la incitación al uso de la violencia física, la  propaganda de guerra y la apología al genocidio[92]. Existe una especie de “efecto espejo”, pues  estas normas legales se reflejan en las normas comunitarias que prohíben  circular tales discursos en redes sociales. Un ejemplo se encuentra en los  Estándares Comunitarios de Facebook, que prohíben difundir discursos que  inviten a cometer violencia severa[93].    

     

·         Segundo nivel. Se trata de contenido que, en principio, no  está prohibido por la ley pero que en el contexto de la red social se considera  inapropiado, chocante u objetable. Es usual que en las normas comunitarias se  establezcan conductas específicas que están prohibidas de plano o mecanismos  adicionales de verificación para definir si se trata de contenidos objetables o  no. En todo caso, estas normas no son uniformes en todas las plataformas, pues  “cada servicio decide por sí mismo lo que subjetivamente considera contenido  horrible u objetable”[94]. Un ejemplo de estas conductas pueden ser  imágenes sensuales o de alto contenido erótico, o contenidos informativos  explícitos de violencia.    

     

·         Tercer nivel. En este nivel está el contenido que no solo  es lícito, sino que además parece ser en principio inobjetable y por lo tanto  de circulación libre en la red social. Con el tiempo, el contenido que hace  parte de este nivel ha cambiado. En principio, se consideraba que todo aquello  que no fuera prohibido o sometido a restricciones podía circular libremente.  Ahora, hay una nueva práctica en la que los operadores de redes sociales  informan explícitamente qué tipo de contenido puede ser publicado y puesto en  circulación en ellas sin limitaciones[95].    

     

85.             Para garantizar el cumplimiento de estas reglas, la  moderación de contenidos se hace esencialmente de dos maneras: (i) una  moderación ex ante, es decir, una revisión de contenidos  desarrollada antes de que el material sea publicado, principalmente para evitar  la circulación de elementos violatorios de prohibiciones absolutas como la  pornografía infantil o de obras protegidas por derechos de autor; o (ii) una  moderación ex post, es decir, posterior a la publicación del contenido por parte de los usuarios. Este último  tipo puede ser reactivo, es decir, en reacción a una denuncia hecha por otros  usuarios (flagging), o puede ser activo, es decir, realizado de  forma unilateral por los mecanismos humanos y automatizados de control de  contenidos[96].    

     

86.             Esta curación se hace a través de la combinación de  equipos humanos de moderación de contenidos y de herramientas automatizadas de  inteligencia artificial (IA). Sin embargo, como lo explica el Consejo  Asesor  de Meta[97], esta curación ha evolucionado drásticamente en las últimas dos  décadas. Hoy cada vez más la moderación de contenidos se basa en inteligencia  artificial, pues este ejercicio implica el procesamiento de millones de datos  cada segundo[98]. Las herramientas de IA o algoritmos “usan aprendizaje de máquina  (conocido como machine learning)” que las entrenan “para buscar ciertos  contenidos y eliminarlos si incumplen con los términos y condiciones”[99]. Como también indica el Consejo Asesor, y se discutirá más adelante, no son pocos los riesgos de la  automatización, pues puede llegar a amplificar errores humanos, con sesgos  incrustados en los datos de entrenamiento y en el diseño de los sistemas, mientras  que las decisiones de aplicación suceden rápidamente, dejando pocas oportunidades para la supervisión humana”[100].    

     

3.2.     Críticas y desafíos de la moderación de  contenidos    

     

87.             Para los operadores de redes sociales, no es fácil  definir qué está permitido y qué está prohibido en el entorno digital. En  efecto, la discusión pública señala que el principal desafío de la moderación  de contenidos se relaciona con cuándo, cómo y por qué moderar uno u otro  contenido[101]. Frente a esta facultad, existen dos grandes posturas. Por un lado,  están quienes señalan que los operadores de redes sociales son laxos en la revisión de los contenidos y que, por tener  un modelo de negocios basado en la publicidad, dejan pasar contenido infractor  de sus propias políticas cuando los usuarios pagan por difundirlo[102]. Por otro lado, la posición contraria señala que es probable que los  operadores de redes sociales se excedan en el ejercicio de su facultad amplia  de moderación de contenidos[103].    

     

88.             Estas dos posturas son importantes porque ilustran  una tensión que es transversal a las discusiones sobre moderación de  contenidos. Tanto los operadores de redes sociales como los Estados (según se  verá más adelante) se enfrentan a un dilema sobre cómo evitar los extremos de regular en exceso o ser demasiado  permisivos. En este contexto, los operadores de redes sociales deben encontrar  un balance que permita aplicar estrictamente las reglas para impedir que  circule contenido atroz, mientras se garantiza que materiales potencialmente  objetables, pero en cualquier caso legítimos, circulen como obliga el derecho  internacional de los derechos humanos[104].    

     

     

90.             Voces expertas cuestionaron el fin del programa, con  el argumento de que Meta estaba “reabriendo las compuertas al mismo auge de  odio, desinformación y teorías de conspiración que provocaron [el ataque al  Capitolio de los Estados Unidos] del 6 de enero, y que continúan impulsando la  violencia en el mundo real”[108].  Como lo puso de presente la antigua relatora para la Libertad de Expresión de  la OEA, quien también fue miembro del Consejo Asesor de  Meta:    

     

“[La  labor de verificación de datos] no [la] pueden hacer las notas comunitarias de  manera confiable. Los usuarios no tienen ni el tiempo, ni la plata, ni el  método, ni el compromiso con la transparencia que tienen los verificadores de  datos. Las notas comunitarias pueden ser un complemento, pero no pueden cumplir  la labor de los verificadores. Todo esto, sin mencionar las interacciones no  humanas que van a intervenir en estos procesos, cada vez más sofisticadas y  difíciles de detectar (…)”[109].    

     

91.             En todo caso, la Corte debe fallar con base en los  hechos objeto de la tutela al momento en que sucedieron, por lo que las  políticas de Meta que deben analizarse son las que se aplicaron sobre la  accionante. No obstante, el contexto es relevante y evidencia que el debate  sobre el rol de los operadores de las plataformas en la moderación de  contenidos es actual y está en evolución constante. Asimismo, esta discusión está  relacionada con el debate que la Corte explicará a continuación: sobre la interacción  entre los contenidos que se comparte en redes sociales y los hechos que suceden  fuera de línea.     

     

92.             La discusión offline-online: el uso de  contenidos fuera de línea (offline) en la moderación de contenidos. Un debate que ilustra las dificultades de definir qué es aceptable  dentro de una plataforma y qué no lo es tiene que ver con el  análisis de conductas fuera de plataforma (offline) en la curación de  contenidos. Esta discusión parte de una pregunta esencial: ¿deben los  moderadores de contenido considerar lo que hacen las personas fuera de sus  cuentas como un parámetro para restringir el acceso a las plataformas? En este  debate se pueden encontrar, nuevamente, los dos extremos del dilema acerca de  cuándo la regulación es deficiente o puede ser excesiva.    

     

93.             Por una parte, cada vez más hay circunstancias en  las que se considera necesario tener en cuenta la conducta  de los usuarios fuera de línea, como aquellas en las que hay un riesgo cierto y  creíble de violencia hacia terceros. Esta postura puede ilustrarse con dos ejemplos.    

     

94.             Un primer ejemplo es el caso de Twitch, una plataforma de streaming dedicada a transmitir contenidos de  usuarios que interactúan en torno a los videojuegos. En 2021, Twitch  lanzó una política comprehensiva para enfrentar conductas graves cometidas fuera  de línea[110],  luego de una serie de denuncias sobre violencia sexual atribuida a usuarios  célebres de la plataforma en el marco del movimiento #MeToo[111]. Entre  las conductas offline que pueden ser investigadas bajo la nueva política  se incluyen las que constituyan riesgos sustanciales a la seguridad de la  comunidad como violencia extrema, terrorismo o reclutamiento, amenazas  explícitas o creíbles de violencia en masa, explotación, y acoso o violencia  sexual de cualquier tipo, pero especialmente contra niños y niñas, entre otras[112].    

     

95.             Un segundo ejemplo de la relevancia de conductas  fuera de línea para la moderación de contenidos se vio con el ataque al  Capitolio de los Estados Unidos el 6 de enero de 2021. Desde antes de ese  evento se había denunciado la existencia de llamadas “operaciones de  influencia” (influence operations), una categoría acuñada después de las  elecciones de 2016 en Estados Unidos, Brasil y Reino Unido (Brexit)[113].  En todos estos eventos, se demostró a través de filtraciones del grupo Cambridge  Analytica que operadores de Facebook permitieron el uso mecanismos  predictivos sobre la conducta electoral de sus usuarios para la creación de  contenidos que influenciaran su voto en dichos certámenes democráticos. Sin  embargo, lo relevante del ataque al recinto del Congreso fue que la  participación en esos hechos (además de las publicaciones en las plataformas)  fue tenida en cuenta por Facebook y Twitter para eliminar las cuentas, entre  otros, del entonces presidente Donald Trump[114].    

     

96.             Sin embargo, no siempre es claro que sea adecuado  acudir a conductas fuera de línea para la moderación de contenidos. En efecto,  existe el riesgo de que valerse de estas conductas favorezca, en algunos  escenarios, la discriminación contra las mujeres. Al respecto, no es nueva la  denuncia de mujeres que desarrollan actividades de pornografía o prostitución  en otras plataformas en las que alegan ser discriminadas por Instagram, así sus  publicaciones no sean sexualmente explícitas[115]. Por supuesto, existe un debate abierto sobre el posible  uso de las cuentas como un medio para tercerizar o conducir a otras plataformas  donde sí hay contenido sexualmente explícito o dónde se hacen transacciones de  tipo sexual. Incluso, existe evidencia del uso de cuentas en redes sociales  como Instagram como un medio para contactar con personas o grupos que favorecen  encuentros sexuales offline[116].    

     

97.             Una vez más, el reto para los operadores de redes  sociales está en establecer el límite de lo admisible sin transgredir límites  incompatibles con los estándares sobre libertad de expresión. Una forma de  hacerlo es determinar qué tipo de conductas o señales offline pueden  indicar una amenaza a la seguridad o los derechos humanos de los usuarios de la  plataforma.    

     

98.             Un ejemplo de estas señales lo propone la Clínica  de Derechos Humanos de la Universidad de Yale[117], que señala que cuando la conducta fuera de las plataformas alimenta  discursos de odio o fomenta la violencia extrema contra personas o grupos de  personas, es necesario que las redes sociales tengan en cuenta el mundo offline.  En su estudio sobre la circulación de discurso de odio que incita a la violencia  extremista fuera de las plataformas, la Clínica formuló dos tipos de señales o  indicios que deben tener en cuenta los moderadores de contenido para tomar  decisiones expeditas sobre la permanencia de ciertos usuarios en la red social.  Por un lado, señales online y, por otro, señales offline. Dentro  de las señales o indicios offline, la Clínica subrayó que los  moderadores deben tener en cuenta (i) el riesgo local de conflicto; (ii) la  identidad de las personas objeto del discurso de odio; y (iii) la identidad de  la persona que publica el contenido[118].  Este último elemento apunta a la necesidad de establecer quién es la persona  que publica y cuál es su nivel de influencia sobre la posibilidad de ejercer  violencia directa sobre una persona o grupo de personas[119].    

     

99.             En síntesis, los operadores de redes sociales se  enfrentan a decisiones complejas relacionadas con la moderación de contenidos.  Por un lado, existe un riesgo de regular poco, y permitir que en la plataforma  circule contenido que incite a la violencia extrema, difunda discursos de odio  o de otra manera amenace la seguridad o los derechos humanos de los usuarios.  Por otro lado, existe el riesgo de regular demasiado, y restringir la difusión  de contenido legítimo, aun cuando pueda considerarse potencialmente indeseable.  La discusión sobre el uso de conductas offline en la moderación de  contenidos ilustra este dilema. En la siguiente sección la Corte estudiará las  complejidades adicionales que aparecen cuando quien regula el contenido que  circula en la red no es solo el administrador de la plataforma, sino el Estado.    

     

3.3.     La intervención del Estado en la moderación de  contenidos    

     

100.        Los Estados se enfrentan a un dilema similar al de  los operadores de redes sociales, aunque con dificultades propias. Al igual que  las empresas privadas, el Estado debe decidir cuánto y en qué medida intervenir  en la regulación del contenido que circula en plataformas digitales. Sin  embargo, por regla general, no actúa de manera directa, pues la moderación de  contenidos la ejercen en primera medida los operadores de redes sociales. La  actuación estatal se dirige entonces hacia dichos operadores, teniendo en  cuenta la naturaliza sui generis de las redes sociales, y sus propias  limitaciones.    

     

101.        Ahora bien, resulta natural que los operadores de  redes sociales asuman la tarea de moderar contenidos. Ello se explica, por un  lado, por el volumen masivo de interacciones que circula a diario en las  plataformas y, por otro, porque la moderación exige decisiones técnicas, que  requieren de estructuras diseñadas para ese fin. Los intermediarios cuentan con  herramientas tecnológicas y equipos humanos para aplicar sus reglas  comunitarias. Por otra parte, hay fundadas reservas sobre la participación  estatal directa en la moderación de contenidos, pues podría propiciar un  control excesivo sobre el debate público que se genera en medios digitales, en  desmedro de estándares democráticos y de derechos humanos[120].    

     

102.        Sin embargo, estas limitaciones no significan que  el Estado está exento de responsabilidad. Así no sea quien ejerza la función de  moderación de contenidos de manera directa, conserva deberes claros de  regulación y supervisión, dentro de los parámetros establecidos por la  Constitución y los instrumentos internacionales de derechos humanos. Como se pasará  a explicar, el particular rol del Estado en esta materia inicia por comprender  la especial naturaleza de las redes sociales.    

103.        En efecto, un primer aspecto a considerar, es que  las redes sociales han difuminado la clásica distinción entre lo público y lo  privado, tradicionalmente usada para delimitar la intervención del Estado. Esa  frontera, ya cuestionada en otros contextos[121], se vuelve más porosa en los entornos virtuales. La Corte ha ilustrado  el punto, al referirse a la diferencia entre espacios públicos, privados e  intermedios.    

     

104.        Los espacios públicos son de acceso y permanencia  libre, no existen códigos de comportamiento particulares y existe una  obligación de las autoridades de velar por su destinación al uso común[122]; los espacios privados son cerrados y sujetos a la autorización de  quien los habita o controla, pues allí se ejercen en mayor grado derechos y  libertades como la intimidad y el libre desarrollo de la personalidad[123]. En el medio de estos dos extremos están  los espacios semipúblicos y semiprivados. Los primeros están abiertos al  público, pero para su acceso puede  exigirse el cumplimiento de ciertos requisitos. Por ejemplo, son espacios  semipúblicos “las oficinas públicas o de entidades prestadoras de servicios  públicos, los bancos, los centros comerciales, los locales comerciales, los  estadios y los cines”[124]. Por su parte, los espacios semiprivados, por  regla general, no están abiertos al público, sino que su ingreso es reservado  para quienes detentan la calidad de miembros de una determinada institución o  comunidad. Para ser miembro de ella se exige el cumplimiento de unos requisitos  mínimos de comportamiento, pues “no se trata del individuo en su propio ámbito  de acción, sino del individuo en una comunidad”[125].    

     

105.        No obstante, en el caso de las redes sociales, esta  clasificación resulta aún más compleja. Si bien el acceso, por regla general, está  abierto a cualquier persona, su existencia se justifica por el deseo de grupos  empresariales de crearlas y ponerlas a funcionar. Estos particulares tienen  unos intereses específicos que, como se anotó, se manifiestan en sus normas  comunitarias o reglas de la casa. Sin embargo, las redes sociales tampoco  pueden considerarse simples espacios privados, pues habilitan interacciones  sociales comparables a las que tienen lugar en plazas públicas, parques o  centros comerciales[126]. Así, por ejemplo, si en una red social como X se discuten asuntos  políticos o en Instagram o Facebook se comparten imágenes de protesta hay una  similitud con un debate en la plaza de un pueblo o con una manifestación  en las calles de una ciudad.    

     

106.        La jurisprudencia internacional aporta ejemplos  ilustrativos. Por citar alguno, en el caso Knight First Amendment Institute  at Columbia University v. Trump, dos cortes del estado de Nueva York concluyeron  que la decisión del entonces presidente Donald Trump de bloquear usuarios en su  cuenta de Twitter (ahora X) vulneró el derecho a la libertad de expresión  consagrada en la Primera Enmienda de la Constitución estadounidense al  restringir la deliberación en un foro público[127]. Aunque estas decisiones fueron dejadas sin efectos por la Corte  Suprema de los Estados Unidos al concluir el periodo presidencial de Donald  Trump, por sustracción de materia[128], de todas formas, ilustran los debates que surgen al intentar asimilar  las redes sociales a espacios físicos.    

     

107.        En esta línea es pertinente la referencia hecha por  la Fundación Karisma en este proceso, al asimilar las redes sociales con el  concepto de esfera pública avanzado por Jürgen Habermas: “un lugar donde se da  un intercambio libre de ideas y el debate tiene lugar” de manera que “es -por  esencia- abierto e incluyente a todos”[129]. De ahí que buena parte de expertos consideren las redes sociales como  parte de dicha esfera, en tanto comunidades virtuales en las que las personas  comparten información, discuten sobre innumerables temas y crean vínculos  personales[130].    

     

108.        En relación con este asunto, en la sentencia T-149  de 2025, la Corte Constitucional estudió el caso de una congresista que bloqueó  a un usuario en las plataformas de Facebook y X porque dicho usuario había ejercido  actos de violencia de género en su contra. En este caso, si bien la Corte  encontró probada la existencia de actos de violencia de género, consideró que  la medida de bloquear al usuario era desproporcionada porque afectaba en forma  intensa sus derechos a la libertad de expresión, al acceso a la información  pública y a la participación política. Así, la Corte ordenó a la congresista  levantar el bloqueo de las cuentas del usuario en las redes sociales, pero  adoptó otros remedios para prevenir y contrarrestar los actos de violencia de  género realizados por el accionante[131]. Esta sentencia ilustra la importancia de las redes sociales como un  espacio de intercambio de información y control político; pero donde, también,  se reproducen y amplifican los sesgos, los odios y la violencia del mundo offline.    

     

109.        En síntesis, es posible afirmar que las redes  sociales son foros públicos de carácter sui generis: escenarios en los  que se borran las líneas tradicionales entre lo público y lo privado. Aunque  son gestionadas por particulares, poseen una clara vocación pública. Por ello,  el Estado tiene un deber de intervención. Sin embargo, este debe ejercerse de  modo tal que preserve la capacidad de los intermediarios de definir reglas y moderar  contenidos, por un lado, mientras se salvaguarda la integridad de los usuarios,  por el otro. Esta discusión se aborda a continuación.    

     

110.        El principio de irresponsabilidad de los  intermediarios como el punto de partida de la intervención del Estado en la  moderación de contenidos. La evolución de los debates  sobre la moderación de contenidos se refleja en la visión sobre qué debe hacer  el Estado para garantizar la vigencia de los derechos en el entorno digital.  Esta discusión se enmarca entre dos extremos. Por un lado, la mayoría de  sistemas jurídicos reconocen el principio de irresponsabilidad de los  intermediarios, el cual impide hacer responsables a los operadores de  plataformas por el contenido que publiquen sus usuarios. Por otro lado, en  algunos países se han presentado iniciativas para intensificar la  responsabilidad de los intermediarios o restringir el acceso a las plataformas.    

     

111.        El principio de irresponsabilidad de los  intermediarios, como lo reconoce la Corte Constitucional, implica que los  intermediarios no pueden ser responsabilizados por el contenido publicado por  terceros ni por las decisiones de moderación de contenidos que toman para hacer  respetar sus reglas. De lo contrario, atribuirles responsabilidad por la  conducta de los usuarios llevaría a “limitar la difusión de ideas y les daría  el poder para regular el flujo de información en la red”[132]. En este sentido, la irresponsabilidad de los intermediarios parte de  la base de que los actores digitales son diversos por naturaleza y que la labor  que hacen las compañías privadas que ofrecen servicios técnicos en Internet es  fundamental en su desarrollo libre. Supone, además, una actualización de  elementos tradicionales de la libertad de expresión, entre otros, la necesidad  de limitar al máximo la intervención del Estado en la regulación de los medios  de comunicación y de los contenidos que producen y ayudan a circular en el  mercado de las ideas.    

     

112.        Los orígenes del principio de irresponsabilidad de  los intermediarios se remontan a las primeras regulaciones sobre Internet, como  el Communications Decency Act (CDA) de 1996 en Estados Unidos[133] y la Directiva 2000/31/CE en la Unión Europea, mejor conocida como la  Directiva sobre el Comercio Electrónico[134]. Aunque estas regulaciones son anteriores a la existencia y difusión  de las redes sociales, la idea de que los intermediarios no pueden ser  considerados responsables por lo que publican los usuarios permeó el  razonamiento sobre el alcance de los derechos humanos en Internet. Un ejemplo  se encuentra en la Declaración Conjunta sobre Derechos Humanos e Internet de  2011, un instrumento de derecho blando que este tribunal ha empleado en otras  oportunidades[135]. Allí se estableció como principio elemental para asegurar la vigencia  de los derechos en Internet la irresponsabilidad de los intermediarios por la  circulación de contenido transgresor, incluso contrario a los estándares sobre  discurso protegido por la libertad de expresión[136].    

     

113.        Ahora bien, cada vez hay más voces e iniciativas  que insisten en que se necesita intervención de los Estados para regular a las  plataformas de redes sociales y asegurar que en la moderación de contenidos se  respeten los derechos humanos. Estas tendencias se reflejan tanto en decisiones  nacionales como en instrumentos internacionales que matizan el principio de  irresponsabilidad de los intermediarios, a las que la Corte se referirá  enseguida.    

     

114.        Tendencias actuales. Los derechos humanos como  un límite esencial al ejercicio de la facultad amplia de moderación de  contenidos. Las discusiones planteadas por el auge de  las redes sociales generan la necesidad de matizar el principio de  irresponsabilidad de los intermediarios. Sin embargo, ese ejercicio no puede  implicar exceder límites inadmisibles para un Estado democrático frente a las  libertades de empresa y expresión, entre otras garantías constitucionales. Se  trata de un balance sobre el que hay múltiples ejemplos, tanto en normas de  derecho blando[137] como en experiencias de otros ordenamientos jurídicos.     

     

115.        Los estándares actuales convergen en señalar que,  en términos generales, los Estados deben (i)  respetar, garantizar y promover un Internet libre, especialmente en redes  sociales; (ii) abstenerse de imponer medidas restrictivas sobre la operación de  redes sociales como bloqueos, solicitudes de borrado de contenidos sin sustento  legal y de forma secreta o criminalización de empleados de intermediarios por  su labor de curación o moderación de contenidos; (iii) garantizar la  transparencia sobre la regulación, así como la independencia, la  sostenibilidad, la consistencia, la cooperación y el diálogo intersectorial en  los sistemas regulatorios sobre las plataformas digitales, especialmente las redes sociales; y (iv) crear un ambiente  propicio que promueva la transparencia en la toma de decisiones relacionadas  con la moderación de contenidos, así como en las reglas con base en las cuáles  se toman y su consistencia.    

     

116.        Los ejemplos de instrumentos que proponen  principios para concretar el balance mencionado son múltiples. A continuación, la Corte lista algunos, sin ánimo de  agotar todos los insumos disponibles, sino con el fin de ilustrar el panorama.    

     

·         Principios de Manila  sobre responsabilidad de los intermediarios: promovidos por organizaciones de derechos humanos, establecen que  los Estados deben proteger a los intermediarios y no responsabilizarlos por  contenido de terceros, salvo mediante leyes precisas, claras y accesibles.  Además, debe existir una orden judicial, respetar el debido proceso y ajustarse  al test tripartito de libertad de expresión[138].    

     

·         Declaración de  Principios sobre Libertad de Expresión e Internet de 2011: busca promover el desarrollo de enfoques  regulatorios aptos para el entorno digital. Entre otras cosas, invita a la  autorregulación y la alfabetización digital para que las personas puedan  ejercer responsablemente su libertad de expresión en Internet. Además, indica  que el Estado debe abstenerse de bloquear de manera definitiva sitios web o  similares que los sistemas de filtrado impuestos por los gobiernos son una  restricción inadmisible a la libertad de expresión[139].    

     

     

117.        Un elemento común de las tendencias regulatorias  actuales es que el derecho internacional de los derechos humanos constituye un  límite esencial en la definición de dichas reglas. Si bien se acepta que sean  los operadores de redes sociales quienes realicen la actividad de moderación de  contenidos, no se descarta que los Estados puedan tener algún tipo de  intervención en ella. En términos generales, los nuevos enfoques  regulatorios buscan dotar de mayor transparencia, trazabilidad y apertura a la  aplicación de las normas definidas por las plataformas de redes sociales. Esto  se materializa en mecanismos de rendición de cuentas, publicación de las  medidas de moderación adoptadas y conformación de equipos que garanticen que  dicha moderación sea coherente con el contexto en el que se aplica, entre otros  factores. El objetivo último es preservar el principio de irresponsabilidad de  los intermediarios, al tiempo que se protegen los derechos de quienes  participan en comunidades digitales, especialmente en redes sociales.    

     

118.        A continuación, la Corte lista algunos ejemplos de  regulaciones que muestran el papel central de los derechos humanos en la  intervención estatal del espacio digital y la forma en que permiten llegar a un  balance entre los dos extremos de la discusión.    

     

·         Declaración  Europea sobre Principios y Derechos Digitales:  insta a los Estados miembros de la Unión Europea a consolidar un espacio  digital libre, igualitario y democrático, reconociendo el derecho de los  ciudadanos a un entorno “fiable, diverso y multilingüe”. Obliga a las grandes  plataformas a apoyar el debate democrático, mitigar riesgos como la desinformación  y proteger la libertad de expresión”[141].    

     

·         Ley de Servicios  Digitales de la UE (2022): primera gran regulación europea del entorno  digital en más de dos décadas. Obliga a las grandes plataformas con presencia  en la Unión Europea a publicar un informe anual sobre sus decisiones de  moderación de contenidos y sus consecuencias, y notificar de forma clara y  estandarizada cada remoción a la Comisión Europea[142].    

     

·         Directrices de la  UNESCO: fijan cinco obligaciones para que los  intermediarios garanticen los derechos humanos en redes sociales: (i) ejercer  debida diligencia para identificar y mitigar riesgos; (ii) incorporar  estándares de derechos humanos en sus normas comunitarias; (iii) hacer  transparente el funcionamiento y la moderación de contenidos; (iv) facilitar a  los usuarios información para un uso informado; y (v) establecer mecanismos  periódicos de rendición de cuentas sobre la aplicación de sus reglas[143].    

     

·         Principios  de Santa Clara sobre Transparencia y Rendición de Cuentas en la Moderación de  Contenidos: establecen una guía para que la moderación de  contenidos sea transparente y sujeta a escrutinio. Sus fundamentos incluyen:  (i) priorizar los derechos humanos y el debido proceso; (ii) establecer reglas  claras y accesibles; (iii) garantizar competencia cultural en los equipos y  sistemas de moderación; (iv) informar cuando las decisiones provengan de  órdenes estatales; y (v) asegurar integridad, no discriminación, evaluaciones  periódicas y acceso a mecanismos de notificación y apelación[144].    

     

119.        Así, puede concluirse que el límite fundamental a  la definición de normas comunitarias y a la facultad amplia de moderación de  contenidos son los derechos humanos o fundamentales. De allí que los operadores  de plataformas de redes sociales estén llamados a establecer normas de  moderación de contenidos orientadas a proteger los derechos humanos de los  usuarios y que las mismas normas cumplan con estándares de derechos humanos[145]. De igual manera, esto lleva a rechazar la intervención del Estado que  se extralimite en la regulación para impedir la circulación libre de ideas o  limitar el acceso de las personas a Internet.    

     

4.             Debates en materia de derechos fundamentales en el  marco de la facultad amplia de moderación de contenidos    

     

120.        Como se anticipó en la sección anterior, el  ejercicio de la facultad amplia de moderación de contenidos supone unos  desafíos sustanciales en materia de derechos humanos. Dadas las circunstancias  que proponen los hechos del caso objeto de estudio, la Corte se limitará a identificar los desafíos en clave de libertad de  expresión, igualdad y no discriminación y debido proceso.    

     

4.1.      Libertad de expresión y moderación de contenidos    

     

121.        La libertad de expresión está reconocida como un  derecho fundamental en el artículo 20 de la Constitución Política y se erige  como un pilar fundamental del Estado democrático de derecho. En el ordenamiento  constitucional colombiano, la libertad de expresión es un derecho complejo en  tanto reconoce varias prerrogativas en cabeza de las personas que habitan el  territorio nacional. Por un lado, contiene el derecho de todas las personas a  expresar su pensamiento a través de opiniones y de difundir informaciones. Por  otro lado, reconoce el derecho a conocer las ideas de otros y a recibir información  que sea de su interés. Por último, el artículo 20 constitucional consagra el  derecho de las personas a fundar medios de comunicación masiva, quienes deberán  actuar libremente y con responsabilidad social[146].    

     

122.        La Corte Constitucional cuenta con una amplia  jurisprudencia sobre el derecho a la libertad de expresión en Internet[147]. Uno de los elementos normativos centrales de esa jurisprudencia es el  reconocimiento de que el espacio digital no le está vedado al Estado y que, por  lo mismo, se reconocen y aplican en plenitud los derechos fundamentales que se  desprenden del ordenamiento constitucional, particularmente el derecho a la  libertad de expresión[148].    

     

123.        Respecto de las redes sociales, la Corte en  diferentes decisiones ha resaltado su centralidad en la vida de las personas y  su capacidad para permitir la difusión de ideas a escala masiva, fuera de las  lógicas del poder gubernamental o de los medios tradicionales de comunicación[149]. Como ya se indicó, las redes sociales permiten que más ciudadanos de  todo el mundo participen en conversaciones públicas que les interesan[150] y que incluso se conviertan en generadores de contenido relevante para  otros en el mercado de las ideas que, en principio, circulan libremente en Internet.    

     

124.        Justamente por estas características, la Corte  Constitucional reconoce que la información que se divulga en redes sociales  tiene diferencias importantes respecto de aquella que circula en los medios de  comunicación tradicionales. En una sentencia reciente, la Corte sintetizó los  elementos destacables del discurso que se propaga en redes sociales. Se trata  de información que: (i) es ampliamente accesible; (ii) cuyo contenido es  definido por los emisores, quienes determinan autónomamente el contenido de los  mensajes que publican; (iii) se comparte automáticamente y circula a un ritmo y  a una escala exponenciales; y (iv) aunque tenga un origen particular, una vez  puesta en circulación, incluso si se limita o impide su acceso al emisor, queda  disponible para que otros usuarios la republiquen o la guarden.[151] Estos elementos ponen de presente que, al igual que en el mundo  material, en el espacio digital la libertad de expresión no es un derecho que  pueda ejercerse sin restricciones. Dependiendo de las circunstancias, la  libertad de expresión en el mundo digital puede entrar en tensión y comprometer  los derechos de otras personas o grupos[152].    

125.        La jurisprudencia constitucional en esta materia se  ha desarrollado particularmente en torno a las tensiones “clásicas” entre  libertad de expresión y el derecho a la honra y al buen nombre de terceros por  ideas e informaciones expresadas en redes sociales. En particular, la Corte ha  revisado casos relacionados con denuncias públicas contra personas o grupos de  personas a través de canales digitales como Facebook, Twitter o Instagram, por  conductas impropias e incluso delictivas[153].  Para esos escenarios, la Corte cuenta con una jurisprudencia decantada, cuyas  principales consideraciones se recogen en la sentencia SU-420 de 2019 y que  desarrolla los elementos de análisis constitucional para resolver ese tipo de  controversias[154].    

     

126.        Sin embargo, el caso que se estudia en esta  sentencia no tiene antecedentes precisos en la jurisprudencia constitucional. Por  ello es pertinente enfatizar en las tensiones que se presentan en los procesos  de moderación de contenidos, en relación con los diferentes actores  involucrados. Ese análisis permitirá comprender de mejor manera el tipo de problemas  jurídicos que debe resolver la Corte.    

     

127.        Como ya se ha sugerido  líneas arriba, los ejercicios de moderación de contenidos suelen involucrar dos  actores. Por un lado, el usuario cuyo contenido es removido o sometido a  restricciones de visualización y, por otro, los operadores de la red social  encargados de la labor de moderación de contenidos. Además, en los escenarios  de moderación de contenidos ex – post reactiva, aparece un tercer actor  que son los usuarios que denuncian un determinado contenido porque, a su  juicio, resulta incompatible con las normas comunitarias o simplemente les  parece desagradable, chocante o inapropiado.    

     

128.        Aunque en términos  generales hay un acuerdo entre estos actores para convivir en el espacio  digital, el uso de herramientas de moderación de contenidos supone  necesariamente un conflicto de intereses. Por un lado, se encuentra el derecho  de las personas usuarias a publicar el contenido que deseen. Aunque la  plataforma es un facilitador y amplificador de ese contenido, no es quien decide  si esa persona tiene o no derecho a publicarlo, pues la libertad de expresión,  al igual que los derechos humanos, tiene un carácter universal y, por lo tanto,  es oponible tanto a particulares como a los Estados. En ese sentido, la  facultad de generar y hacer circular determinada información puede estar sujeta  a restricciones admisibles a la luz de la Constitución Política y del derecho  internacional de los derechos humanos.    

     

129.        Un primer nivel de  análisis sobre el contenido publicado en redes sociales supone identificar qué  tipo de discurso entraña. La Corte Constitucional reconoce distintos tipos de  discursos y los niveles de protección de los que son objeto. Aunque en  principio opera una presunción de protección de todos los discursos, hay  manifestaciones de la expresión que se encuentran abiertamente prohibidas.  Estas son:    

     

“(a) la propaganda en favor de la guerra; (b) la apología del  odio nacional, racial, religioso o de otro tipo de odio que constituya  incitación a la discriminación, la hostilidad, la violencia contra cualquier  persona o grupo de personas por cualquier motivo (modo de expresión que cobija  las categorías conocidas comúnmente como discurso del odio, discurso  discriminatorio, apología del delito y apología de  la violencia); (c) la pornografía infantil; y (d) la incitación directa y  pública a cometer genocidio”[155].    

     

130.        Frente a estos discursos,  no cabe duda de que los intermediarios que administran las plataformas deben  ejercer su facultad amplia de moderación de contenidos prontamente. No hacerlo  puede generar consecuencias ampliamente documentadas como el avance de campañas  estigmatizantes contra poblaciones vulnerables que pueden redundar en la  ejecución de actos sistemáticos de violencia en su contra, incluso  constitutivos de genocidio, como ocurrió en el caso de Myanmar con la población  Rohingya[156].    

     

131.        En el otro extremo se  encuentran las categorías de discurso especialmente protegido. Aunque en  principio toda restricción a la libertad de expresión se presume  inconstitucional (salvo frente a discursos prohibidos), en el caso de los  discursos especialmente protegidos hay un nivel de cobertura reforzado que  exige absoluta excepcionalidad en la restricción. Estos discursos son el  “discurso político, el debate sobre asuntos de interés público, y aquellos  que constituyen un ejercicio directo e inmediato de derechos fundamentales  adicionales que se vinculan necesariamente a la libertad de expresión para  poder materializarse”.[157] En esta categoría se incluyen, por ejemplo,  el periodismo feminista que denuncia violencias basadas en género[158], el escrache[159], y otros como:    

     

“(a) la correspondencia y demás formas de comunicación  privada, (b) los discursos estéticos, morales, emotivos o personales,  manifestados a través de expresiones verbales, artísticas, o de conductas  simbólicas o expresivas, sin perjuicio de la protección constitucional  explícita de la libre expresión artística; (c) la exposición de convicciones y  la objeción de conciencia; (d) el discurso religioso; (e) el discurso  académico, investigativo y científico; (f) las expresiones realizadas en el  curso de manifestaciones públicas pacíficas; (g) el discurso cívico o de  participación ciudadana, y (h) el discurso de identidad, que expresa y refuerza  la propia adscripción cultural y social”[160].    

     

132.        Respecto de estos discursos recae una especial  protección en clave de libertad de expresión. En esa medida, la eliminación de  contenidos relacionados con discursos especialmente protegidos es en principio  incompatible con los estándares fijados por la Corte Constitucional y el  derecho internacional de los derechos humanos.    

     

133.        En cuanto a los discursos que no están  especialmente protegidos, pero tampoco prohibidos, opera una presunción de  protección amplia de la libertad de expresión. Por lo tanto, la eliminación de  contenidos y cuentas en esta categoría deberá sujetarse al test tripartito de  libertad de expresión.    

     

134.        Un segundo nivel de  análisis sobre la moderación de contenido requiere analizar las formas y el  tono en los que se expresan los usuarios cuyo contenido es removido.  Como lo ha señalado esta Corte, la libertad de expresión cobija las  manifestaciones “ofensivas, chocantes, impactantes, indecentes, escandalosas,  excéntricas o simplemente contrarias a las creencias y posturas mayoritarias”[161]. En tal sentido, es importante verificar que la  remoción de un contenido o una cuenta en redes sociales no obedezca  exclusivamente al tono de las publicaciones o al hecho de que no corresponda a  una postura mayoritaria.    

     

135.        El tercer nivel de análisis supone considerar la calidad del  sujeto que comunica, es decir, del usuario o usuaria, pues algunas personas  gozan de una protección diferenciada en razón de sus circunstancias. En este  sentido, resulta clave distinguir si se trata de funcionarios públicos o de  particulares, dado que los primeros están sometidos a un mayor escrutinio  social. Asimismo, la Corte ha señalado otras categorías de especial relevancia,  como los periodistas, los grupos históricamente discriminados, marginados o en  situación de vulnerabilidad, y las víctimas de violencias basadas en género.  Frente a estos últimos, este Tribunal ha advertido que cualquier restricción a  sus opiniones debe demostrar de manera suficiente que no constituye un acto  discriminatorio[162].    

     

136.        Superados estos tres  niveles de análisis, el operador judicial debe acudir al test tripartito de  libertad de expresión para verificar que las decisiones adoptadas por los  intermediarios de redes sociales respeten los límites que imponen los derechos  fundamentales. Según la jurisprudencia constitucional, toda restricción a la  libertad de expresión: (i) debe estar consagrada de manera “previa, precisa y  clara por una ley en sentido formal y material”[163]; (ii) debe perseguir un fin legítimo a la luz de  la Constitución Política y el bloque de constitucionalidad; (iii) debe ser  necesaria en una sociedad democrática, estrictamente proporcional e idónea para  alcanzar los fines imperiosos que persigue[164].    

     

Tabla 2. Síntesis del análisis sobre la libertad de  expresión en redes sociales.    

Nivel 1                    

Tipo de discurso                    

Discurso especialmente protegido: no puede ser    removido.   

Discurso cubierto por la protección general y    amplia: puede ser removido en cumplimiento de las garantías de los derechos    humanos, como el debido proceso y la igualdad, de forma transparente y    consistente.   

Discurso prohibido: puede ser removido    automáticamente.   

Nivel 2                    

Formas y tono de lo    que se comunica                    

La remoción del contenido no puede obedecer    exclusivamente al tono de la publicación o que no corresponda con posiciones    mayoritarias.   

Nivel 3                    

La remoción de contenidos no puede obedecer a    razones discriminatorias, especialmente cuando se trata de sujetos de    especial protección constitucional.   

Estudio concreto sobre    restricción                    

Test tripartito de    libertad de expresión                    

Las restricciones sobre los discursos que gozan de    protección general de la libertad de expresión deben cumplir con los    requisitos de legalidad, fin legítimo y necesidad al amparo del principio de estricta    proporcionalidad.    

     

137.        En suma, la Corte reconoce que la moderación de  contenidos no sólo es una práctica habitual de las compañías que administran  redes sociales digitales como Instagram o Facebook. Es, sobre todo, una  necesidad para asegurar una Internet confiable, en el que puedan circular  libremente las ideas, la información, el conocimiento y las opiniones, donde se  limiten los contenidos que constituyan discursos no protegidos, como la  pornografía infantil, la incitación a la violencia y al genocidio o el discurso  de odio. En todo caso, esos procedimientos deben, igual que las reglas  comunitarias, ajustarse a unos estándares mínimos compatibles con el marco  nacional e internacional sobre el derecho a la libertad de expresión.     

     

138.        Vistos los elementos relativos a este derecho, a  continuación, se estudian los desafíos en materia de debido proceso en redes  sociales, teniendo en cuenta las particularidades que plantea el caso que  estudia la Corte.    

     

4.2.     Debido proceso y moderación de contenidos    

     

139.        El artículo 29 de la Constitución Política reconoce  el derecho de todas las personas a que, en el curso de cualquier actuación  judicial o administrativa, les sea garantizado el debido proceso. Este derecho  establece una serie de garantías que dan legitimidad a las actuaciones que las  personas adelantan a instancias del Estado, como, por ejemplo, el juez natural,  la preexistencia de las normas con base en las cuales se desarrolla la  actuación, la observancia de las formas propias de cada juicio, la aplicación  de la norma más favorable en materia penal, entre otras.    

     

140.        Además del Estado, la Corte Constitucional ha  reconocido que, excepcionalmente, estas garantías le son exigibles a personas  naturales o jurídicas de derecho privado. En particular, este reconocimiento  opera respecto de procesos de naturaleza sancionatoria. Así, por ejemplo, en la  sentencia T-329 de 2021, la Corte analizó el caso de un ciudadano que demandó a  la compañía para la que trabajaba, pues la misma se negó a proporcionarle  información que demostraría que no incumplió sus deberes como trabajador y que,  por lo tanto, no procedía su despido. En esa oportunidad, la Corte recordó que  las garantías del debido proceso aplican a toda clase de actuaciones judiciales  o administrativas, especialmente a aquellas de naturaleza sancionatoria.  Asimismo, recalcó que la jurisprudencia constitucional reconoce la  obligatoriedad de la aplicación de garantías propias del debido proceso incluso  en relaciones entre particulares.    

     

141.        Sobre el último punto, este Tribunal precisó que el  mandato del debido proceso aplica a “los particulares que se arrogan esta  facultad, como una forma de mantener un principio de orden al interior de sus  organizaciones (v.gr. establecimientos educativos, empleadores, asociaciones  con o sin ánimo de lucro, etc.)”[165]. En suma, conforme a la jurisprudencia de esta Corporación, “las  garantías previstas en el texto constitucional tienen plena aplicación en las  relaciones entre particulares […] debido a que uno de los principales fines del  Estado Social de Derecho es garantizar la efectividad material de los  principios, derechos y deberes consagrados constitucionalmente en todos los ámbitos  de la sociedad, tal como lo dispone el artículo 2º Superior”[166].    

     

142.        Como ya se ha indicado aquí, la moderación de  contenidos es un proceso administrado por un particular, más precisamente, por  los intermediarios de las redes sociales. Además, es un proceso de naturaleza  sancionatoria, en el sentido en que busca curar contenidos prohibidos o  restringidos por las normas comunitarias de la plataforma digital. Tan es un  proceso sancionatorio, que las consecuencias de las decisiones curatoriales de  los moderadores de contenido son la restricción a la visualización o la posibilidad de encontrar un contenido, la  eliminación de publicaciones e, incluso, la suspensión y eliminación definitiva  de la cuenta del usuario infractor.    

     

143.        A raíz de la intervención de la inteligencia  artificial en los procesos de toma de decisiones sobre contenidos, uno de los  reclamos más frecuentes dirigidos a los intermediarios consiste en la necesidad  de garantizar mecanismos de apelación y revisión frente a las medidas de  moderación adoptadas por sistemas automatizados. En particular, se cuestiona  que la moderación de contenidos recaiga casi que exclusivamente en dichos  sistemas, sin la posibilidad de un control humano posterior que permita  corregir eventuales errores o arbitrariedades[167].    

     

144.        De este modo, en el análisis constitucional sobre  el derecho al debido proceso corresponde verificar que la moderación de  contenidos cumpla con los estándares mínimos de protección del derecho al  debido proceso según las normas de derechos humanos que se han decantado en  distintos escenarios de protección internacional. En particular[168], los intermediarios que administran plataformas y que hacen procesos  de moderación de contenidos deben garantizar (i) que haya consistencia y  sensibilidad contextual en la aplicación de las reglas comunitarias, tanto de  los equipos humanos como de IA; (ii) que no haya una aplicación discriminatoria  o contraria al derecho a la igualdad de las reglas comunitarias; (iii) que las  normas de la casa se apliquen maximizando el derecho a la libertad de expresión  cuando se trate de contenido potencialmente objetable pero no prohibido; (iv)  que haya transparencia sobre las reglas comunitarias infringidas, los procesos  de reclamación e impugnación de las decisiones, así como una comunicación  formal, sencilla y accesible que redunde en una respuesta de fondo sobre las  reclamaciones elevadas a los operadores de las redes sociales; y (v) las sanciones debe ser advertidas de  antemano a los usuarios, con detalle de las consecuencias que su aplicación  puede acarrear.    

     

4.3.      Igualdad y no  discriminación en la moderación de contenidos    

     

145.        Además de la libertad de expresión y el debido  proceso, la moderación de contenidos también puede tener un impacto directo en  el derecho a la igualdad y la no discriminación de algunos grupos, entre ellos  de las mujeres. Este aspecto resulta relevante en el presente caso, pues la  accionante señaló que Meta borró sus contenidos y eliminó su cuenta porque  tiene un prejuicio en su contra, especialmente por  desarrollar actividades de pornografía fuera de Instagram.    

     

146.        Sin duda alguna las redes sociales constituyen un  espacio fundamental para el ejercicio de derechos y participación de las  mujeres en la vida pública[169]. A través de ellas, no solo pueden expresarse y difundir ideas, sino  también impulsar luchas contra distintas formas de violencia basadas en género.  La Corte ha reconocido ese potencial, especialmente en el reconocimiento de los  denominados escraches feministas, un fenómeno propio del mundo digital  en el que las víctimas de violencias basadas en el género pueden denunciar la  inacción de las autoridades judiciales en la atención de sus casos, al tiempo  que promueven otras formas de control social sobre sus agresores[170].    

     

147.        Sin embargo, las mismas redes sociales que  habilitan esos espacios de resistencia y visibilidad pueden convertirse en  escenarios de reproducción de desigualdades de género. En su informe de julio  de 2021, presentado ante la Asamblea General de Naciones Unidas, la Relatora  Especial sobre la promoción y protección del derecho a la libertad de opinión y  de expresión, advirtió que “[e]n la era digital, Internet se ha convertido en  el nuevo campo de batalla en la lucha por los derechos de las mujeres, ya que  amplía las oportunidades que estas tienen para expresarse, pero también  multiplica las posibilidades de represión”[171]. La relatora subrayó que las mujeres y las personas LGBTIQ+ enfrentan  obstáculos específicos en el entorno digital, derivados de prácticas como el  acoso sexual en línea, la desinformación de género, el discurso de odio y, de  manera relevante aquí, el uso arbitrario de las facultades de moderación de  contenidos por parte Estados y de los propios intermediarios privados[172].    

     

148.        En lo que atañe a las plataformas de redes  sociales, la relatora enfatizó en que la discriminación puede reflejarse tanto  en las normas comunitarias que establecen lo permitido y lo prohibido, como en  los procesos de moderación de contenidos que las aplican. A continuación, se  hará referencia a estos dos aspectos.    

     

(i)                Discusiones  sobre género y sexualidad en las normas comunitarias    

149.        Como ya se indicó, las normas comunitarias  responden a la necesidad de fijar límites a la circulación de determinados  contenidos. En principio, existen razones legítimas para restringir, por  ejemplo, la difusión de material sexualmente explícito, y esta limitación per  se no constituye una discriminación de género. Ella obedece principalmente al  interés de prevenir la pornografía infantil, la explotación  sexual de niños, niñas, adolescentes y personas adultas, y evitar la difusión de  material sexual explícito sin el consentimiento de las personas involucradas[173].    

     

150.        En ese sentido, la definición de límites precisos  sobre el contenido sexualmente explícito en redes sociales se considera fundamental  para asegurar que Internet sea un  espacio libre de violencia y discriminación. De hecho, prohibiciones de  este tipo también contribuyen a frenar fenómenos como la  llamada “pornovenganza”, que afecta de manera desproporcionada a las mujeres.    

     

151.        En todo caso, y como lo pusieron de presente varios  de los intervinientes en este proceso, las reglas comunitarias de este tipo no  están desprovistas de críticas. Por un lado, se indicó que las prohibiciones  sobre desnudez y contenido sexualmente explícito resultan vagas, pues no  siempre se define o establece con claridad su alcance o se ofrecen ejemplos que  orienten su aplicación[174]. Por otro lado, se sugirió que los intereses económicos de los  intermediarios tienden de manera problemática a influir en esas políticas, de  forma que hay multiplicidad de aproximaciones sobre lo que se permite y lo que  no. Por ejemplo, algunos intervinientes llamaron la atención a que algunas  plataformas buscan expandir su modelo de negocio a públicos para quienes el  contenido sexualmente explícito puede disuadirlos de unirse a la comunidad en  línea o pautar en la plataforma[175]. Sin embargo, hay otras cuyo modelo de negocio consiste, precisamente,  en permitir la circulación de ese tipo de contenidos, como sucede con Only  Fans. En términos de lo dicho por Al Sur, esto significa que, además de las  plataformas, los intereses de quienes pautan en internet y la necesidad de  atraer más usuarios influyen en la definición de los límites en materia de  desnudos y contenidos sexualmente explícitos[176].    

     

152.        Por su parte, la relatora Khan, en su informe de  2021, advirtió que ese tipo de reglas pueden generar impactos desproporcionados  para las mujeres[177].  Por ejemplo, como lo indicó Al Sur, sancionar sin matices “la desnudez” o el  “contenido para adultos” puede conducir a censurar publicaciones legítimas,  como imágenes de mujeres amamantando[178].    

     

153.        De hecho, el propio o Consejo Asesor de Meta ha  reconocido esa problemática. En línea con lo dicho por la relatora, en al menos  ocho decisiones relacionadas con la  aplicación de reglas sobre desnudez y actividad sexual de adultos, el Consejo  revocó medidas adoptadas por la compañía al constatar que habían sido usadas  para censurar proyectos educativos sobre la ovulación[179], campañas sobre el cáncer de mama[180], fotos de familias compuestas por personas trans desnudas que buscan  fomentar la solidaridad con esta población[181], publicaciones que discuten de forma explícita episodios de violencia  sexual con el propósito de sensibilizar a la comunidad sobre este tema[182], o imágenes que enseñan cómo hacerse el autoexamen para la detección  temprana del cáncer de seno[183]. En todos esos casos, el Consejo Asesor revocó la  decisión de Meta de remover los contenidos que consideró en principio  violatorios de sus reglas comunitarias y le ordenó reformar sus normas sobre  desnudez y actividad sexual de adultos para cumplir con estándares  internacionales de derechos humanos[184].    

     

154.        En suma, lo que esta discusión ilustra, es que el  análisis de igualdad y no discriminación frente a las normas comunitarias debe  partir de un enfoque de género. Bajo esa óptica, no toda prohibición de  circulación de contenido sexualmente explícito constituye una vulneración de  derechos, y en ocasiones resulta indispensable para protegerlos. Sin embargo,  es fundamental que dichas restricciones no se formulen de manera genérica o  excesivamente abierta, pues ello desconoce el principio de legalidad en materia  de libertad de expresión y puede comprometer el derecho a la igualdad y a la no  discriminación. Además, como lo ha reconocido esta Corte, la sexualidad es  parte integral de la autonomía y la libertad personal, por lo que su expresión,  mientras no vulnere derechos de terceros, también debe estar protegida.    

     

(ii)              Discusiones sobre género y sexualidad en el  proceso de moderación de contenidos    

     

155.        El segundo asunto se relaciona con el proceso de  moderación de contenidos. En este ámbito, también se ha insistido en la  necesidad de aplicar un enfoque de género. Tal como lo señaló la Relatora Especial sobre la promoción y protección del derecho a  la libertad de opinión y de expresión, la ausencia de este enfoque en la moderación puede restringir de manera  injustificada la participación de las mujeres en las plataformas digitales. Según  la relatora los moderadores humanos pueden carecer de la contextualización  necesaria, así como de la sensibilidad cultural, lingüística y de género indispensable  para evaluar adecuadamente si lo que publican las mujeres se ajusta a los  márgenes de lo admisible en un entorno digital. A esto se suman los procesos  automatizados, basados en inteligencia artificial, en donde se acrecienta el  riesgo de reproducción de patrones o estereotipos de género que terminan  afectado negativamente a las usuarias de redes sociales.    

     

156.        Sobre el punto, vale la pena recabar en los dos  tipos de procesos de moderación de contenidos que emplean la mayoría de las  redes sociales que, como se dijo arriba, combinan una revisión humana con otra  automatizada mediante inteligencia artificial entrenada mediante aprendizaje de  máquina. El proceso de moderación de contenidos suele iniciar con la detección  de material potencialmente violatorio de las normas comunitarias a través de  algoritmos o herramientas de inteligencia artificial que son “entrenadas” para  definir en cuestión de segundos si un contenido es o no compatible con las  normas comunitarias, cuestión que incluye las regulaciones sobre la sexualidad  y la desnudez.    

     

157.        En relación con los procesos automatizados, tal  como señaló la mencionada relatora, varios estudios advierten la existencia de posibles  sesgos de género que afectan la selección de contenidos publicados por mujeres  y que son clasificados como violatorios de normas comunitarias, aun cuando en  realidad las cumplen. Por ejemplo, una investigación reciente del diario británico The Guardian en alianza  con el Pulitzer Center’s AI Accountability Network, encontró que las  herramientas de inteligencia artificial dedicadas a la moderación de contenidos  en las redes sociales más grandes “tienen sesgos de género que podrían estar  censurando y suprimiendo el alcance de incontables fotos sobre cuerpos de  mujeres”.[185] Según esta investigación, la categorización del aprendizaje de máquina  que informa el algoritmo es desarrollada por personas, de manera que sus sesgos  permean la herramienta de IA. En tal sentido, mientras que las imágenes de  hombres en ropa interior o de deporte son asociadas con hacer ejercicio o  actividades cotidianas inocuas, las imágenes de mujeres vestidas con la misma  indumentaria suelen ser categorizadas como ‘picantes’ o ‘subidas de tono’.[186]    

     

158.        Según dicha investigación, y que confirma en su  intervención la fundación Karisma, la consecuencia más frecuente de las  decisiones preliminares adoptadas por las herramientas automatizadas es el  llamado shadowbanning, o reducción de la visibilidad de los contenidos  que podrían infringir las normas relativas a la desnudez y la sexualidad. Esta  práctica, por lo general, se aplica sin aviso ni explicación que justifique por  qué se limita el alcance de las publicaciones de las mujeres afectadas.[187]    

     

159.        Ahora bien, en cuanto a la moderación de contenidos  realizada por humanos, existen tres prácticas que pueden afectar el derecho a  la igualdad de las mujeres y que tienen relación con el caso concreto. La  primera es que, en el proceso de verificación de las decisiones tomadas por  inteligencia artificial, el moderador humano suele confirmar lo adoptado  previamente, lo que termina ratificando el sesgo del algoritmo. La segunda es  que, debido al volumen de información generada por usuarios a nivel global, resulta  casi imposible realizar una revisión detallada de los contenidos que permita contextualizar  debidamente las imágenes, de modo que la IA elimina publicaciones legítimas que  asume como contrarias a las normas comunitarias. La tercera es que los equipos  humanos de moderación de contenidos suelen carecen de formación en el idioma, los  contextos culturales y las normas sociales de los distintos lugares donde se produce  contenido sexualmente explícito, lo que lleva a que la apreciación subjetiva  del moderador llene esos vacíos en la toma de decisiones[188].    

     

160.       Así, de estas reflexiones es posible extraer una conclusión principal. Al  igual que sucede con las “reglas de la casa”, en el proceso de moderación es  legítimo que los intermediarios restrinjan la circulación de desnudos y contenido  sexualmente explícito, en busca de desincentivar la pornografía infantil,  impedir el uso potencial de las cuentas para facilitar la explotación sexual de  niños, niñas, adolescentes y adultos, o evitar la circulación de material  sexual sin consentimiento. No obstante, al ejercer esa función, los  intermediarios no pueden vulnerar los derechos de las mujeres.    

     

161.        Para garantizar sus derechos, los intermediarios deben  adoptar mecanismos de moderación –tanto humanos como automatizados– que sean  transparentes. Deben, además: (i) implementar medidas para identificar sesgos  de género, con el fin de prevenirlos y de corregir con prontitud los errores  que de ellos se deriven; (ii) explicar de manera clara cuándo y cómo se tienen  en cuenta conductas offline o fuera de línea para las decisiones de  moderación; y (iii) garantizar que, en caso de denuncias masivas de cuentas, se  informe a la usuaria sobre las razones de la restricción y exista un  procedimiento accesible de revisión posterior, que permita descartar posibles  prácticas de acoso digital o discriminación.    

     

162.        Estas preocupaciones, de hecho, han sido destacadas a nivel internacional. En su  Declaración Conjunta sobre Libertad de Expresión y  Justicia de Género del 3 de mayo de 2022, el Comité CEDAW instó a los Estados y  a las plataformas digitales a eliminar la discriminación y los prejuicios  contra las mujeres, garantizar su acceso a la información, evitar restricciones  de expresión basadas en el sexo de las personas, erradicar la violencia de  género en línea, y aplicar la debida diligencia en materia de derechos humanos[189].    

     

163.        El Comité CEDAW insistió en la importancia de que los  operadores de redes sociales tengan presente que la lógica expansiva de su  negocio y el uso de tecnologías de inteligencia artificial puede “amplificar  los estereotipos de género, los prejuicios, la misoginia y la violencia de  género”.[190] Por lo tanto, instó a estos operadores a “asegurarse de que sus políticas  y prácticas de moderación y curación de contenidos no discriminen por motivos  de género u otros atributos protegidos”[191].    

     

Frente  al uso de procedimientos automatizados, la Declaración subrayó la necesidad de  que se cuente con información representativa e inclusiva que garantice la  participación igualitaria de mujeres y grupos históricamente subrepresentados. Asimismo,  enfatizó que ni la moral pública ni una única tradición cultural o religiosa  puede justificar la imposición de restricciones a la expresión de las mujeres,  particularmente en relación con su sexualidad. En tal sentido, “cualquier limitación por motivos de  protección de la moral pública” a la expresión de las mujeres debe tener en  cuenta la aplicación de los principios de proporcionalidad y necesidad, que  entraña, entre otras cosas, “la universalidad de los derechos humanos, el  principio de no discriminación y las normas internacionales de derechos humanos  en materia de diversidad sexual, de género y cultural, incluida la protección  de las expresiones que puedan resultar ofensivas, chocantes o perturbadoras  para los demás”[192].    

     

164.        En síntesis, de lo dicho hasta aquí queda claro  que, si bien hay muchas discusiones sin resolver en materia de moderación de  contenidos, en relación con temas de género y sexualidad, los intermediarios de  redes sociales están facultados para regular el contenido de sus plataformas y  prohibir expresamente algunas conductas como aquellas que favorecen la  pornografía infantil, la explotación sexual o la difusión no consentida de  material íntimo. No obstante, las restricciones a contenidos  considerados como sexualmente explícitos e implícitos para ser válidas deben perseguir  fines legítimos y proporcionales, ser aplicadas con transparencia, sin sesgos  ni prácticas discriminatorias.    

     

4.4.      Naturaleza jurídica y  protección constitucional de las actividades desarrolladas por los y las  influenciadoras digitales    

     

165.        Ahora bien, sumado al tema de la moderación de  contenidos, dentro de las múltiples novedades que plantea el caso objeto de  estudio se encuentra la discusión sobre los y las influenciadoras digitales y  la protección de la que son titulares. Por ende, en este acápite pasa la Corte  a referirse a esta singular actividad.    

     

166.        Para empezar, el oficio de influenciador es propio  del mundo digital, y más concretamente, de la proliferación de las redes  sociales. La singularidad de este fenómeno amerita una  discusión profunda sobre la naturaleza jurídica de esta actividad económica y  el tipo de protección de la que puede ser titular una persona que la ejerce  desde el punto de vista constitucional.    

     

167.        Según el observatorio de palabras de la RAE[193], el vocablo influencer se refiere a “un anglicismo usado en referencia a una persona con capacidad para  influir sobre otras, principalmente a través de las redes sociales”. Para la  RAE, la expresión puede tener diferentes traducciones al español, tales como influyente, influidor e influenciador”[194].    

     

168.        Dado que el oficio de los influenciadores digitales  no ha sido abordado en forma comprensiva por la Corte Constitucional, es  necesario acudir a diversas fuentes para comprender sus dimensiones sociales,  culturales y sociales. La doctrina sobre marketing digital usualmente  define a los influenciadores como “individuos que interactúan con un público  objetivo específico, cuya participación en línea estimulan regularmente (v.g.,  discusiones) y a quienes les venden productos, servicios o marcas”[195]. En cualquier caso, no todos los influenciadores venden cosas o  servicios, aunque es posible que estén vinculados a través de contratos de  publicidad con ciertas marcas.    

     

169.        La lógica de las redes sociales permite que  cualquiera pueda ser un influenciador: una celebridad, un tendero, una  estudiante universitaria, un obrero, una profesora, en fin. El oficio de influenciador  o influenciadora no se circunscribe a una actividad en particular diferente a  compartir contenido regularmente con una comunidad digital con la que hay  intereses en común y a quienes puede, eventualmente, ofertarle productos. Por  eso, incluso sin vender productos, los influenciadores pueden ser personas que  “hacen contribuciones notables a las redes sociales y ganan reconocimiento  significativo de otros”[196].    

     

     

·         Mega-influenciadores: se identifica con esta  etiqueta a quienes tienen un millón o más seguidores en al menos una red  social. Los mega-influenciadores usualmente son celebridades offline, es  decir, personas que han ganado amplio reconocimiento local, regional o mundial  por actividades desplegadas por fuera de las redes sociales, aunque también hay  personas que pueden haber adquirido ese nivel de seguidores simplemente por su  actividad online.    

·         Macro-influenciadores: son personas que tienen una  audiencia entre quinientos mil y un millón de seguidores.    

·         Micro-influenciadores: son personas que ganan  amplio reconocimiento por su experticia en un tema de nicho y, por lo tanto,  tienen muchos seguidores interesados en ese nicho particular. Suelen tener  entre diez mil y quinientos mil seguidores.    

·         Nano-influenciadores: se trata de personas que,  aunque tengan una base de seguidores relativamente pequeña (incluso menos de mil  seguidores), se dedican a temas altamente especializados o sobre los que  circula poca información en Internet[197].    

     

171.        Los influenciadores interactúan con sus audiencias  de múltiples formas, por ejemplo, al escribir entradas, subir fotos y videos, o  participar en actividades como encuentros online. Un elemento crucial de  esta interacción es la definición de una persona social online o marca  personal: es decir, los rasgos de su personalidad en el espacio digital que  resultan atractivos para otros y que se convierten en la razón por la cual las  personas desean seguirlos e interactuar de manera constante con los contenidos  que publican. Esta personalidad digital suele afianzarse gracias a la  credibilidad en su conocimiento, ya sea para cocinar, mantener un estilo de  vida saludable, ejercitarse, maquillarse o simplemente entretener con humor a  su audiencia[198].    

     

172.        Aunque los influenciadores existen hace ya un  tiempo, en el país son pocos los esfuerzos de carácter legal y regulatorio por  dar contorno a su actividad.  Entre ellos se encuentra un proyecto de ley que  no vio la luz, y que tenía el propósito de regular la publicidad en redes  sociales, al establecer el deber de informar cuándo se promociona un producto  de forma espontánea y cuándo se hace como parte de un acuerdo comercial con una  marca[199]. Es decir, se trataba de un proyecto de transparencia frente a lo que  se denomina infuencer maketing, es decir, la promoción de productos y  servicios a través de influenciadores[200].    

     

173.        Otro esfuerzo en este sentido, que sí se materializó,  es la Guía de Buenas Prácticas en la Publicidad a través de Influenciadores  Digitales, publicada por la Superintendencia de Industria y Comercio (SIC) en  2020. En dicha Guía, la SIC estableció algunos derroteros sobre cómo hacer  publicidad a través de los servicios de influenciadores digitales para  salvaguardar los intereses de los consumidores. Según la Guía, los  influenciadores son personas que utilizan las redes sociales para “compartir su  cotidianidad, intereses y experiencias con una comunidad en línea”, de manera  que gozan de “credibilidad, confianza y una imagen reconocible que le permite  influir, afectar o motivar el comportamiento del consumidor”. Para la SIC, no  importa si una persona se reconoce o no como influenciador, pues lo relevante  es el rol que cumple impactando las prácticas de otras personas, especialmente  de consumo[201].    

     

174.        A pesar de estos esfuerzos para proteger a los  consumidores, lo cierto es que poco se ha discutido sobre las relaciones entre  los influenciadores y los intermediarios que administran las plataformas en las  que desarrollan su actividad económica. Para esos fines es necesario entender  cómo funciona el oficio y su naturaleza jurídica.    

     

175.        Como quedó claro, los influenciadores crean un  contenido para redes sociales que les permite alcanzar notoriedad en dicho  ecosistema y, por lo tanto, obtener ganancias económicas. Esas ganancias pueden  ser todo o parte sustancial de su sustento vital, y se pueden obtener por al  menos cuatro vías o modelos de negocio: (i) contratos de publicidad con marcas  y agencias cazatalentos en las que se acuerda la promoción de bienes o servicios  específicos; (ii) monetización directa de cuentas frente a las plataformas  mediante la entrega de dinero por autorizar la presentación de pauta  publicitaria a los seguidores de la cuenta; (iii) ingresos directos por aportes  de seguidores a través de estrategias de crowdfunding o recolección de  dinero para un fin particular; (iv) y venta directa de bienes y servicios  producidos por el o la influenciadora[202].    

     

176.        Diferentes factores influyen en la posibilidad de  que esos modelos de negocio resulten o no exitosos. En particular, incide el  número de seguidores, la naturaleza de la industria de que se trate, la  posibilidad de diversificar dentro de los distintos modelos de negocio y la  capacidad de negociación, que en términos generales depende del tipo de influenciador  (mega, macro, micro o nano)[203]. En cualquier caso, es evidente que existen al  menos dos elementos fundamentales para que la creación de contenidos en redes  sociales sea una actividad económicamente rentable: por un lado, contar con una  cuenta en al menos una plataforma de red social, y por otro, disponer de un  número significativo de seguidores que haga viable cualquier modelo de negocio  elegido por quien se dedica al oficio de influenciador.    

     

177.        A la luz de estas consideraciones: (i) ser influencer  o influenciador es un oficio de origen relativamente reciente y de auge  creciente, por el cual pueden optar las personas libre y legítimamente, siempre  que su objeto sea lícito, como una expresión de la vocación, capacidades y  deseos de quienes lo ejercen; (ii) este oficio puede ser catalogado como  trabajo, si se tiene en cuenta la definición de la OIT: “toda actividad humana, remunerada o  no, que produce bienes o servicios en una economía, o que satisface las  necesidades de una comunidad o provee los medios de sustento necesarios para  los individuos”[204].  En efecto, es posible decir que la actividad desarrollada por los  influenciadores permite la circulación de bienes y servicios y provee medios de  sustento para quien la ejerce. De igual manera, se trata de una actividad que  desarrolla otros derechos, como la libertad de expresión y la libertad de  escoger profesión y oficio. Por todo ello, es una actividad que goza de  protección constitucional.    

     

178.        En todo caso, el oficio de influenciador digital  plantea dilemas jurídicos inéditos, que las categorías tradicionales del  derecho no logran resolver con facilidad. No siempre es claro si esta actividad  debe entenderse como trabajo independiente o como una relación de dependencia  frente a las plataformas que administran las redes sociales. Por tal razón,  corresponde al juez en cada caso concreto, con base en los elementos  probatorios que tiene a su alcance, determinar si hay una relación de  subordinación laboral, es decir, una relación de empleador-empleado, o si, por  el contrario, se trata de un trabajo independiente. Entre los factores de  análisis, el juez podría, por ejemplo, considerar: (i) si la plataforma o el  intermediario dicta reglas estrictas de comportamiento y control; (ii) si hay  dependencia económica preponderante o exclusiva de esa plataforma; y (iii) si  existe un poder de dirección (órdenes, horarios, sanciones). Si estos elementos  están presentes, podría entenderse que hay subordinación, y por tanto una relación  laboral. En cambio, si determina que la persona influenciadora trabaja de  manera autónoma, se puede reconocer que se trata de un trabajo independiente.  En todo caso, en ambos escenarios, es preciso insistir, deben existir  protecciones mínimas relativas al derecho al trabajo.    

     

179.       Finalmente, más allá de la potencial relación laboral, es preciso  reconocer la interdependencia estructural entre influenciadores y plataformas. Los  influenciadores dependen de las redes sociales para desplegar su modelo de  negocio. Sin embargo, las plataformas necesitan de los contenidos que los  influenciadores generan para atraer y retener usuarios, en tanto parte de su  modelo económico se basa en la publicidad dirigida y el procesamiento de datos.  Es decir, ninguno existe sin el otro.    

     

180.        En este escenario, surge entonces un dilema  central. Por un lado, la libertad de empresa y el derecho a la propiedad  privada faculta a las plataformas para fijar las reglas que condicionen la  participación de sus usuarios, incluyendo de aquellos que actúan como  influenciadores. Sin embargo, como ya se ha dicho, aunque son de gestión  privada, funcionan como espacios abiertos al público en las que circulan  expresiones y actividades de relevancia social y económica. Esa doble  naturaleza impone la necesidad de establecer límites que aseguren tanto la  autonomía empresarial como la vigencia de los derechos fundamentales.    

     

181.        La analogía con los centros comerciales  podría resultar ilustrativa para entender este punto. Dada la  naturaleza sui generis de los espacios digitales, los intermediarios de  las redes sociales operan como una suerte de administradores de locales  comerciales abiertos al público. En esta analogía, el local corresponde a la  cuenta del influenciador o influenciadora, que busca atraer la atención de un  número significativo de personas mediante la oferta de distintos contenidos: su  vida cotidiana, consejos de belleza, de cocina, instrucciones para reparar  electrodomésticos, crítica musical, comedia, entre muchos otros. En ese  sentido, en principio, la relación entre influenciadores y plataformas es de naturaleza  privada y se rige por lo pactado en sus términos de uso. Sin embargo, dicha  relación se desarrolla en un escenario marcadamente desigual, lo que impone al  Estado el deber de proteger a la parte débil, que es el influenciador o la  influenciadora. Incluso, aun cuando la actividad no persiga fines lucrativos,  la cancelación de una cuenta o la eliminación de contenidos puede afectar  derechos fundamentales como la libertad de expresión y el acceso a la  información, de modo que no resulta constitucionalmente aceptable reconocer a  las plataformas una potestad sancionatoria absoluta.    

     

182.        En suma, la Corte concluye que ser influenciador en redes sociales es un oficio de  creciente trascendencia y que, por lo mismo, siempre que no desconozca los  límites propios del Estado social de derecho y los derechos fundamentales, goza  de la protección constitucional a la que se refieren los artículos 25 y 26 de  la Constitución Política. En otras palabras, los influenciadores digitales  pueden ser considerados como trabajadores independientes que desarrollan un  oficio en principio protegido por la Constitución. En tal sentido, frente al  uso potencialmente arbitrario de la facultad amplia de moderación de contenidos  y en virtud de la relación negocial desigual en la que se encuentran respecto  de los operadores de las plataformas, pueden buscar la protección de los  derechos señalados por vía de la acción de tutela.    

     

5.             Análisis del caso concreto    

     

183.        En este caso, la Sala Primera de Revisión de  tutelas debe establecer si un operador de red social como Meta viola los  derechos fundamentales de una usuaria, que actúa en ella como influenciadora y cuenta  con más de cinco millones de usuarios, cuando le elimina sus contenidos y su  cuenta, después de calificar sus publicaciones como violatorias de las normas  comunitarias sobre desnudez y servicios sexuales entre adultos.    

     

184.        Para resolver este problema jurídico la Corte: (i) se referirá a su competencia para  pronunciarse sobre este asunto; (ii) estudiará si se cumplen los requisitos de  procedencia; (iii) se pronunciará sobre los argumentos de las partes relativos  a la carencia actual de objeto; y (iv) estudiará el fondo del caso.    

     

185.        Para adelantar el estudio de fondo, esta Corporación  desarrollará la siguiente metodología: primero, la Corte describirá las normas comunitarias de Instagram sobre desnudez y actividades  sexuales de adultos. Segundo, la Sala pasará a describir el procedimiento de  moderación de contenidos que aplicaba Meta a las conductas presuntamente  infractoras de sus normas comunitarias, antes de que revocara una parte de su  política de moderación automatizada. Por último, la Corte analizará las normas comunitarias y el procedimiento de moderación de  contenidos aplicado a la accionante en el presente caso, a la luz de los estándares  de libertad de expresión, debido proceso, igualdad, la libertad de escoger profesión u oficio y derecho al trabajo, esbozados en las  consideraciones generales de esta sentencia.    

     

5.1.      Competencia de la Corte Constitucional    

     

186.        Las partes de este proceso tienen un desacuerdo  sobre la competencia de los jueces colombianos para  resolver la controversia planteada por Esperanza Gómez Sierra. Por un lado,  Meta Platforms, Inc. señaló que, en virtud de sus normas comunitarias, el caso  no puede ser ventilado ante las autoridades judiciales colombianas porque  “existen serios indicios de que la Parte Accionante está domiciliada en Miami,  Estados Unidos”[205].  Por otro lado, la accionante considera que esta lectura del domicilio es  limitada y desconoce el arraigo de la señora Esperanza Gómez en Colombia.    

     

187.        Con el fin de determinar la competencia de los  jueces colombianos para conocer este caso, la Corte considera necesario retomar  las consideraciones sobre la jurisdicción hechas al inicio de esta sentencia.  Como allí se indicó, es cierto que las disputas en Internet plantean retos para  determinar la competencia de los jueces nacionales debido a la presencia  internacional de la red, pero esto no significa que sea imposible atribuir el  conocimiento de una controversia relacionada con Internet a un juez nacional.  Cada sistema jurídico desarrolla reglas que determinan hasta dónde se extiende  la jurisdicción nacional en el mundo virtual. En Colombia, las normas sobre  jurisdicción establecen un modelo de “país-de-destino” moderado, lo que  significa, en pocas palabras, que los jueces colombianos pueden tener  competencia para conocer de disputas relacionadas con Internet cuando los  hechos que suceden en el ciberespacio producen, en forma clara, efectos en este  país.    

     

     

189.        En este caso, es necesario tener en mente diversas  reglas de competencia. Primero, las reglas de Meta Inc. señalan que las  controversias derivadas de sus decisiones pueden ser resueltas por autoridades  judiciales del país donde “reside” el o la usuaria[206].  Segundo, de acuerdo con el artículo 2º de la Ley 1581 de 2012, cuando un  responsable o encargado trata datos ubicados en el territorio colombiano está  sujeto a la legislación de este país[207]. Tercero, por  regla general, la competencia para conocer de las acciones de tutela es el  lugar en donde se produjo el hecho o amenaza a los derechos fundamentales o,  en su defecto, el lugar donde la violación o amenaza a un derecho produjo  efectos[208].    

     

190.        La Corte Constitucional reconoce la importancia de  las cláusulas incluidas en las Condiciones de Uso de Meta en torno a la  jurisdicción y la competencia. Sin embargo, dichas  cláusulas deben estudiarse en conjunto con las reglas previstas por la ley  colombiana en materia de jurisdicción. Para hacerlo, la Corte explicará, en  primer lugar, la discusión que sostuvieron la accionante y la accionada en  relación con la residencia y el domicilio de la señora Esperanza Gómez. En  segundo lugar, la Corte precisará que, de todas formas, la competencia del juez  de tutela no depende ni de la residencia ni del domicilio del accionante,  aunque estos pueden ser ilustrativos para identificar en dónde se produjo la  vulneración o amenaza de los derechos fundamentales o dónde produjo efectos.    

     

191.        Las Condiciones de Uso de Meta se refieren a la  “residencia” del usuario como criterio para determinar la jurisdicción  aplicable a una disputa. A partir de esta cláusula, las partes de este proceso  tuvieron una discusión sobre el domicilio de Esperanza Gómez, a pesar de que la  residencia y el domicilio no son lo mismo jurídicamente. En efecto, como se  desprende del artículo 76 del Código Civil y lo ha señalado la Corte Suprema de  Justicia, la residencia es apenas un elemento del domicilio[209]. Así, es posible tener más de una residencia, y éstas pueden –o no–  constituir un domicilio, que es el lugar donde se tiene la residencia  permanente, con el ánimo de permanecer en ella.    

     

192.        En un mundo interconectado, entender la residencia  apenas como el lugar donde una persona pasa la mayor parte del tiempo es  inadecuado. Por el contrario, en este caso, aun si se aceptara la aplicación  del criterio de residencia establecido en las Condiciones de Uso de Meta,  habría elementos para entender que Esperanza Gómez tiene, al menos, una  residencia en Cali, Colombia. Estos elementos son los siguientes:    

     

·         La accionante es dueña de dos  propiedades en el departamento del Valle del Cauca: una en Cali[210], y otra en la zona rural de un municipio aledaño a esa ciudad[211].    

     

·         Por solicitud de la accionante[212], el despacho sustanciador consultó el sistema de datos públicos de la  Administradora de ​los Recursos del Sistema General de Seguridad Social  en Salud (ADRESS), y constató que está afiliada y activa en el sistema de salud  en el régimen contributivo[213].    

     

·         La accionante demostró tener una actividad  económica en Colombia sostenida en el tiempo. Sobre el particular, aportó la  Resolución No. 12380 del 7 de mayo de 2019 de la Superintendencia de Industria  y Comercio (SIC), que le concedió el registro de la marca “Esperanza Gómez”  para la distinción de diversos productos comerciales[214]. También aportó copia de los estatutos de la sociedad por acciones  simplificada EG Fashion Moda Group, empresa cuyo domicilio social es la ciudad  de Cali, en los cuales la accionante aparece como constituyente y propietaria del 50% de las acciones[215].    

     

·         La actora también aportó comprobantes de pago y  algunos contratos suscritos con empresas colombianas o con sede en Colombia,  principalmente relacionados con actividades de publicidad a través de redes  sociales[216], y que fueron suscritos por el reconocimiento que tiene en este país[217].    

     

·         Asimismo, la accionante manifestó en varias  oportunidades que, además de que su casa, su familia y sus afectos están en  Cali, ella pasa largas temporadas en Colombia, y que el apartamento del que es  propietaria en esa ciudad es donde se aloja cuando permanece en el territorio  nacional. De igual manera, indicó que la propiedad a su nombre en un municipio  aledaño a Cali es utilizada como su casa de descanso. Al ser preguntada por la  Corte sobre su domicilio, la demandante señaló que este “se encuentra en la  ciudad de Santiago de Cali, lugar en donde poseo mi empresa, mi vivienda, mi  oficina, mi familia y donde tengo un arraigo”[218].    

     

193.        Estos elementos sugieren que, en principio, que los  jueces nacionales asuman el conocimiento de una controversia entre la usuaria Esperanza Gómez y la plataforma es razonable, aun bajo las reglas establecidas en las Condiciones de Uso de Meta.    

     

194.        En todo caso, los elementos aportados por la  accionante no solo son relevantes para establecer si tenía o no residencia en  Colombia. En efecto, ellos también demuestran que la disputa tiene una relación  estrecha con Colombia y, en esa medida, justifican la intervención del juez  constitucional colombiano. Dicha relación puede establecerse por dos vías: (i)  por el lado de la empresa demandada, porque recolecta datos en Colombia, y (ii)  por el lado de la accionante, porque sus actividades personales y económicas  relacionadas con su cuenta de Instagram muestran que la disputa tuvo efectos  claros en este país.    

     

195.        Por un lado, la Corte ha constatado que, a través  de la plataforma Instagram, Meta Inc. recolecta y trata datos personales en  Colombia. Las redes sociales digitales usan herramientas tecnológicas (como cookies)  para recolectar datos personales, sin necesidad de estar domiciliadas o  ubicadas físicamente en el territorio nacional[219]. Como  buena parte de la vida y negocios de Esperanza Gómez, y parte de los datos que  lleva a las redes tienen que ver con su vida en Colombia, es posible inferir  razonablemente que Meta Inc. recolectó y trató datos en este país, relacionados  con la cuenta de Instagram sobre la que trata esta acción de tutela. Así,  también se satisface la regla de competencia definida en el artículo 2º de la  Ley 1581 de 2012, ya citado.    

     

196.        Por otro lado, en lo que tiene que ver con el  ejercicio de la acción de tutela, las dos grandes reglas sobre competencia  territorial se refieren al lugar donde ocurre la amenaza o vulneración del  derecho, o al lugar donde esta omisión o violación tiene efectos. La  Corte debe tener en cuenta que las vulneraciones que la accionante le atribuye  a Meta Platforms, Inc., ocurrieron en la red social Instagram, un espacio  digital que no se localiza en un lugar físico específico. En efecto, en el  entorno digital no siempre es evidente cuál fue el lugar donde se vulneraron o  amenazaron los derechos fundamentales. Sin embargo, en este caso sí hay  suficientes elementos para considerar que la conducta de Meta produjo efectos  principalmente en Colombia.    

     

197.        Más allá de la controversia acerca de su domicilio  y residencia, a la que se hizo referencia arriba, lo cierto es que las pruebas  que la Corte mencionó permiten inferir razonablemente que la disputa está  estrechamente vinculada con este país. En efecto, la accionante (i) mantiene  una residencia en Colombia; (ii) está probado que desarrolla aquí actividades  económicas y (iii) según su relato, algunas de ellas se apoyaban en su cuenta  de Instagram. Como lo indicó la accionante, el cierre de su cuenta produjo  efectos sobre contratos celebrados y ejecutados en este país, los cuales tenían  relación con el posicionamiento de la accionante entre el público colombiano.    

     

     

198.        Ahora bien, es posible que la eliminación de la  cuenta de la demandante también produjera efectos en otros países. Sin embargo,  como ya se explicó, esta no es una razón para que el juez de tutela colombiano  abandone su competencia para conocer el caso. Cada vez es más común que los  hechos que ocurren en un espacio digital tengan efectos en varios países. Esto  no significa que los jueces nacionales sean competentes para conocer cualquier  controversia originada en línea, sino que deben estudiar la fuerza de la  relación entre el conflicto y sus propias normas sobre jurisdicción. En este  caso, ante la posible vulneración de los derechos fundamentales que la  Constitución Política le reconoce a la accionante –ocurrida en un escenario  digital–, resulta razonable que ella acuda a la protección de la jurisdicción colombiana.     

     

199.        Con base en los argumentos antes expuestos, la Sala  Primera de Revisión de la Corte Constitucional ratifica su competencia para  revisar los fallos de tutela proferidos dentro del trámite de referencia.    

     

5.2.      Análisis de los requisitos de procedibilidad    

     

200.        En esta sección se estudian los requisitos de  procedibilidad de la acción de tutela, sobre los cuales también existen debates  importantes y novedosos, principalmente aquellos relacionados con la relevancia  constitucional del caso y con la legitimación por pasiva de las compañías que  operan redes sociales, las cuales no están ubicadas en Colombia, y de sus  filiales en el país. En este contexto, la Corte expondrá porqué el caso es admisible en virtud del cumplimiento de los  requisitos de (i) legitimación por activa; (ii) legitimación por pasiva; (iii)  subsidiariedad; y (iv) la inmediatez.    

     

5.2.1.   Legitimación por activa[220]    

201.        En el presente caso, la acción de tutela fue  presentada por Esperanza Gómez Silva a nombre propio como persona natural y  titular de los derechos fundamentales al trabajo, la igualdad y no  discriminación, al mínimo vital y móvil y a la libertad de expresión, entre  otros. Por lo mismo, se entiende satisfecho este requisito.    

     

5.2.2.   Legitimación por pasiva[221]    

     

202.        Para determinar la procedencia de la tutela contra  particulares que administran plataformas digitales se debe, conforme al  artículo 42.9 del Decreto 2591 de 1991, verificar si la parte accionante se encuentra en una situación de  indefensión o de subordinación respecto del particular demandado[222]. Según la jurisprudencia constitucional, la subordinación se refiere a  una situación en la que una persona debe acatar las órdenes emitidas por  quiénes, en virtud de sus calidades, tienen competencia para impartirlas[223]. En términos generales, la subordinación supone la existencia de una  relación jurídica de dependencia originada en la obligatoriedad de un  determinado orden jurídico o social[224]. Algunos ejemplos de subordinación evidentes son la relación entre  empleador y empleado o profesores y estudiantes[225].    

     

203.        Por su parte, la Corte señala en su jurisprudencia  que la indefensión es “una situación relacional que implica la dependencia de  una persona respecto de otra, por causa de una decisión o actuación  desarrollada en el ejercicio irrazonable, irracional o desproporcionado de un  derecho del que el particular es titular”[226]. Por tal motivo, quien haga las veces de juez debe evaluar “las  circunstancias del caso concreto, las personas involucradas, los hechos  relevantes y las condiciones de desprotección, que pueden ser económicas,  sociales, culturales y personales”[227].    

     

204.        En el presente caso, concurren al trámite de tutela  dos personas jurídicas como accionadas, Meta Platforms, Inc. y Facebook  Colombia, S.A.S. Asimismo, están vinculados el Ministerio de Tecnologías de la  Información y la Comunicación y la Superintendencia de Industria y Comercio. En  lo que sigue, la Corte se pronunciará por separado sobre la legitimación por  pasiva de las entidades convocadas al trámite de tutela.    

     

205.        Legitimación por pasiva de Meta Platforms, Inc. En el expediente consta que Meta Platforms, Inc. eliminó los contenidos  publicados por la señora Esperanza Gómez Silva, así como dos de sus cuentas:  primero @esperanzagomez, en mayo de 2021, y luego @soyesperanzagomez, en  noviembre de 2022, durante el trámite de tutela. Las eliminaciones consecutivas  de contenido y cuentas fueron reconocidas por los apoderados de esta compañía  en Colombia y por su vicepresidente, quienes afirmaron que estas decisiones  estuvieron sustentadas en la violación repetida de las normas comunitarias por  parte de la accionante[228].    

     

206.        El fundamento de las decisiones de Meta son tanto  sus Condiciones de Uso como sus Normas Comunitarias, que en líneas generales  definen los comportamientos permitidos y prohibidos en Instagram. Estas normas  fueron aplicadas en virtud de la facultad de moderación de contenidos que se  arroga Meta a sí misma para asegurar que se cumplan las normas mínimas de  comportamiento que definió para dicha red social. Tanto la facultad de  moderación de contenidos como las políticas de Meta sobre comportamiento  admisible e inadmisible, fueron aceptadas por la accionante al ingresar a la  plataforma mediante la firma de un contrato de adhesión, es decir, un acto  jurídico en el que la accionante no podía modificar el contenido del acuerdo  sino simplemente adherirse[229].    

     

207.        Como ya se indicó, la facultad de moderación de  contenidos permite que los intermediarios que administran una red social  eliminen o restrinjan el acceso a ciertos contenidos o cuentas, tanto  oficiosamente como por solicitud de otros usuarios. En dicho contexto, tanto la  forma en que se vinculan los usuarios con Meta como las consecuencias de  aceptar las condiciones que impone dan cuenta de una situación de subordinación  que tiene origen en la suscripción del contrato con los términos y condiciones  que impone la compañía. Aunque en la doctrina persisten dudas sobre la  naturaleza jurídica de estos contratos[230], lo cierto es que se trata de negocios jurídicos en los que el usuario  no puede estipular el contenido de las obligaciones en modo alguno.    

     

208.        Por otro lado, Meta tiene una posición dominante en  el mercado mundial de las tecnologías de la información y, más concretamente,  sobre los usuarios de sus servicios en virtud de la facultad amplia de  moderación de contenidos[231]. En efecto, su posición global, su capital y su control de buena parte  del mercado de las tecnologías de red social pone de presente que las  necesidades de comunicación digital de las personas suponen la necesidad de  acceder a las condiciones que impone Meta para participar en los foros  digitales que administra. En esa medida, los usuarios de plataformas como  Instagram se encuentran generalmente sometidos a las decisiones de Meta  aplicadas en virtud de la facultad amplia de moderación de contenidos. En dicho  contexto, si bien los usuarios tienen la posibilidad de recurrir estas  decisiones a través de procedimientos establecidos y administrados también por  Meta, lo cierto es que la decisión en últimas es de la compañía, que tiene el  poder técnico de eliminar parcial o definitivamente contenidos o cuentas.    

     

209.        En el presente caso, y como se mencionó al inicio  de esta sección, Meta eliminó las imágenes, videos y cuenta de la accionante de  manera directa. Según la actora, su conducta nunca incumplió las reglas de Meta  y, sin embargo, su contenido fue eliminado. Además, la peticionaria señaló que,  al intentar recurrir estas decisiones, no obtuvo una respuesta oportuna y de  fondo por parte de la compañía. En esa medida, en ejercicio de su facultad  amplia de moderación de contenidos, reconocida en las Normas Comunitarias y  Condiciones de Uso de Instagram, Meta aplicó unas reglas sobre las que no  dispuso la accionante. Además, el proceso de moderación de contenidos fue  administrado exclusivamente por esta compañía, que además tiene la potestad de  interpretar y aplicar esas normas procedimentales unilateralmente.    

     

210.        En este contexto, Meta se encuentra legitimada  porque la señora Gómez Silva se encontraba en una posición tanto de  subordinación como de indefensión frente a las decisiones que la compañía  adoptó en su caso, basadas en las reglas impuestas, interpretadas y aplicadas  directamente por esa compañía.    

     

211.        Legitimación por pasiva de Facebook Colombia  S.A.S. Esta compañía indicó en su respuesta a la  acción de tutela que carece absolutamente de legitimación por pasiva en este  caso. En sustento de esta afirmación, esa empresa propuso dos argumentos: “(i)  que no existe una conducta suya que se relacione con los hechos que dan lugar a  la acción que nos ocupa; y (ii) que Facebook Colombia no está legalmente  capacitada para administrar el Servicio de Facebook y el Servicio de Instagram”[232]. Asimismo, la demandada afirmó que, de una simple lectura de su  certificado de existencia y representación, se puede extraer que no cuenta con  la capacidad legal de administrar ninguno de los servicios mencionados, pues su  objeto social es:    

     

“(A)  Brindar servicios relacionados con soportes de ventas para publicidad,  marketing y relaciones públicas. (B) Adicionalmente, podrá realizar cualquier  otra actividad económica, comercial o civil lícita tanto en Colombia como en el  extranjero, incluyendo la facultad de dar o recibir préstamos”.[233]    

     

212.        Frente a su relación con Meta Platforms, Inc.,  Facebook Colombia señaló lo siguiente:    

“FB Colombia es distinta y autónoma de Meta Platforms,  Inc. (que es una empresa extranjera), con personalidad jurídica y patrimonio  propio e independiente de terceros. Adicionalmente, FB Colombia no es  mandataria, agente o representante de Meta Platforms, Inc. Por lo tanto, FB  Colombia se encuentra impedida legalmente para ejecutar cualquier requerimiento  respecto de cualquier información o servicio controlado por Meta Platforms,  Inc.”.[234]    

     

     

214.        Al respecto, Facebook Colombia subrayó que  pertenecer a un mismo grupo empresarial no hace que comparta propósito y  funciones con la dueña de dicho grupo, y que aun cuando se trata de una  relación relativamente vertical entre la matriz y la subordinada, en todo caso  mantiene la independencia para desarrollar su objeto social. La accionada  sustentó sus afirmaciones en decisiones de la Superintendencia de Sociedades  sobre la separación de la responsabilidad de matrices y filiales, y en la  sentencia C-090 de 2014[235].    

     

215.        Frente a la relación entre Meta y Facebook Colombia  S.A.S., la Superintendencia de Industria y Comercio, en la Resolución 46.664 de  2022, estableció que hay una responsabilidad compartida entre ambas sociedades  en las cuestiones relativas a la protección de los datos personales. Según la  Superintendencia, el tratamiento de datos personales en ambas empresas se  realiza a través de la vinculación de Facebook Colombia S.A.S. a la estrategia  global de Meta Platforms, Inc. para recolectar y tratar datos personales con  miras a ofrecer, entre otros, servicios de publicidad basados en la información  que poseen sobre los usuarios[236]. En ese sentido, en virtud de los vínculos jurídicos y económicos de  ambas compañías, para la SIC existe una corresponsabilidad entre las empresas  por el tratamiento de datos personales de ciudadanos colombianos al amparo del  artículo 3 de la Ley Estatutaria 1581 de 2012[237].    

     

216.        La cuestión de la corresponsabilidad entre Meta y  Facebook Colombia fue objeto de amplios debates a lo largo del trámite de  tutela. De allí es posible extraer dos posiciones. La primera, conforme a la  cual Facebook Colombia no debe estar vinculada al trámite de tutela[238]. La segunda, que estima que, por ser una sucursal de Meta, Facebook  puede ser corresponsable por las violaciones a derechos humanos que cometa la  matriz contra personas de un país en el que tiene operaciones comerciales, o  por lo menos tener deberes relacionados con la notificación de acciones  judiciales en esta materia[239].    

     

217.        La Corte  valora los aportes de los intervinientes en este asunto y los considera de suma  relevancia para el estudio de casos en los que se discute la protección de  datos personales de personas usuarias de servicios como Instagram. Sin embargo,  después de analizar el conjunto de fuentes y argumentos sobre la vinculación de  Facebook Colombia S.A.S., la Corte  concluye que –para los efectos de la  aplicación de la facultad amplia de moderación de contenidos–, no resultan aplicables los argumentos sobre  corresponsabilidad de las compañías, por las siguientes razones.    

     

218.        En primer lugar, durante el proceso quedó  demostrado que Facebook Colombia S.A.S. no tiene ninguna injerencia sobre la  definición de las Normas Comunitarias ni las Condiciones de Uso de Meta. En esa  medida, no tiene la capacidad de responder por la potencial definición  arbitraria de reglas sobre la participación en la red social Instagram.    

     

219.        En segundo lugar, Facebook Colombia S.A.S. tampoco  tiene facultades relacionadas con la aplicación de las reglas que Meta define  para el uso adecuado de la plataforma Instagram. En tal sentido, su vinculación  resulta inane toda vez que no tiene la capacidad jurídica ni técnica de  revertir decisiones que se deriven del potencial uso arbitrario de esa  facultad.    

     

220.        Por último, aunque la Corte reconoce que es un desafío hacer notificaciones judiciales en el  extranjero para hacer comparecer a una compañía con sede fuera de Colombia como  Meta Platforms, Inc., ello no justifica mantener la vinculación de una compañía  independiente que, en todo caso, no tiene la potestad legal de comunicar a la  empresa matriz sobre los procesos judiciales que se surten en su contra en  Colombia. En este contexto, la Corte concluye que Facebook Colombia S.A.S.  carece de legitimación en la causa por pasiva y, por lo tanto, ordenará su  desvinculación del presente trámite de tutela.    

     

221.        No obstante, en atención a las dificultades de  notificación a Meta Platforms, Inc. advertidas en este proceso –que obstaculizan  la protección de los derechos fundamentales de sus usuarios y que incluso  afectaron la labor de esta Corte– se considera necesario disponer de una medida  adicional. En consecuencia, la Corte ordenará a Meta que establezca un canal de  comunicación por correo electrónico que, de forma similar a lo exigido en la  Unión Europea, facilite la notificación de los procesos judiciales que se  adelanten en su contra en Colombia, en especial de las acciones de tutela, dada  su naturaleza expedita y la necesidad de asegurar la comparecencia oportuna de  las partes. Este canal de comunicación debe poder encontrarse en un lugar  visible, como puede ser dentro de su página web[240].    

     

222.        Legitimación por pasiva del Ministerio  de Tecnologías de la Información y las Comunicaciones y de la Superintendencia  de Industria y Comercio. Estas  entidades vinculadas insistieron en su falta de legitimación por pasiva en el  presente caso a lo largo del proceso.    

     

223.        Sobre el punto, la Corte considera que, si bien ninguna de las dos entidades intervino en el  curso de los hechos que dieron lugar a la presentación de la tutela, sí tienen un interés directo en el proceso. Tanto  el ministerio como la SIC son autoridades competentes para adoptar medidas para  la protección de los usuarios de redes sociales que puedan verse perjudicados  en el ejercicio de sus derechos fundamentales en espacios digitales,  particularmente en plataformas de red social. Por esta razón, la Corte las  mantendrá vinculadas al proceso como interesadas en su resultado y como  autoridades llamadas tomar en el evento en que se encuentren probadas las  violaciones alegadas por la accionante.    

     

5.2.3.    Subsidiariedad[241]    

     

224.        En asuntos relacionados con redes sociales, la Corte ha  reconocido que, debido a la complejidad de Internet y a  que muchas veces los conflictos surgen entre particulares, debe analizarse si  la tutela está siendo utilizada en reemplazo de otros mecanismos judiciales, o  si en realidad estos no resultan adecuados para garantizar los derechos  fundamentales comprometidos.    

     

225.        En la sentencia SU-420 de 2019, esta Corte estableció una serie  de subreglas para evaluar el cumplimiento del requisito de subsidiariedad en  casos en los que se estudia una tensión entre los derechos a la  honra y al buen nombre de una persona y el derecho a la libertad de expresión  de otra, en el contexto de publicaciones realizadas por un particular en redes  sociales que otro considera deshonrosas[242]. En esta oportunidad, el asunto que se estudia es diferente, pues la  controversia gira alrededor de la facultad de moderación de contenidos que  ejerce la compañía que administra la plataforma de redes sociales. Por lo tanto,  la Corte considera que las subreglas establecidas en la SU-420 de 2019 no se  pueden trasladar en forma automática a este caso, sino que se deben estudiar en  atención a las particularidades de la controversia.    

     

226.        En consecuencia, la Corte examinará (i) si la  tutela es usada para ventilar disputas que podrían discutirse en otra sede  judicial; (ii) si es exigible el agotamiento de los mecanismos de impugnación  de las decisiones adoptadas por el operador de la plataforma de red social; y  (iii) si la controversia tiene relevancia constitucional.    

     

(i)                Agotamiento de otros mecanismos  disponibles    

     

227.        Según la apoderada de Meta, en este caso no se  cumple con el requisito de subsidiariedad porque lo que pretende la accionante  es una condena en abstracto para que Meta la indemnice por los daños económicos  causados por la eliminación de su cuenta y dicha pretensión se debe ventilar a  través de otros mecanismos judiciales[243].    

     

228.        Aunque la apoderada no señaló cuáles son esos  mecanismos, es cierto que en el ordenamiento jurídico colombiano existen acciones  judiciales para ventilar pretensiones económicas como las descritas. Si bien  las formas de atribución de responsabilidad a intermediarios en redes sociales  es un asunto todavía en construcción, es dable asumir que los mecanismos a los  que hace alusión la apoderada de Meta tienen que ver con la protección a los  consumidores, pues, de hecho, esta compañía se refiere a los usuarios como tales[244].  Por eso es pertinente determinar si los derechos que la actora  indica que le son vulnerados podrían ser protegidos mediante mecanismos como la  acción de protección al consumidor adelantada por la Delegatura  de Asuntos Jurisdiccionales de la Superintendencia de Industria y Comercio o el  proceso declarativo previsto en el Código General del Proceso. Pasa la Corte,  entonces, a analizar si estos mecanismos son idóneos y eficaces para la  protección inmediata de los derechos que se estiman vulnerados en este caso.    

     

229.       Acción  de protección al consumidor. Esta acción, prevista en el artículo 56.3 de  la Ley 1480 de 2011, permite reclamar ante la Superintendencia de Industria y  Comercio la vulneración de los derechos de los consumidores, incluida la  derivada de servicios digitales.    

     

230.        En las sentencias T-584 de 2023 y T-304 de 2023 la Corte analizó  la eficacia e idoneidad de esta acción para proteger los derechos de los  consumidores en plataformas digitales, aunque lo hizo en referencia a la  afectación de los derechos a la honra, el buen nombre y el habeas  data. En esas sentencias, la Corte encontró que, si  bien los accionantes tuvieron a su disposición esta acción para proteger sus  derechos en el ámbito digital, no era célere para atender pretensiones  relacionadas con contenidos violatorios de la dignidad[245]. Si bien este caso es distinto al examinado en las mencionadas  sentencias, pues se refiere a la tensión entre la moderación de contenidos y la  posible afectación de derechos como la libertad de expresión, la igualdad y el  debido proceso, la Corte encuentra que en esta oportunidad se deriva una  conclusión similar.    

     

231.       En  efecto, la acción de protección al consumidor es insuficiente en el presente  caso por su objeto restringido. Si bien dicha acción podría ser útil para  resolver reclamos patrimoniales por parte de los consumidores contra  plataformas digitales, no está diseñada para proteger derechos fundamentales de  las personas, como los que se ventilan en este caso. La  Superintendencia de Industria y Comercio carece de atribuciones constitucionales  y legales para declarar la violación a derechos fundamentales como la igualdad,  el debido proceso o la libertad de expresión en el ámbito digital. En esa  medida, aunque puede ordenar indemnizaciones o medidas contractuales, no  ofrece una respuesta inmediata para evitar el cierre arbitrario de una cuenta,  cuyos efectos sobre derechos como la libertad de expresión pueden ser severos.    

     

232.       Proceso  declarativo en la jurisdicción ordinaria. De manera similar, el proceso  declarativo contemplado en el Código General del Proceso permitiría entablar un  juicio de responsabilidad contractual contra la plataforma para reclamar  indemnizaciones. Sin embargo, tampoco es un mecanismo idóneo para la protección  de los derechos fundamentales en este caso por varias razones. En primer lugar,  porque es un proceso excesivamente largo que no ofrece protección inmediata  frente a derechos que pueden verse afectados de manera definitiva, como la  libertad de expresión. En segundo lugar, porque su finalidad es limitada a la  reparación de perjuicios derivados del contrato, sin que el juez ordinario  pueda restablecer derechos fundamentales vulnerados por el cierre de una  cuenta. En tercer lugar, porque no ofrece medidas eficaces para impedir la suspensión  arbitraria de una cuenta en una red social, como la que se alega en el presente  caso.    

     

233.       Otros derechos comprometidos. Además de  lo anterior, en el análisis del requisito de subsidiariedad, debe tenerse en  cuenta que, como se indicó, en este caso, la controversia trasciende el plano  contractual económico.    

     

     

235.        Frente al derecho al trabajo y a la libertad de  escoger profesión u oficio, la Corte Constitucional ha señalado que en el  ámbito de las reclamaciones ante plataformas de red social también existe un  vacío normativo[246]. El trabajo como influenciador en redes sociales es un ejemplo de  ello, pues la legislación nacional aún no se ocupa de las posibles  controversias que se desprenden de esa actividad. Primero, no resulta  claro cuál es el juez natural competente para conocer del asunto; y, segundo,  el marco jurídico que regula el acceso a los mecanismos judiciales civiles o  laborales podría limitar la posibilidad de ventilar las pretensiones de los  influenciadores de redes sociales y, en consecuencia, comprometer el derecho a  la tutela judicial efectiva[247].    

     

236.        Así las cosas, los mecanismos judiciales  alternativos (i) no existen en lo que tiene que ver con los argumentos sobre  posible violación al derecho al trabajo y la libertad de escoger profesión u  oficio; y (ii) no son idóneos en lo que se refiere a la libertad de expresión,  la igualdad y el mandato de no discriminación    

     

(ii)              Empleo de los  mecanismos previstos por el intermediario    

     

237.        Cuando la controversia que se ventila ante el juez  de tutela busca la rectificación de publicaciones realizadas por un particular  en redes sociales, esta Corte ha señalado que se debe acudir a los mecanismos  previstos por el intermediario de la red social para solicitar la eliminación  de la publicación[248].    

     

238.        Es necesario aclarar que este requisito no es  directamente aplicable cuando el cuestionamiento se dirige contra el ejercicio  de la facultad de moderación de contenidos por parte del operador de la  plataforma, pues en este último caso la vulneración de los derechos  fundamentales se le atribuye al intermediario mismo. Los mecanismos de  reclamación previstos por los operadores de redes sociales no son judiciales ni  su objetivo es resolver conflictos con la plataforma, de modo que, en  principio, agotarlos no es indispensable para acudir a la acción de tutela.     

     

239.        En todo caso, como el agotamiento de los mecanismos  previstos por la plataforma fue un asunto que se discutió en este proceso, las  partes aportaron elementos de prueba valiosos para determinar cuáles fueron las  actuaciones que la señora Esperanza Gómez realizó ante Meta para buscar el  restablecimiento de su cuenta de Instagram. De esta manera, aún si se  entendiera –en gracia de discusión– que era necesario agotar los mecanismos de  reclamación dispuestos por Meta, la Corte considera que la accionante en efecto  los ejerció, sin que estos fueran eficaces para proteger los derechos que ella estima  vulnerados.    

     

240.         Para empezar, según se informó en este proceso,  Meta cuenta con varios mecanismos de reclamación directa a la plataforma cuando  un usuario está en desacuerdo con la eliminación de un contenido o cuenta:    

     

“[s]i  el contenido va en contra de las Normas Comunitarias de Instagram, Meta lo  eliminará. Meta también notificará a los usuarios para que puedan entender por  qué se ha eliminado el contenido y cómo evitar publicar contenido infractor en  el futuro […] si los usuarios siguen publicando contenido que va en contra de  las Normas Comunitarias de Instagram, a pesar de las repetidas advertencias y  restricciones, esto conducirá a que la cuenta sea desactivada. Si una cuenta de  Instagram ha sido inhabilitada, los usuarios verán un mensaje diciendo que su  cuenta está inhabilitada cuando intenten iniciar sesión. Meta también les  informa a los usuarios

  que pueden solicitar otra revisión si creen que Meta ha cometido un error”[249].    

     

241.        En este proceso, la accionante relató que, para el  momento en el que interpuso la tutela y “después de más de 20 comunicaciones al  operador”, no había sido posible el restablecimiento de su cuenta[250]. En sustento de dicha afirmación, la demandante aportó: (i) el escrito  de reclamación que afirma haber enviado a Meta para buscar la reactivación de  su cuenta; (ii) un pantallazo de correo electrónico del 18 de junio (sin  especificar el año) en el que se le solicita remitir una foto suya sujetando un  papel con el código enviado (55282); (iii) varios pantallazos de avisos de  remoción de contenido subido a su nueva cuenta de Instagram[251]. Posteriormente, en respuesta al auto de pruebas de 26 de septiembre  de 2022, la accionante remitió fotografías (identificadas en el escrito como  fotos 8, 9, 10 y 11) con el contenido que se describe a continuación[252]:    

     

Tabla 3. Fotografías remitidas por la accionante sobre  reclamos a Meta.    

Foto                    

Contenido   

1                    

Foto de pantalla de celular en la que se observa un    correo electrónico con fecha del 18 de junio de 2021, hora 8:05 am, remitido    por la dirección de correo Instagram++aazq7pxwvnp23c@support.facebook.com  en el que se lee lo siguiente:    

“Hola,    

Gracias por ponerte en contacto con nosotros. Para    poder ayudarte, necesitamos confirmas que eres el propietario de esta cuenta.    

Responde a este correo con una foto adjunta en la    que aparezcas sujetando una copia manuscrita del código que se muestra a    continuación.    

55282    

Asegúrate de que la foto que envías cumple los    siguientes requisitos:    

-Incluye el código anterior escrito a mano en una    hoja de papel en blanco, seguido de tu nombre completo y tu nombre de    usuario.    

-Incluye tanto tu mano sujetando la hoja de pape    (sic) como todo tu rostro.    

-Tiene buena iluminación y no es demasiado pequeña,    oscura o borrosa.    

-Se adjunta a la respuesta como archivo JPEG.    

Ten en cuenta que, aunque la cuenta no incluya    ninguna foto de tu o se haya utilizado para representar a otra persona o    cosa, no podemos ayudarte hasta que recibamos una foto que cumpla esos    requisitos.    

Gracias,    

El equipo de Instagram”    

Al fondo, se ve una imagen en tamaño pequeño de la    que parece ser la señora Esperanza Gómez Silva, sosteniendo una hoja de papel    blanco con la siguiente información:    

El número 55282    

El dominio @esperanzagomez    

El nombre Esperanza Gómez Silva   

2                    

Aparece la misma imagen que en la foto    anterior, pero en una versión más grande. Se identifica claramente a la    señora Esperanza Gómez Silva, sosteniendo una hoja de papel blanco con la    información señalada arriba. En la parte superior de la foto de pantalla    aparece una leyenda de identificación de la foto “IMG_20230618_085541_64…”.   

3                    

Captura de pantalla a un celular en el que se    observa lo que parece ser un formulario de Facebook con dos imágenes    superpuestas. La que aparece arriba señala lo siguiente:    

“Formulario enviado correctamente    

Gracias por ponerte en contacto con Instagram. En    breve recibirás una respuesta por correo electrónico.”    

El final de la imagen aparece cortado, pero se    identifica lo que parece ser un botón de “Aceptar”.    

En la imagen con menos brillo de la parte de abajo    se ve un formulario con información diligenciada, del siguiente modo:    

–             Pregunta: “…indica el    “nombre del usuario” en este campo]    

o      Respuesta:    “esperanzagomez”    

–             Pregunta: “Dirección de    correo electrónico que consta en tu cuenta de Instagram”    

o      Respuesta: “ozcardiamonds@gmail.com”    

–             Pregunta: “¿Desde qué    país escribes?”    

o      Respuesta: “Colombia”    

–             Pregunta: “Facilítanos    una copia de tu documento de identidad oficial con fotografía. Este documento    debe: Ser un documento oficial (p.ej. pasaporte o permiso de conducir)    Mostrar con claridad tu nombre, foto y fecha de nacimiento. Ser en color”    

Por    la superposición de imágenes no se logra identificar lo que sigue, pero    continúa más abajo el formulario con un botón “Elegir archivos” y aparece    abajo una leyenda que dice “xIMG_20210521_162308.jpg”    

     

Finalmente, hay un botón para aceptar las siguientes    condiciones: “Entiendo que no podré recibir ayuda con mi cuenta si no subo un    documento de identificación válido”. La imagen finaliza con un botón “Enviar”    e información en la parte inferior dentro de la que se puede leer “©2021    INSTAGRAM, INC.”   

4                    

Foto de pantalla en la que se ve un formulario de    Google Formularios completado con la siguiente información en inglés y    español:    

“INSTAGRAM RECOVERY REQUEST FORM    

Se registró tu respuesta.”    

Elaboración del  despacho sustanciador con base en el material probatorio.    

     

242.        En la respuesta al auto de pruebas del 29 de mayo  de 2023, la accionante señaló que no cuenta con soportes adicionales[253].    

     

243.        Respecto de esta información, Meta Platforms, Inc. explicó que, cuando  elimina contenidos, notifica a los usuarios y les advierte  sobre la posible cancelación definitiva de la cuenta. Asimismo, afirmó que, en  este caso, la de la accionante fue removida por reiteradas violaciones a las  Condiciones de Uso y Normas Comunitarias de Instagram[254].    

244.        Para sustentar lo anterior, Meta aportó una declaración  juramentada de Sandeep Solanki, quien para ese momento figuraba como  vicepresidente y Associate General Counsel[255],  quien señaló que la demandante compartió repetidamente contenido que infringía  las reglas sobre desnudos y ofrecimiento de servicios sexuales[256].  El señor Solanki afirmó haber revisado con los equipos de cumplimiento de los  términos y políticas de Meta los registros del caso e indicó que la cuenta @esperanzaagomez fue inhabilitada el  16 de mayo de 2021, tras múltiples violaciones a las reglas comunitarias. Así  mismo, indicó que la eliminación fue definitiva conforme a las políticas de  retención de datos, por lo cual no podía entregar copia de dichas violaciones[257].    

     

245.       El  despacho, mediante auto de pruebas del 29 de mayo de 2023, requirió a Meta para  que entregara la información y evidencias mencionadas por el señor Solanki. Sin  embargo, los apoderados no aportaron  las copias solicitadas y se limitaron a reproducir lo ya dicho, insistiendo en  que la cuenta fue eliminada de manera irreversible, aunque reiteraron que la  accionante fue notificada reiteradamente a través de la aplicación[258].    

     

246.       Con  base en lo anterior, la Sala Primera de Revisión de Tutelas estableció que: (i)  Meta notificó a la accionante entre marzo y mayo de 2021 sobre la eliminación  de contenidos y la posible cancelación de su cuenta; (ii) una vez bloqueado el  acceso, la peticionaria interpuso un recurso de reclamación el 18 de junio de  2021, poco menos de un mes después de la eliminación de su cuenta; y (iii) Meta  no aportó prueba alguna que indicara que contestó a esa reclamación;  simplemente se limitó a sostener que notificó vía aplicación y que la decisión  fue justificada[259].    

     

247.       En  consecuencia, la Corte concluye que la accionante sí agotó un trámite de  reclamación directa ante Instagram sin obtener respuesta, por lo que actuó con  diligencia antes de acudir a la tutela. No sobra señalar, que esta conclusión  no desconoce la validez de los mecanismos internos de las plataformas  digitales, sino que resalta su complementariedad con los mecanismos judiciales  previstos en la Constitución para garantizar los derechos fundamentales.    

     

(iii)           Relevancia constitucional    

     

248.       La  representante de Meta Platforms, Inc. cuestionó la procedencia de la acción de  tutela al considerar que la demanda planteaba un asunto contractual de carácter  meramente económico. Sobre el punto, y contrario a lo señalado por Meta, la  Corte observa que este caso sí tiene relevancia constitucional.    

     

249.       Por  un lado, como se ha explicado hasta el momento, la controversia que se estudia  en esta sentencia es un asunto novedoso, que no solamente involucra la posible  vulneración de algunos de los derechos fundamentales de la accionante, sino que  despierta preguntas sobre la jurisdicción de los jueces colombianos para  resolver disputas que ocurren en el ciberespacio; el papel del Estado frente a  la facultad de moderación de contenidos que ejercen, en principio, los  operadores de redes sociales; la protección constitucional del oficio de  influenciador o influenciadora digital; y el alcance de los derechos  fundamentales de los usuarios cuando las plataformas determinan y aplican sus  “normas comunitarias” o “reglas de la casa”.    

     

250.       Por  otro lado, en relación con el caso concreto, la Corte precisa que en éste no  solo se discute la posible vulneración del derecho a la libertad de expresión.  La accionante manifiesta que la aplicación de las normas comunitarias de  Instagram en su caso fue discriminatoria, entre otras razones, por su condición  de mujer y por haberse dedicado a la pornografía, además de ser contraria al  debido proceso. Asimismo, se discute la posible violación de sus derechos al  trabajo y a la libertad de elegir profesión u oficio pues, según Esperanza  Gómez, la cuenta de Instagram era un vehículo para realizar sus actividades  profesionales. De esta forma, se trata de derechos que tienen una amplia  protección constitucional y cuya posible vulneración es relevante para esta  Corte.    

     

251.       De  esta manera, aún si la controversia tiene un componente económico, representado  en los perjuicios que la accionante manifestó sufrir por cuenta del cierre de  su cuenta de Instagram, el centro de la disputa no es ese, sino la presunta  vulneración de los derechos fundamentales de la señora Gómez Silva. Incluso, en  relación particular con el derecho a la libertad de expresión, aun cuando el  discurso de la accionante tuviera un componente económico, ello no lo privaría  de protección constitucional, dado que la jurisprudencia ha reconocido la  cobertura de la libertad de expresión también frente a discursos  comerciales[260].    

     

252.        En suma, la Corte encuentra que lo que se pretende  ventilar es la posible vulneración de derechos fundamentales. En esa medida, si  bien la accionante pide la condena de perjuicios en abstracto por las  afectaciones económicas que experimentó en virtud de la eliminación de su  cuenta, esta es una pretensión subsidiaria que, para ella, se sigue de la  potencial afectación de sus derechos fundamentales.    

     

5.2.4.   Inmediatez[261]    

     

253.        En el presente caso, la accionante interpuso la  acción de tutela en diciembre de 2021, es decir, poco más de 6 meses después de  la eliminación de la cuenta @esperanzagomez en el servicio Instagram. Como se  señaló apartes arriba, entre los meses de mayo y diciembre de 2021, la  peticionaria activó los mecanismos de reclamo propios del operador de la red  social, es decir, Meta Platforms, Inc. En todo caso, como se observa en la  Tabla 3 antes transcrita, la  accionante probó que una de las reclamaciones frente a la eliminación de su  cuenta se hizo el 18 de junio de 2021, es decir, menos de 6 meses respecto del  momento en el que interpuso la tutela.    

     

254.        En virtud de lo anterior, la Corte considera que el término de seis meses para esperar una respuesta  sobre las razones de dieron lugar a la desactivación de la cuenta o para que  fuera restablecida, resultan razonables. Por lo mismo, la demandante interpuso  la acción de tutela de forma oportuna cuando observó que no tenía otro medio de  defensa para sus derechos fundamentales por la falta de respuesta concreta de  Meta Platforms, Inc.    

     

255.        Por las razones hasta aquí expuestas, la Sala  Primera de Revisión de Tutelas considera que: (i) la Corte Constitucional es  plenamente competente para conocer del presente caso y emitir una sentencia de  fondo y, (ii) que todos los requisitos de procedibilidad se fueron cumplidos.  De este modo, la Corte pasará a  analizar si en este caso hay carencia actual de objeto.    

     

5.3.     Sobre la  alegada carencia actual de objeto    

     

256.        Meta Platforms, Inc. presentó dos argumentos  relacionados con la potencial carencia actual de objeto. De un lado, la  apoderada de Meta en Colombia indicó que “con posterioridad a la remoción de su  cuenta, la Parte Accionante creó otras cuentas de Instagram”[262], lo que demuestra que no se encuentra vetada en la plataforma. De otro  lado, Meta afirmó que la cuenta @esperanzagomez, a través de la cual la  accionante alcanzó una comunidad de más de cinco millones de seguidores, fue  desactivada y eliminada permanentemente de los servidores donde se alojan las  cuentas de Meta, motivo por el cual es técnicamente imposible recuperarla[263].    

     

257.        La accionante se pronunció sobre estos dos  argumentos. Por un lado, señaló que en el transcurso de la acción de tutela su  cuenta @soyesperanzagomez, que creó después de la eliminación de su cuenta  original, también fue objeto de restricciones y posterior eliminación del  servicio de Instagram el 28 de noviembre de 2022. Por otro lado, reconoció  tener una cuenta activa (@yoesperanzagomez). Sin embargo, señaló que esta  cuenta es objeto de nuevas eliminaciones que, asegura, obedecen a una  persecución en su contra. Para la accionante, a diario circulan en Instagram  contenidos similares o idénticos al suyo sin ser retirados, de modo que no se  explica por qué se eliminan sus contenidos y no los otros.    

     

258.        La acción de tutela, prevista en la Constitución  Política como un mecanismo expedito para la protección inmediata de los  derechos fundamentales, puede perder su finalidad cuando desaparecen las  condiciones que motivaron su interposición. Ello ocurre bien porque la amenaza  sobre los derechos se concretó y causó un daño irreparable, o porque cesó y  dejó de existir el riesgo[264]. En tales casos, la Corte Constitucional ha desarrollado la figura de  la carencia actual de objeto. Esta figura hace improcedente la tutela pues no  habría un bien constitucional susceptible de ser protegido por una orden de  tutela. Según la Corte, la carencia actual de objeto se produce en tres eventos  hecho superado, hecho sobreviniente y daño consumado[265].    

     

259.        Según la jurisprudencia de este Tribunal, en el  hecho superado y en el hecho sobreviniente, por regla general no es necesario  un pronunciamiento del juez constitucional, aunque las salas podrían decidir  realizarlo con fines de desarrollo jurisprudencial. En el caso del daño  consumado sí es imperativo realizar un estudio de fondo, no solo con miras al desarrollo de jurisprudencia, sino  también para proteger la dimensión objetiva de los derechos fundamentales y  como garantía de no repetición o mecanismo para que no ocurran de nuevo hechos  que afectaron con tal intensidad los derechos constitucionales[266].    

     

260.        La Corte pasará a estudiar los argumentos de  las partes que sugieren la existencia de una carencia actual de objeto en el  presente caso. Como arriba se indicó, en primer lugar, la accionada afirmó que  desde el punto de vista técnico no es posible recuperar la cuenta  @esperanzagomez con sus más de 5 millones de seguidores. En dicho contexto, la  imposibilidad de recuperar dicha cuenta –que es una pretensión esencial de la  acción de tutela– se traduciría en un daño consumado, pues una orden de  habilitación de la cuenta en estas circunstancias resultaría inocua. Al  respecto, la peticionaria señaló que existen antecedentes de cuentas cerradas  que incluso después de varios años fueron restablecidas con el contenido y  seguidores anteriores. En particular, la demandante puso de presente el caso  del expresidente estadounidense Donald J. Trump, cuyas cuentas de Facebook e  Instagram fueron restablecidas el 9 de febrero de 2023 después de permanecer 2  años inactivas[267].    

     

261.        La accionada no hizo observaciones sobre esta afirmación. Sin  embargo, en respuesta a preguntas planteadas previamente por la Corte, Meta señaló lo siguiente:    

     

“[…] es posible restaurar una cuenta de Instagram al mismo estado en el  que se encontraba en el momento en que fue desactivada, siempre y cuando  el proceso de eliminación de Meta (según sus políticas de retención de  datos) no haya comenzado. Una vez el proceso de eliminación comienza, es técnicamente  imposible restablecer la cuenta o su contenido”.[268]    

     

     

263.        En cambio, no hay información sobre la  eliminación de cuentas por decisión de Meta. Las Condiciones de Uso de  Instagram señalan que Meta puede “eliminar  cualquier contenido o información que compartas en el Servicio si consideramos  que infringe estas Condiciones de uso o nuestras políticas”[271]. Sin embargo, no informan sobre el tiempo de preservación de la  información alojada en cuentas inhabilitadas o canceladas por decisiones  relacionadas con la moderación de contenidos.    

     

264.        Por su parte, la  Política de Privacidad de Meta señala que la compañía conserva la información  de sus usuarios “durante el tiempo que sea necesario para ofrecer sus  “productos, cumplir con obligaciones legales y proteger nuestros intereses o  los de los demás”. Además, según Meta, la decisión sobre “el tiempo necesario”  de conservación de la información se toma “en función de cada caso particular”[272] y en atención a varios criterios como “prevenir  daños; investigar posibles infracciones de nuestras condiciones o políticas;  fomentar la seguridad, la integridad y la protección; o protegernos, lo que  incluye nuestros derechos, propiedades o productos”[273].    

     

265.        En relación con las nuevas cuentas, la Corte  considera que su existencia no indica un hecho superado. Efectivamente, estas  cuentas fueron abiertas por la accionante después de la eliminación de su  cuenta anterior, sin la posibilidad de recuperar la masa de seguidores que  alcanzó a acumular en su cuenta @esperanzagomez. En las cuentas  @soyesperanzagomez y @yoesperanzagomez alcanzó a tener poco más de 600.000. La  última permanece abierta. En estas circunstancias, la Corte no observa que  hayan cesado por completo las conductas que la accionante le atribuye a Meta,  porque no se restituyó la cuenta @esperanzagomez con sus respectivos seguidores  ni cesó la eliminación de contenidos y cuentas a nombre de la accionante.    

     

266.        Con base en estas consideraciones  y el material probatorio aportado por las partes, la Corte estima que dado el tiempo transcurrido  desde la inhabilitación de la cuenta @esperanzagomez hasta la fecha de  elaboración de esta providencia (más de dos años), es altamente probable que su  contenido haya sido eliminado definitivamente. Sin embargo, observa también que esta conclusión  depende de unas premisas vagas, que son las que ofrece la respuesta de Meta  Platforms, Inc. y que, por su carácter técnico son difíciles de controvertir  por parte de la accionada y, en general, de cualquier persona externa a la  plataforma. Es opaca porque no existe una regla para la decisión de borrar las  cuentas adoptada por Meta Platforms, Inc.; porque la duración del proceso depende según las necesidades  (una expresión notablemente vaga) de la compañía; y porque Meta indica, sin  mayores detalles, que el proceso varía de caso a caso.    

     

267.        Como la tecnología y su discurso especializado  no podría ser válidamente un motivo para la ausencia de una protección a los  derechos fundamentales en las redes, la Corte admitirá, prima facie, la respuesta de Meta. Sin embargo,  retomará este punto al momento de analizar el caso concreto, debido a que, con  base en el mismo argumento, Meta ha omitido remitir información solicitada por  la Corte Constitucional y que puede ser relevante, tanto para el análisis de la  tensión de derechos propuesta, como para definir los remedios judiciales a  adoptar, con miras a una gobernanza más transparente cuando las decisiones de  la empresa tienen la potencialidad de violar derechos fundamentales    

     

268.        En este orden de  ideas, la Corte declarará la carencia actual de objeto por daño  consumado. Sin embargo, de  conformidad con las reglas jurisprudenciales establecidas para estos casos, abordará  el estudio de fondo toda vez que es necesario pronunciarse sobre el contenido  objetivo de los derechos en discusión y porque, de encontrar probadas las  presuntas vulneraciones alegadas por la accionante, habrá de emitir órdenes  para evitar la repetición de los hechos y para que cesen las actividades  potencialmente contrarias a la Constitución frente a la cuenta actual que la  accionante tiene en Instagram.    

     

5.4.      Estudio de los debates de fondo    

     

269.        Entre marzo y mayo de 2021, la demandante  experimentó la eliminación de múltiples publicaciones suyas de la red social  Instagram, hasta el 16 de mayo del mismo año, cuando su cuenta con más de 5.7  millones de seguidores fue inhabilitada. Sobre este hecho no hay ningún  desacuerdo entre las partes. En efecto, tanto la peticionaria como Meta Platforms,  Inc. coinciden en que dicha cuenta fue suspendida en la fecha mencionada.  Asimismo, ambas coindicen ––desde un punto de vista formal–– en las razones que  condujeron a la eliminación del contenido y las cuentas: una presunta  infracción de dos políticas de las Normas Comunitarias de Instagram, en  especial, la relativa a la desnudez y actividad sexual de adultos, por un lado,  y la de  oferta de servicios sexuales entre adultos, por otro.    

     

270.        En cambio, el desacuerdo material de las partes  radica, por un lado, el etiquetado de las publicaciones como violatorias de  las normas sobre desnudez y servicios sexuales de adultos, y por otro, en la  forma en que se aplicó el procedimiento de moderación de contenidos.    

     

271.        Respecto del primer asunto (etiquetado), la  demandante argumentó que hay una suerte de persecución en su contra por  actividades que desarrolla offline. En concreto, indicó que Meta la  discrimina por las actividades de pornografía que desarrolló fuera de la red social Instagram, y  añadió que la conducta de Meta la afecta por el hecho de ser mujer, pues recae  un estigma sobre las mujeres que se dedican a ese tipo de actividades. En la sesión  técnica de noviembre de 2022, la accionante señaló que en 2021 su cuenta fue objeto  de una oleada de denuncias y que es posible que por esa razón fuera eliminada.    

     

272.        La accionante, además, indicó que la persecución en  su contra se evidencia por el hecho de que perfiles falsos subieron fotos suyas  a Instagram, pero al recibir denuncias sobre dichas fotografías publicadas en  perfiles falsos, la red social respondió que no infringían sus normas  comunitarias.    

     

     

274.        Frente al proceso de remoción y eliminación de su  cuenta, la accionante señaló que en múltiples ocasiones buscó controvertir la  eliminación de su(s) cuenta(s), sin obtener respuestas de fondo por parte de  Meta. Aseguró también que siempre le indicó la razón y la potencial  consecuencia de subir material que infringe las normas comunitarias, por lo que  no cabe cuestionar el proceso adelantado por los moderadores de contenido, el  cual califica de transparente.    

     

275.        Además de estos dos asuntos centrales, manifestaron  posiciones encontradas sobre las consecuencias de las decisiones de moderación  de contenidos en este caso. La accionante señaló que la eliminación de su  cuenta le causó un grave perjuicio en el ejercicio de varios de sus derechos  fundamentales, especialmente su derecho al trabajo y al mínimo vital y móvil  porque, con dicho acto, se afectaron por completo los ingresos que recibía por  cuenta de su actividad como influenciadora en Instagram. Por su parte, para  Meta esta discusión es de naturaleza puramente económica y no se relaciona con  el ejercicio de derechos fundamentales, por lo que la demandante debería llevar  su caso a instancias civiles.    

     

276.        Para resolver la controversia planteada por las  partes, la Sala Primera de Revisión,  primero, describirá el contenido y alcance de las normas comunitarias o reglas  de la casa de Instagram que fueron aplicadas en este caso, es decir, aquellas  relacionadas con la publicación de desnudos y la de ofertar de servicios  sexuales entre adultos. Segundo, y aunque hoy Meta ha establecido cambios en  los procesos de moderación de contenidos, la Corte reseñará el procedimiento que aplicaba la compañía a las publicaciones  y cuentas que consideraba infractoras de las políticas de Instagram al momento en  que se eliminó la cuenta de la demandante. Es con base en esas reglas, que la  Corte podrá evaluar si la conducta de Meta fue o no arbitraria. En tercer  lugar, la Corte definirá entonces si las normas y  procedimientos aplicados al caso de la demandante fueron o no legítimos a la  luz del ordenamiento constitucional colombiano.    

     

5.4.1.    El  contenido de las normas comunitarias de Instagram sobre “desnudez y actividad  sexual de adultos” y de “servicios sexuales entre adultos”    

     

277.        Cuando una persona crea una cuenta en el servicio  de Instagram, debe aceptar las Condiciones de Uso y las políticas de Instagram,  dentro de las cuáles se encuentran las Normas  Comunitarias. Estas últimas son definidas por Meta Platforms, Inc., compañía  multinacional que administra varios servicios de redes sociales que incluyen  Facebook, Instagram y WhatsApp.    

     

278.        A continuación, se presenta  el contenido de las Condiciones de Uso y de las Normas Comunitarias con base en  las cuales se establecen los comportamientos permitidos y prohibidos en  Instagram, en su versión vigente al momento de la eliminación del contenido y  la cuenta de la accionante[274].    

     

279.        Las Condiciones de Uso de Instagram (en adelante  “las condiciones”) “rigen el uso que haces de Instagram”[275]. Al ser Instagram un servicio prestado por Meta Platforms, Inc., las  condiciones indican que constituyen un acuerdo entre la persona usuaria y la  compañía. Según las condiciones, Instagram es un servicio que ofrece la  posibilidad de crear distintos tipos de cuenta de acuerdo con las necesidades  de cada usuario, y en el que predomina la creación de contenidos de naturaleza gráfica, fotográfica y audiovisual. Dentro de  sus principales productos se encuentra (i) el perfil individual, donde  cada usuario puede publicar su contenido y sobre el cual puede disponer  distintas restricciones (por ejemplo, cuentas privadas, públicas, o  semiprivadas con restricciones de edad); (ii) el feed, es decir, la  posibilidad de agrupar en un espacio centralizado toda la información publicada  por las cuentas a las que se sigue y que funge como una suerte de página de  inicio; (iii) las historias, es decir, los contenidos que tienen una  visibilidad limitada en el tiempo, y respecto de las cuales el titular puede  imponer restricciones de visualización, por ejemplo, a las personas  consideradas como ‘amigos cercanos’; y (iv) los reels, que consisten en  cortos audiovisuales que se pueden ver repetidamente.    

     

280.        Para compartir contenidos, las personas pueden  valerse de varios recursos, como los filtros sobre  los videos o las fotografías, los emojis, canciones de fondo, etiquetas,  entre muchos otros, para la edición del material gráfico, fotográfico y  audiovisual. En términos generales, el servicio de Instagram busca hacer  visibles cosas que son importantes para las personas, como su estilo de vida,  su familia, las marcas y productos que siguen, sus intereses personales, entre  otras cosas. Asimismo, las personas pueden establecer modelos de negocio a  través de Instagram creando contenido como influenciadores. Instagram permite  la interacción de todos esos intereses, aunque, como señalan las condiciones,  Meta crea:    

     

“sistemas que intentan entender quiénes o qué cosas te  interesan y les interesan a los demás, y usamos esa información para ayudarte a  crear, encontrar, unir y compartir experiencias que te resulten relevantes.  Parte de esto consiste en destacar el contenido, las funciones, las ofertas y  las cuentas que te pueden interesar, y ofrecerte formas de experimentar  Instagram en función de lo que tú y otras personas hacen tanto dentro como  fuera de Instagram”.[276]    

     

281.        En las condiciones, Meta establece qué requisitos  debe cumplir una persona para tener una cuenta en su servicio de Instagram: (i)  ser mayor de 13 años, (ii) no debe habérsele prohibido el uso de redes sociales  en virtud de la aplicación de leyes nacionales; (iii) no haber sido objeto de  inhabilitaciones de cuenta antes por violación de la ley o de las políticas de  Instagram; y (iv) no haber sido  declarado responsable por delitos sexuales. Además, las condiciones establecen  9 prohibiciones sobre el uso de la plataforma. Los usuarios no pueden suplantar  la identidad de otra persona ni proporcionar información falsa o incorrecta;  realizar actividades ilegales, fraudulentas o engañosas; infringir las  condiciones ni las políticas de Instagram, que incluyen las normas  comunitarias, las normas sobre privacidad, las normas sobre propiedad  intelectual y las normas sobre uso de música; entorpecer el funcionamiento del  servicio a través de apelaciones sin fundamento o denuncias por contenido  prohibido fraudulentas; publicar información privada o confidencial de otra  persona sin autorización expresa de la otra persona; entre otras.    

     

282.        Por su parte, las Normas Comunitarias de Instagram  (en adelante “las normas comunitarias”), buscan garantizar que Instagram “siga siendo un lugar auténtico y seguro en el que los  usuarios puedan encontrar inspiración y expresarse”. Instagram les pide a sus  usuarios “fomentar esta comunidad”, de manera que les exige publicar “solo  fotos y videos propios [que cumplan] la ley en todo momento”. Asimismo, les  pide respetar “a todos los usuarios de Instagram; no les envíes spam ni  publiques desnudos”[277]. Según Meta, “[e]l incumplimiento de estas  normas puede provocar la eliminación de contenido, la inhabilitación de la  cuenta u otras restricciones”[278]. Esta eliminación, dice Meta, comienza por un  análisis del valor de interés público de la información publicada, una  evaluación del riesgo de daño y,  según la compañía, toman “una  decisión en función de normas internacionales de derechos humanos”[279].    

     

283.        Las normas comunitarias  establecen 7 mandatos básicos para los usuarios de Instagram, según las cuales,  ellos sólo pueden compartir contenido sobre el que sean propietarios; deben  publicar contenido que sea apropiado para un público diverso; deben cumplir la ley, tanto de su país  de origen como del territorio donde se haga uso de la plataforma. En  particular, no puede publicarse contenido que contenga imágenes sexuales con  menores, imágenes íntimas de otros usuarios publicadas sin su consentimiento,  las imágenes de grupos terroristas y la oferta de servicios sexuales de  adultos; los usuarios deben respetar a otros usuarios, de manera que no puede  publicarse contenido discriminatorio o que incite al odio. Se prohíbe la  publicación de contenidos que amenaza la seguridad pública o las amenazas de  violencia contra personas; contenido que  induzca a las autolesiones; los usuarios deben ser cautos y reflexionar sobre  el contenido de interés público o noticioso que publican, de manera que no  pueden circular imágenes o videos que contengan manifestaciones gráficas o  explícitas de violencia, o que puedan incitarla.    

     

284.        Las reglas con base en las cuales se restringe o  elimina contenido, según Meta, buscan proteger uno de cuatro valores: (i)  autenticidad, es decir, que las personas y contenidos que circulan en la red  social no se presenten de forma engañosa; (ii) seguridad, que implica eliminar  contenidos que puedan dañar físicamente o intimidar, excluir y silenciar a  otras personas; (iii) privacidad, que busca proteger los datos personales de  las personas; y (iv) dignidad, que busca proteger la igualdad de derechos de  las personas que participan en la comunidad digital.[280] Allí, los desnudos y la actividad sexual de adultos son calificadas  como “actividad cuestionable”, al igual que la oferta de los servicios  sexuales.    

     

285.        Frente a los desnudos, las normas comunitarias  indican que, si bien el equipo de Instagram reconoce el deseo de las personas  de “compartir imágenes de desnudos de carácter artístico o creativo”, por  distintos motivos no se permite la publicación de desnudos en esa plataforma.  En particular, permitir que Instagram sea accesible a públicos diversos. Las  normas comunitarias detallan algunos contenidos prohibidos, en los siguientes  términos:    

     

“Esta  restricción se aplica a fotos, videos y determinado contenido digital que  muestren actos sexuales, genitales y primeros planos de nalgas totalmente al  descubierto. También incluye fotos de pezones femeninos descubiertos, pero se  permiten imágenes en los contextos de lactancia, parto y posparto, en  situaciones relacionadas con la salud (por ejemplo, posmastectomía, concientización  sobre el cáncer de mama o cirugía de confirmación de sexo) o como acto de  protesta. También se aceptan desnudos en fotos de cuadros y esculturas”.[281]    

     

286.        Por su parte, el Centro de Transparencia de Meta  expone las razones de la política sobre desnudos y actividad sexual de adultos  en detalle, y las conductas expresamente prohibidas[282]. Según el Centro de Transparencia, los desnudos y las imágenes que  contengan actividad sexual entre adultos se restringen porque “este tipo de  contenido puede resultar sensible para algunas personas de nuestra comunidad”.  Asimismo, “de forma predeterminada eliminamos imágenes sexuales para evitar que  se comparta contenido sin permiso o de menores de edad”[283]. Estas normas incluyen una serie de imágenes prohibidas y otras que  sólo pueden ser visibles para mayores de 18 años. Dada la extensión del  documento, se presenta un esquema del contenido de esta política[284].    

     

Tabla 4. Esquema de la política de desnudos y  actividad sexual de adultos de Meta.    

Regla                    

Tipo de desnudos                    

Detalle   

Contenido    prohibido                    

Imágenes de desnudos de adultos reales                    

Genitales visibles salvo: parto y postparto,    situaciones médicas, confirmación de sexo, examen de cáncer, prevención de    enfermedades, actos de protesta.   

Imágenes de actividades sexuales                    

Actividad y estimulación sexuales explícitas en    genitales o zonas erógenas.   

Actividad y estimulación sexuales implícitas,    excepto en contextos

La actividad sexual o el contacto no son    directamente visibles. Estimulación implícita de los genitales con artefactos    o contacto corporal que no es visible.   

Contenidos digitales que se ajusten a la definición    de Meta de actividad sexual                    

Sólo se señalan excepciones a la regla, como:    actividad sexual no visible; contexto satírico o humorístico; contexto    científico o educativo; imágenes no detalladas o cuerpos no visibles.   

Contenido    restringido para menores de 18 años                    

Arte del mundo real que representa actividad sexual;    actividad sexual implícita en anuncios; actividad sexual implícita en    imágenes ficticias reconocidas; contenidos digitales que se ajustan a la    definición de Meta de actividad sexual (actividad sexual no directamente    visible; publicación en contexto satírico o humorístico; sólo son visibles    contornos o formas corporales).    

     

287.        Por su parte, las restricciones sobre servicios  sexuales son identificadas en las normas comunitarias como una potencial  infracción a la ley y como una manifestación del deseo de Meta de evitar el uso  de la plataforma para la explotación sexual. En el Centro de Transparencia de  Meta se especifica que, aunque la compañía es consciente de que sus plataformas  son utilizadas para llamar la atención sobre debates relativos a la explotación  sexual y la regulación del trabajo sexual, la empresa traza una línea respecto  de las actividades que considera “facilitan, favorecen o coordinan encuentros o servicios sexuales  comerciales entre adultos”[285]. El objetivo de esta  regulación es, en principio, “imposibilitar transacciones que pudieran  involucrar trata, coerción y actos sexuales no consensuados”[286]. Además, también hay una  justificación relacionada con la expansión del modelo de negocio de Meta en los  siguientes términos: “algunos públicos de nuestra comunidad internacional  pueden ser sensibles a este tipo de contenido y podría impedir que las personas  se conecten con sus amigos y el resto de la comunidad”[287].    

     

288.        Ahora  bien, las normas vigentes a febrero de 2021, antes de que se produjera el cierre definitivo de la cuenta de la accionante,  establecen varias reglas que se indican a continuación[288].    

     

Tabla 5. Conductas prohibidas por Meta en relación con  servicios sexuales.    

Conductas    prohibidas                    

Detalle   

Intento de coordinar    servicios sexuales comerciales para adultos o actividades de prostitución                    

Solicitar, ofrecer o pedir tarifas por servicios de    acompañamiento y servicios sexuales fetichistas o de dominación de pago   

Intento de    coordinación o reclutamiento para actividades sexuales para adultos                    

Actividades sexuales filmadas; actividades    pornográficas, espectáculos en clubes de striptease, actuaciones sexuales en    directo, bailes eróticos; masajes sexuales, eróticos o tántricos.   

Solicitación sexual    explícita                    

Sexo o parejas sexuales; chat o conversaciones    sexuales; fotos/vídeos/imágenes de desnudos.   

Contenido que    implícita o indirectamente ofrezca o solicite sexo                    

Criterio 1: Ofrecer o pedir. El contenido ofrece o pide de    forma implícita o indirecta* (normalmente proporcionando un método de    contacto) una proposición sexual; imágenes de desnudos; sexo o parejas    sexuales; conversaciones por chat sobre sexo.    

     

Criterio 2: elementos sugerentes. El contenido hace la oferta o    la petición mencionada utilizando emojis, jerga regional sexualizada,    menciones o representaciones de actividad sexual, imágenes reales con    desnudez cubierta por partes humanas; poses.   

Una oferta o    petición de material pornográfico                    

Compartir enlaces a sitios web pornográficos    externos; Lenguaje sexualmente explícito que entra en detalles gráficos más    allá de la mera referencia a (i) un estado de excitación sexual; (ii) un acto    sexual.    

     

289.        Una lectura panorámica sobre las circunstancias que  llevan a la eliminación de contenidos por la violación de las normas  relacionadas con la desnudez, la actividad sexual de adultos y los servicios  sexuales sugiere que aquellas persiguen al menos dos objetivos: por un lado,  evitar la salida de la plataforma de audiencias que puedan considerar  contenidos sexualmente explícitos como un disuasor para permanecer en la red  social. Esto, a su turno, obedece a la necesidad descrita en las  consideraciones relacionada con la ampliación del modelo de negocios de las  plataformas. Por otro lado, buscan evitar la circulación de contenidos que  puedan ser potencialmente dañinos para menores de edad y para otros individuos en  condiciones de explotación sexual.    

     

290.        En particular, respecto de la política sobre  servicios sexuales, es claro que Meta busca evitar que Instagram se convierta  en un espacio para facilitar el comercio y los encuentros sexuales de cualquier  tipo. Es decir, Meta considera indeseable que su plataforma sea un puente para  actividades como la pornografía y la prostitución.    

     

291.        Vistos los elementos normativos que componen las  reglas de la casa de Instagram, se procederá a describir el procedimiento de  moderación de contenidos aplicado por la accionada con base en estas políticas.    

5.4.2.    Descripción  del procedimiento de moderación de contenidos aplicado por Meta a publicaciones  violatorias de sus normas comunitarias    

     

292.        Para el momento de los hechos de este caso, y según  lo indicado por Meta en el proceso, Instagram tenía distintos mecanismos para  evitar la publicación de contenidos que, por una razón u otra, violan sus  normas comunitarias o reglas de la casa. En una captura de pantalla anexa a la  contestación, se ven las reglas generales sobre lo que Meta llama la  “aplicación de políticas” (enforcement en inglés). Estas reglas muestran  dos pasos o elementos esenciales que en su conjunto comprenden el proceso de  moderación de contenidos tanto de Facebook como de Instagram: (i) detección de  infracciones y (ii) adopción de medidas frente al contenido infractor. La  descripción que sigue corresponde al procedimiento de moderación de contenidos  vigente al momento de la eliminación de contenido y de la cuenta de la  accionante.    

     

(i)                Detección de contenido infractor    

     

293.        El procedimiento de detección de contenido  infractor en Instagram se compone de “una combinación de revisión humana y  tecnología”[289]. Los procedimientos de revisión automatizada o de IA operan de varias  formas en la moderación de contenidos en Instagram. Pueden eliminar  directamente millones de piezas de contenido flagrantemente infractor, o pueden  señalar o ‘marcar’ cierto contenido como potencialmente trasgresor de las  normas comunitarias para que, posteriormente, un revisor humano constate si  efectivamente procedía o no la eliminación del contenido[290].    

     

294.        Según Meta, las herramientas de inteligencia  artificial detectan y remueven “la gran mayoría de contenido infractor antes de  que alguien lo reporte”[291]. Para hacerlo, el equipo de inteligencia artificial de Meta crea  modelos de aprendizaje de máquina “que puedan adelantar tareas como reconocer  qué es una foto o comprender un texto”[292]. Posteriormente, los equipos de integridad, que establecen los  parámetros para definir las normas comunitarias y su aplicación, “avanzan en el  desarrollo de modelos más específicos que puedan hacer predicciones sobre  personas y contenidos”[293], que posteriormente sirven para hacer cumplir las  normas de Meta. En tal sentido, señala la accionada, hay un modelo de IA que,  por ejemplo, “predice si una pieza de contenido es discurso de odio o contenido  violento o gráfico. Un sistema separado -tecnología de enforcement- determina  si tomar acciones como eliminar, degradar o remitir a revisión adicional de un  humano”[294].    

     

295.        Durante ese proceso, las IA se entrenan a partir de  la repetición y con apoyo de seres humanos. En ese sentido, cada IA se  especializa en una política particular. Por ejemplo, unas se encargan de  detectar fotos en las que hay desnudos, y otras, en entender textos que podrían  contener mensajes de odio. De este modo, cuando se echa a andar un nuevo  mecanismo de IA, la confirmación posterior de las decisiones por seres humanos  se va integrando a su conjunto de conocimientos. Así, “con el tiempo -después  de aprender de miles de decisiones humanas- la tecnología de vuelve más  acertada”[295]. En todo caso, y dado que estas políticas están cambiando  constantemente, según Meta, hay procesos graduales y continuos de entrenamiento  tanto a la tecnología como al equipo de revisores humanos[296]. Sobre el asunto, además, la accionada señaló que “la información relacionada con una persona obtenida de búsquedas en  línea (es decir, fuera de las plataformas de Meta) no forma parte de los datos  de entrenamiento para las herramientas tecnológicas de moderación de contenido  de Meta”[297].    

     

296.        Respecto de los y las revisores humanos, en este  proceso la accionada señaló que cuenta con un equipo de más de 40.000 personas  dedicadas a la seguridad de la plataforma. De éstos, 15.000 se dedican  específicamente a la revisión de contenido en todo el mundo “por lo puede (sic) revisar los reportes en todas las zonas horarias 24 horas  al día, 7 días a la semana. Los equipos de revisión de contenido trabajan en  más de 70 idiomas”[298]. Según la accionada, estos revisores de contenido humano son  trabajadores de tiempo completo, con distintos niveles de formación profesional,  que provienen de múltiples entornos sociales y culturales, y que, además,  reciben un entrenamiento amplio para “para garantizar que conozcan bien las  políticas, los fundamentos de estas y cómo aplicarlas con precisión y otros  conceptos como los derechos humanos”[299].    

     

297.        El equipo humano se dedica principalmente a revisar  contenidos cuya clasificación resulta difícil para las herramientas de IA, es  decir, cuando la identificación de las potenciales infracciones es más difícil  porque el mensaje es confuso, el lenguaje complejo o las imágenes muy  dependientes del contexto[300]. Meta utiliza tres criterios de priorización para remitir contenidos a  revisores humanos: (i) severidad; (ii) viralidad; (iii) probabilidad de que se  trate de contenido infractor[301]. En tal sentido, hay cada vez menos seres humanos envueltos en la  revisión de los contenidos potencialmente violatorios, pues su trabajo se  concentra en lo que puede calificarse como casos difíciles para la máquina.    

     

298.        Como puede observarse, hay una relación casi circular  entre la moderación automatizada y la moderación hecha por humanos. En efecto,  la moderación hecha por IA se perfecciona en la medida en que aprende con las  decisiones tomadas por humanos. Dicho perfeccionamiento, a su turno, facilita  el trabajo de las personas, quienes pueden dedicarse a resolver casos más  complejos. Esta circularidad ha despertado cuestionamientos hacia Meta  relacionados con la posibilidad de que los sesgos discriminatorios de los  moderadores humanos se incorporen a las herramientas de IA[302]. Por esta razón, desde el 2023,  Meta creó un equipo multidisciplinario denominado Responsible AI (IA Responsable),  que busca “desarrollar directrices, herramientas y procesos para abordar las  cuestiones de responsabilidad de la IA y ayudar a garantizar que estos recursos  sistémicos estén ampliamente disponibles en todo Meta”[303].    

     

299.        Ahora bien, los moderadores humanos pueden tener  diferencias de juicio a la hora de resolver sobre la compatibilidad de un  determinado contenido publicado en los servicios de Meta. Dichas discrepancias  se derivan, en muchas oportunidades, de la vaguedad de las disposiciones o de  su generalidad. Además, los moderadores de contenido usualmente hacen su  trabajo en unas condiciones sumamente precarias, expuestos “a lo peor de la naturaleza  humana con una imagen o un vídeo perturbador a la vez”[304].    

     

300.        En todo caso, según Meta, la empresa implementa regularmente  medidas que consisten en tomar una muestra de decisiones  relacionadas con alguna política en particular para evaluar qué tan consistente  es su aplicación y, de ser necesario, corregir mediante los procesos de  formación que se adelantan con los moderadores humanos[305].  Asimismo, afirman haber implementado un esquema de bienestar para estos  trabajadores[306].    

     

(ii)              Acciones sobre contenido infractor detectado    

     

301.        Después de la detección del contenido infractor,  Meta toma acciones. Ellas se guían, según esta compañía, por tres principios:  remover, reducir e informar. El primero y más importante consiste en retirar  los contenidos señalados como infractores de la plataforma. Cuando un contenido se elimina por violar las normas comunitarias, Meta  lanza un aviso que le indica al usuario que su contenido ha sido removido por  violar las normas comunitarias, usualmente indicando cuál política en  particular fue infringida. Además, estos avisos suelen contener botones de  reclamo que una vez accionados, en principio, permiten cuestionar la decisión  de remoción[307].    

     

302.        Además de lo anterior, para el  momento en que ocurrieron los hechos objeto de controversia, Meta informó contar  con un sistema de strikes o faltas acumulativas, que busca sancionar la  reincidencia en las infracciones[308]. Según Meta, cuando un contenido es eliminado por infringir las normas  comunitarias, es probable que se aplique un strike. En todo caso, es posible que en una sola oportunidad se elimine mucho  contenido y que ese acto de eliminación cuente como un strike.  Esta decisión, sostiene la accionada, “depende de la  severidad del contenido, el contexto en el que fue compartido y cuándo fue  publicado”.[309]    

     

303.        La acumulación de strikes por la violación repetida de las normas comunitarias puede conducir a  la aplicación de restricciones cuya severidad, en principio, aumenta  gradualmente. Sin embargo, Meta aclaró que el sistema de restricciones  graduales a ciertas herramientas como la capacidad de posteo o la visibilidad,  aplican sólo al servicio de Facebook, pese a que en Instagram también se  cuentan strikes. Es decir, al  menos hasta el momento, el Centro de Transparencia de Meta sólo ofrecía  claridad sobre la gradación de los strikes para el servicio de Facebook, por lo que no es posible saber si las  mismas consecuencias aplicaban para Instagram, o si se trata de un sistema  diferente[310].    

     

304.        En cualquier caso, Meta señaló que la recurrencia  conduce a la inhabilitación de las cuentas, tanto en Facebook como en  Instagram. Al respecto, la accionada indicó que después de 5 strikes la persona podría recibir  restricciones para crear contenido de 30 días adicionales, o se podría remover su  cuenta, dependiendo de la severidad y la frecuencia de las violaciones[311]. La inhabilitación de las cuentas también se  acompaña de un mensaje y un enlace con la posibilidad de controvertir la  decisión. Esto, con el fin de que las personas cuenten con una suerte de  recurso para que Meta revise de nuevo la pertinencia de la inhabilitación de la  cuenta.    

     

305.        Además del aviso y el enlace, la apoderada de  Meta indicó lo siguiente:    

“Como  alternativa, los usuarios pueden rellenar el formulario “Se desactivó mi  cuenta de Instagram” en el Centro de Ayuda de Instagram. Al utilizar esta  función, los usuarios deben proporcionar su nombre completo, la dirección de correo  electrónico asociada a su cuenta, el nombre de usuario de su cuenta de  Instagram, el número de móvil asociado a su cuenta y una descripción que  explique por qué apelan la decisión de desactivar permanentemente su cuenta.  Meta investigará e informará al usuario con una decisión final”.[312]    

     

306.        Por último, la reducción supone limitar la  visualización de ciertos contenidos o cuentas que se restringen por incurrir en  varias infracciones. A su turno, el principio de información consiste en  mostrar avisos a los consumidores de los servicios de Meta para que tengan  claro que hay contenidos que, si bien no violan las políticas comunitarias,  pueden ser perjudiciales. Por ejemplo, contenido no apto para menores de edad o  imágenes sensibles o gráficas.    

     

307.        Como se indicó en el inicio de esta providencia,  Meta creó en 2021 un Consejo Asesor conformado por expertos independientes en  libertad de expresión y derecho digital. Este Consejo Asesor tiene dos  facultades: (a) conocer de apelaciones por el ejercicio de la facultad amplia  de moderación de contenidos; y (b)  emitir recomendaciones generales a Meta sobre su regulación en temas puntuales.  Para que una persona pueda acceder a la apelación, debe cumplir 4 requisitos:  (i) tener una cuenta activa en el servicio de Instagram o de Facebook, es  decir, la cuenta no puede estar inhabilitada o su acceso restringido; (ii) debe  contar con una decisión final por parte de Instagram o Facebook en relación con  el contenido señalado como infractor; (iii) debe tener un número de referencia  de caso que indique que efectivamente Meta ya tuvo la posibilidad de revisar el  caso; y (iv) debe presentar la solicitud de apelación dentro de los 15 días  siguientes a la adopción de la decisión definitiva por parte de Meta.[313] Todo este proceso está disponible exclusivamente en inglés.    

     

308.        A partir de las consideraciones antes expuestas  relacionadas con las normas comunitarias de Meta sobre desnudos y servicios  sexuales vigentes para el momento en que se cerró la cuenta de la accionante,  así como el proceso de moderación de contenidos aplicable a contenidos  infractores, la Sala resolverá el caso concreto. Para ello, en los siguientes  cuatro acápites, la Corte analizará si, en el caso concreto, la accionada  vulneró el derecho a la libertad de expresión, el derecho al debido proceso, el  derecho a la igualdad, el derecho al trabajo y a la libertad de escoger oficio  de la peticionaria.    

     

5.4.3.    La  aplicación de las normas comunitarias y el procedimiento de moderación de  contenidos adelantado en el caso de la demandante    

     

309.        Para estudiar la aplicación del proceso de  moderación de contenidos a la cuenta de la accionante, la Corte pasará a  analizar el derecho a la libertad de expresión en conjunto con el debido  proceso y la igualdad. Posteriormente, estudiará la potencial vulneración de la  libertad de escoger profesión u oficio y el derecho al trabajo.    

     

(i)                Derecho a la libertad de expresión, al  debido proceso y a la igualdad    

     

310.        Según se indicó en las consideraciones de esta  providencia, para analizar si un intermediario de redes sociales que ejerce su  facultad amplia de moderación de contenidos viola o no la libertad de expresión  de los usuarios a quienes sanciona, corresponde evaluar: (i) la naturaleza del contenido publicado, es decir, si se trata de un discurso prima  facie protegido por la libertad de expresión; y (ii) la calidad del sujeto, o sea, si su discurso admite restricciones por  la posición social que ostenta o si, por el contrario, le asiste una protección  reforzada.    

     

311.        Además, respecto del debido proceso y el derecho a  la igualdad es necesario establecer: (i) que haya consistencia y sensibilidad contextual en la aplicación de  las reglas comunitarias, es decir, que las normas se apliquen de forma uniforme  a contenidos similares; (ii) que no haya una aplicación discriminatoria o  contraria al derecho a la igualdad de las reglas comunitarias; (iii) que las  normas de la casa se apliquen en maximización del derecho a la libertad de  expresión cuando se trate de contenido potencialmente objetable pero no  prohibido; (iv) que haya transparencia sobre las reglas comunitarias  infringidas, los procesos de reclamación e impugnación de las decisiones, así  como una comunicación formal, sencilla y accesible que redunde en una respuesta  de fondo sobre las reclamaciones elevadas a los operadores de las redes  sociales; y (v) que las sanciones  sean advertidas de antemano a los usuarios, con detalle de las consecuencias  que su aplicación puede acarrear.    

     

312.        En este contexto, la Corte desarrollará su análisis del siguiente modo. En primer lugar, valorará  la naturaleza del contenido publicado por la accionante. En segundo lugar, se  desarrollará el test tripartito de libertad de expresión sobre las  restricciones impuestas a la accionante en Instagram. En tercer lugar, se  evaluará si en dicho contexto se cumplieron o no las garantías del debido  proceso y del derecho a la igualdad y no discriminación.    

     

(ii)              Naturaleza del contenido publicado por la  accionante    

     

313.        En el estudio de posibles violaciones al derecho a  la libertad de expresión, esta Corte señala que como punto de partida corresponde  constatar quién comunica, respecto de quién se comunica y la forma  en la que se comunica.    

     

314.        Quién comunica. Según la accionante, desde  los 17 años se dedicó al modelaje en lo que denomina la industria mainstream,  es decir, en la publicidad de productos de distinta índole en el mercado  comercial regular. Desde 2009 y hasta el 2011, desarrolló actividades de pornografía,  circunstancia que, como indica, la ha hecho ampliamente conocida a nivel  nacional e internacional. Luego de este lapso, la actora señaló que participó sólo ocasionalmente en dichas  producciones.    

     

315.        El 14 de febrero de 2014, la peticionaria abrió su  cuenta de Instagram con el dominio @esperanzagomez. De acuerdo con lo que  reseñó en su presentación ante la Corte Constitucional en la sesión técnica de noviembre de 2022, la creación  de esta cuenta obedeció a su deseo de generar ingresos distintos a los que  percibía por desarrollar actividades de pornografía[314].    

     

316.        Respecto de quién se comunica. En este caso, a diferencia de otros en los que se discute la posible  vulneración de los derechos al buen nombre o a la honra de terceras personas  sobre quienes versa el discurso, Esperanza Gómez Silva publicaba contenido sobre  ella misma.    

     

     

318.        El contenido  compartido por la accionante estaba dirigido a otros usuarios de Instagram que  la seguían en la plataforma, es decir, poco más de 5 millones de personas. En  esa medida, los mensajes, fotografías y videos compartidos por la demandante  estaban destinados a un público que los consideraba entretenidos o  interesantes. Es esa comunidad en sí misma lo que hizo a la accionante  atractiva para agencias y empresas que quisieron pautar sobre productos y  servicios a través de su cuenta. La Corte entiende que la pérdida de su  capacidad para interactuar frente a esa audiencia por la eliminación de su  cuenta @esperanzagomez es lo que motivó la presentación de la tutela.    

     

319.        La forma en la que se comunica. La accionante insistió en este proceso que nunca compartió contenido  sexualmente explícito o en el que apareciera completamente desnuda, en cumplimiento de lo dispuesto por las reglas de uso de  Instagram. Sin embargo, indicó que sí publicó fotos sensuales, similares a las  que comparten otras personas en dicha red. Esas fotografías, indicó la  accionante en el proceso, le ayudaron a ganar más notoriedad en la red social y  a conseguir más seguidores. A raíz de ello, empezó a ser contactada por  importantes empresas para promocionar productos, entre ellas Netflix, Rappi,  marcas de ropa interior y lencería y clínicas estéticas[316].    

     

320.        En su acción de tutela, la accionante aportó varias  imágenes que, según afirma, fueron eliminadas en diferentes momentos durante el  año 2021, cuando comenzó lo que califica como una persecución y un acoso en su  contra en Instagram[317],  por haberse dedicado offline a la pornografía. Como las fotos hacen  parte del acervo probatorio, la Corte las describirá a continuación con el  propósito de dilucidar su contenido.    

     

321.        En una foto aportada por la accionante, se la ve en  compañía de otra mujer. Ambas están vestidas con ropa de lencería. En la  imagen, la accionante mira hacia la cámara sonriente mientras que su compañera  mira hacia abajo. Las mujeres están cerca y la señora Gómez tiene su mano sobre  el abdomen de su acompañante. En la imagen se logran ver de perfil los glúteos  de ambas mujeres. En otras tres fotos, se ve sólo a la accionante en ropa  interior en su baño y cubriendo sus pechos con las manos, o tomando el sol con  sus pechos cubiertos con lo que parece un pedazo de tela y pantalones cortos.     

     

322.        Además, en su pronunciamiento sobre la tutela, Meta  compartió otras capturas de pantalla sobre publicaciones de la señora Gómez  Silva que calificó como sexualmente explícitas o sugestivas[318]. Al estudiar el contenido de estas imágenes, la Corte encuentra lo  siguiente:    

     

·         En ninguna de las imágenes se ven los genitales de  la accionante ni se observa un desarrollo de actividades sexuales. En unas imágenes,  la accionante aparece en un baño cubierta con una toalla y haciendo diferentes  poses, y en otra con una bata.    

     

·         Al publicar las fotos, la señora Gómez Silva  acompañó algunas de ellas con un texto que señalaba que, si ya la conocen,  saben dónde encontrarla. La accionante también incluyó el hashtag “#humpingday”,  una expresión coloquial en inglés que, en general, hace referencia al día  miércoles o del medio de la semana, pero que, en algunos contextos, también  puede entenderse como “día de sexo”[319].    

     

·         En una de las imágenes, la señora Gómez Silva citó  la canción “Noche de Sexo” de los artistas de reguetón Wisin & Yandel.    

     

323.        Según Meta, en estas fotos la señora Gómez Silva  “invita a los usuarios a mantener conversaciones sexuales en directo, lo cual  constituye una oferta de servicio sexual”[320].  En efecto, la compañía sostuvo lo siguiente acerca de las leyendas con las que  la accionante acompañó las fotos: (i) la cita de la canción de reguetón, para  Meta “constituye lenguaje sexualmente explícito”[321], y (ii) las demás fotos y, en particular, la mención de que ya saben  dónde encontrarla “implícitamente sugiere que los usuarios saben cómo contactarla,  lo cual constituye una oferta de servicios sexuales”[322].    

     

324.        Contrario a lo señalado por Meta, la Corte en este  caso concluye que, si bien las imágenes aportadas por las partes pueden ser  sugerentes, en ninguna de ellas se ven los genitales de la accionante ni  muestran actividades sexuales. Tampoco hay leyendas o comentarios de la  accionante en las que invite a participar en actividades sexuales o a  promocionar servicios sexuales de ningún tipo fuera de la plataforma. Para la  Corte, incluso si al hashtag incluido en algunas fotos se le atribuyera  un tono sexual, no sería razonable concluir que, por ese solo motivo, en las  imágenes se mostraba una actividad sexual o se ofrecían servicios sexuales. Finalmente,  en el proceso no se allegó ninguna imagen en la que la accionante promoviera  actividades de pornografía o cualquier otra actividad sexual pagada con ella o  con otra persona, o que remitiera a otros portales web para tercerizar  servicios sexuales.    

     

325.        Las imágenes a las que tuvo acceso la Corte parecen  ser, en principio, compatibles con las normas de desnudez y prohibición de  ofrecer servicios sexuales entre adultos de Meta por las razones ya expuestas.  Por lo tanto, en clave constitucional, la Corte considera que el contenido  publicado por la accionante es un discurso que no es prohibido y, por lo tanto,  hace parte del discurso protegido por la libertad de expresión, aunque pueda  parecer chocante por su tono sensual y erótico[323]. Por lo tanto, estos contenidos para ser limitados, deben ser objeto de  restricciones razonables y respetuosas de los estándares de derechos humanos[324].    

     

326.       Si  bien es legítimo que una plataforma, en función de la imagen que desea  proyectar y de los públicos a los que quiere dirigirse, restrinja la difusión  de ciertos contenidos de carácter sexual, ello no autoriza a concluir que todas  las mujeres que han trabajado en la pornografía deban ser, por ese solo hecho,  excluidas de manera generalizada de dichos espacios. El hecho de que una  persona desarrolle fuera de las redes sociales actividades vinculadas con la  pornografía no implica que todas sus publicaciones, incluidas aquellas  relacionadas con la difusión de su propia imagen, deban presumirse  automáticamente como pornográficas o constitutivas de ofertas de servicios  sexuales. Sostener lo contrario no solo desconocería la pluralidad de  dimensiones que integran la vida de estas personas, sino que además contribuye  a reforzar estereotipos y estigmas que históricamente han recaído sobre las  mujeres que han ejercido, o ejercen, actividades de pornografía.    

     

327.       Eso  no quiere decir, como ya se expresó, que la Corte desconozca que, en ciertos  casos, personas inescrupulosas puedan usar una plataforma, incluso cumpliendo  sus reglas de uso, para inducir a otros a acudir a otros espacios, o propiciar  hechos delictivos, incluyendo de explotación sexual. Pero lo que se insiste es  que no se puede presumir que, por el hecho de que una persona realice o haya  realizado actividades relacionadas con la pornografía, necesariamente todas sus  publicaciones estén dirigidas a inducir a otros a esta actividad o propiciar  actividades al margen de la ley.    

     

328.        A la luz de estas consideraciones, y sobre el  contenido de lo publicado por la señora Esperanza Gómez,  según el acervo probatorio con el que cuenta la Corte, se concluye que la  accionante: (i) si bien publicó un contenido que para ciertos públicos podría  considerarse inapropiado, como por ejemplo los menores de edad, en todo caso no  es un discurso que carezca de total protección a la luz de los estándares de la  libertad de expresión; (ii) de dichas imágenes no se puede concluir que sea  evidente un propósito de utilizar la cuenta de Instagram como un espacio para  facilitar encuentros sexuales por fuera de la plataforma, promover la  pornografía o incitar a la explotación sexual.    

329.        Por lo anterior, lo que corresponde es adelantar el  test tripartito de libertad de expresión, para determinar si con el cierre de  la cuenta se violó o no dicho derecho.    

     

(iii)           Aplicación del  test tripartito    

     

330.        Como se indicó en las consideraciones generales,  cuando existe una restricción de la libertad de expresión sobre un discurso que  no está prohibido, es necesario establecer la compatibilidad de la restricción  con la protección constitucional de ese derecho. Ese estudio se debe hacer a partir de la aplicación del test  tripartito, que exige establecer si la medida (i) fue legal, es decir, previa,  clara y concreta; (ii) perseguía un fin legítimo; (iii) fue idónea, necesaria y  estrictamente proporcional. En este caso, la restricción a la libertad de  expresión que se estudia es la eliminación del contenido y el cierre de la  cuenta de Instagram de Esperanza Gómez Silva, la cual, como se estableció en la  sección inmediatamente anterior, no contenía un discurso que, en principio,  debiera considerarse prohibido.    

     

331.        Legalidad. El estudio  de legalidad, propio del test tripartito de las restricciones a la libertad de  expresión, enfrenta un serio desafío conceptual cuando se trata de la  moderación de contenidos por parte de plataformas de Internet[325]. Para  empezar, de acuerdo con la jurisprudencia reiterada de la Corte Interamericana de Derechos Humanos y de la Corte  Constitucional, el principio de legalidad implica dos grandes garantías. La  primera es que la fuente de la restricción sea la ley que, según la Corte IDH,  debe ser dictada por el Congreso de la República.    

     

332.        Es importante hacer notar, que frente a la moderación  de contenidos sería imposible de desarrollar el principio de legalidad con base  en esta definición, que fue establecida sin tener el contexto del Internet en  la mira. En efecto, el carácter transnacional y prácticamente global de la  Internet desvanece las fronteras nacionales, al tiempo que la multiplicidad de  contenidos que se difunden segundo a segundo, conduce al concepto de gobernanza  en la red.    

     

333.        La necesidad de que las redes sean espacios  seguros, la posibilidad de identificar noticias falsas, en especial, en tiempo  electoral, los fenómenos de violencia a gran escala que se cuelan en los  intersticios de la comunicación en redes, el matoneo, la inducción de  autolesiones y la trata y uso sexual de niñas, niños y adolescentes son motivos  suficientes para comprender esta necesidad. Sin embargo, la libertad de  expresión es un derecho de especial fuerza normativa y la limitación de  contenidos puede afectarlo con especial intensidad.    

     

334.        Una de las consecuencias de este concepto, además  de la necesidad de que la construcción de una Internet segura sea un compromiso  de diversos actores, implica también admitir que las plataformas ejercen, por  su propia naturaleza un poder normativo sobre los usuarios, reflejado, en  especial en las condiciones de uso y las reglas comunitarios, y en que la  suscripción a una plataforma corresponde con la lógica de un contrato de  adhesión.      

     

335.        Como este poder ya se ejerce y resulta  imprescindible al menos en algunos de los ámbitos descritos, lo cierto es que  el test tripartito, por lo menos por ahora, debe adecuarse a la manera en que  funcionan las plataformas, siempre en el marco de la interpretación evolutiva  de los tratados de derechos humanos. Cuando la moderación de contenido  reproduce de manera precisa prohibiciones del derecho internacional de los  derechos humanos, como la de difundir discursos de odio susceptibles de ser  considerados delitos en la legislación interna de un Estado, resulta  comprensible que la norma comunitaria se considere válida y que la propia  plataforma adelante el procedimiento.    

     

336.        A medida que las reglas se extienden más allá de  este tipo de materias, la situación se hace más compleja. La moderación podría  servirse de un control judicial posterior o ser adoptada por un juez a  instancias de la red, y, a su vez, otros principios del test tripartito, como  la proporcionalidad, podrían alcanzar mayor relevancia. Esto significa que, si  una potencial restricción a la expresión surge de las normas comunitarias, que  no están amparadas por el principio democrático y la facultad de configuración  del derecho del legislador, entonces el examen de su aplicación en sede  judicial debería ser especialmente cuidadoso.    

     

337.        De acuerdo con el informe sobre esta materia de la  Relatoría de Libertad de Expresión de la OEA, de 2024, debe exigirse especial  precisión no solo en el contenido de este tipo de reglas, sino también en su  aplicación, y las medidas de mayor intensidad deberían ser excepcionales. El  estudio de legalidad exige entonces que las reglas definidas por las  plataformas sean precisas, claras y que sean informadas previamente y  accesibles, lo que implica que no se encuentren dispersas en diversos  “micrositios”.    

     

338.        En este caso, al respecto es pertinente mencionar  que, según el material probatorio aportado por las partes, a la accionante se  le informó a través de varios avisos que su contenido sería eliminado por  violar las políticas de desnudos y de servicios sexuales. En los avisos que  conoció la Corte, se observa que, además del nombre de la política infringida,  hay un botón de reclamo. Sin embargo, no hay más detalles en los avisos sobre  el proceso para reclamar por las eliminaciones.    

     

339.        La Corte encuentra que las normas sobre desnudos y  servicios sexuales entre adultos estaban publicadas en los sitios web y  aplicaciones de Meta al momento de la eliminación de la cuenta, aunque con  limitaciones de acceso pues no estaban incorporadas en el cuerpo de las Normas  Comunitarias de Instagram, sino en otros sitios a los que se accede haciendo  clic sobre los enlaces correspondientes. Lo mismo ocurre con las sanciones  aplicables, que se describen de forma genérica en las Condiciones de Uso y en  las Normas Comunitarias, pero cuya descripción más detallada se encuentra en  múltiples enlaces agrupados en la sección sobre aplicación de políticas del  Centro de Transparencia de Meta. Además, varias de estas normas están  disponibles exclusivamente en inglés.    

     

340.        Frente al contenido de las Normas Comunitarias de  Instagram y las políticas sobre desnudez adulta y servicios sexuales entre  adultos, a primera vista parecen restricciones razonables a la libertad de  expresión porque, entre otras, no se valen de categorías sospechosas de  discriminación para definir qué conductas están o no permitidas en la  plataforma. Tampoco establecen criterios de imposible cumplimiento para las  personas usuarias y, además, contemplan excepciones a ejercicios de la libertad  de expresión que gozan de especial protección, como imágenes sobre lactancia  materna, prevención de cáncer de seno, expresiones artísticas o de protesta.    

     

341.        Sin embargo, hay algunas disposiciones vagas que  pueden conducir al desconocimiento de derechos fundamentales. Al respecto, el  punto cuarto de la Política se refiere al “contenido que implícita o  indirectamente ofrezca o solicite sexo” con base en dos criterios concurrentes:  (i) ofrecer y pedir sexo, imágenes sexuales, conversaciones por chat sobre  sexo, entre otras; (ii) elementos sugerentes, como emojis que en dado contexto  son sexualmente sugerentes o jerga regional sexualizada, menciones o  representaciones sexualizadas, o poses[326].    

     

342.        La imposición de sanciones por el uso de elementos  como los emojis sugerentes, la jerga regional sexualizada o las poses  puede resultar insensible con ciertos entornos culturales en los que este tipo  de cuestiones hacen parte de las conversaciones cotidianas de las personas.  Además, puede profundizar el estigma sobre mujeres y minorías sexuales, a  quiénes se suele aplicar un rasero mucho más estricto en esta materia. Debido a  que se trata de un servicio de alcance global usado en contextos culturalmente  diversos, como señalan los organismos de derechos humanos referidos en las  consideraciones, es necesario que además de consistencia y transparencia, los  intermediarios apliquen sus normas comunitarias o reglas de la casa de forma  sensible al contexto.    

343.        En este caso, para la Corte, las políticas sobre  desnudos y servicios sexuales adultos fueron preexistentes a la aplicación de  las sanciones e imponen restricciones en principio legítimas. Sin embargo, estuvieron  lejos de ser claras en la medida en que el aviso mostrado a la accionante sólo  menciona la política general con base en la cual se borró su contenido  (desnudez o servicios sexuales), pero no el punto concreto de la política  presuntamente desconocido. Por otra parte, como se indicó, el detalle de la  política no se encuentra en las Condiciones de Uso o en las Normas Comunitarias  de Instagram, sino en el Centro de Transparencia y, para el momento en que se  aplicaron las sanciones contra la accionante, estaban exclusivamente en idioma  inglés. Es decir, no hace parte del contrato que suscribió la accionante a la  hora de acceder a la red social o al menos no en su redacción principal, sino  en sitios externos de complejo acceso. En suma, la norma es preexistente a los  hechos e integra las denominadas normas comunitarias, pero se encuentra dispersa  en distintos lugares de la plataforma y es relativamente indeterminada.    

     

344.        Ahora bien, esta es una dimensión del análisis  relevante en lo que tiene que ver con la aplicación de una política de  moderación de contenidos. La conclusión demuestra que se trata de un fundamento  normativo comprensible, pero con problemas de legalidad, aún después de adecuar  el concepto de la gobernanza en Internet. La otra dimensión consiste en determinar si el ejercicio de adecuación de los  hechos en esta norma (relativamente vaga) fue razonable o no. Es decir, habla  sobre la dimensión fáctica del asunto, pero se refleja en especial en el debido  proceso.    

     

345.        Fin legítimo. La  política sobre servicios sexuales entre adultos de Meta busca: (i) impedir la  circulación de contenidos que faciliten, fomenten o coordinen encuentros o  servicios comerciales entre adultos; (ii) evitar actividades que faciliten la  trata, la coacción y los actos sexuales no consentidos; (iii) ampliar su base  de usuarios a nivel mundial y a quienes el lenguaje sexualmente explícito les  parezca un elemento disuasor. Por su parte, la política sobre desnudos, tiene  como finalidades también (i) ampliar la base de usuarios de la plataforma; (ii)  y evitar que se comparta contenido no consentido o de menores. Estos fines son  legítimos y compatibles con la Constitución y los estándares de derechos  humanos, pues encuentran justificación en la supremacía de derechos como el  interés superior de los niños, niñas y adolescentes, la libertad e integridad  personal, y la libertad de empresa.    

     

346.        La Corte considera que el establecimiento de las  políticas mencionadas constituye un mecanismo idóneo para alcanzar estos fines,  sobre todo al considerar la escala y dimensiones de lo que se publica en redes  sociales como Instagram cada minuto. Sin embargo, en el caso concreto, la eliminación  de los contenidos publicados por la accionante no satisfaría ninguno de los  fines que persiguen las políticas de desnudos y prohibición de oferta de  servicios sexuales entre adultos. En efecto, no es claro cómo la eliminación  sistemática de sus contenidos y de su cuenta permitía evitar el uso de la  plataforma para intercambios sexuales, facilitar la coacción sexual de otras  personas o tercerizar servicios sexuales offline.    

     

347.        En efecto, el material fotográfico compartido por  las partes, que corresponde a contenidos publicados con posterioridad a la  eliminación de la cuenta @esperanzagomez, si bien puede ser calificado como  sensual, erótico o sugerente, no podría razonablemente calificarse como un  ofrecimiento de servicios sexuales entre adultos o como desnudos del tipo que  sanciona Instagram.    

     

348.        Idoneidad y necesidad. Dado  que no es claro cómo la eliminación de contenidos y de la cuenta de la  accionante se articulaba con los fines legítimos que subyacen a las políticas  sobre desnudos y servicios sexuales, tampoco es claro por qué la medida de  eliminación era la más adecuada para cumplir dichos fines; en tanto que la  medida de inhabilitación y posterior eliminación de la cuenta @esperanzagomez,  era la medida disponible más gravosa para sancionar el contenido presuntamente  infractor de la accionante.    

     

349.        Al respecto, cabe señalar que si bien la eliminación  de contenidos es en abstracto apta para impedir el uso de la plataforma para  tranzar con actividades sexuales -consentidas o no-, en el caso concreto no fue  idónea. En efecto, las pruebas gráficas aportadas por las partes no muestran un  contenido que de manera manifiesta viole las condiciones generales de  permanencia en la red social Instagram y las condiciones específicas, es decir,  las normas sobre desnudos y servicios sexuales.    

     

350.        En ese sentido, la Corte considera que en el caso  concreto la aplicación de las sanciones señaladas no resultó idónea para  proteger los fines legítimos de limitar la circulación de los desnudos y de  actividades de servicios sexuales entre adultos, pues, aunque el contenido de  la señora Gómez pueda ser leído como sugestivo por algunas audiencias, nada de  lo que pudo conocer la Corte contiene desnudos prohibidos u ofrecimientos de  servicios sexuales entre adultos. Meta tampoco ha aportado información o  pruebas de la existencia de tales contenidos.    

     

351.        Ahora bien, para analizar la proporcionalidad de la  medida, la Corte pasará a aplicar las reglas sobre debido proceso y derecho a  la igualdad y no discriminación.    

     

(iv)            Debido proceso    

     

352.        Meta alegó que Esperanza Gómez Silva violó las  normas comunitarias de Instagram en al menos 31 oportunidades antes de que su  cuenta @esperanzagomez fuera suspendida y después eliminada definitivamente de  sus servidores. Según la compañía, la señora Gómez publicó contenidos que  infringen su política de servicios sexuales adultos y de desnudos.    

     

353.        La Corte no cuenta con los elementos de convicción  que permitan comprender con absoluta claridad cuáles fueron esas 31  infracciones, la política concreta con base en las que se decidió su  eliminación, ni el trámite que se adelantó frente a las mismas. Este material  probatorio fue solicitado en varias oportunidades por la Corte Constitucional  sin éxito, pues como manifestó Meta en su respuesta al auto de pruebas de 29 de  mayo de 2023, “no puede proporcionar copias de las 31 violaciones porque la  cuenta fue eliminada permanentemente hace más de dos años de acuerdo con las  políticas de retención de datos de Meta, previstas en sus Condiciones de Uso y  Política de Privacidad de Instagram”[327].    

     

354.        En todo caso, en respuesta al auto de pruebas de 9  de octubre de 2023, Meta proporcionó dos capturas de pantalla del equipo de  moderación de contenidos. En la primera, se observa una solicitud de revisión  sobre 20 eliminaciones de contenido publicado por la accionante calificadas  como prostitución, servicio sexual y desnudez, con fecha 14 de diciembre de  2021. En la segunda, se observa una conversación en la que se afirma que el  contenido calificado como prostitución no constituía una infracción y que los  demás sí[328].    

     

355.        La situación probatoria, incluida la ausencia de  pruebas que deberían estar en cabeza de la accionada debido a su indiscutible  posición privilegiada para el manejo de la información en Instagram, es la  siguiente: mientras la accionante ha aportado distintos elementos para  comprender que su contenido no podría ser calificado de manera razonable como  un desnudo  ni como una oferta de servicios sexuales entre adultos (en los  términos de las políticas de Meta), Meta no ha aportado ninguna prueba en  sentido contrario.    

     

356.        Como la acción de tutela se rige por el principio  de informalidad, y el silencio de la parte accionada fortalece el relato de la  parte accionante, la Corte concluye  que, en realidad, no existían contenidos que pudieran conducir a la eliminación  de la cuenta. Se llega a esta conclusión, al menos, a partir de las pruebas con  las que dispone la Sala y de la ausencia de elementos de convicción que  caracteriza la respuesta de Meta, a pesar de que en sus intervenciones ha dicho  que tiene política de conservación de los datos para los fines necesarios.    

     

357.        Así las cosas, la Corte debe concluir que se violó también el debido proceso de Esperanza  Gómez Silva. Resta entonces analizar si las decisiones de Meta desconocieron el  principio de igualdad y la prohibición de discriminación.    

     

(v)              Igualdad y prohibición de discriminación    

     

358.        Como ya se indicó, la accionante señaló que hizo  más de 20 reclamaciones a Instagram para que le explicaran porqué desactivaron  su cuenta y para solicitar su desbloqueo. Aunque la peticionaria no aportó  prueba de esas 20 reclamaciones, sí hay pruebas de que en varias oportunidades  elevó estas peticiones sin obtener respuestas de fondo[329].    

     

359.        Por otra parte, la accionante señaló que fue  discriminada por Meta, principalmente por dos razones. Primero, porque eliminó  contenidos suyos similares a los de otras influenciadoras. Segundo, porque,  aunque sus contenidos no infringieron las políticas de desnudos y ofrecimiento  de servicios sexuales, se la calificó como trabajadora sexual. Meta se opuso y  señaló que aplica sus reglas a todas las personas infractoras sin  discriminación.    

     

360.        Aunque las normas de derecho internacional e  interno sobre los límites de la moderación de contenido están en construcción,  en las consideraciones de esta sentencia quedó claro que los organismos de  derechos humanos consideran que hay al menos cuatro garantías esenciales que se  desprenden del régimen internacional de los derechos humanos frente a la  moderación de contenidos: (i) transparencia tanto sobre las reglas como en el  procedimiento y sanciones aplicables al contenido infractor; (ii) sensibilidad  contextual en la aplicación de las reglas; (iii) consistencia y  proporcionalidad en la aplicación de las consecuencias de publicar un contenido  considerado como infractor; y (iv)  maximización de la libertad de expresión. En lo que sigue se estudian estos  cuatro elementos.    

     

361.        Transparencia: en el  análisis sobre legalidad en aplicación del test tripartito se advirtieron  varios problemas de transparencia. Por un lado, las reglas específicas sobre  desnudos y servicios sexuales entre adultos no se encuentran detalladas en las  Normas Comunitarias ni en las Condiciones de Uso de Meta, sino en sitios web  diferentes a los que se accede a través de enlaces, esos sí contenidos en las  reglas de la casa de Meta. Además, para el momento en que sucedieron los  hechos, estas reglas se encontraban disponibles mayoritariamente en inglés. Por  otro lado, ni las Normas Comunitarias ni las Condiciones de Uso explican en  detalle cómo funciona el procedimiento de moderación de contenidos o las  sanciones aplicables al contenido que se considera infractor.    

     

362.        Al respecto, cabe mencionar que toda la descripción  del procedimiento que se hizo en esta providencia correspondió a una  reconstrucción hecha por el despacho sustanciador a partir de las respuestas de  la accionada y de la consulta a distintos sitios web del Centro de  Transparencia y de Instagram. Es decir, el procedimiento detallado no se  encuentra disponible para los usuarios dentro de la plataforma en lugares  visibles y accesibles y tampoco en los avisos que anuncian la eliminación de contenidos  o de cuentas.    

     

363.        Para la Corte resulta particularmente opaco el  sistema de faltas o strikes, pues los usuarios no tienen certeza de si  el mismo sistema tarifado de Facebook se aplica o no. Además, aunque Instagram  emite mensajes que anuncian la infracción, el motivo y la posibilidad de  impugnar la decisión, no señala si se aplicó un strike, cuántos tiene la  persona en su registro y cuántos le faltan para que su cuenta sea objeto de  mayores restricciones.    

     

364.        Además, Meta tampoco anuncia cuando impone medidas  sancionatorias distintas a la eliminación del contenido, como ocurre con la  práctica del shadowbanning. Justo por estos cuestionamientos, Meta abrió  el Centro de Transparencia para centralizar allí explicaciones sobre el  contenido y aplicación de sus políticas. Sin embargo, continúa siendo una  herramienta poco accesible para todos los públicos, laberíntica y sin un orden  particular que indique tanto el paso a paso del procedimiento como los  mecanismos que tienen las personas para saber si se les aplican strikes y  cómo ello afecta su participación en la red social.    

     

365.        Por otra parte, la Corte no puede saber con  precisión quiénes moderaron el contenido de la accionante ni cómo estaba  entrenada específicamente la herramienta de IA que tomó la decisión de borrar  sus fotos y videos. Estos vacíos en la información muestran problemas de  transparencia, pues debería al menos quedar un registro de quiénes, en qué  condiciones y porqué razones curan contenidos y deciden eliminar cuentas.    

     

366.        Es claro para la Corte que, dado el volumen de  información que circula en una plataforma digital y el nivel de sofisticación  alcanzado por los módulos de IA, estos son imprescindibles para la moderación  de contenidos. Pero también es consciente este Tribunal de los desafíos que supone  su utilización. Entre estos se cuentan: (i) la posibilidad de que reciban los  sesgos en el aprendizaje de los operarios humanos y los programadores; (ii) las  dificultades para que sean sensibles al contexto; y (iii) la imposibilidad de  conocer todo el proceso de aprendizaje, pues, precisamente, las redes  neuronales y el machine learning implican procedimientos que no son  accesibles en su integridad para el ser humano. En consecuencia, si las  plataformas acuden al poder de procesamiento de estas herramientas, es también  imprescindible, en clave de derechos humanos, la intervención de los seres  humanos para las decisiones más complejas.    

     

367.        En este contexto, la Corte considera que el sistema  de eliminación de contenidos y eventual inhabilitación de cuentas de Meta debe  ser mucho más transparente. En el caso concreto, y por las razones expuestas,  la Corte encuentra que Meta  desconoció la garantía de transparencia que se desprende de las reglas del  debido proceso aplicables a la moderación de contenidos. No solo las reglas no  están claras, sino que tampoco es claro cómo se realizó la moderación de  contenidos, y si existió un sistema de control o verificación humana previa la  eliminación de la cuenta de la actora.    

368.        Sensibilidad contextual: dado que la Corte no pudo  acceder a la información sobre quiénes o qué herramientas moderaron los  contenidos de la accionante, tampoco pudo conocer específicamente qué tipo de  formación tuvieron los moderadores humanos o el proceso de aprendizaje de  máquina que entrenó a las IAs involucradas en estas decisiones. En efecto, la  Corte sólo tuvo acceso a una descripción genérica sobre el entrenamiento de  moderadores humanos y artificiales, sin especificaciones para el caso concreto.    

     

369.        Sin embargo, al estudiar las fotografías compartidas  por la accionante, la Corte infiere que hay una aplicación descontextualizada  de las reglas de Meta, especialmente de las relativas al ofrecimiento de  servicios sexuales. Por ejemplo, al calificar citas a canciones de reguetón en  la descripción de fotos como un “lenguaje sexualmente explícito” se hace  evidente una aplicación insensible al contexto, y se materializa el riesgo de  las normas especialmente vagas, como aquellas que hablan de ofertas sexuales o  actividades sexuales implícitas.    

     

370.        Sobre este punto, nótese que, en el 2021, la lista  de canciones más escuchada de la plataforma de música Spotify fue Mansión  Reggaetón. Según la aplicación, 3,6 millones de los oyentes de este género  musical son latinoamericanos[330]. Estas cifras apenas logran ilustrar el fenómeno cultural del  reguetón, que, como un género de origen latino no sólo es escuchado por  millones de personas, sino que hace parte de las costumbres y del día a día de  las personas que habitan la región, Colombia incluida. El reguetón, hoy en día,  ha trascendido las fronteras de Latinoamérica, pero, aun así, es más popular en  los países de la región.    

     

371.        Las letras del reguetón son conocidas por su  contenido sexualmente explícito y por eso han sido objeto de amplios debates  sociales, sobre todo porque en muchas oportunidades se cosifica a las mujeres  como objetos sexuales. Sin embargo, de allí no puede seguirse que la  utilización de una canción de reguetón, con líricas sexualmente explícitas,  equivalga a la oferta de servicios sexuales[331].  Para ponerlo en otros términos, la Corte considera que eliminar contenidos de  una persona por hacer referencia a canciones de este género no puede ser  considerado per se como el ofrecimiento de un servicio sexual,  especialmente porque en la vida cotidiana de muchas personas latinoamericanas  es común traer a colación letras de canciones de este género. Así, lo que  sugiere esta discusión, es que hubo una aplicación descontextualizada de las  normas comunitarias.    

     

372.        Consistencia y proporcionalidad: Meta aseguró en todas sus comunicaciones a este Tribunal que la  compañía aplica de manera consistente sus políticas a todos los usuarios, es  decir, sin basarse en su raza, su origen nacional, o cualquier otra razón  potencialmente discriminatoria. En particular, señaló que ni el género ni la  conducta offline de la accionante sirvieron de sustento a su decisión de cerrar definitivamente su  cuenta. Este argumento surgió en respuesta al alegato de la accionante en el  que señaló que Meta la discriminó por ser mujer, y por ser alguien conocido por  haber realizado actividades de pornografía fuera de línea.    

     

373.        Nótese que la afectación al derecho a la igualdad y  a no ser discriminada fue el mayor reproche que realizó la accionante a las  actuaciones de Meta, en sus diferentes intervenciones a lo largo del proceso.  Durante la sesión técnica de noviembre de 2022, la accionante afirmó que  “Instagram decide encasillarme en la pornografía y Esperanza Gómez no es sólo  pornografía”. Aseveró también que, aunque no desconoce que es reconocida por  sus actividades de pornografía, no quiere ser identificada sólo en ese aspecto  de su vida.    

     

374.        Para la peticionaria, que la mayoría de los  contenidos eliminados de su cuenta se califiquen como servicios sexuales para  adultos revela el sesgo discriminatorio en su contra, pues muchas de sus  imágenes no son muy diferentes de las que publican otras mujeres en Instagram.  Así, insiste, lo diferencial es el hecho de ser Esperanza Gómez. En efecto, la  accionante compartió varias capturas de pantalla de otras usuarias de Instagram  en las que se ven publicaciones con vestidos de baño y en ropa interior, en  poses sexualmente provocativas o sensuales, incluso mucho más sugestivas que  las suministradas en este proceso de la accionante, que no fueron eliminadas  por la plataforma.    

     

375.        Para la demandante, entonces, la eliminación de sus  contenidos la encasilla en una identidad unidimensional que la despoja de su  complejidad. Este descontento lo dejó ver en las siguientes afirmaciones:    

     

“Yo  no sólo soy actriz porno. Compartía mi vida cotidiana en muchos aspectos. Me  contrataban para ser la imagen de muchas marcas, para hacer publicidad de  productos” […] Decide Instagram que no…que Esperanza Gómez saca una fotografía  en lencería…en una modelo tradicional una foto en lencería no es  pornográfica, pero una foto de lencería de Esperanza Gómez la convierte  Instagram y los seguidores que no se sienten de acuerdo con lo que yo  normalmente expreso…entonces viene esta plataforma y me quiere seguir  encasillando en solamente pornografía […] Esperanza Gómez se come un banano y  es pornografía. Esperanza Gómez sale en ropa interior y es pornografía” [332]    

     

376.        Con base en lo anterior, procede la Corte a  analizar si la aplicación de las normas comunitarias de Meta fue consistente,  es decir, si respondió a los parámetros del principio de igualdad y no  discriminación. Para ello, aplicará, como es usual, el juicio integrado de  igualdad. Según la jurisprudencia de esta Corte, este juicio requiere: (i)  establecer un criterio de comparación o patrón de igualdad, es decir, determinar  si se trata de supuestos susceptibles de ser comparados; (ii) definir desde una  perspectiva fáctica y jurídica si hubo un trato desigual entre iguales o igual  entre distintos; y (iii) establecer la justificación constitucional del  tratamiento distinto[333].    

     

377.        La jurisprudencia señala que cuando se aprecia que  la medida introduce una diferenciación entre personas que afecta el goce de  derechos constitucionales fundamentales, o cuando está de por medio un criterio  sospechoso de discriminación, procede la aplicación del test en su intensidad  estricta[334].  Este tipo de examen supone determinar si el fin que justifica la medida es  imperioso, si la medida es necesaria para alcanzar ese fin y si no resulta  desproporcionada en sentido estricto[335].    

     

378.        Para establecer un patrón de comparación, la Corte procederá a  describir el contenido de las cuentas aportadas por la accionante en este  proceso (anexo 1 de su escrito de tutela), las cuales se encuentran actualmente  abiertas en la red social Instagram. Con el propósito de preservar la identidad  de sus titulares, la Corte empleará seudónimos, de modo que se referirá a las  cuatro influenciadoras como Laura, Paola, Catalina y  Paloma.    

     

Tabla 6. Contenido de las cuentas que la accionante  pidió comparar con la suya.    

Influenciadora                    

Contenido general    de la cuenta                    

Contenidos objeto    de comparación   

Laura                    

La cuenta tiene varias publicaciones de fotografías    en las que sólo aparece la titular de la cuenta. No hay signos de    verificación de autenticidad. Tiene más de 500 mil seguidores.                    

En la página principal de la cuenta se observan    varias imágenes similares a las de la accionante. Por ejemplo, hay una imagen    en la que se ve a Laura en lo que parece ser una piscina, con una tela    transparente que cubre sus pechos y sus genitales (aunque es a la vez    traslúcida). Además, se encuentran al menos 18 fotos publicadas en el último    año en las que Laura aparece en lencería. En algunas de ellas se alcanzan a    ver sus pezones, aunque no su zona genital.   

Paola                    

La cuenta tiene fotografías en las que aparece    mayoritariamente Paola. Tiene más de 2 millones de seguidores. Dice ser    deportista y su contenido así parece indicarlo. Además, tiene varias    publicaciones relacionadas con hábitos alimenticios.                    

En la página principal de la cuenta se encuentran    varias fotografías en las que Paola aparece en vestido de baño, el cual cubre    la zona del busto y los genitales. Paola también tiene varias fotos en    lencería en distintas poses donde se logran apreciar su espalda, sus glúteos    y sus piernas.   

Catalina                    

La cuenta tiene fotografías de la titular y de otras    personas, incluido su hijo, otras mujeres y el que parece ser su pareja.    Tiene más de siete millones de seguidores.                    

En la cuenta de Catalina se logran apreciar varias    fotografías similares a las de la accionante. En una foto reciente aparece    tendida sobre el pasto desnuda con dos hojas de árbol cubriendo sólo sus    pezones. En el último año aparecen publicadas muchas fotografías en lencería,    con prendas que apenas cubren sus pechos y su zona genital. En muchas de    ellas, aparece con poses sugestivas. En otras no tiene ninguna prenda sobre    sus pechos y cubre la zona de sus pezones con stickers (adhesivos) o    con plantas.    

    

Paloma                    

La cuenta tiene fotografías en las que se ve    principalmente Paloma desarrollando diferentes actividades. Tiene cerca de    330 mil seguidores.                    

En la página principal de Paloma se observan varios    contenidos similares a los de la accionante. Por ejemplo, en una foto    publicada en el último año, aparece Paloma de espaldas desnuda en una tina y    se alcanza a ver parte de sus glúteos. En otra foto aparece en una piscina    desnuda y cubriendo sus pechos con sus manos. También tiene fotos en    lencería, aunque menos que Catalina y Laura.    

     

379.       En  esta providencia se describieron varias de las imágenes aportadas por la  accionante y que, según afirma, motivaron el cierre de su cuenta. En algunas  aparece en lencería, sin mostrar pechos ni genitales, aunque en varias sí se  ven sus glúteos. Otras la muestran en ropa deportiva y de perfil. En una  fotografía se encuentra en un baño cubriendo sus pechos con el brazo y  vistiendo ropa interior que cubre sus genitales. La imagen más sugestiva es  aquella en la que porta un disfraz de lencería con orejas de conejo, guantes  negros hasta el antebrazo y se cubre los pechos con las manos; tampoco allí se  exhiben sus genitales.    

     

380.       La  Corte considera ilustrativo el ejercicio de comparación que propuso la  accionante frente a otras influenciadoras de Instagram. En efecto, como se  observa en la Tabla 6, el material compartido por ella es equiparable al que  publicaron otras influenciadoras e incluso es menos explícito que el de Laura  y Catalina. Existe, entonces, un patrón claro de comparación: la  publicación de fotos en ropa interior o lencería.    

381.       Ahora  bien, desde el punto de vista fáctico y jurídico, la Corte encuentra un trato  diferenciado entre el que recibió la accionante y las demás influenciadoras.  Como lo reconoció Meta Platforms, Inc., antes de remover la cuenta  @esperanzagomez había eliminado al menos 31 publicaciones de la accionante por  supuestas infracciones a sus reglas sobre desnudez y ofrecimiento de servicios  sexuales. Como respaldo, aportó capturas de pantalla que mostrarían discusiones  internas entre moderadores sobre el caso de la accionante. Sin embargo, frente  a las influenciadoras señaladas por la accionante, que comparten contenidos  semejantes, no se acreditó la aplicación de medidas similares.    

     

382.       En  consecuencia, la Corte concluye que se dio un tratamiento diferencial y más  severo a la accionante. Mientras que Laura, Paola, Catalina  y Paloma mantienen sus cuentas activas, la peticionaria ha debido abrir  nuevas cuentas para reconstruir su audiencia, las cuales también han sido  objeto de moderación.    

     

383.       Sobre  la justificación de esta diferencia de trato, Meta sostuvo que nunca discriminó  a la accionante y que la existencia de otras cuentas de mujeres vinculadas a la  pornografía demuestra la aplicación uniforme de sus políticas. La compañía  indicó además que desde 2019 ha moderado 104,3 millones de piezas de contenido  por desnudos y actividad sexual de adultos. No obstante, la empresa no se  refirió específicamente a las cuentas mencionadas en el expediente.    

     

384.       Como  en este caso, el trato diferencial tiene el potencial de comprometer no solo la  igualdad sino la libertad de expresión, y dado que en este caso se alega una  posible discriminación por razones de género, lo procedente es aplicar un test  estricto de igualdad. Esto es, se debe analizar si: (i) la medida adoptada  cumple una finalidad imperiosa; (ii) es necesaria para alcanzar ese fin; (iii)  no resulta desproporcionada en sentido estricto.    

     

385.        Como arriba se ilustró, en este caso se han identificado al menos  dos grupos comparables: la accionante y otras cinco modelos con cuentas  activas. Asimismo, hay un criterio de comparación, como es la publicación de  imágenes sugerentes en vestido de baño o ropa interior. Por lo menos las fotos  aportadas al proceso, como ya se indicó, son imágenes que  sugieren sensualidad, pero no son fotos de sexualidad explícita. Finalmente,  existe un trato diferenciado, pues mientras que los contenidos de la accionante  fueron eliminados en varias ocasiones, y su cuenta finalmente cerrada, los  contenidos de las demás modelos permanecen en la red y sus cuentas, hasta donde  conoce la Corte no han sido desactivadas.    

     

386.       Ahora  bien, establecidos estos puntos, corresponde hacer el examen de  proporcionalidad. En relación con la finalidad, para la Corte es claro que la  medida establecida por Meta obedece un objetivo imperioso: combatir la  explotación sexual, la pornografía infantil y la difusión de material no  consentido.    

     

387.        No obstante, la Corte observa que el requisito de necesidad no se  cumple por varias razones. Por un lado, porque no se logró demostrar que la  medida extrema aplicada a la peticionaria fuera idónea para alcanzar esos  objetivos. En un proceso judicial en el que  hay una reclamación por discriminación, le correspondía a Meta desvirtuar lo  alegado, y como se ha insistido, la compañía se limitó a hacer afirmaciones  genéricas, sin entrar a mostrar por qué la actora había violado las reglas de  la comunidad o por qué la medida adoptada del cierre de su cuenta era  imperativa para lograr las finalidades mencionadas.    

     

388.       La  defensa de Meta se apoya en la supuesta neutralidad de sus políticas. Pero la  opacidad en los mecanismos de control, unida a la falta de motivación concreta,  sugiere que el trato diferenciado pudo estar influenciado por el reconocimiento  público de la accionante en actividades fuera de la plataforma.    

     

389.       Ahora  bien, vale insistir en que la Corte no desconoce que las imágenes publicadas  por la accionante pueden resultar sensibles para ciertos públicos, incluyendo  para los niños y las niñas. Pero siendo ese el caso, Meta contaba con medidas  menos restrictivas que el cierre definitivo de la cuenta, como, por ejemplo,  limitar la visibilidad de las publicaciones, aplicar mecanismos de advertencia  o incluso recurrir a prácticas como el shadowbanning, siempre que se informara  de forma clara y motivada a la titular de la cuenta. No obstante, Meta optó por  la sanción más gravosa, equiparando el contenido de la actora al de quienes  difunden material expresamente prohibido.    

     

390.        En suma, sin cuestionar la legitimidad de las políticas generales  de moderación de contenidos sobre desnudos y servicios sexuales, lo que observa  la Corte es que en este caso la actuación de Meta vulneró la libertad de  expresión, el debido proceso y la igualdad de la accionante. Además, incumplió  su compromiso corporativo de respeto a los derechos humanos[336],  al aplicar de manera inconsistente y poco transparente sus normas comunitarias,  sin pronunciamiento de fondo ni justificación suficiente frente al trato  desigual.    

     

(vi)            Libertad de escoger profesión u oficio y  derecho al trabajo    

     

391.        Por último, la Corte debe analizar si, como señaló la actora en este proceso, la  actuación de Meta vulneró la libertad de escoger profesión u oficio y su  derecho al trabajo.    

     

392.        Como es bien sabido, la Constitución  reconoce el trabajo como un derecho fundamental que debe ejercerse en  condiciones dignas y justas (art. 25) y garantiza la libertad de escoger  profesión u oficio (art. 26), con vigilancia estatal sobre las profesiones y  libre ejercicio de los oficios salvo riesgo social. La Corte ha señalado que el  trabajo es un valor fundante, un principio rector y un derecho-deber social,  concebido como actividad libre y lícita que dignifica a la persona y contribuye  al progreso colectivo[337]. En concordancia, la OIT lo define como toda actividad humana,  remunerada o no, que produce bienes, servicios o medios de subsistencia[338].    

     

393.        Por su parte, el derecho reconocido en el artículo  26 Superior, es decir, la libertad de escoger profesión u oficio, implica “la posibilidad de optar sin coacciones ni presiones por la actividad  lícita, profesional o no, a la que habrá de dedicarse la persona teniendo en  cuenta su vocación, capacidades, tendencias y perspectivas”[339].    

     

394.        Los oficios y actividades profesionales evolucionan  al compás de las innovaciones sociales y tecnológicas, de manera que la  revolución digital trae consigo también una revolución en el mundo del trabajo.  Las tecnologías de la información y la telecomunicación, especialmente Internet,  han dado lugar a la configuración de nuevas dinámicas laborales con ventajas,  problemas y tensiones.    

     

395.       En este  contexto, al amparo del derecho consagrado en el artículo 26 constitucional, es  legítimo que una persona que se dedicó en el pasado a la pornografía busque sus  medios de subsistencia a través de otras actividades, como la de  influenciadora. En esa medida, las personas que optan  por estas actividades propias de la revolución tecnológica actual tienen  derecho a que esa libertad se materialice a través de la garantía de su derecho  al trabajo.    

     

396.       Como se  señaló en las consideraciones iniciales de esta sentencia, hoy en día  plataformas como Instagram son operadas como una especie de local comercial (o common  carriers como se les denomina en la doctrina norteamericana), de manera  que, si bien Meta puede establecer unas reglas de permanencia de  quienes trabajan de forma independiente en esos espacios, tiene que hacerlo  respetando los derechos fundamentales de esas personas, incluido el trabajo.    

     

397.        En el presente caso, las declaraciones, los  contratos, los documentos de propiedad y las imágenes que las partes allegaron  a esta Corporación ilustran que el oficio que desarrollaba la accionante en Instagram era como el de una usuaria que eligió usar la plataforma para  posicionarse como influenciadora. Esta actividad era realizada de manera  independiente, pues no obra prueba alguna de subordinación de Instagram sobre  la peticionaria, aunque si había una relación desigual y de indefensión por la  posición dominante de Meta en el mercado de las plataformas de red social y por  las amplias potestades que tiene para permitir o restringir la participación de  las personas en su plataforma.    

     

398.        En este contexto, la Corte Constitucional estima  que las decisiones tomadas por Meta impactaron la actividad económica de la  accionante como influenciadora. En efecto, la razón por la que la peticionaria  logró construir un modelo de negocio en la red social Instagram se debió,  principalmente, al número de seguidores que logró acumular desde 2014 hasta  2021. Con esos más de 5.7 millones de personas como audiencia, la demandante  alcanzó a ser una mega-influenciadora, y con ello construir una marca que lleva  su nombre y una presencia digital que le sirvió para promocionar productos y  servicios de distinta índole.    

     

399.        Como también aquí se indicó, Meta en este proceso  no logró probar que la actividad de influenciadora realizada por la actora en  la red social Instagram, consistiera en actividades prohibidas de oferta de servicios sexuales, o que pudieran comprometer conductas  como la explotación sexual, o la pornografía infantil. Tampoco, aparece en sus  reglas de uso que comportamientos offline tengan incidencia en la permanencia o  no de los influenciadores en una red social.    

     

400.        En ese sentido, la aplicación poco transparente e  inconsistente de las normas comunitarias de Meta imposibilitaron el acceso de  la accionante a su cuenta, que en este contexto era el espacio en el que ella  desarrollaba su trabajo independiente como influenciadora. Así lo demuestra la  accionante con la certificación de los contratos que fueron cancelados y las  cifras que dejó de recibir cuando su  cuenta fue borrada. En efecto, según las afirmaciones del antiguo mánager de la  señora Gómez Silva, presentadas como anexo 2 a la demanda de tutela, la  accionante dejó de percibir aproximadamente 298 millones de pesos colombianos  al año por la cancelación de su cuenta[340]. El mánager asegura que casi todas las compañías y personas que la  buscaban para pautar, perdieron interés al conocer sobre el cierre de la cuenta  @esperanzagomez[341]. Meta no puso en duda esta información en sus intervenciones durante  el trámite de tutela.    

     

401.        En estas circunstancias, la Corte considera que  Meta desconoció el derecho de la accionante a escoger el oficio de  influenciadora y su derecho al trabajo. En primer lugar, porque eliminó su  cuenta definitivamente a partir de una aplicación inconsistente de sus reglas  de la casa y, con ello, le impidió acceder al medio por el cual realizaba sus  actividades como influenciadora. En segundo lugar, porque no respondió de fondo  a sus peticiones de revisión de la decisión antes mencionada, en contravía del  derecho al debido proceso que le asiste a cualquier persona, especialmente  cuando se le restringe el acceso a su lugar de trabajo. Por último, porque no explicó  con suficiente precisión las razones por las que la cuenta de la peticionaria  era merecedora de ese tratamiento adverso, pero en todo caso le permitió abrir  otras cuentas que posteriormente también eliminó siguiendo un patrón de  conducta similar.    

     

402.        Ahora bien, a pesar de que la Corte encuentra  probada la vulneración de los mencionados derechos, no sucede lo mismo con el  derecho al mínimo vital. En efecto, con las pruebas aportadas a este proceso no  se demostró que las afectaciones a las actividades económicas de la accionante  comprometieran de manera directa su nivel de vida. En consecuencia, la Corte se  abstendrá de declarar la vulneración del derecho al mínimo vital.    

     

403.       En síntesis, se insiste en que es legítimo que una plataforma en  función de la imagen que desea proyectar y de los públicos a los que desea  dirigirse, restrinja la difusión de ciertos contenidos. Pero en principio no  hay una razón para dar un tratamiento diferencial y más severo a las  mujeres que han trabajado en la pornografía. De hecho es legítimo que estas personas busquen otras fuentes de ingreso, y mientras su  comportamiento en línea no lleve a conductas prohibidas deberían poder ejercer  sus derechos en igualdad de condiciones con las demás personas. De todas  maneras, se insiste, si la plataforma tiene en cuenta conductas offline  como parte de sus políticas de moderación de contenido, este hecho debe ser  explícito y transparente, y no puede consistir en criterios discriminatorios.    

     

5.5.     Conclusión    

404.        Por todo lo anterior, la Corte concluye que la decisión de Meta de  eliminar los contenidos de la señora Esperanza Gómez  Silva, así como su cuenta @esperanzagomez, constituyó una restricción a la  libertad de expresión que no se justificó en términos de legalidad, necesidad y  proporcionalidad.    

     

405.        De igual modo, la Corte considera que el procedimiento de  moderación de contenidos aplicado desconoció varias garantías del debido  proceso que le asisten a la accionante, en particular las de transparencia,  sensibilidad contextual, consistencia y proporcionalidad.    

     

406.       En  materia de igualdad, la Corte advierte que Meta aplicó sus políticas de manera  inconsistente y optó por imponer la sanción más gravosa, al eliminar la cuenta  de la accionante, a pesar de que no procedió de la misma manera frente a otras  influenciadoras que han publicado contenidos similares o incluso más explícitos.  La parte accionada no acreditó una razón legítima que justificara este trato  diferenciado.    

     

407.       Adicionalmente,  la Corte encontró que, al suprimir la cuenta de la accionante mediante un  procedimiento poco transparente e inconsistente, Meta restringió arbitrariamente  el espacio en el que la actora ejercía su actividad como influenciadora.    

     

408.       No  obstante, la Corte en este caso no halló vulneración del derecho al mínimo  vital y móvil, ya que no se probó que la limitación de su trabajo afectara de  manera directa el nivel de vida de la accionante.    

     

409.       En  esta misma línea, la Corte no ordenará en este caso una condena en abstracto  por perjuicios económicos. Conforme al artículo 25 del Decreto 2591 de 1991, el  juez de tutela puede adoptar esta medida cuando el afectado no disponga de otro  medio judicial y la violación sea manifiesta y producto de una acción  arbitraria clara e indiscutible. Esta figura cubre únicamente el daño  emergente, no las ganancias dejadas de percibir.    

     

410.       Si  bien en este caso la Corte constató una vulneración de derechos fundamentales,  existen otros mecanismos judiciales idóneos para reclamar la indemnización de  los perjuicios: en particular, la vía civil permite discutir tanto el daño  emergente como el lucro cesante que pudieran derivarse de la cancelación o no  renovación de los contratos celebrados por la accionante. La Corte adopta esta  decisión, porque, si bien pudo causarse un daño patrimonial, este no  comprometió la estabilidad económica de la accionante ni la dejó en estado de  indefensión manifiesta. Por tanto, corresponde a la jurisdicción civil  determinar la responsabilidad, el daño y los perjuicios ocasionados.    

     

411.       En  lo que sigue, se sintetizarán las medidas que la Corte adoptará para enfrentar  los efectos de la violación de los derechos de la demandante.    

     

6.             Órdenes de tutela    

     

412.       Esta  sentencia, como arriba se indicó, es la primera en la que la Corte aborda  comprensivamente el tema de la moderación de contenidos por parte de  plataformas de redes sociales. Dado su alcance, y lo encontrado en este  proceso, la Corte impartirá dos tipos de órdenes: unas destinadas a evitar en  el país un ejercicio arbitrario de dicha facultad, y otras que abordan el caso  particular de la accionante.    

     

413.        Por un lado, la Corte ordenará a Meta Platforms, Inc. establecer  un canal de comunicación electrónica accesible y visible que permita la  notificación de procesos judiciales en su contra que se originen en Colombia.  Como al inicio de esta providencia se indicó, no son menores las dificultades advertidas en este proceso para notificar a la  compañía, cuestión que amerita correctivos.    

     

414.        Asimismo, se ordenará a Meta Platforms, Inc.  revisar y ajustar las Condiciones de Uso de Instagram y su Política de  Privacidad, de modo que los usuarios ubicados en Colombia o cuyos contenidos  tienen efectos relevantes en este país, y cuyas cuentas son eliminadas por  infracciones a las Condiciones de Uso o las Normas Comunitarias, conozcan con  claridad las razones de la medida, el tiempo durante el cual se preservará su  información, los fines de dicha conservación y los mecanismos dispuestos por la  plataforma para controvertir esa decisión.    

     

415.        También se ordenará a Meta que en sus  Condiciones de Uso y Normas Comunitarias quede unificada en un único sitio, expresada  con claridad y en idioma español las políticas sobre desnudos y actividad sexual  de adultos, y sobre servicios sexuales entre adultos. Como se explicó al  analizar el caso concreto, esas reglas no son verdaderamente claras ni  accesibles, pues están dispersas en diversos micrositios a los que se accede  haciendo clic sobre múltiples enlaces ubicados en el Centro de Transparencia de  Meta y, en algunos casos, están únicamente disponibles en el idioma inglés.    

     

416.        Además, la Corte  instará a Meta a definir con mayor claridad y detalle:    

     

(i)                Las  reglas sobre contenidos sexuales implícitos, que hacen parte de la  política sobre desnudos y actividad sexual. En efecto, como se explicó  en detalle al analizar el incumplimiento del sub-principio de legalidad del  test tripartito, algunas de esas disposiciones son vagas e indeterminadas, lo  cual puede conducir al desconocimiento de derechos fundamentales.     

     

     

417.        En atención a las deficiencias de  transparencia en la aplicación de las políticas de moderación de contenidos que  fueron identificadas en esta sentencia, esta Corporación también invitará a Meta Platforms, Inc. a crear un mecanismo de rendición de cuentas para que, como lo  hace en otras jurisdicciones, publique informes periódicos sobre sus decisiones  de moderación de contenidos frente a usuarios colombianos.    

     

418.        Adicionalmente, la Corte ordenará a Meta elaborar, dentro de los seis meses  siguientes a la notificación de esta sentencia, un informe que deberá  publicarse en su Centro de Transparencia y remitirse al despacho sustanciador  para difusión en la página web de la Corte Constitucional.    

     

419.        Igualmente, esta Corporación invitará al  Consejo Asesor de Meta a elaborar un dictamen consultivo (policy advisory  opinion) sobre la aplicación de las políticas de desnudos y actividad  sexual de adultos, así como de servicios sexuales entre adultos, frente a la  amplia facultad de moderación de contenidos. En particular, se le pedirá  formular recomendaciones sobre el uso de actividades offline como  criterio de moderación, así como sobre los estándares de transparencia, debido  proceso, no discriminación y libertad de expresión que deben observarse al  eliminar contenidos o cuentas.    

     

420.        Además, se instará al Ministerio del Trabajo,  a la Superintendencia de Industria y Comercio y al Ministerio de Tecnologías de  la Información y las Comunicaciones a avanzar en regulaciones sobre la actividad  de influenciadores en redes sociales, en las que se definan claramente sus  derechos y deberes frente a las audiencias, así como las reglas de su relación  con las plataformas digitales.    

     

421.        Por otro lado, en cuanto al caso específico de  la señora Esperanza Gómez Silva, la Corte considera que Meta Platforms, Inc.  vulneró sus derechos al debido proceso, igualdad, libertad de expresión,  trabajo y libertad de escoger oficio. No obstante, reconoce la necesidad de  equilibrar la protección de estos derechos con la preservación de la facultad  de moderación de contenidos, indispensable para impedir la circulación de  pornografía infantil, explotación sexual y demás discursos no protegidos por la  libertad de expresión.    

     

422.       En este contexto, la Corte ordenará a Meta abstenerse de imponer  restricciones arbitrarias que vulneren los derechos tutelados a la accionante  respecto de la cuenta que actualmente posee. En adelante, deberá aplicar sus  reglas de forma transparente, clara, precisa, sensible al contexto y  consistente, justificando cualquier restricción a la libertad de expresión  conforme al test tripartito en la materia. Como medida de satisfacción y  garantía de no repetición, Meta deberá publicar las conclusiones de esta  sentencia en su Centro de Transparencia. Finalmente, la Corte desvinculará a  Facebook Colombia S.A.S. del trámite por carecer de legitimación en la causa.    

     

III.            DECISIÓN    

     

En mérito de lo expuesto, la Sala  Primera de Revisión de la Corte Constitucional,    

     

RESUELVE:    

     

Primero. LEVANTAR la suspensión de  términos ordenada por la Sala Primera de Revisión de Tutelas mediante auto del  9 de octubre de 2023.    

     

Segundo. REVOCAR la sentencia de  primera instancia proferida el 17 de febrero de 2023 por el Juzgado Treinta y  Cuatro Penal Municipal con Funciones de Conocimiento de Cali, y en reemplazo DECLARAR  LA CARENCIA ACTUAL DE OBJETO POR DAÑO CONSUMADO en los derechos a la  libertad de expresión, al debido proceso, a la igualdad y no discriminación, a  la libertad de escoger profesión u oficio y al trabajo de la señora Esperanza  Gómez Silva.    

     

Tercero. ORDENAR a Meta Platforms,  Inc. abstenerse de imponer restricciones arbitrarias a los derechos tutelados  en la presente sentencia en perjuicio de la accionante, respecto de la cuenta  que tiene actualmente. En tal sentido, en lo sucesivo, deberá aplicar de forma  transparente, sensible al contexto y consistente sus reglas de la casa, sin incurrir  en violaciones de derechos fundamentales.    

     

Cuarto. ORDENAR a Meta Platforms,  Inc. la publicación de las conclusiones de esta sentencia en su Centro de  Transparencia, dentro del término de quince (15) días desde la notificación de  esta sentencia.    

     

Quinto. ORDENAR a Meta Platforms,  Inc. establecer un canal de comunicación electrónica accesible y visible que  permita la notificación de procesos judiciales en su contra que se originen en  Colombia, dentro del término de quince (15) días desde la notificación de esta  sentencia.    

     

Sexto. ORDENAR a Meta Platforms,  Inc. que, dentro del término de tres (3) meses desde la notificación de esta  sentencia, revise y ajuste las Condiciones de Uso de Instagram y su Política de  Privacidad, de  modo que los usuarios ubicados en Colombia o cuyos contenidos  tienen efectos relevantes en este país, y cuyas cuentas  son eliminadas por infracciones a las Condiciones de Uso  o las Normas Comunitarias, conozcan con claridad las razones de la medida, el  tiempo durante el cual se preservará su información, los fines de dicha  conservación y los mecanismos dispuestos por la plataforma para controvertir  esa decisión.    

     

Séptimo. ORDENAR a Meta Platforms,  Inc. que, dentro del término de tres (3) meses desde la notificación de esta  sentencia, en  sus Condiciones de Uso y Normas Comunitarias quede unificada en un único sitio,  expresada con claridad y en idioma español la política sobre desnudos y  actividad sexual y la política sobre servicios sexuales entre adultos.    

     

Octavo. INSTAR a Meta Platforms,  Inc. para que, a la mayor brevedad posible, defina con mayor  claridad y detalle: (i) las reglas sobre contenidos sexuales implícitos, que  hacen parte de la política sobre desnudos y actividad sexual y (ii) las reglas  de moderación de contenidos para el servicio Instagram, incluido el sistema de strikes  y la eventual consideración de conductas offline, de los cuales deberá  informar de manera clara e inequívoca a los usuarios.    

     

Noveno. INVITAR a Meta Platforms,  Inc. a crear un mecanismo de rendición de cuentas para que, como lo hace en  otras jurisdicciones, publique informes periódicos sobre sus decisiones de  moderación de contenidos en frente a usuarios colombianos.    

     

Décimo. ORDENAR a Meta Platforms,  Inc. remitir un informe con destino a la Corte Constitucional en el que indique  el estado del cumplimiento de las medidas ordenadas por esta Corporación, seis  (6) meses después de la notificación de esta sentencia. Dicho informe deberá  ser publicado en español y en inglés en su Centro de Transparencia.    

     

Decimoprimero. INVITAR al Consejo Asesor  de Meta (Oversight Board) para que, en ejercicio de sus potestades,  desarrolle un dictamen consultivo (policy advisory opinion) sobre la  moderación de contenidos sobre publicaciones en Instagram potencialmente  violatorias de las normas sobre desnudos y actividad sexual de adultos, así  como de servicios sexuales entre adultos, y los límites de dicha facultad en  términos de transparencia, debido proceso, libertad de expresión e igualdad y  no discriminación y la protección de las influenciadoras que desarrollan  trabajos independientes en esa red social.    

Decimosegundo. INSTAR al Ministerio del  Trabajo, a la Superintendencia de Industria y Comercio y al Ministerio de  Tecnologías de la Información y las Comunicaciones a avanzar en regulaciones  sobre la actividad de influenciadores en redes sociales, en las que se definan  claramente sus derechos y deberes frente a las audiencias, así como las reglas  de su relación con las plataformas digitales.    

     

Decimotercero. DESVINCULAR a Facebook  Colombia S.A.S. por carecer de legitimidad por pasiva en el proceso de la  referencia.    

     

Decimocuarto. LIBRAR las  comunicaciones –por la Secretaría General de la Corte Constitucional–, así  como DISPONER las  notificaciones a las partes –a través del juez de tutela de instancia–,  previstas en el artículo 36 del Decreto Ley 2591 de 1991.    

     

Comuníquese y cúmplase.    

     

     

     

NATALIA ÁNGEL CABO    

Magistrada    

     

     

     

CÉSAR HUMBERTO CARVAJAL SANTOYO    

Magistrado (e)    

     

     

     

JUAN CARLOS CORTÉS GONZÁLEZ    

Magistrado    

     

     

     

ANDREA LILIANA ROMERO LOPEZ    

Secretaria General    

[1] Así lo reconoce ella misma en la acción de  tutela. Expediente digital T-8.764.298,  Acción de tutela (01), p. 1.    

[2]  Expediente digital T-8.764.298, Anexo  I. Escrito de solicitud de restablecimiento de la cuenta (11), p. 4 a 9.    

[3]  Ibid., p. 5 a 9.    

[4] Expediente digital T-8.764.298,  Acción de tutela (01), p. 1. En la  acción de tutela, la demandante señaló que su cuenta fue cerrada en mayo de  2021. No obstante, en el expediente obra un pantallazo de un mensaje remitido  por Facebook a la peticionaria en el que le informó que el 8 de noviembre de  2021 se eliminó una de sus publicaciones (Expediente digital T-8.764.298, Anexo  I. Escrito de solicitud de restablecimiento de la cuenta 11, p. 1).      

[5]  Expediente digital T-8.764.298, Anexo  I. Escrito de solicitud de restablecimiento de la cuenta (11), p. 1.    

[6]  Expediente digital T-8.764.298,  Acción de tutela (01), p. 2 y 9 a 10.    

[7] Ibid., p 2.    

[8] Ibid., p. 1 y 2; Expediente digital T-8.764.298, Anexo  II. Informe contratos Instagram (13).    

[9]  Expediente digital T-8.764.298,  Acción de tutela (01), p. 1.    

[10]  Expediente digital T-8.764.298, Auto  del 10 de diciembre de 2021 (17), p. 1.    

[11] Expediente digital T-8.764.298, Contestación  de Facebook Colombia S.A.S. (02).    

[12]  Expediente digital T-8.764.298,  Contestación de la Superintendencia de Industria y Comercio (33).    

[13]  Expediente digital T-8.764.298,  Sentencia de primera instancia (39), p. 9.    

[14]  Expediente digital T-8.764.298,  Impugnación del fallo de primera instancia, (45), p. 4.    

[15]  Expediente digital T-8.764.298,  Sentencia de segunda instancia (25).      

[17]  Expediente digital T-8.764.298, Contestación de  Facebook Colombia S.A.S al Auto del 26 de septiembre de 2022, p. 3.    

[18] Ibid, p. 4.    

[19] Ibid, p. 7.    

[20] Ibid., p. 7. Facebook Colombia S.A.S. allegó  al expediente las condiciones de uso de Instagram vigentes al 18 de enero de  2022.    

[21]  En la contestación de la demanda, luego de pronunciarse sobre las directrices  del servicio y de la comunidad del servicio de Instagram, Meta Platforms, Inc.  expuso los motivos por los cuales considera que Esperanza Gómez Silva violó  repetidamente las normas comunitarias de Instagram. Asimismo, se pronunció  sobre (i) los hechos de la demanda; (ii) expuso las razones por las cuales  estima que los jueces colombianos carecerían totalmente de jurisdicción y  competencia para decidir este asunto; (iii) también señaló los motivos en  virtud de los cuáles la acción de tutela instaurada por la peticionaria es  improcedente o, en su lugar, debe ser denegada. A partir de esos argumentos, la  empresa accionada solicitó rechazar por improcedente la acción de tutela  instaurada por Esperanza Gómez Silva y, en subsidio, denegar en su totalidad  las pretensiones contenidas en la demanda (Expediente  digital T-8.764.298, Contestación de Meta Platforms, Inc. al Auto 1678 de 2022  de 2022).    

En un memorial separado, la empresa  accionada respondió el cuestionario formulado en el Auto 1678 de 2022 (Expediente digital T-8.764.298, Contestación de Meta  Platforms, Inc. al Auto 1678 de 2022 de 2022)    

[22]  Expediente digital T-8.764.298, Contestación  Meta Platforms, Inc., p. 19.    

[23]  Ibid., p. 19. La accionada no invocó, expresamente, el numeral 8  del artículo 133 del Código General del Proceso.    

[24]  A-288 de 2009, por medio del cual se declaró la nulidad de todas  las actuaciones surtidas en el proceso T-2.280.939, por haberse advertido la  existencia de una causal de nulidad por indebida integración de la causa  pasiva.    

[25]  Ibid., p. 20.    

[26]  Ibid.    

[27]  Expediente digital T-8.764.298, Auto que admite  2021-00227-00, (2) (26) (26.5) párr. 3 “VINCULESE a la presente acción a META  PLATFORMS, INC con sede en Colombia (anteriormente denominada FACEBOOK INC), a  la SUPERINTENDENCIA DE INDUSTRIA Y COMERCIO y al MINISTERIO DE TECNOLOGÍAS DE  LA INFORMACIÓN Y LAS COMUNICACIONES”.    

[28]  Expediente digital T-8.764.298. 13. Contestación  Super Intendencia1    

[29]  Ibid., p. 3.    

[30]  Juzgado 34 Penal Municipal con Función de Conocimiento del Circuito de Cali.  No. 019, Rad. 76-001-40-09-034-2021-00227-00 (el 17 de febrero de 2023) p. 17.    

[31] Ibid.    

[32] Ibid., p. 18.    

[33]  Se le formularon seis (6) preguntas relacionadas con el procedimiento específico  aplicado a la cuenta de la señora Esperanza Gómez, la forma en la que se emplea  la inteligencia artificial por parte de Meta, cómo se evitan sesgos de distinta  índole en estos casos, el proceso de reclamación por eliminación y bloqueo de  cuentas y el rol que le da Meta al trabajo como influenciador(a) a la hora de  tomar decisiones de moderación de contenidos.    

[34]  Se le formularon cuatro (4) preguntas relacionadas con su  domicilio, la ubicación desde la que adelanta su trabajo como influenciadora, la  ubicación desde la que ejecuta las obligaciones de sus contratos de publicidad,  e información adicional relacionada con el proceso de reclamación ante Meta por  el cierre de su cuenta.    

[35] Expediente digital T-8.764.298,    

[36]  Expediente digital T-8.764.298, Contestación  Meta Platforms, Inc.    

[37] Ibid, p. 36.    

[38]  Corte Constitucional, sentencia C-1189 de 2000.    

[39] Uta Kohl. Jurisdiction and the Internet: Regulatory Competence  Over Online Activity. Cambridge: Cambridge University Press, 2007,  p. 4 (traducción del despacho sustanciador).    

[40]  Asimismo, como lo indicó la Corte en la sentencia SU-420 de 2019 en relación  con el derecho a la libertad de expresión, “la libertad de expresión “offline”  es la misma “online”, por tanto la presunción a favor de este derecho tiene  plena vigencia en el entorno digital. Lo anterior significa que esta garantía  debe ser respetada por los Estados y protegida de intromisiones ilegítimas por  parte de terceros”.    

[41]  Corte Constitucional, sentencia C-1147 de 2001.    

[42]  Expediente digital T-8.764.298, Gomez v Meta  amicus curiae, (2) (6) (6.3.3)    

[43]  Expediente digital T-8.764.298, Nulidad  Esperanza Gómez – Fundación Karisma, (2) (6) (10.3.4)    

[44]  Expediente digital T-8.764.298, Presentación de Nelson Remolina. Sesión Técnica de 15 de noviembre  de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[45]  Expediente digital T-8.764.298, Presentación de Francisco Reyes Villamizar. Sesión Técnica de 15 de  noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[46]  Expediente digital T-8.764.298, Presentación de Eric Goldman. Sesión Técnica de 15 de noviembre de  2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[47] Samuel Miller. ‘Prescriptive Jurisdiction over Internet Activity:  The Need to Define and Establish the Boundaries of Cyberliberty”. Indiana Journal of Global Legal Studies 10 (2)  (2003), p. 228 (traducción del despacho sustanciador).    

[48]  Expediente digital T-8.764.298,  Escrito de Wikimedia, (2) (6) (6.3.4)    

[49]  Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL_Eje  libertad de expresión, género y curación de contenidos; Expediente  digital T-8.764.298, Documento Corte Constitucional – Sesión técnica Esperanza  Gómez – Linterna Verde, (2) (6) (6.3.8)    

[50]  Dan Burk. ‘Jurisdiction in a World Without Borders’. Virginia  Journal of Law and Technology 1 (1997), 1522.    

[51]  CEPAL. Elementos principales del informe sobre el estado de la jurisdicción de  Internet en América Latina y el Caribe 2020.    

[52] Kohl. Jurisdiction and the Internet…, 22-23.    

[53] Kohl. Jurisdiction and the Internet… 25-26  (traducción del despacho sustanciador).    

[55]  Resoluciones No. 1321 de 2019 (“Facebook Inc.”), 21478 de 2019 (“Uber Inc.”),  53593 de 2020 (“Google LLC”), 62132 de 2020 (“Tiktok Inc.”), 74519 de 2020  (“Zoom Inc.”) y 29826 de 2021 (“WhatsApp LLC”).    

[56]  Corte Constitucional, Autos 460 de 2019 y 086 de  2007 reiterados en el Auto 191 de 2021.    

[57]  Vladimir Alexei Chorny Elizalde, Luis Fernando García Muñoz y Grecia Elizabeth  Macías Llanas, “La moderación de contenidos desde una perspectiva  interamericana,” Al Sur, contribución al Diálogo de las Américas sobre  Libertad de Expresión en Internet de la Comisión Interamericana de Derechos  Humanos, (marzo de 2022, Ciudad de México), p. 37. Cit.  Roberts, Sarah. “Behind The Screen: Content  Moderation in the Shadows of Social Media”. Yale University Press.  Estados Unidos. 2019, p. 33.    

[58] Meta,“How Meta enforces it’s policies?”, Disponible en: https://transparency.fb.com/enforcement/taking-action/    

[59]  Cumbre Mundial sobre la Sociedad de la Información y la  Comunicación. Declaración de Principios: Construir la Sociedad de la  Información: un desafío global para el nuevo milenio, WSIS-03/GENEVA/4-S, 12 de  mayo de 2004.    

[60]  Boyd, D. M. y Ellison, N. B. (2007). Social  Network Sites: Definition, History, and Scholarship. Journal of Computer‑Mediated Communication, 13, 210–230.  doi:10.1111/j.1083‑6101.2007.00393.x Ver también, Darrel Ince (Ed), Dictionary of the Internet. 2da Edición, Oxford University Press, 2009.    

[61] Corte Constitucional, sentencia SU-420 de 2019.    

[62]  De acuerdo con el Digital 2024: Global Overview Report, las personas  consultadas reportaron múltiples razones por las cuales acuden a las redes  sociales. Entre otras, indicaron: (i) estar en contacto con amigos y familia;  (ii) llenar el tiempo libre; (iii) encontrar contenido; (iv) encontrar  inspiración de cosas para hacer y comprar; (iii) encontrar productos para  comprar; (iv) compartir y discutir opiniones con otros; (v) hacer nuevos  contactos; (vi) generar redes laborales; (vii) seguir a celebridades e  influencers. Disponible en: https://datareportal.com/reports/digital-2024-global-overview-report.    

[63] Simon Kemp. Digital 2024: Global Overview Report. Disponible en: hfttps://datareportal.com/reports/digital-2024-global-overview-report.    

[64]  La población mundial para junio de 2024 alcanza los 8.119 billones de personas.  Fuente: “Población mundial”, tablero de la población  mundial, Fondo de Población de las Naciones Unidas, consultado el 2 de  junio de 2024: https://www.unfpa.org/es/data/world-population-dashboard.    

[65] S. Dixon, “Instagram: number of global users 2020-2025”, Statista,  febrero 15, 2023. Disponible en: https://www.statista.com/statistics/183585/instagram-number-of-global-users/.    

[66]  Stacy Jo Dixon, “Daily time spent on social networking by internet  users worldwide from 2012 to 2023,” Statista (julio 6 de 2023). Disponible en: https://www.statista.com/statistics/433871/daily-social-media-usage-worldwide/ .    

[67]  Simon Kemp. Digital 2024: Global Overview Report. Disponible en: https://datareportal.com/reports/digital-2024-global-overview-report.    

[68] Robert Post. Social Media, Freedom of Speech, Content Regulation  and the Protection of Democracy. Conferencia dictada en el Global  Constitutional Seminar, Septiembre 2022 (manuscrito sin publicar).    

[69]  Derechos humanos en la era digital ¿Pueden marcar la diferencia? Discurso  programático de Michelle Bachelet, Alta Comisionada de las Naciones Unidas para  los Derechos Humanos, Japan Society, Nueva York, 17 de octubre de 2019. https://www.ohchr.org/es/2019/10/human-rights-digital-age.    

[70]  Ibid.    

[71] Tarleton Gillespie, “Custodians of the Internet”, 2020, Yale  University Press, pág. 5.    

[72] Bachelet, “Derechos humanos en la era digital”. Gillespie, “Custodians of the Internet”.  Post, “Social Media, Freedom of Speech, Content Regulation and the Protection  of Democracy”. La jurisprudencia  constitucional también ilustra la reflexión sobre los beneficios y desafíos de  Internet. Por ejemplo, en la sentencia T-324 de 2020, la Corte reconoció que la  tecnología puede ser utilizada con finalidades diversas, incluso contrarias al  sistema democrático. Por lo mismo, insistió en la importancia de reconocer “que  el Internet y las nuevas tecnologías también implican riesgos, que cada día se  conocen más”. Por tanto, la Corte consideró fundamental “asegurar que los  espacios virtuales y digitales ofrezcan las mismas libertades y garantías para  el debate público, y se mantenga como un espacio de libre, abierto y amplio  espectro de comunicación y deliberación”.    

[73]  Un recuento de los principales hitos de la moderación de contenidos, puede  verse en: Amy Fox. “The Evolution of Content Moderation Rules  Throughout The Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.    

[74]  P.W. Singer & Emerson T. Brooking (2018). LikeWar: The  Weaponization of Social Media. Houghton Mifflin Harcourt, Boston & New  York, pág. 227.    

[75]  Ibid, pág. 229.    

[76] Ibid., pág. 228.    

[77] Ibid.    

[78] Eric Goldman & Jess Mier, “Online account terminations/content  removals and the benefits of internet services enforcing their house rules,” Journal  of Free Speech Law 191, (Agosto, 2021). También:  Expediente digital T-8.764.298, Colombian Constitutional Court written  submission (Eric Goldman, Universidad de San Diego) (2) (6) (6.3.2)    

[79] Amy Fox. “The Evolution of Content Moderation Rules Throughout The  Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.    

[80] Ahmed Alhrabi. “The Role of Social Media in Arab Spring”. MECSJ  14 (2018). Disponible en: https://www.mecsj.com/uplode/images/photo/The_Role_of_Social_Media_in_Arab_Spring.pdf.     

[81] Amy Fox. “The Evolution of Content Moderation Rules Throughout The  Years”, abril de 2021. Disponible en: https://www.checkstep.com/the-evolution-of-content-moderation-rules-throughout-the-years/.    

[82] Ibid.    

[83] International Fact-Checking Network, Empowering fact-checkers  worldwide, https://www.poynter.org/ifcn/    

[84] Global Internet Forum to Counter Terrorism, “Preventing terrorists  and violent extremist from exploiting digital platforms”, https://gifct.org/.    

[85] Oversight Board. https://www.oversightboard.com/.    

[86] Electroic Frontier Foundation, “How COVID Changed Content  Moderation: Year in Review 2020”. https://www.eff.org/deeplinks/2020/12/how-covid-changed-content-moderation-year-review-2019.    

[87] The Guardian. “Twitter and Facebook lock Donald Trump’s accounts  after video address”. 7 de enero de 2021. https://www.theguardian.com/us-news/2021/jan/06/facebook-twitter-youtube-trump-video-supporters-capitol.    

[88] Oversight Board. “Former Presdient Trump’s Suspension”. https://www.oversightboard.com/decision/fb-691qamhj/.    

[89]  The New York Times. “Meta Says It Will End Its Fact-Checking  Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.    

[91] Esta distinción es propuesta por los profesores Eric Goldman y  Jess Miers en: Eric Goldman & Jess Mier, “Online account terminations/content…”  p. 194.    

[92]  Convención Americana sobre Derechos Humanos, artículo 13.  Pacto Internacional de Derechos Civiles y Políticos, art. 20.    

[93] Meta, “Facebook Community Standards,” Transparency Center, Meta  Platorms, Inc. Disponible en: https://transparency.fb.com/policies/community-standards/?source=https%3A%2F%2Fwww.facebook.com%2Fcommunitystandards    

[94] Eric Goldman & Jess Mier, “Online account  terminations/content…” p. 195.    

[95] Así ocurre, por ejemplo, con las normas comunitarias de Meta, que  para los servicios de Instagram y Facebook indica qué cosas sí pueden publicar  los usuarios.    

[96]  Chorny, García y Macias, “La moderación de contenidos  desde una perspectiva interamericana…”, p. 41-42.    

[97] Oversight Board. “Content Moderation in a New Era for AI and  Automation”. https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/.    

[98]  Ibid., pág. 42.    

[99] Ibid., cit.  Klonick, Kate. “The new governors: The people,  rules, and processes governing online speech”. Harvard  Law Review, 131, 2018.    

[100]  Oversight Board. “Content Moderation in a New Era for AI and  Automation”. https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/.    

[101] Ibid., p. 6.    

[102] Ibid.    

[103] Gillespie. Custodians of the Internet…p. 11.    

[104] Ibid.    

[105] The New York Times. “Meta Says It Will End Its Fact-Checking  Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.    

[106]  Meta. “More Speech and Fewer Mistakes”. https://about.fb.com/news/2025/01/meta-more-speech-fewer-mistakes/.    

[107] Ibid.    

[108] The New York Times. “Meta Says It Will End Its Fact-Checking  Program on Social Media Posts”. https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking.    

[109]  La Silla Vacía. “Hoy temo que nuestros datos sean utilizados políticamente por  las plataformas: Catalina Botero.” https://www.lasillavacia.com/silla-nacional/hoy-temo-que-nuestros-datos-sean-utilizados-politicamente-por-las-plataformas-catalina-botero/    

[110] Twitch (2021). Our Plan for Addressing Severe Off-Service  Misconduct. Disponible en: https://blog.twitch.tv/en/2021/04/07/our-plan-for-addressing-severe-off-service-misconduct/    

[111] Cecilia Anastasio (2021). Twitch Will Act on ‘Serious’ Offenses  That Happen Off-Platform. En: Wired. Disponible  en: https://www.wired.com/story/twitch-off-platform-policy-harassment/    

[112] Twitch (2021). Our Plan for Addressing Severe Off-Service  Misconduct. Disponible en: https://blog.twitch.tv/en/2021/04/07/our-plan-for-addressing-severe-off-service-misconduct/    

[113] Kamya Yadav (2021). Platform Interventions: How Social Media  Counters Influence Operations. En: Carnegie Endowment for International Peace.  Disponible en: https://carnegieendowment.org/posts/2021/01/platform-interventions-how-social-media-counters-influence-operations?lang=en    

[114] Shannon Bond (2022). Kicked off Facebook and Twitter, far-right  groups lose online clout. En: NPR. Disponible en: https://www.npr.org/2022/01/06/1070763913/kicked-off-facebook-and-twitter-far-right-groups-lose-online-clout    

[115] Danielle Blunt & Zahra Stardust (2021) Automating whorephobia:  sex, technology and the violence of deplatforming, Porn Studies, 8:4, 350-366;  Olivia Snow. Are You Ready to Be Surveilled Like a Sex Worker? FOSTA/SESTA laws  deplatformed sex workers and set the stage to overturn Roe v. Wade, En: Wired,  27 de junio de 2022. Disponible en: https://www.wired.com/story/roe-abortion-sex-worker-policy/    

[116] Annamarie Houlis. Inside the Instagram sex industry. En: Cosmopolitan, 17 de octubre de 2017; Katie McQue and  Mei-Ling McNamara. How Facebook and Instagram became  marketplaces for child sex trafficking. En: The  Guardian, 27 de abril de 2023. Sobre esta situación en Colombia, ver: Wes  Michael Tomaselli. Webcam Sex Work Is a Lifeline for  Women Who Lost Their Jobs During COVID. En Vice, 22  de septiembre de 2020.    

[117] Allard K. Lowenstein International Human Rights Clinic at Yale Law  School (2023). Managing and Mitigating Indirect Hate Speech on Meta Social  Media Platform. Disponible en: https://law.yale.edu/sites/default/files/documents/documents/pdf/Managing%20Indirect%20Hate%20Speech%20Meta%20Platforms%201121.pdf    

[118]  Ibid., pág. 13.    

[119]  Ibid., pág. 29.    

[120]  En la discusión sobre hasta dónde debe llegar la participación estatal en la  moderación de contenidos, cada vez hay más ejemplos de medidas y políticas que  tienen a ampliar el papel del Estado en esta actividad. En Uganda, por ejemplo,  el presidente ordenó impedir el acceso a redes sociales como Facebook antes de  las elecciones de 2021, para evitar la circulación de propaganda electoral de  su popular contendor. En el caso de Reino Unido, el Online Safety Act de  2023 permite a determinadas autoridades ordenar la remoción de contenido  protegido considerado ilegal, pero que, según sus críticos, también permite  eliminar contenido protegido por la libertad de expresión de las redes  sociales. Amnesty International, “Uganda: Authorities must  lift social media block amid crackdown ahead of election,” enero de 2021,  disponible en: https://www.amnesty.org/en/latest/news/2021/01/uganda-authorities-must-lift-social-media-block-amid-crackdown-ahead-of-election/. Oficina del Alto Comisionado de Naciones  Unidas para los Derechos Humanos, “Moderating online content: fighting harm or  silencing dissent?,” julio de 2021, disponible en: https://www.ohchr.org/en/stories/2021/07/moderating-online-content-fighting-harm-or-silencing-dissent.    

[121] Gerald Turkel, ‘The Public/Private  Distinction: Approaches to the Critique of Legal Ideology’ (1988) 22 Law  & Society Review 801.    

[122] Corte Constitucional, sentencia C-204 de 2019, cit. C-881 de 2014.    

[123]  Ibid.    

[124]  Ibid., cit. T-291 de 2016.    

[126]  Expediente digital T-8.764.298, Documento Corte Constitucional – Sesión técnica  Esperanza Gómez – Linterna Verde, (2) (6) (6.3.8)    

[127]  Knight First Amendment Institute v. Trump, 928 F. 3d 226  (2nd Cir., 2019).    

[128]  Biden v. Knight First Amendment Institute, No. 20-197, 593 U.S. (2021)    

[129]  Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE CONSTITUCIONAL. Eje  libertad de expresión, género y curación de contenidos, p. 18-19.    

[130]  J. Ahava (2018)- “The Public Sphere and Digital Culture”. En Marbella International University Centre-Iowa University. Disponible  en: https://miuc.org/the-public-sphere-and-digital-culture/    

[131]  Corte Constitucional, sentencia T-149 de 2025.    

[132]  Corte Constitucional, sentencia SU-420 de 2019.    

[133]  Esta sección impide atribuirles  responsabilidad a los operadores de sitios web si, al actuar como “buenos  samaritanos”, intentan remover contenidos que son incompatibles con la  decencia, pero fallan en la remoción de otros igualmente infractores. Bassini, Marco. “Social Networks as New  Public Forums?”, The Italian Review of International and Comparative Law 1, 2  (2022): 311-334, Doi: https://doi.org/10.1163/27725650-01020005    

[134]  Esta regulación señala que no se les puede atribuir responsabilidad a los  intermediarios por (i) la mera transmisión de información;  (ii) el caching o alojamiento de memoria tampón (conservación de memoria  caché); (iii) el alojamiento de datos; y, además, (iv) no se les pueden imponer  obligaciones de supervisión frente a la información cuya circulación facilitan. Parlamento Europeo y Consejo de Europa. Directiva  2000/31/CE del Parlamento Europeo y del Consejo de 8 de junio de 2000 relativa  a determinados aspectos jurídicos de los servicios de la sociedad de la  información, en particular el comercio electrónico en el mercado interior  (Directiva sobre el comercio electrónico), arts. 12, 13, 14 y 15.    

[135]  Corte Constitucional, sentencia SU-420 de 2019.    

[136]  Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de  Expresión, Representante para la Libertad de los Medios de Comunicación de la  Organización para la Seguridad y la Cooperación en Europa (OSCE), Relatora  Especial de la Organización de Estados Americanos (OEA) para la Libertad de  Expresión y Relatora Especial sobre Libertad de Expresión y Acceso a la  Información de la Comisión Africana de Derechos Humanos y de los Pueblos  (CADHP). Declaración Conjunta sobre Libertad de Expresión e Internet, 2011.    

[137]  Las normas de derecho blando son una fuente relevante reconocida por esta  corporación para interpretar las obligaciones que se desprenden del bloque de  constitucionalidad. Ver: Corte Constitucional, sentencia T-237  de 2023.    

[138] Electronic Frontier Foundation, Asociación por los Derechos  Civiles, Article 19, The Centre for Internet & Society, Derechos Digitales,  KictAnet & OpenNet. Principios de Manila sobre responsabilidad de  intermediarios. Disponibles en: https://manilaprinciples.org/es.html#:~:text=Las%20%C3%B3rdenes%20de%20restricci%C3%B3n%20de,sustento%20legal%20de%20la%20orden.    

[139]  Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta sobre Libertad de  Expresión e Internet, 2011, artículo 1, principios generales.    

[140]  Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta del Vigésimo  Aniversario: Desafíos para la Libertad de Expresión en la Próxima Década.  Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1146&lID=2    

[141] Parlamento Europeo, Consejo y Comisión Europeas, “Declaración  Europea sobre Principios y Derechos Digitales,” 2023, par. 15.    

[142]  Parlamento Europeo, Ley de Servicios Digitales, 2022/2065, 19 de octubre de  2022. Disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=CELEX:32022R2065#d1e3582-1-1    

[143]  UNESCO. Salvaguardar la libertad de expresión y el acceso a la información:  directrices para un enfoque de múltiples partes interesadas en el contexto de  la regulación de las plataformas digitales. Borrador 3.0, 27 de abril de 2023.    

[144]  Santa Clara Principles 2.0, Principles for Government and  Other State Actors, Disponible en: https://santaclaraprinciples.org/.    

[145] El mismo Consejo  Asesor de Meta así lo reconoce. Al llamar la atención sobre los riesgos de la  automatización en la moderación de contenidos, insiste en que los algoritmos de  IA pueden reforzar los sesgos sociales existentes o inclinarse hacia un lado de  las divisiones ideológicas. Es imperativo que las plataformas garanticen que la  libertad de expresión y las consideraciones de derechos humanos estén  integradas en estas herramientas desde el principio y por diseño, teniendo en  cuenta los enormes desafíos institucionales y tecnológicos que supone reformar  sistemas que ya operan a gran escala. Al respecto ver:  https://www.oversightboard.com/news/content-moderation-in-a-new-era-for-ai-and-automation/    

[146]  Corte Constitucional, sentencias T-015 de  2015, T-904 de 2013 y T-391 de 2007.    

[147]  Corte Constitucional, sentencia SU-420 de 2019.    

[148] Corte Constitucional, sentencia SU-420 de 2019.    

[149] Corte Constitucional, sentencia T-145 de 2016.    

[150] Corte Constitucional, sentencia T-275 de 2021.    

[151] Corte Constitucional, sentencia T- 241 de 2023. Cit., T-243  de 2018, T-145 de 2016.    

[152]  Ibid., cit. T-145 de 2016.    

[153]  Por ejemplo, en las sentencias T-550 de 2012, T-050 de 2016, T-155 de 2019 y  T-179 de 2019, recogidas en la sentencia SU-420 de 2019.    

[154]  En esta sentencia, la Corte planteó las siguientes conclusiones sobre los casos  en los cuales se solicita la eliminación de una publicación en internet por,  presuntamente, vulnerar los derechos al buen nombre o a la honra de otras  personas: “(i) la libertad de expresión, como garantía fundamental de cualquier  sociedad democrática, adquiere una especial garantía en el entorno digital, al  brindar un acceso simple y rápido a un amplio número de personas; (ii) la  restricción a este derecho se puede dar cuando se concluye una flagrante  vulneración a los derechos a la honra, buen nombre e intimidad como resultado  de un ejercicio de ponderación de derechos; (iii) los intermediarios de  internet cuentan con un proceso de auto control, el cual no escapa de la  intervención judicial; (iv) las plataformas no pueden censurar de manera previa  el contenido introducido por sus usuarios; (v) la responsabilidad por  afectación de un derecho está en cabeza de quien hace una publicación; y (vi)  si bien el intermediario no es el responsable de la afectación a la honra o  buen nombre, debe proceder a retirar el contenido cuando quiera que un juez  decida que la información debe ser excluida de la esfera pública.” Sentencia  SU-420 de 2019, fundamento 126.    

[156] Consejo de Derechos Humanos de Naciones Unidas. Report of the detailed findings of the Independent International  Fact-Finding Mission on Myanmar. A/HRC/39/CRP.2, 17 September 2018,  párrs. 696 a 716.    

[157]  Ibid.    

[158]  Corte Constitucional, sentencia T-452 de 2022.    

[159]  Corte Constitucional, sentencia SU-420 de 2019.    

[160]  Corte Constitucional, sentencia C-442 de 2011.    

[161]  Corte Constitucional, sentencia C-442 de 2011.    

[162] Ibid.    

[163] Corte Constitucional, sentencia SU-274 de 2019.    

[164] Ibid.    

[165] Corte Constitucional, sentencia T-329 de 2021. Cit., C-593  de 2014.    

[166]  Ibid., cit. T-054 de 2008.    

[167] Ibid., p. 43.    

[168]  UNESCO. Salvaguardar la libertad de expresión y el acceso a la información:  directrices para un enfoque de múltiples partes interesadas en el contexto de  la regulación de las plataformas digitales. Borrador 3.0, 27 de abril de 2023;  Relatores ONU, OEA, OSCE y CADHP, Declaración Conjunta del Vigésimo  Aniversario: Desafíos para la Libertad de Expresión en la Próxima Década. Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1146&lID=2; Santa Clara Principles 2.0, Principles for Government and Other  State Actors, Disponible en: https://santaclaraprinciples.org/; Asamblea General de la Organización de las Naciones Unidas. Informe  de la Relatora Especial sobre la promoción y protección del derecho a la  libertad de opinión y de expresión, Irene Khan, sobre género y libertad de  expresión y opinión. A/76/258, julio 30 de 2021.    

[169] Corte Constitucional, sentencia T-061 de 2022.    

[170]  Ver, entre otras: SU-420 de 2019 a T-241 de 2023.    

[171]  Asamblea General de la Organización de las Naciones Unidas.  Informe de la Relatora Especial sobre la promoción y protección del derecho a  la libertad de opinión y de expresión, Irene Khan, sobre género y libertad de  expresión y opinión. A/76/258, julio 30 de 2021, párr. 4.    

[172] Ibid., párr. 13-14.    

[173]  Ibid., p. 10.    

[174]  Expediente digital T-8.764.298, PREGUNTAS SESIÓN  TÉCNICA CORTE CONSTITUCIONAL Eje libertad de expresión, género y curación de  contenidos.    

[175]  Chorny Elizalde, García Muñoz y Macias Llanas, “La moderación de contenidos  desde una perspectiva interamericana…”, p. 45.    

[176]  Ibid.    

[177]  Asamblea General de la Organización de las Naciones Unidas.  Informe de la Relatora Especial sobre la promoción y protección del derecho a  la libertad de opinión y de expresión, Irene Khan, sobre género y libertad de  expresión y opinión. A/76/258, julio 30 de 2021, párr. 26.    

[178]  Chorny Elizalde, García Muñoz y Macias Llanas, “La moderación de contenidos  desde una perspectiva interamericana…”, p. 49.    

[179] Consejo Asesor de Meta.2023-036-IG-UA, 2023-037-FB-UA, Educational  posts about ovulation.    

[180] Consejo Asesor de Meta. 2020-004-IG-UA, Breast cancer symptoms  and nudity.    

[181] Consejo Asesor de Meta. 2022-010-IG-UA, Gender identity and  nudity.    

[182] Consejo Asesor de Meta. 2021-016-FB-FB, Swedish  journalist reporting sexual violence against minors.    

[183] Consejo Asesor de Meta. 2023-053-FB-UA, Breast Self-Exam.    

[184]  Estos casos son: Consejo Asesor de Meta. 2020-004-IG-UA, Breast cancer  symptoms and nudity; 2021-016-FB-FB, Swedish  journalist reporting sexual violence against minors;  2022-009-IG-UA and 2022-010-IG-UA Gender identity and nudity.    

[185] Gianluca Mauro and Hilke Schellmann, ‘There is no standard’:  investigation finds AI algorithms objectify women’s bodies, The Guardian, 8  de febrero de 2023.    

[186] Ibid.    

[187]  Expediente digital T-8.764.298, PREGUNTAS SESIÓN  TÉCNICA CORTE CONSTITUCIONAL-Eje libertad de expresión, género y curación de  contenidos, p. 29.    

[188]  Chorny Elizalde, García Muñoz y Macías Llanas, “La moderación de contenidos  desde una perspectiva interamericana…” p. 49.    

[189]  CEDAW, Relatores ONU, OEA, OSCE y CADHP, Declaración  Conjunta sobre Libertad de Expresión y Justicia de Género, 3 de mayo de 2022.  Disponible en: https://www.oas.org/es/cidh/expresion/showarticle.asp?artID=1233&lID=2    

[190]  Ibid.    

[191]  Ibid.    

[192] Ibid.    

[193]  Se refiere a palabras que, si bien no están formalmente incorporadas al  diccionario en castellano, en todo caso tienen un uso relativamente nuevo y  frecuente en las personas hablantes de la lengua.    

[194]  Observatorio de la lengua. Real Academia de la Lengua Española, disponible en: https://www.rae.es/observatorio-de-palabras/influencer    

[195] Zniva, R., Weitzl, W.J. & Lindmoser, C. Be constantly  different! How to manage influencer authenticity. Electron Commer Res (2023).  https://doi.org/10.1007/s10660-022-09653-6    

[196] Ibid.    

[197] Werner Geyser, What is an influencer? – Social Media Influencers  Defined, Influencer Marketing Hub, 24 de marzo de 2023. Disponible en:  https://influencermarketinghub.com/what-is-an-influencer/    

[198] Zniva, R., Weitzl, W.J. & Lindmoser, C. Be constantly  different! How to manage influencer authenticity. Electron Commer Res (2023). https://doi.org/10.1007/s10660-022-09653-6    

[199] Cámara de Representantes de Colombia. Proyecto de Ley Nº  215 de 2020 Cámara “Por medio del cual se reglamenta la publicidad en redes  sociales y se dictan otras disposiciones”.    

[200] Al respecto, ver: María Fernanda Pérez Villegas & Sara  Alexandra Monsalve Cardona, “Regulación de la Publicidad de los  Influenciadores: Una Mirada al Caso Colombiano Desde el Derecho Comparado”,  Universidad EAFIT – Escuela de Derecho, Medellín: 2019. Disponible  en: https://repository.eafit.edu.co/bitstream/handle/10784/13793/MariaFernanda_Perez_Sara_Monsalve_2019.pdf?sequence=2&isAllowed=y; Catalina Goanta & Isabelle Wildhaber, In the Business of  Influence: Contractual practices and Social Media content monetisation. 2019, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht,  91(4), 346. https://www.szw.ch/de/artikel/2504-0685-2019-0033/business-influence-contractual-practices-and-socialmedia-content    

[201]  Superintendencia de Industria y Comercio, Guía de Buenas  Prácticas en la Publicidad a través de Influenciadores Digitales. Delegatura para la Protección del Consumidor, 2020, p. 11.    

[203] Catalina Goanta & Isabelle Wildhaber, In the Business of  Influence: Contractual practices and Social Media content monetisation.  2019, Schweizerische Zeitschrift für Wirtschafts- und Finanzmarktrecht, 91(4),  346. https://www.szw.ch/de/artikel/2504-0685-2019-0033/business-influence-contractual-practices-and-socialmedia-content, p. 350.    

[204] Organización Internacional del Trabajo, Centro Interamericano  para el Desarrollo del Conocimiento en la Formación Profesional  (OIT/CINTERFOR). “Trabajo”.  https://www.oitcinterfor.org/taxonomy/term/3315?page=1#:~:text=Conjunto%20de%20actividades%20humanas%2C%20remuneradas,sustento%20necesarios%20para%20los%20individuos.    

[205]  Expediente digital T-8.764.298, Contestación  Meta Platforms, Inc., (2) (18) (6.3.14), p. 20.    

[206]  “Cómo resolveremos las disputas. Si eres consumidor, las leyes  del país donde resides se aplicarán a cualquier demanda, acción o disputa  (“demanda”) que presentes contra nosotros y que surja como consecuencia de  estas Condiciones, o en relación con ellas. Asimismo, puedes resolver tu  demanda en cualquier tribunal competente del país que tenga jurisdicción”. Expediente  digital T-8.764.298, Contestación Meta Platforms, Inc., (2)  (18) (6.3.14), p. 22.    

[207]  Como lo indicó el profesor Nelson Remolina en la audiencia  pública convocada con ocasión de este caso, en varias ocasiones la Delegatura  para la Protección de Datos de la Superintendencia de Industria y Comercio  reafirmó que la ubicación física del proveedor tecnológico no es lo que  determina la aplicación de la ley colombiana, y “ni el internet ni la  extraterritorialidad pueden ser factores de impunidad ni mucho menos de  desconocimiento de derechos humanos. Expediente  digital T-8.764.298, Presentación de Nelson Remolina.  Sesión Técnica de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[208]  El artículo 37 del Decreto 2591 de 1991 establece que “son  competentes para conocer de la acción de tutela, a prevención, los jueces o  tribunales con jurisdicción en el lugar donde ocurriere la violación o la amenaza  que motivaren la presentación de la solicitud.” Corte Constitucional, Autos 460 de 2019 y 086 de 2007 reiterados en el Auto  191 de 2021. Es decir, el domicilio del accionante o del  accionado no es el factor usado por el ordenamiento jurídico para determinar la  competencia territorial de quien conoce la acción de tutela, sin perjuicio de  que el domicilio de alguna de las partes pueda coincidir con el lugar donde  ocurren los hechos. Corte Constitucional, Auto 762 de  2021.    

[209]  Según el artículo 76 del Código Civil “[e]l domicilio consiste en la residencia  acompañada, real o presuntivamente del ánimo de permanecer en ella”.  La  jurisprudencia pacífica de la Corte Suprema de Justicia sostiene que de la  disposición citada se desprenden dos elementos a verificar sobre el domicilio.  Primero, un elemento objetivo, es decir, la residencia. Según la Corte Suprema,  se trata de un “hecho perceptible por los sentidos y demostrable por los medios  ordinarios de prueba”. Segundo, existe un elemento subjetivo, relacionado con  el ánimo de permanencia. Para el Alto Tribunal, dicho ánimo es un “aspecto  inmaterial que permanece en el fuero interno de la persona, acreditable por las  presunciones previstas por el legislador”. Corte Suprema de  Justicia. Sala de Casación Civil y Agraria, sentencia STC13012-2022 (20 de  septiembre de 2022).    

[210]  Expediente digital T-8.764.298,  6.5.4ESPERANZA GOMEZ SILVA, Anexo “CERTIFICADO DE TRADICION ESPERANZA  APARTAMENTO”.    

[211] Ibid., Anexo “certificado propiedad  Yumbo”.    

[212]  En el apartado de pruebas del oficio remitido al Juzgado 34 Penal Municipal con  Función de Conocimiento de Cali, la accionante expresamente solicitó como  prueba “Se consulte en el Adres mi vinculación al sistema de seguridad social  integral.” Expediente digital T-8.764.298,  Pronunciamiento de Esperanza Gómez Silva en el segundo trámite de primera  instancia, (2) (41) (41), p. 17.    

[213]  ADRESS, Base de Datos Única de Afiliados – BDUA en el Sistema General de  Seguridad Social en Salud, certificado de afiliación Esperanza Gómez Silva.  Consultado el 17 de julio de 2023.    

[214]  Expediente digital T-8.764.298, 6.5.4ESPERANZA  GOMEZ SILVA, Anexo “CONSECIÓN MARCA 10,38 41,43 (1)”.    

[215]  Ibid., Anexo “EG FASHION MODA GROUP ESTATUTO”.    

[216]  Expediente digital  T-8.764.298, Anexo II. Informe contratos Instagram (13).    

[217]  Expediente digital T-8.764.298, Pronunciamiento  de Esperanza Gómez Silva en el segundo trámite de primera instancia, (2) (41)  (41).    

[218]  Expediente digital T-8.764.298, contestación  requerimiento junio 2023, (2) (48) (28) (28.4.2).    

[219]  Delegatura de Protección de Datos Personales de la  Superintendencia de Industria y Comercio, Resolución No. 1321 de 2019.    

[220]  El artículo 86 de la Constitución y el artículo 10 del  Decreto 2591 de 1991 establecen que todas las personas pueden presentar acción  de tutela ante los jueces para lograr la protección de sus derechos  fundamentales cuando estos resulten vulnerados por la acción o la omisión de  cualquier autoridad pública y, excepcionalmente, por particulares.    

[221]  Los artículos 5º y 42 del Decreto 2591 de 1991 señalan que la  tutela contra particulares procede cuando están encargados de la prestación de  un servicio público, su conducta afecta grave y directamente el interés  colectivo, o cuando el accionante se encuentra en una situación de indefensión  o de subordinación respecto del particular en cuestión.    

[222] Corte Constitucional, sentencia SU-420 de 2019, párr. 63; T-454 de 2018, párr. 6-7    

[223] Corte Constitucional, sentencia T-643 de 2013, T-145 de 2016.    

[224] Ibid.    

[225] Corte Constitucional, sentencia T-643 de 2013.    

[226] Corte Constitucional, sentencia T-454 de 2018, párr. 6.    

[227] Ibid.    

[228]  Expediente digital T-8.764.298,  Contestación Meta Platforms, Inc., (2) (18) (6.3.14); Contestación Meta Platforms, Inc., (2) (18)  (6.3.14), documento “01.1.”, p. 6.    

[229]  Así lo señalaron varios intervinientes en el proceso de tutela, particularmente  en el marco de la Sesión Técnica de noviembre de 2022. Al respecto ver la  intervención de Francisco Reyes Villamizar y de José Alberto Toro.    

[230]  La doctrina discute si estos contratos son de suministro en  los que la carga onerosa se refleja no en el intercambio de dinero sino de  datos personales o, si más bien, son contratos de adhesión atípicos por la  relativa gratuidad de las prestaciones. Ver: Daniela Moreno Martínez (2021).  Responsabilidad Contractual de Facebook: contratos de adhesión atípicos y redes  sociales. Blog del Semillero de Derecho Contractual de la Universidad de los  Andes.    

[231]  Meta Platforms, Inc. es el nombre que adquirió a partir de 2021  la compañía Facebook, Inc., que nació en 2004 con la red social homónima. En la  actualidad, Meta es una compañía multiplataforma, es decir, dueña de varios  servicios digitales dentro de los que destacan las redes sociales Facebook,  Instagram, WhatsApp y Messenger. Según Statista, en 2022 Meta obtuvo poco más  de 117.000 millones de dólares en ganancias, y ocupa el octavo puesto de  compañías con mayor valor de mercado a nivel mundial de acuerdo con la revista  Forbes. Por todo lo anterior, Meta es una de las cinco compañías que integran  el denominado Big Tech o gigantes tecnológicos, un término usado para  referirse “a las compañías multinacionales basadas en Estados Unidos Apple,  Amazon, Microsoft, Alphabet/Google y Facebook/Meta”, que tienen un dominio casi  que indisputable del mercado de las tecnologías de la información.    

[232]  Expediente digital T-8.764.298, Contestación  de Facebook Colombia S.A.S. después de la nulidad (2), p. 7, numeral 2.    

[233] Ibid., Anexo 1 – certificado de existencia y representación legal.    

[234]  Expediente digital T-8.764.298, Contestación  de Facebook Colombia S.A.S. después de la nulidad (2), p. 7, numeral 2.    

[236]  Superintendencia de Industria y Comercio. Resolución 46664, Julio 22 de 2022,  Rad. 21-16898, versión pública.    

[237]  Ibid., p. 17.    

[238]  Esta posición fue defendida por el profesor Henry Sanabria y por el profesor  Francisco Reyes. El primero afirmó que en Colombia es posible hacer  notificaciones en el extranjero. El segundo, indicó que la cláusula de  competencia de Instagram frente a los jueces nacionales es una manifestación  expresa sobre la posibilidad de vincular directamente a Meta en cualquier  proceso judicial que se surta en su contra en Colombia.    

[239]  En este sentido se pronunció Wikimedia, que señaló que la filial de Meta en  Colombia puede ser considerada como corresponsables de la compañía en “virtud  de la legislación del país anfitrión”. Lorna Woods se pronunció en extenso  sobre el caso Google Inc. vs. APED y González y sobre la Ley de Servicios  Digitales de la Unión Europea que obliga a designar una autoridad para  notificar a compañías como Meta sobre procesos en su contra en países europeos  o, en su defecto, a las filiales que tiene en ese continente.    

[240]  Al respecto, el Tribunal Supremo Federal de Brasil suspendió  las operaciones de X Brasil Internet Ltda. -controlada por Twitter  International Unlimited Company e incorporada por X Corp.- por causa del  incumplimiento de sus órdenes, condenó a esa empresa a pagar multas por casi 30  millones de reales y le ordenó designar a un nuevo representante legal en el  país, pues el que había sido nombrado se fue del país. En el fallo, el Tribunal  enfatizó en la que las empresas con domicilio en el extranjero tienen el deber  de designar a un representante legal o de formar una empresa subsidiaria en  Brasil, para poder operar legalmente en dicho país (Tribunal Supremo Federal de  Brasil, No. de caso PET 12.404, sentencia del 2 de septiembre de 2024).    

[241]  El artículo 86 de la Constitución y el artículo 6º del Decreto Ley 2591 de 1991  prevén que la acción de tutela solo procede cuando no existan otros mecanismos  de defensa judicial, o cuando estos no sean idóneos ni eficaces para la  protección inmediata de los derechos fundamentales.    

[242]  En aquella sentencia, la Corte señaló que, cuando el accionante es una persona  natural o cuando una persona jurídica alega que su nombre fue agraviado por una  persona natural, el solicitante debe acreditar que agotó los siguientes  mecanismos directos: (i) una solicitud de rectificación ante quien hizo la  publicación; (ii) una reclamación ante la plataforma en la que se ubica la  publicación; y (iii) en todo caso se debe constatar la relevancia  constitucional del asunto, lo que implica verificar el contexto en el que se  desarrollaron los hechos. Sentencia SU-420 de 2019, fundamentos 67 a 71.    

[243]  Expediente digital T-8.764.298,  Contestación Meta Platforms, Inc., (2) (18) (6.3.14),  p. 27.    

[244]  Una postura doctrinaria entiende los daños derivados de la conducta de los  intermediarios de redes sociales como expresión de la desigualdad negocial  previa a la suscripción de los contratos que permiten el acceso a esas  plataformas. En este marco, la doctrina distingue dos formas de vinculación:  (i) usuarios simples, cuyo contrato tiene por objeto la publicidad y la  conexión con otros para crear comunidades en línea que intercambian productos y  relaciones y (ii) operadores comerciales, que utilizan la red con fines  económicos como vender productos, promover marcas, desarrollar aplicaciones o  gestionar actividades empresariales. Meta Platforms, Inc. recoge esta  distinción en sus Condiciones de Uso: por un lado, las que rigen para  “consumidores”, es decir, quienes acceden para conectar, crear comunidades o  hacer crecer sus negocios; y, por otro, las aplicables a cuentas comerciales,  centradas exclusivamente en anuncios, ventas, desarrollo de apps,  administración de Páginas o medición empresarial. No obstante, existen usuarios  que, aun con cuentas personales, emplean la red tanto para interactuar como  para promover negocios propios. Según el Tribunal de Justicia de la Unión  Europea en el caso Schrems vs. Facebook Ireland Limited, el hecho de  obtener lucro no les hace perder su condición de consumidores ni las  protecciones correspondientes, pues la relación de desigualdad con la empresa  intermediaria se mantiene. Al respecto véase: Daniela Moreno  Martínez (2021). Responsabilidad Contractual de Facebook: contratos de adhesión  atípicos y redes sociales. Blog del Semillero de Derecho Contractual de la  Universidad de los Andes; Meta Platforms, Inc. Condiciones del servicio.  Disponible en: https://www.facebook.com/legal/terms; Meta Platforms, Inc. Condiciones comerciales de Meta. Disponible  en: https://www.facebook.com/legal/commercial_terms; Tribunal de Justicia de la Unión Europea. Caso Schrems vs.  Facebook Ireland Limited, caso C‑498/16. Sentencia del 25 de enero de 2018.     

[245]  Corte Constitucional. T-584 de 2023 y T-304 de 2023.    

[246] Corte Constitucional, sentencia T-109 de 2021.    

[247] Ibid.    

[248]  Sentencia SU-420 de 2019, fundamento 69.    

[249] Expediente digital T-8.764.298,  Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte  Constitucional mediante Oficio N. OPTC-208/23, (2) (55) (28), p. 3.    

[250] Expediente digital T-8.764.298,  Acción de tutela (01), p. 2.    

[251] Ibid., Acción de tutela (01), Anexo I, p. 1 y 2.    

[252] Expediente digital T-8.764.298,  corte constitucional (2) (04) (4.3.2)    

[253] Expediente digital T-8.764.298,  contestación requerimiento junio 2023, (2) (55) (28), p. 2.    

[254] Expediente digital T-8.764.298,  Contestación Meta Platforms, Inc., (2) (18)  (6.3.14), p. 18.    

[255] Apoderado general asociado de Meta, en castellano (traducción  libre del despacho). Esta referencia se encuentra en el escrito de contestación  de Meta Platforms, Inc., p. 10.    

[256] Ibid.    

[257] Textualmente, el  señor Solanki indicó lo siguiente: “Discutí los hechos de este caso con los  equipos que aplican y hacen cumplir los términos y políticas de Meta, y revisé  los registros paralelos realizados por esos equipos en el momento en que Meta  eliminó la cuenta de Instagram de la Demandante, del servicio. Tengo entendido  que la cuenta de lnstagram de la Demandante (@esperanzaagomez) se  inhabilitó el 16 de mayo de 2021, después de no menos de 31 violaciones de los  Condiciones de Uso y las Normas Comunitarias de Instagram. Las 31 infracciones  consistieron en contenido que infringía las disposiciones de las Normas  Comunitarias sobre ofrecimiento de servicios sexuales y desnudos. Vale la pena  anotar que la cuenta de la Demandante se removió permanentemente de conformidad  con las políticas de retención de datos de Meta, previstas en sus Condiciones  de Uso y Política de Privacidad y, por lo tanto, no se puede restablecer. Por  lo tanto, tampoco puedo proporcionarle al Tribunal copia de las 31  violaciones”. Ver, Expediente  digital T-8.764.298, Contestación Meta Platforms, Inc., (2) (18) (6.3.14), p. 10    

[258] Expediente digital T-8.764.298,  Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte  Constitucional mediante Oficio N. OPTC-208/23, (2) (55) (28), p. 5 y 6.    

[260] Corte Constitucional, sentencia C-010 de 2000.    

[261]  El juez constitucional debe verificar que la acción se interpuso  dentro de un plazo razonable y oportuno, lo que permite identificar que,  realmente, pretenda conjurar una afectación actual de los derechos  fundamentales.    

     

[262]  Expediente digital T-8.764.298,  Contestación Meta Platforms, Inc., (2) (18) (6.3.14),  p. 11-12.    

[263]  “La cuenta de la Parte Accionante fue eliminada permanentemente, de acuerdo a  las prácticas y en los términos de eliminación de datos descriptos en las  Condiciones de Uso y Política de Privacidad, ya que después de cierto tiempo en  que una cuenta es eliminada, se borra definitivamente de todos los servidores,  y por consiguiente no puede ser restablecida”. Ibid., p.  9-10.    

[264]  Corte Constitucional, sentencia SU-522 de 2019.    

[265]  El hecho superado implica que la amenaza a un derecho ha desaparecido en virtud  de una acción de la parte accionada sin necesidad de intervención del juez  constitucional. El hecho sobreviniente se produce cuando la amenaza o violación  del derecho fundamental ha cesado; o la acción reclamada en la tutela ya se ha  cumplido, por razones ajenas a la voluntad de la parte accionada. Finalmente,  el daño consumado se refiere a circunstancias en las que la amenaza sobre los  derechos fundamentales en riesgo logró concretarse de modo que se causó un  perjuicio irremediable. Ver sentencias SU-124 de  2018 y SU-522 de 2019.    

[266]  Corte Constitucional, sentencia SU-522 de 2019.    

[267] Expediente digital T-8.764.298, contestación requerimiento junio  2023, (2) (28) (28.4.2), p. 6.    

[268]  Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc.  – respuesta a las preguntas de la H. Corte, (2) (18)  (6.3.14), p. 10.    

[269]  Expediente digital T-8.764.298, Apoderado de Meta Platforms,  Inc. – Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H.  Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 6.    

[270]  Ibid.    

[271]  Meta, Condiciones de Uso de Instagram, Servicio de Ayuda de  Instagram. Disponible en: https://help.instagram.com/581066165581870/?cms_id=581066165581870    

[272]  Meta, Política de Privacidad, Meta Privacy Center  Disponible en: https://mbasic.facebook.com/privacy/policy/printable/#8    

[273]  Ibid.    

[274]  Tanto las normas comunitarias como las  condiciones de uso descritas en este apartado son aquellas aportadas por las  partes del caso y las que se encontraban disponibles en los servicios digitales  de la plataforma. Algunas de ellas tienen notas de vigencia que permiten  identificar con precisión la política que estaba vigente al momento de la  eliminación del contenido y la cuenta de la señora Esperanza Gómez Silva, pero  otras no tienen dichas notas. En este sentido, a partir de la información  aportada por las partes y de la información disponible en la página web, la  Corte reconstruyó, en la medida de lo posible, las políticas vigentes para el  momento de los hechos. En todo caso, dado que la regulación sobre desnudez y  servicios sexuales de adultos se encuentra publicada en el Centro de  Transparencia de Meta con sus respectivas actualizaciones, se hará referencia a  las normas aplicadas al caso que sí se encuentran disponibles en la versión  vigente cuando se eliminaron los contenidos y cuenta de la accionante.    

[275] Meta, Condiciones de Uso de Instagram, Servicio de Ayuda de  Instagram.    

[276]  Ibid.    

[277] Meta, Normas comunitarias, Servicio de Ayuda de Instagram.    

[278] Ibid.    

[279] Ibid.    

[280] Meta, Normas comunitarias de Facebook, Centro de Transparencia de  Meta.    

[281] Meta, Normas comunitarias, Servicio de Ayuda de Instagram.    

[282]  Estas normas tienen versiones por fechas, así que aquí nos referiremos  exclusivamente a aquellas que se encontraban vigentes durante el primer  semestre de 2021, es decir, las normas publicadas en noviembre de 2020.    

[283] Meta, Desnudos y actividad sexual de adultos, Centro de Transparencia  de Meta.    

[284]  Esta sección de la norma vigente al momento de los hechos  objeto de análisis no fue aportada por la parte accionada en sus escritos  remitidos al despacho sustanciador. Sin embargo, cuando el despacho  sustanciador la revisó, se encontraba disponible exclusivamente en inglés en el  Centro de Transparencia de Meta, por lo que el despacho se apoyó de la  herramienta Deepl para la traducción del apartado. En: Meta, Desnudos y  actividad sexual de adultos, Centro de Transparencia de Meta, normas vigentes a  noviembre de 2020.    

[285]  Meta, Servicios sexuales, Centro de Transparencia de Meta.    

[286]  Ibid.    

[287]  Ibid.    

[288]  Esta sección de la norma vigente no fue aportada por la parte  accionada en sus escritos remitidos al despacho sustanciador, sino la versión de  la política que se encontraba vigente al momento de enviar la información a la  Corte Constitucional. Sin embargo, cuando el despacho sustanciador la revisó,  se encontraba disponible exclusivamente en inglés en el Centro de Transparencia  de Meta, por lo que el despacho se apoyó de la herramienta Deepl para la  traducción del apartado. En: Meta, Servicios sexuales, Centro de  Transparencia de Meta. Normas vigentes a febrero de 2021.    

[289]  Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc.  – respuesta a las preguntas de la H. Corte, (2) (18)  (6.3.14)    

[290] Ibid., p. 7.    

[291] Meta, How technology detects violations?    

[292] Meta, How enforcement technology works?    

[293] Ibid.    

[294]  Ibid.    

[295]  Ibid.    

[296]  Ibid.    

[297]  Expediente digital T-8.764.298, Apoderado de Meta Platforms,  Inc. – Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H.  Corte Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 4.    

[298]  Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc.  – respuesta a las preguntas de la H. Corte, (2) (18)  (6.3.14)    

[299] Ibid.    

[301]  Ibid.    

[302] Por ejemplo, en un estudio pionero al respecto en Reino Unido,  varios investigadores concluyeron que si bien no es acertado llamar ‘sexistas’  ciertos modelos automatizados de moderación de contenidos, sí demostraron que  “ciertas formas de entrenamiento están sesgadas de formas que vale la pena  estudiar antes de implementar dichos sistemas” En: Binns, R., Veale, M., Van  Kleek, M., Shadbolt, N. Like Trainer, Like Bot? Inheritance  of Bias in Algorithmic Content Moderation. In: Ciampaglia, G., Mashhadi, A.,  Yasseri, T. (eds) Social Informatics. SocInfo 2017. Lecture Notes in  Computer Science, vol 10540. Springer, Cham.  https://doi.org/10.1007/978-3-319-67256-4_32    

[303]  Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc. – Respuestas  de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte  Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 5.    

[304] Thomas Stackpole, “Content Moderation Is Terrible by Design”. En: Harvard  Business Review, The Big Idea Series / Incivility on the Front Lines of  Business, 9 de noviembre de 2022.    

[305] Meta, Helping reviewers make the right calls. Centro  de Transparencia de Meta.    

[306]  Ibid.    

[307]  Meta, Taking down violating content, Centro de Transparencia de Meta.    

[308]  Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc.  – respuesta a las preguntas de la H. Corte, (2) (18)  (6.3.14), p. 3.    

[309] Meta, Counting strikes, Centro de Transparencia de Meta.    

[310] Meta, Restricting accounts, Centro de Transparencia de Meta.    

[311] Meta, Disabling accounts, Centro de Transparencia de Meta.    

[312]  Expediente digital T-8.764.298, Apoderada de Meta Platforms, Inc.  – respuesta a las preguntas de la H. Corte, (2) (18)  (6.3.14), p. 9.    

[313] Meta’s Oversight Board, “Appeals Process”.    

[314]  Expediente digital T-8.764.298, Presentación de Esperanza Gómez Silva, min. 21 y ss. Sesión Técnica  de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[315]  Ibid.    

[316]  Ibid.    

[317]  Dijo la accionante: “Quiero que me dejen de discriminar…Estoy  cansada de sentir el acoso, la persecución, porque no es la primera vez que me  cierran mis perfiles. Simplemente me siento vulnerada en mis derechos al  trabajo, a la igualdad, a todo lo que siento yo que tiene derecho un ser  humano…me exalto porque me parece injusto que me sigan atacando de esa manera.  Decido instaurar una acción de tutela contra Instagram porque siento que  efectivamente he sido discriminada, que me están vulnerando mis derechos.” Expediente digital T-8.764.298, PREGUNTAS SESIÓN TÉCNICA CORTE  CONSTITUCIONAL. Eje libertad de expresión, género y curación de contenidos, p.  18-19.    

[318]  Expediente digital T-8.764.298,  Contestación Meta Platforms, Inc., (2) (18)  (6.3.14), p. 12.    

[319] “Hump day”: https://dictionary.cambridge.org/dictionary/english/hump-day. “Humping”: https://dictionary.cambridge.org/dictionary/english/humping.    

[320]    

[321] Ibid., p. 13.    

[322]  Ibid., p. 14.    

[323] Corte Constitucional, sentencia T-391 de 2007.    

[324]  Ibid.    

[325]  Sobre este tema, resulta de especial relevancia el reciente  informe sobre moderación de contenidos de la Relatoría para la Libertad de  Expresión de la Comisión Interamericana de Derechos Humanos, Inclusión digital  y gobernanza de contenidos en Internet. Allí se reconoce de manera amplia el  desafío del estudio de legalidad, cuando la moderación la ejerce un particular  y, en especial, una plataforma. Disponible en https://www.oas.org/es/cidh/expresion/informes/Inclusion_digital_esp.pdf, párrafos 261 a 266.    

[326]  Esta sección de la norma vigente no fue aportada por la parte  accionada en sus escritos remitidos al despacho sustanciador, sino la versión  de la política que se encuentra vigente en la actualidad. Sin embargo, se  encuentra disponible exclusivamente en inglés en el Centro de Transparencia de  Meta, por lo que el despacho se apoyó de la herramienta Deepl para la  traducción del apartado. En: Meta, Servicios sexuales, Centro de  Transparencia de Meta. Normas vigentes a febrero de 2021.    

[327] Expediente digital T-8.764.298, Apoderado de Meta Platforms, Inc.  – Respuestas de Meta Platforms, Inc. a las preguntas formuladas por la H. Corte  Constitucional mediante Oficio N. OPTC-208/23 (2) (28) (28.4.3), p. 5-6.    

[328]  Expediente digital T-8.764.298. Respuesta Meta a preguntas de  la CC del Oficio OPTC-426-23 – Esperanza Gómez, p. 3 y 4.    

[329]  Expediente digital T-8.764.298,  Acción de tutela (01), p. 2; Anexo I, p. 1 y 2;  Expediente digital T-8.764.298, corte  constitucional (2) (04) (4.3.2); Expediente digital T-8.764.298, Contestación de Facebook Colombia  S.A.S. (02), p. 7. Ver: capítulo sobre subsidiariedad.    

[330]  Clarín. Los impactantes números del reguetón, un fenómeno que  sigue creciendo en Latinoamérica y expande sus fronteras. 08 de julio de 2021.  Disponible en: https://www.clarin.com/espectaculos/musica/impactantes-numeros-regueton-fenomeno-sigue-creciendo-latinoamerica-expande-fronteras_0_birOWhgrG.html    

[331] El  debate sobre la música, el cuerpo, el erotismo y el machismo es apasionante y  la presencia del reguetón, su importancia e impacto global no pueden  desconocerse. Sin embargo, no corresponde a la Corte juzgar el contenido de una  canción específica, sino destacar la manera en que el control de contenidos  resulta en una restricción desproporcionada de la expresión cuando utiliza reglas  vagas y cuando los mecanismos de detección de contenidos no evidencian  sensibilidad al contexto.    

[332]  Expediente digital T-8.764.298, Presentación de Esperanza Gómez Silva, min. 21 y ss. Sesión Técnica  de 15 de noviembre de 2022, disponible en: https://www.youtube.com/watch?v=SCPr0_pdjNw    

[333] Corte Constitucional, sentencia C-862 de 2008.    

[334]  Sobre la intensidad del examen de igualdad y del juicio  integrado de proporcionalidad, la Corte Constitucional unificó su  jurisprudencia en la Sentencia C-345 de 2019.    

[335] Ibid.    

[336] Meta, Corporate Human Rights Policy, 2021.    

[337] Corte Constitucional, sentencia C-107  de 2002.    

[339] Corte Constitucional, sentencia T-624 de 1995.    

[340]  Expediente digital T-8.764.298,  Acción de tutela (01), Anexo II.    

[341]  Ibid.     

 

This version of Total Doc Converter is unregistered.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *