Se intensifica el debate sobre la influencia de las redes sociales, el daño a la salud mental de los adolescentes y el papel que debería asumir la FDA.
Nueva York—El diario The Wall Street Journal informó el martes sobre el secreto peor guardado de Silicon Valley: Instagram daña la salud mental de los adolescentes; de hecho, su impacto es tan negativo que introduce pensamientos suicidas. Según el periódico, el treinta y dos por ciento de las adolescentes que se sienten mal con su cuerpo informan que Instagram las hace sentir peor.
Añade que de los adolescentes con pensamientos suicidas, el 13% de los usuarios británicos y el 6% de los estadounidenses rastrean esos pensamientos hasta Instagram, según el informe del WSJ. Estos son los datos internos de Facebook. Seguramente la verdad es peor.
El presidente Theodore Roosevelt y el Congreso formaron la Administración de Alimentos y Medicamentos en 1906 precisamente porque las grandes empresas alimentarias y farmacéuticas no protegieron el bienestar general.
Mientras sus ejecutivos desfilan en la Met Gala en celebración del inalcanzable 0.01% de estilos de vida y cuerpos que nosotros, los simples mortales, nunca lograremos, la falta de voluntad de Instagram para hacer lo correcto es un llamado de atención a la regulación: la FDA debe hacer valer su derecho codificado de regular el algoritmo que impulsa la droga de Instagram.
La FDA debería considerar los algoritmos como un medicamento que afecta la salud mental de nuestra nación: la Ley Federal de Alimentos, Medicamentos y Cosméticos otorga a la FDA el derecho de regular los medicamentos, definiendo los medicamentos en parte como «artículos (distintos de los alimentos) destinados a afectar la estructura o cualquier función del cuerpo del hombre o de otros animales». Los datos internos de Instagram muestran que su tecnología es un artículo que altera nuestros cerebros. Si este esfuerzo falla, el Congreso y el presidente Joe Biden deberían crear una FDA de salud mental.
El público debe comprender qué priorizan los algoritmos de Facebook e Instagram. Nuestro gobierno está equipado para estudiar ensayos clínicos de productos que pueden dañar físicamente al público. Los investigadores pueden estudiar qué privilegios de Facebook y el impacto que esas decisiones tienen en nuestras mentes. ¿Cómo sabemos esto? Porque Facebook ya lo está haciendo, solo están enterrando los resultados.
En noviembre de 2020, como informan Cecilia Kang y Sheera Frenkel en “An Ugly Truth”, Facebook hizo un cambio de emergencia en su News Feed, poniendo más énfasis en las puntuaciones de «News Ecosystem Quality» (NEQ). Las fuentes de alta NEQ eran fuentes confiables; bajas no eran dignas de confianza. Facebook alteró el algoritmo para privilegiar las altas puntuaciones de NEQ. Como resultado, durante cinco días alrededor de las elecciones, los usuarios vieron un «suministro de noticias más agradable» con menos noticias falsas y menos teorías de conspiración. Pero Mark Zuckerberg revirtió este cambio porque condujo a una menor participación y podría provocar una reacción conservadora. El público sufrió por ello.
Facebook también ha estudiado lo que sucede cuando el algoritmo privilegia el contenido que es «bueno para el mundo» sobre el contenido que es «malo para el mundo». He aquí, el compromiso disminuye. Facebook sabe que su algoritmo tiene un impacto notable en la mente del público estadounidense. ¿Cómo puede el gobierno permitir que un hombre decida el estándar basándose en sus imperativos comerciales, no en el bienestar general?
Upton Sinclair descubrió de manera memorable abusos peligrosos en «The Jungle», lo que provocó una protesta pública. El libre mercado falló. Los consumidores necesitaban protección.
La Ley de Alimentos y Medicamentos Puros de 1906 promulgó por primera vez estándares de seguridad que regulan los bienes consumibles que afectan nuestra salud física. Hoy, necesitamos regular los algoritmos que impactan nuestra salud mental. La depresión adolescente ha aumentado de manera alarmante desde 2007. De la misma manera, el suicidio entre los 10 y 24 años aumentó casi un 60% entre 2007 y 2018.
Por supuesto, es imposible demostrar que las redes sociales son las únicas responsables de este aumento, pero es absurdo argumentar que no ha contribuido. Las burbujas de filtro distorsionan nuestras vistas y las hacen más extremas. El acoso en línea es más fácil y constante. Los reguladores deben auditar el algoritmo y cuestionar las elecciones de Facebook.
Cuando se trata del mayor problema que plantea Facebook, lo que nos hace el producto, los reguladores han luchado por articular el problema. La Sección 230 es correcta en su intención y aplicación; Internet no puede funcionar si las plataformas son responsables de todas las declaraciones de los usuarios.
Y una empresa privada como Facebook pierde la confianza de su comunidad si aplica reglas arbitrarias que se dirigen a los usuarios en función de sus antecedentes o creencias políticas. Facebook como empresa no tiene el deber explícito de defender la Primera Enmienda, pero la percepción pública de su imparcialidad es esencial para la marca.
Por lo tanto, Zuckerberg se ha equivocado a lo largo de los años antes de prohibir tardíamente a los negadores del Holocausto, Donald Trump, activistas antivacunas y otros malos actores. Al decidir qué discurso es privilegiado o permitido en su plataforma, Facebook siempre será demasiado lento para reaccionar, demasiado cauteloso e ineficaz. Zuckerberg solo se preocupa por el compromiso y el crecimiento. Nuestros corazones y mentes están atrapados en la balanza.
Los críticos de la regulación de las redes sociales por parte de la FDA afirmarán que se trata de una invasión del Gran Hermano a nuestras libertades personales. Pero, ¿Cuál es la alternativa? ¿Por qué sería malo para nuestro gobierno exigir que Facebook cuente al público sus cálculos internos? ¿Es seguro que el número de sesiones, el tiempo dedicado y el crecimiento de los ingresos sean los únicos resultados que importan? ¿Qué pasa con la salud mental colectiva del país y del mundo?
Negarse a estudiar el problema no significa que no exista. En ausencia de acción, nos quedamos con un solo hombre que decide qué es lo correcto. ¿Cuál es el precio que pagamos por la «conexión»? Esto no depende de Zuckerberg. La FDA debería decidir.
Fuente: TechCrunch