Logo-Web-SEOLucentum

Blog

Empresas, usuarios y expertos defienden a las grandes tecnológicas de las demandas por algoritmos


El jueves, un grupo diverso de personas y organizaciones defendieron el escudo de responsabilidad de Big Tech en un caso crucial de la Corte Suprema con respecto a los algoritmos de YouTube. Este grupo incluía empresas, usuarios de Internet, académicos y expertos en derechos humanos, y algunos argumentaron que eliminar las protecciones legales federales para los motores de recomendación impulsados ​​por IA tendría un gran impacto en la Internet abierta.

Entre los que opinaron en la Corte se encontraban las principales empresas tecnológicas como Meta, Twitter y Microsoft, así como algunos de los críticos más vocales de Big Tech, incluidos Yelp y Electronic Frontier Foundation. Además, Reddit y un grupo de moderadores voluntarios de Reddit también participaron en el caso.

Qué pasó. La controversia comenzó con el caso de la Corte Suprema González contra Google y se centra en la cuestión de si se puede responsabilizar a Google por recomendar contenido pro-ISIS a los usuarios a través de su algoritmo de YouTube.

Google ha afirmado que la Sección 230 de la Ley de Decencia en las Comunicaciones los protege de tales litigios. Sin embargo, los demandantes en el caso, los familiares de una víctima asesinada en un ataque de ISIS en París en 2015, argumentan que el algoritmo de recomendación de YouTube puede ser considerado responsable en virtud de una ley antiterrorista de EE. UU.

La presentación decía:

“Toda la plataforma Reddit se basa en que los usuarios ‘recomienden’ contenido para el beneficio de otros mediante acciones como votar a favor y fijar contenido. No debe haber dudas sobre las consecuencias del reclamo de los peticionarios en este caso: su teoría expandiría dramáticamente el potencial de los usuarios de Internet para ser demandados por sus interacciones en línea”.

Yelp interviene. Yelp, una empresa con un historial de conflicto con Google, ha argumentado que su modelo de negocio se basa en proporcionar reseñas precisas y no fraudulentas a sus usuarios. También han declarado que un fallo que responsabiliza a los algoritmos de recomendación podría afectar gravemente las operaciones de Yelp al obligarlos a dejar de clasificar las reseñas, incluidas las que son falsas o manipuladoras.

Yelp escribió;

“Si Yelp no pudiera analizar y recomendar reseñas sin enfrentar responsabilidades, los costos de enviar reseñas fraudulentas desaparecerían. Si Yelp tuviera que mostrar cada reseña enviada… los dueños de negocios podrían enviar cientos de reseñas positivas para su propio negocio con poco esfuerzo o riesgo de penalización”.

La participación de Meta. La matriz de Facebook, Meta, ha declarado en su presentación legal que si la Corte Suprema cambiara la interpretación de la Sección 230 para proteger la capacidad de las plataformas para eliminar contenido pero no para recomendar contenido, surgirían preguntas importantes sobre el significado de recomendar algo en línea.

Los representantes de Meta declararon:

“Si simplemente mostrar contenido de terceros en el feed de un usuario califica como ‘recomendarlo’, entonces muchos servicios enfrentarán una posible responsabilidad por prácticamente todo el contenido de terceros que alojan, porque casi todas las decisiones sobre cómo clasificar, elegir, organizar, y mostrar contenido de terceros podría interpretarse como ‘recomendar’ ese contenido”.

Intervienen los defensores de los derechos humanos. El Stern Center for Business and Human Rights de la Universidad de Nueva York ha declarado que sería extremadamente difícil crear una regla que apunte específicamente a las recomendaciones algorítmicas de responsabilidad, y que podría conducir a la supresión o pérdida de una cantidad significativa de discurso valioso, en particular el discurso de grupos marginados o minoritarios.

Por qué nos importa. El resultado de este caso podría tener implicaciones significativas para la forma en que operan las empresas tecnológicas. Si el tribunal dictaminara que las empresas pueden ser consideradas responsables por el contenido que recomiendan sus algoritmos, podría cambiar la forma en que las empresas diseñan y operan sus sistemas de recomendación.

Esto podría conducir a una curación de contenido más cuidadosa y a una reducción en la cantidad de contenido que se recomienda a los usuarios. Además, también podría generar mayores costos legales e incertidumbre para estas empresas.


Sobre el Autor

nicole farley

Nicole Farley es una editora de Search Engine Land que cubre todo lo relacionado con PPC. Además de ser una veterana del Cuerpo de Marines, tiene una amplia experiencia en marketing digital, un MBA y una afición por los crímenes reales, los podcasts, los viajes y los refrigerios.



Source link

SOBRE SEOLUcentum

Somos una Empresa Española Dedicada al Marketing Digital y el Desarrollo Web.

¿Necesitas Aumentar las Visitas de tu Web?

Podemos ayudarte con las mejores estrategias de Marketing Digital

CONTACTO

Contáctanos

    VAMOS A HABLAR

    ¡Danos un toque!

    Contáctanos para aclarar cualquier duda o ampliar información, sin ningún tipo de compromiso.

    Avda. Pintor Xavier 5, Alicante

    @SEOLucentum

    info@SEOLucentum.com