Novas receitas

Tentativas de ‘Dia sem Imigrante’ para acabar com as políticas anti-imigrantes

Tentativas de ‘Dia sem Imigrante’ para acabar com as políticas anti-imigrantes


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Se você planeja comer fora em D.C., a lista de restaurantes que fecharão é grande, e a lista de fechamentos continua crescendo. Escolas e outros negócios também passarão por uma jornada acidentada, visto que professores, funcionários e alunos ficarão em casa.

A menos que você tenha perdido a notícia nos últimos dois dias, restaurantes em Washington, DC, Austin, Filadélfia e outras cidades em todo o país serão fechados ou estarão administrando as coisas com equipes mínimas porque os imigrantes em restaurantes e outros setores estão fazendo greve como parte do o boicote nacional chamado “Dia sem Imigrantes”.

Este movimento popular é parte de uma campanha de mídia social criada para protestar contra a proibição de imigração do presidente Trump, sua promessa de construir um muro separando os EUA e o México e sua ordem executiva para aumentar a prisão e deportação de imigrantes ilegais.

O “Dia sem Imigrantes” está encorajando todos os imigrantes - não apenas os do ramo de restaurantes - a fechar seus negócios, ficar em casa sem trabalhar e estudar e evitar gastar dinheiro e, aparentemente, a onda de apoio transformou isso em um fenômeno nacional.

O objetivo da greve parece ser fornecer uma demonstração gráfica e inequívoca do papel vital que os imigrantes desempenham na economia, governo, cultura, sociedade e vida diária dos Estados Unidos. A economia americana é diversa e interdependente, e a indústria de restaurantes é um dos maiores setores da economia. Restaurantes e negócios, produtos e serviços relacionados empregam milhões de pessoas e são responsáveis ​​por bilhões em receitas.

De acordo com o U.S. Census Bureau, o Bureau of Labor Statistics e a National Restaurant Association, a população de imigração e a indústria de restaurantes estão ligadas. Há 14,4 milhões de pessoas, ou 10% da força de trabalho do país, empregadas na indústria de restaurantes. Espera-se que o setor crie 1,7 milhão de empregos na próxima década, com empregos estimados para chegar a 16,1 milhões até 2026. Em 2014, 21% dos supervisores / gerentes de primeira linha de preparação de alimentos e trabalhadores de serviços eram de origem hispânica. O número de empresas de restaurantes de propriedade hispânica saltou 51 por cento entre 2007 e 2012. Em 2016, as vendas projetadas da indústria de restaurantes foram de aproximadamente US $ 782,7 bilhões e iguais a 4 por cento do Produto Interno Bruto dos EUA.

Além disso, metade dos consumidores dos EUA afirma que os restaurantes são uma parte essencial de seu estilo de vida. Em 2015, havia 2.333 locais para comer e beber no Distrito de Columbia. Em 2016, os restaurantes eram responsáveis ​​por 61.600 empregos no distrito, ou 9 por cento dos empregos da cidade, e as vendas de restaurantes no distrito eram de aproximadamente US $ 3,6 bilhões.

Em Washington, D.C., as reações de chefs, funcionários e proprietários de restaurantes têm sido tão variadas quanto o cenário gastronômico da cidade, mas também ilustrou o quanto os restaurantes dependem de funcionários imigrantes e quantos restaurantes pertencem a imigrantes. Dezenas de chefs de DC e donos de restaurantes aderiram à causa “Dia sem Imigrantes” e estão fechando para mostrar sua solidariedade, mas alguns restaurantes não fecham por escolha, eles são forçados a fechar porque não podem funcionar sem seus funcionários imigrantes .

Um dos primeiros proprietários a anunciar que fecharia voluntariamente em apoio incluía um chef famoso José Andrés, que imigrou da Espanha. Em 14 de fevereiro de 2017, ele anunciou que fecharia Zaytinya, Oyamel, e ambos os locais de Jaleo em resposta às declarações de seus funcionários para participar do protesto. Como resultado, outros restaurantes aderiram e declararam que estavam fechando voluntariamente em solidariedade.

O que o anúncio de Andrés não deixou claro, no entanto, foi se todos os funcionários concordaram ou não com o protesto e fechamentos ou se os funcionários seriam pagos por suas folgas. Em vez disso, ele mencionou que quem quisesse trabalhar poderia trabalhar no China Chinlango, outro de seus restaurantes que permanecerá aberto.

A cidade e seus restaurantes nunca tiveram um protesto como esse antes e, nos últimos dois dias, a lista de fechamentos cresceu de um punhado de restaurantes participantes para dezenas. Mas isso levanta algumas preocupações sobre as pessoas que o protesto deve ajudar, porque um dia de salários perdidos pode ser desastroso para funcionários com baixos salários que não recebem folga. Também pode ser uma dificuldade financeira para um pequeno restaurante, geralmente de propriedade de um imigrante, que luta para sobreviver em uma cidade cara, com aluguéis altos e margens baixas. E o efeito cascata pode ser desastroso.

Muitos imigrantes e trabalhadores de restaurantes são financeiramente vulneráveis, e o público não tem ideia se o fechamento é apenas uma arrogância política às custas dos funcionários ou se os funcionários estão sendo pagos. De acordo com um artigo em Washington City Paper em 15 de fevereiro de 2017, e outra história em The Washington Post a partir de 14 de fevereiro de 2017, alguns proprietários decidiram fechar e pagar seus funcionários durante o fechamento.

Outros proprietários estarão abertos, mas com menus muito limitados e uma equipe reduzida, e alguns restaurantes estarão abertos e mostrarão seu apoio ao protesto, doando os lucros das vendas de quinta-feira para Ayuda, uma organização sem fins lucrativos local que apóia imigrantes de 104 países.

Alguns restaurantes já se apresentaram e disseram que serão fechados e pagarão a seus funcionários, como Bub & Pop's, Pizza Paradiso e Colin McDonough, que é dono da Boundary Stone em Bloomingdale. Ele está dando seu pessoal, com pagamento, e estará cuidando das coisas na cozinha e terá um cardápio e pessoal limitados.

John Andrade, dono da Meridian Pint, Smoke & Barrel e Brookland Pint, declarou na página do Facebook da Smoke & Barrel que “como empresário latino, sou solidário com todos os meus funcionários imigrantes. Portanto, fecharemos nossa cozinha nesta quinta-feira em apoio ao desejo e direito de nossa equipe de imigrantes de protestar contra o estado de evolução das políticas de imigração em nosso país. Nossos bares permanecerão abertos e nossos convidados são bem-vindos ao BYOF (traga sua própria comida). ”

Esperemos que este protesto não seja em vão e não custe muito em boa vontade, dinheiro e talento, porque não está claro como o protesto deve afetar as políticas de imigração. Até agora, nenhum grupo ou organização avançou para receber o crédito por ser o impulsionador do organizador e sem uma única voz para articular os objetivos e a mensagem do movimento, é difícil ver o que isso realiza. A resposta pública nas redes sociais tem sido significativa, mas parece que os políticos e legisladores que fazem a política de imigração não falam sobre o protesto e, até agora, o "Tweeter-chefe" não postou um tweet sobre #DayWithoutImmigrants.

Para ajudá-lo a decidir o que fazer, descobrir quem está aberto ou fechado, pesquisamos na internet para criar uma lista (está incompleta, mas é um começo) de lugares que anunciaram que estão fechados e quem está fechando, mas pagando seus funcionários. Considere enviar um tweet de apoio, comentar no Facebook, etc. usando a hashtag #DayWithoutImmigrants, e depois sair na sexta-feira para ajudar o maior número possível de restaurantes a recuperar as receitas perdidas.

Acqua al 2

Ari's Diner

Santo Mau

Azul 44

Pedra Limite

Brookland's Finest

Brookland Pint

Bub & Pop's

Busboys & Poets (todos os locais).

Daikaya

DC Empanadas

Denson Licor Bar

Dock FC

Ghibellina

Hank's Cocktail Bar

Hank's Oyster Bar (todas as localizações)

Hank's Pasta Bar

Harold Black

Himitsu

Molhes

La Puerta Verde

Peacock Cafe

Pizzeria Paradiso (locais em Georgetown e Old Town)

Pupatela

Rappahannock Oyster Bar

Smoke & Barrel

Sotto

Surfside

Sweetgreen (todos os 18 locais)

Thip Khao

Toki Underground

Toli Moli


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Grupos de ódio e analistas racistas espalham informações incorretas do COVID-19 nas mídias sociais, apesar das promessas das empresas e # 039 de combatê-las

Grupos de ódio e especialistas racistas espalharam desinformação sobre a pandemia COVID-19 nas principais plataformas de mídia social como Facebook, Twitter e YouTube durante a crise, apesar das empresas prometerem combater as notícias falsas sobre o vírus.

Entre algumas das falsas alegações propagadas nas redes sociais, inclui-se a noção - com base na ciência racial não comprovada - de que pessoas de ascendência do Leste Asiático estavam predispostas a sofrer de COVID-19, afirmações errôneas de que o vírus foi originalmente projetado para ser uma arma biológica e argumentos de apoio a ideia de que o racismo pode proteger contra pandemias globais.

Hatewatch optou por repetir algumas dessas postagens por completo para demonstrar a natureza do problema.

Este dilúvio de desinformação relacionada ao COVID-19 corta contra uma promessa feita pelo Facebook, YouTube e Twitter em fevereiro de 2020, quando representantes de algumas das maiores empresas de tecnologia do mundo se reuniram com membros da Organização Mundial da Saúde (OMS) para discutir a adulteração da disseminação de informações falsas relacionadas ao vírus. O grupo foi reunido, em parte, em resposta ao que um representante da OMS apelidou de “infodêmico” em entrevista à CNBC - a nova onda de informações falsas nas principais plataformas de mídia social.

Grupos como o Change the Terms, uma coalizão de organizações de direitos civis, incluindo o Southern Poverty Law Center, têm feito pressão para preencher essa lacuna. A alteração dos termos defende que as empresas de mídia social adotem um padrão razoável de cuidado com relação à regulamentação, que visa restringir a atividade de ódio sem sufocar as comunidades de forma arbitrária. Mas ainda há trabalho a ser feito. As empresas, conforme constatou o relatório “Year in Hate” de 2019, ainda lutam “para priorizar a segurança pública sobre a liberdade de seus usuários de postar conteúdo extremista”. A moderação de grupos de ódio em todas as plataformas também costuma ser inconsistente. Alguns grupos, como a publicação nacionalista branca American Renaissance, foram banidos do Twitter e do Facebook por incitação ao ódio durante anos, mas mesmo assim continuaram a operar no YouTube.

Como Hatewatch descobriu em uma pesquisa de vários grupos de ódio rastreados pelo Projeto de Inteligência do SPLC em três grandes plataformas de mídia social - YouTube, Facebook e Twitter - o racismo e a desinformação continuam a apodrecer. Além de espalhar memes racistas e notícias falsas sobre asiático-americanos e outros grupos minoritários, grupos de ódio usaram todas as três plataformas para impulsionar uma série de teorias da conspiração, curas falsas (incluindo uma que resultou em uma morte no Arizona) e anti-imigrantes retórica.

Ao considerar a ameaça do mundo real representada pela incapacidade das empresas de mídia social de aplicar suas próprias diretrizes sobre desinformação e notícias falsas, Chloe Colliver, chefe de política e estratégia digital da ISD, disse a Hatewatch que “três riscos principais vieram à mente”. Isso incluía os riscos representados não apenas para a saúde pública pela proliferação de curas falsas, mas também para as instituições, como resultado da preponderância de teorias da conspiração. Ela também citou o perigo de “ataques ao alvo” contra grupos minoritários e outros.

“Nenhum dos quais é novo”, acrescentou ela. “Eles se encaixam nos padrões de incapacidade das plataformas de lidar com [esses] tipos específicos de conteúdo de ataque e desinformação.”

A maioria, senão todos, os grupos que divulgam esse conteúdo receberam permissão para fazê-lo de acordo com as políticas de mídia social existentes.

“Obviamente, a reticência histórica dessas empresas em promover informações baseadas em evidências ou de especialistas acima de outros tipos de informação voltou a incomodá-las agora, como vimos”, continuou Colliver. “As próprias plataformas reconheceram que suas políticas não são adequadas em uma crise como esta.”


Hate Groups and Racist Pundits Spew COVID-19 Misinformation on Social Media Despite Companies' Pledges to Combat It

Hate groups and racist pundits have pushed misinformation about the COVID-19 pandemic on mainstream social media platforms such as Facebook, Twitter and YouTube throughout the crisis, despite companies pledging to fight fake news about the virus.

Among some of the false claims propagated on social media include the notion – based on unproven race science – that persons of East Asian descent were predisposed to suffer from COVID-19, erroneous assertions that the virus was originally designed to be a bioweapon and arguments supporting the idea that racism can protect against global pandemics.

Hatewatch has chosen to repeat some of these posts in full to demonstrate the nature of the problem.

This deluge of COVID-19-related misinformation cuts against a pledge made by Facebook, YouTube and Twitter in February 2020, when representatives from some of the world’s largest tech companies convened with members of the World Health Organization (WHO) to discuss tampering the spread of false information related to the virus. The group was gathered, in part, in response to what a representative from the WHO dubbed an “infodemic” in an interview with CNBC – the new wave of false information on major social media platforms.

Groups such as Change the Terms, a coalition of civil rights organizations including the Southern Poverty Law Center, have pushed to bridge this gap. Change the Terms advocates for social media companies to adopt a reasonable standard of care regarding regulation, which aims to constrain hate activity without stifling communities arbitrarily. But there is work yet to be done. Companies, as the 2019 “Year in Hate” report found, still struggle “to prioritize public safety over the freedom of their users to post extremist content.” The moderation of hate groups across all platforms is often inconsistent as well. Some groups, such as white nationalist publication American Renaissance, have been banned from Twitter and Facebook for hate speech for years, but have nevertheless continued to operate on YouTube.

As Hatewatch found in a survey of numerous hate groups tracked by the SPLC’s Intelligence Project across three major social media platforms – YouTube, Facebook and Twitter – racism and disinformation has continued to fester. In addition to spreading racist memes and fake news about Asian Americans and other minority groups, hate groups have used all three platforms to boost a slew of conspiracy theories, fake cures (including one that has resulted in a death in Arizona) and anti-immigrant rhetoric.

When considering the real-world threat posed by social media companies’ inability to enforce their own guidelines on misinformation and fake news, Chloe Colliver, the head of digital policy and strategy at ISD, told Hatewatch that “three main risks came to mind.” These included the risks posed not only to public health by the proliferation of fake cures, but also to institutions as a result of a preponderance of conspiracy theories. She also cited the danger of “target attacks” against minority groups and others.

“None of which are new,” she added. “They fit the patterns of platforms’ inability to deal with [these] specific kinds of attack and disinformation content.”

Most, if not all, of the groups spreading this content have been given a pass to do so under existing social media policies.

“Obviously, the historical reticence of these companies to promote evidence-based or expert information above other kinds of information has come back to bite [them] now, as we’ve seen,” Colliver continued. “The platforms themselves acknowledged that their policies aren’t up to scratch in a crisis like this.”


Hate Groups and Racist Pundits Spew COVID-19 Misinformation on Social Media Despite Companies' Pledges to Combat It

Hate groups and racist pundits have pushed misinformation about the COVID-19 pandemic on mainstream social media platforms such as Facebook, Twitter and YouTube throughout the crisis, despite companies pledging to fight fake news about the virus.

Among some of the false claims propagated on social media include the notion – based on unproven race science – that persons of East Asian descent were predisposed to suffer from COVID-19, erroneous assertions that the virus was originally designed to be a bioweapon and arguments supporting the idea that racism can protect against global pandemics.

Hatewatch has chosen to repeat some of these posts in full to demonstrate the nature of the problem.

This deluge of COVID-19-related misinformation cuts against a pledge made by Facebook, YouTube and Twitter in February 2020, when representatives from some of the world’s largest tech companies convened with members of the World Health Organization (WHO) to discuss tampering the spread of false information related to the virus. The group was gathered, in part, in response to what a representative from the WHO dubbed an “infodemic” in an interview with CNBC – the new wave of false information on major social media platforms.

Groups such as Change the Terms, a coalition of civil rights organizations including the Southern Poverty Law Center, have pushed to bridge this gap. Change the Terms advocates for social media companies to adopt a reasonable standard of care regarding regulation, which aims to constrain hate activity without stifling communities arbitrarily. But there is work yet to be done. Companies, as the 2019 “Year in Hate” report found, still struggle “to prioritize public safety over the freedom of their users to post extremist content.” The moderation of hate groups across all platforms is often inconsistent as well. Some groups, such as white nationalist publication American Renaissance, have been banned from Twitter and Facebook for hate speech for years, but have nevertheless continued to operate on YouTube.

As Hatewatch found in a survey of numerous hate groups tracked by the SPLC’s Intelligence Project across three major social media platforms – YouTube, Facebook and Twitter – racism and disinformation has continued to fester. In addition to spreading racist memes and fake news about Asian Americans and other minority groups, hate groups have used all three platforms to boost a slew of conspiracy theories, fake cures (including one that has resulted in a death in Arizona) and anti-immigrant rhetoric.

When considering the real-world threat posed by social media companies’ inability to enforce their own guidelines on misinformation and fake news, Chloe Colliver, the head of digital policy and strategy at ISD, told Hatewatch that “three main risks came to mind.” These included the risks posed not only to public health by the proliferation of fake cures, but also to institutions as a result of a preponderance of conspiracy theories. She also cited the danger of “target attacks” against minority groups and others.

“None of which are new,” she added. “They fit the patterns of platforms’ inability to deal with [these] specific kinds of attack and disinformation content.”

Most, if not all, of the groups spreading this content have been given a pass to do so under existing social media policies.

“Obviously, the historical reticence of these companies to promote evidence-based or expert information above other kinds of information has come back to bite [them] now, as we’ve seen,” Colliver continued. “The platforms themselves acknowledged that their policies aren’t up to scratch in a crisis like this.”


Hate Groups and Racist Pundits Spew COVID-19 Misinformation on Social Media Despite Companies' Pledges to Combat It

Hate groups and racist pundits have pushed misinformation about the COVID-19 pandemic on mainstream social media platforms such as Facebook, Twitter and YouTube throughout the crisis, despite companies pledging to fight fake news about the virus.

Among some of the false claims propagated on social media include the notion – based on unproven race science – that persons of East Asian descent were predisposed to suffer from COVID-19, erroneous assertions that the virus was originally designed to be a bioweapon and arguments supporting the idea that racism can protect against global pandemics.

Hatewatch has chosen to repeat some of these posts in full to demonstrate the nature of the problem.

This deluge of COVID-19-related misinformation cuts against a pledge made by Facebook, YouTube and Twitter in February 2020, when representatives from some of the world’s largest tech companies convened with members of the World Health Organization (WHO) to discuss tampering the spread of false information related to the virus. The group was gathered, in part, in response to what a representative from the WHO dubbed an “infodemic” in an interview with CNBC – the new wave of false information on major social media platforms.

Groups such as Change the Terms, a coalition of civil rights organizations including the Southern Poverty Law Center, have pushed to bridge this gap. Change the Terms advocates for social media companies to adopt a reasonable standard of care regarding regulation, which aims to constrain hate activity without stifling communities arbitrarily. But there is work yet to be done. Companies, as the 2019 “Year in Hate” report found, still struggle “to prioritize public safety over the freedom of their users to post extremist content.” The moderation of hate groups across all platforms is often inconsistent as well. Some groups, such as white nationalist publication American Renaissance, have been banned from Twitter and Facebook for hate speech for years, but have nevertheless continued to operate on YouTube.

As Hatewatch found in a survey of numerous hate groups tracked by the SPLC’s Intelligence Project across three major social media platforms – YouTube, Facebook and Twitter – racism and disinformation has continued to fester. In addition to spreading racist memes and fake news about Asian Americans and other minority groups, hate groups have used all three platforms to boost a slew of conspiracy theories, fake cures (including one that has resulted in a death in Arizona) and anti-immigrant rhetoric.

When considering the real-world threat posed by social media companies’ inability to enforce their own guidelines on misinformation and fake news, Chloe Colliver, the head of digital policy and strategy at ISD, told Hatewatch that “three main risks came to mind.” These included the risks posed not only to public health by the proliferation of fake cures, but also to institutions as a result of a preponderance of conspiracy theories. She also cited the danger of “target attacks” against minority groups and others.

“None of which are new,” she added. “They fit the patterns of platforms’ inability to deal with [these] specific kinds of attack and disinformation content.”

Most, if not all, of the groups spreading this content have been given a pass to do so under existing social media policies.

“Obviously, the historical reticence of these companies to promote evidence-based or expert information above other kinds of information has come back to bite [them] now, as we’ve seen,” Colliver continued. “The platforms themselves acknowledged that their policies aren’t up to scratch in a crisis like this.”


Hate Groups and Racist Pundits Spew COVID-19 Misinformation on Social Media Despite Companies' Pledges to Combat It

Hate groups and racist pundits have pushed misinformation about the COVID-19 pandemic on mainstream social media platforms such as Facebook, Twitter and YouTube throughout the crisis, despite companies pledging to fight fake news about the virus.

Among some of the false claims propagated on social media include the notion – based on unproven race science – that persons of East Asian descent were predisposed to suffer from COVID-19, erroneous assertions that the virus was originally designed to be a bioweapon and arguments supporting the idea that racism can protect against global pandemics.

Hatewatch has chosen to repeat some of these posts in full to demonstrate the nature of the problem.

This deluge of COVID-19-related misinformation cuts against a pledge made by Facebook, YouTube and Twitter in February 2020, when representatives from some of the world’s largest tech companies convened with members of the World Health Organization (WHO) to discuss tampering the spread of false information related to the virus. The group was gathered, in part, in response to what a representative from the WHO dubbed an “infodemic” in an interview with CNBC – the new wave of false information on major social media platforms.

Groups such as Change the Terms, a coalition of civil rights organizations including the Southern Poverty Law Center, have pushed to bridge this gap. Change the Terms advocates for social media companies to adopt a reasonable standard of care regarding regulation, which aims to constrain hate activity without stifling communities arbitrarily. But there is work yet to be done. Companies, as the 2019 “Year in Hate” report found, still struggle “to prioritize public safety over the freedom of their users to post extremist content.” The moderation of hate groups across all platforms is often inconsistent as well. Some groups, such as white nationalist publication American Renaissance, have been banned from Twitter and Facebook for hate speech for years, but have nevertheless continued to operate on YouTube.

As Hatewatch found in a survey of numerous hate groups tracked by the SPLC’s Intelligence Project across three major social media platforms – YouTube, Facebook and Twitter – racism and disinformation has continued to fester. In addition to spreading racist memes and fake news about Asian Americans and other minority groups, hate groups have used all three platforms to boost a slew of conspiracy theories, fake cures (including one that has resulted in a death in Arizona) and anti-immigrant rhetoric.

When considering the real-world threat posed by social media companies’ inability to enforce their own guidelines on misinformation and fake news, Chloe Colliver, the head of digital policy and strategy at ISD, told Hatewatch that “three main risks came to mind.” These included the risks posed not only to public health by the proliferation of fake cures, but also to institutions as a result of a preponderance of conspiracy theories. She also cited the danger of “target attacks” against minority groups and others.

“None of which are new,” she added. “They fit the patterns of platforms’ inability to deal with [these] specific kinds of attack and disinformation content.”

Most, if not all, of the groups spreading this content have been given a pass to do so under existing social media policies.

“Obviously, the historical reticence of these companies to promote evidence-based or expert information above other kinds of information has come back to bite [them] now, as we’ve seen,” Colliver continued. “The platforms themselves acknowledged that their policies aren’t up to scratch in a crisis like this.”


Assista o vídeo: The Politics of Immigration in Europe (Outubro 2022).