{{cm.viewsLeft}} articlesremaining

GARM visa mudar isso.

o próximo passo é colocar as plataformas a bordo para permitir que uma empresa de auditoria independente assine os dados de relatórios de transparência fornecidos à GARM pelas plataformas. Embora esta história tenha relatado originalmente que apenas o Facebook se comprometeu a fazê-lo, o Facebook disse à Digiday depois que esta história foi publicada que só concordou com um componente da auditoria de segurança da marca que não inclui a transparência que ela fornece à GARM. Enquanto isso, o resto das plataformas também são holdouts. Ainda não há indicação de que qualquer uma das plataformas participantes da GARM concordará em permitir a auditoria de terceiros das informações que fornecem ao grupo de transparência de segurança da marca.

anúncio

“estas são conversas contínuas que a equipe GARM Steer está tendo com cada uma das plataformas para garantir que elas sigam com seu credenciamento de uma forma sustentável e apropriada”, disse Rob Rakowitz, líder da iniciativa na GARM.

ele disse que algumas plataformas têm menos recursos, como pessoas ou orçamento para cumprir os requisitos de auditoria, por exemplo. “Seria do interesse de todos que haja uma verificação de terceiros sobre esses números”, disse ele, acrescentando que os membros do GARM esperam que as auditorias independentes eventualmente sejam parte integrante do processo de relatório.

“eles não serão esquivados”, disse Rakowitz sobre as potenciais auditorias.

O estado de plataformas de jogar bola

Propaganda

Facebook declarou publicamente, em julho de 2020 permitiria que a indústria de ir -, para verificação de medição corpo, Media Rating Council, para avaliar a sua conformidade com GARM marca da adequação do quadro, na esperança de conquistar a acreditação para o tipo de MRC orientações de segurança para a geração de receita de conteúdo. No entanto, essas palavras ainda não resultaram em resultados tangíveis. Embora o Facebook tenha concordado com uma auditoria para métricas relacionadas à segurança da marca com o MRC no final deste mês, e o MRC planejou incorporar os padrões de relatórios de transparência que a GARM planeja oficializar no futuro como parte dessa auditoria, eventualmente, o Facebook não se comprometeu com esse componente da auditoria. Separadamente, o Facebook está planejando uma auditoria independente de seus relatórios de aplicação de Conteúdo e padrões auto-publicados.

separadamente, mas em trajetórias relacionadas, o Facebook e o YouTube estão trabalhando com o MRC em auditorias relacionadas à segurança da marca que não são específicas do GARM. O Facebook deve iniciar uma auditoria do MRC relacionada às métricas de segurança da marca em junho. E o YouTube, de propriedade do Google, recebeu credenciamento da MRC por seus processos de segurança da marca que avaliam o conteúdo na plataforma em nível de vídeo individual para anúncios comprados por meio do Programa de reservas do YouTube ou por meio da tecnologia de anúncios do Google. Mas ainda não se comprometeu com uma auditoria da transparência de segurança da marca que a GARM fornece. No ano passado, a plataforma de vídeo começou a trabalhar na atualização de seus processos de segurança da marca para se alinhar aos padrões da GARM.”O YouTube continua comprometido com a parceria com a GARM para apoiar sua missão de desenvolver uma abordagem em todo o setor para a construção de um ecossistema digital mais sustentável e saudável para todos. Estamos em discussões com o MRC para explorar nossas próximas acreditações, mas não nos comprometemos com uma auditoria independente de nossas métricas neste momento”, disse Um porta-voz do Youtube à Digiday.Há um pouco de burocracia adicionando complexidade e retardando o processo. A MRC não pode realizar uma auditoria para verificar os dados fornecidos pelas plataformas para o relatório GARM até que os requisitos de relatório da GARM sejam finalizados e, em seguida, incorporados aos padrões e auditorias de segurança da marca da MRC. Isso ainda não aconteceu, de acordo com o MRC.

anúncio

por outro lado, enquanto o participante do GARM TikTok acredita na missão de responsabilidade e transparência, a empresa não está pronta para se comprometer com uma auditoria de terceiros. “Nós realmente não temos uma posição sobre isso agora”, disse Dave Byrne, chefe global de segurança da marca e relações com o setor da TikTok, em relação a auditorias de terceiros dos dados de segurança da marca que fornece à GARM. Mas ele acrescentou que o GARM dá às plataformas um fórum ” para serem transparentes de uma forma que os anunciantes possam responsabilizá-los, mas nunca parece um conflito; parece um ambiente de trabalho colaborativo.”Convencer os parceiros da plataforma a concordar com auditorias externas é “claro, um processo de licitação”, disse Luis Di Como, EVP global media da Unilever, que é membro fundador da GARM. Embora ele tenha dito que os membros do GARM advertiser exigem supervisão independente dos relatórios de segurança da marca de primeira parte das plataformas, di Como reconheceu: “isso não pode ser feito da noite para o dia.”

um sinal de progresso

no geral, o processo GARM Visa conciliar os esforços díspares das plataformas para moderar o conteúdo e fornecer medições relacionadas à segurança da marca. Por exemplo, O Relatório de medição agregada da GARM traduz as categorias de violação de conteúdo que as plataformas usam internamente ou em seus próprios relatórios de transparência de marca em categorias padrão. O que o Facebook considera “Discurso de ódio” e “Bullying e assédio” e o Twitter chama de “Conduta odiosa” são todos rotulados por GARM como “discurso de ódio & atos de agressão.”
nesta fase, Rakowitz e Di Como enfatizaram o valor das métricas recém-acordadas incluídas no relatório inaugural do grupo. A nova taxa de visualização Violativa mede a porcentagem de visualizações que contêm conteúdo considerado em violação, enquanto outro novo padrão usado pelo YouTube para o relatório, a taxa de erro de segurança de publicidade, mede a porcentagem do total de impressões sobre o conteúdo que viola as Políticas de monetização de conteúdo alinhadas com os padrões GARM.

Advertisement

o relatório da GARM apresenta uma visão de nível macro de dados agregados mostrando o que está acontecendo de acordo com as medidas de segurança da marca em uma plataforma. Mas a existência das novas métricas já parece estar influenciando a forma como as plataformas e outros relatam no nível da campanha. A existência dessas métricas padronizadas recém-criadas — que GARM espera que o MRC eventualmente verifique para todas as plataformas-” está definitivamente tendo um efeito decisivo nos relatórios pós-campanha”, disse Rakowitz. “Estamos ouvindo não apenas as empresas de verificação de conteúdo, mas as próprias plataformas que algumas dessas métricas serão introduzidas nos relatórios de campanha”, continuou ele.

os efeitos knock-on podem se estender ainda mais e ir além da publicidade. Em última análise, à medida que reguladores e legisladores agrupam grandes plataformas de tecnologia e seus supostos impactos sociais prejudiciais e exigem relatórios transparentes sobre discurso de ódio e desinformação, os padrões GARM poderiam ajudar as plataformas a se alinharem em como relatam essas informações aos governos, também, sugeriu Rakowitz. “Anunciantes, CMOs e leads de mídia não são os únicos interessados”, disse ele.

este artigo foi atualizado para refletir que o Facebook não se comprometeu com o MRC realizando uma auditoria de seus relatórios de transparência de segurança da marca para o GARM. Uma versão anterior desta história informou que o Facebook havia se comprometido com tal auditoria, mas após sua publicação, um porta-voz do Facebook disse à Digiday que só concordou com um componente da auditoria de segurança da marca que não inclui a transparência que ela fornece à GARM.

anúncio

Leave a Reply