{{cm.viewsLeft}} articlesremaining

GARM mira a cambiare la situazione.

Il passo successivo è l’inserimento delle piattaforme a bordo per consentire a una società di revisione indipendente di firmare i dati di transparency reporting forniti a GARM dalle piattaforme. Anche se questa storia originariamente riferito che solo Facebook si era impegnato a farlo, Facebook ha detto Digiday dopo che questa storia è stata pubblicata che ha accettato solo una componente di controllo della sicurezza del marchio che non include la segnalazione di trasparenza che fornisce a GARM. Nel frattempo, il resto delle piattaforme sono anche holdouts. Non vi è ancora alcuna indicazione che nessuna delle piattaforme che partecipano a GARM accetterà di consentire a terze parti il controllo delle informazioni che forniscono al brand safety transparency group.

Pubblicità

“Queste sono conversazioni in corso che il team di GARM Steer sta avendo con ciascuna delle piattaforme per assicurarsi che seguano il loro accreditamento in un modo sostenibile e appropriato”, ha affermato Rob Rakowitz, responsabile dell’iniziativa di GARM.

Ha detto che alcune piattaforme hanno meno risorse come persone o budget per soddisfare i requisiti di audit, ad esempio. “Sarebbe nell’interesse di tutti che ci sia una verifica di terze parti su questi numeri”, ha detto, aggiungendo che i membri di GARM si aspettano che gli audit indipendenti alla fine siano parte integrante del processo di reporting.

“Non saranno schivati”, ha detto Rakowitz dei potenziali audit.

Lo stato delle piattaforme che giocano a pallone

Pubblicità

Facebook ha dichiarato pubblicamente a luglio 2020 che consentirebbe all’organismo di verifica della misurazione del settore, Media Rating Council, di valutare la sua conformità con il framework di idoneità del marchio GARM, nella speranza di ottenere l’accreditamento per le linee guida di sicurezza del marchio MRC per Tuttavia, queste parole non hanno ancora portato a risultati tangibili. Mentre Facebook aveva accettato di un audit per le metriche di sicurezza del marchio legati con MRC a fine mese, e MRC prevede di incorporare gli standard di reporting trasparenza GARM prevede di rendere ufficiale in futuro come parte di tale audit alla fine, Facebook non si è impegnata a tale componente della revisione. Separatamente, Facebook sta progettando un audit indipendente dei suoi rapporti di applicazione dei contenuti e degli standard auto-pubblicati.

Separatamente, ma su traiettorie correlate, sia Facebook che YouTube stanno lavorando con MRC su audit relativi alla sicurezza del marchio che non sono specifici di GARM. Facebook è impostato per iniziare un audit MRC relativo alle metriche di sicurezza del marchio a giugno. E YouTube di proprietà di Google ha ricevuto l’accreditamento da MRC per i suoi processi di sicurezza del marchio che valutano i contenuti sulla piattaforma a livello di singolo video per gli annunci acquistati tramite il programma di prenotazione di YouTube o tramite la tecnologia pubblicitaria di Google. Ma deve ancora impegnarsi a un audit della trasparenza sulla sicurezza del marchio che riporta le forniture per GARM. L’anno scorso la piattaforma video ha iniziato a lavorare sull’aggiornamento dei processi di sicurezza del marchio per allinearsi agli standard GARM.

“YouTube rimane impegnata a collaborare con GARM per sostenere la sua missione di sviluppare un approccio a livello di settore verso la costruzione di un ecosistema digitale più sostenibile e sano per tutti. Siamo in discussione con il MRC per esplorare i nostri prossimi accreditamenti, ma non ci siamo impegnati a un audit indipendente delle nostre metriche in questo momento”, ha detto a Digiday un portavoce di YouTube.

C’è un po ‘ di burocrazia che aggiunge complessità e rallenta il processo. MRC non può condurre un audit per verificare i dati forniti dalle piattaforme per il report GARM fino a quando i requisiti di reporting di GARM non saranno finalizzati e quindi incorporati negli standard e negli audit di sicurezza del marchio di MRC. Questo deve ancora accadere, secondo il MRC.

Pubblicità

Al contrario, mentre GARM partecipante TikTok crede nella responsabilità e la missione di trasparenza, la società non è pronta a impegnarsi per un audit di terze parti. “Non abbiamo davvero una posizione su di esso ora”, ha dichiarato Dave Byrne, Global Head of brand safety and industry relations di TikTok, per quanto riguarda gli audit di terze parti dei dati sulla sicurezza del marchio che fornisce a GARM. Ma ha aggiunto che GARM offre alle piattaforme un forum ” per essere trasparenti in modo che gli inserzionisti possano ritenerli responsabili, ma non sembra mai un conflitto; sembra un ambiente di lavoro collaborativo.”

Convincere i partner della piattaforma ad accettare audit esterni è “naturalmente, un processo di gara”, ha affermato Luis Di Como, evp global media di Unilever, che è membro fondatore di GARM. Mentre ha detto che i membri di GARM advertiser richiedono una supervisione indipendente dei rapporti sulla sicurezza del marchio di prima parte delle piattaforme, Di Como ha riconosciuto: “Questo non può essere fatto durante la notte.”

Un segno di progresso

Nel complesso, il processo GARM mira a conciliare gli sforzi disparati delle piattaforme per moderare i contenuti e fornire misurazioni relative alla sicurezza del marchio. Ad esempio, il rapporto di misurazione aggregato di GARM traduce le categorie di violazione dei contenuti che le piattaforme utilizzano internamente o nel proprio report di trasparenza di marca in categorie standard. Ciò che Facebook ritiene” Incitamento all’odio “e” Bullismo e molestie “e Twitter chiama” Condotta odiosa “sono tutti etichettati da GARM come” Incitamento all’odio & atti di aggressione.”
In questa fase, Rakowitz e Di Como hanno sottolineato il valore delle nuove metriche concordate incluse nella relazione inaugurale del gruppo. Il nuovo Violative View Rate misura la percentuale di visualizzazioni che contengono contenuti considerati in violazione, mentre un altro nuovo standard utilizzato da YouTube per il report, il Tasso di errore di sicurezza pubblicitaria, misura la percentuale di impressioni totali su contenuti che violano le politiche di monetizzazione dei contenuti allineate con gli standard GARM.

Pubblicità

Il rapporto di GARM presenta una visione a livello macro di dati aggregati che mostrano ciò che sta accadendo in base alle misure di sicurezza del marchio su una piattaforma. Ma l’esistenza delle nuove metriche sembra già influenzare il modo in cui le piattaforme e gli altri riportano a livello di campagna. L’esistenza di quelle metriche standardizzate appena create-che GARM spera MRC alla fine verificherà per tutte le piattaforme — “sta sicuramente avendo un effetto a catena sulla segnalazione post — campagna”, ha detto Rakowitz. “Stiamo sentendo non solo le società di verifica dei contenuti, ma le piattaforme stesse che alcune di queste metriche saranno introdotte nel reporting delle campagne”, ha continuato.

Gli effetti a catena possono estendersi ulteriormente e andare oltre la pubblicità. In definitiva, poiché i regolatori e i legislatori raggruppano le grandi piattaforme tecnologiche e i loro presunti impatti dannosi sulla società e richiedono report trasparenti sull’incitamento all’odio e sulla disinformazione, gli standard GARM potrebbero aiutare le piattaforme ad allinearsi su come riportano tali informazioni anche ai governi, ha suggerito Rakowitz.

“Inserzionisti, CMOS e media lead non sono gli unici stakeholder”, ha affermato.

Questo articolo è stato aggiornato per riflettere che Facebook non si è impegnato a MRC condurre un audit della sua segnalazione sulla trasparenza della sicurezza del marchio per GARM. Una versione precedente di questa storia ha riferito che Facebook si era impegnato a tale audit, ma dopo la sua pubblicazione, un portavoce di Facebook ha detto a Digiday che ha accettato solo una componente di controllo della sicurezza del marchio che non include la segnalazione di trasparenza che fornisce a GARM.

Pubblicità

Leave a Reply