{{cm.viewsLeft}} articlesremaining
GARM will das ändern.
Der nächste Schritt besteht darin, die Plattformen an Bord zu holen, damit eine unabhängige Wirtschaftsprüfungsgesellschaft die von den Plattformen an GARM gelieferten Transparenzberichtsdaten unterzeichnen kann. Obwohl Facebook ursprünglich nur dazu verpflichtet hatte, teilte Facebook Digiday nach der Veröffentlichung dieser Geschichte mit, dass es nur einer Komponente der Markensicherheitsprüfung zugestimmt habe, die nicht die Transparenzberichterstattung an GARM umfasst. Inzwischen sind auch die übrigen Plattformen Holdouts. Es gibt noch keine Hinweise darauf, dass eine der an GARM teilnehmenden Plattformen einer Prüfung der Informationen, die sie der Brand Safety Transparency Group zur Verfügung stellen, durch Dritte zustimmen wird.
Werbung
“Dies sind laufende Gespräche, die das GARM Steer-Team mit jeder der Plattformen führt, um sicherzustellen, dass sie ihre Akkreditierung auf nachhaltige und angemessene Weise durchführen”, sagte Rob Rakowitz, Initiativleiter bei GARM.
Er sagte, dass einige Plattformen weniger Ressourcen wie Mitarbeiter oder Budget haben, um beispielsweise Prüfungsanforderungen zu erfüllen. “Es wäre im besten Interesse aller, dass diese Zahlen von Dritten überprüft werden”, sagte er und fügte hinzu, dass GARM-Mitglieder erwarten, dass unabhängige Audits schließlich ein integraler Bestandteil des Berichtsprozesses sind.
“Ihnen wird nicht ausgewichen”, sagte Rakowitz über die möglichen Prüfungen.
The state of platforms playing ball
Advertisement
Facebook gab im Juli 2020 öffentlich bekannt, dass es der branchenweit führenden Stelle für die Überprüfung von Messungen, dem Media Rating Council, ermöglichen würde, die Einhaltung des Brand Suitability Framework von GARM zu bewerten, in der Hoffnung, eine Akkreditierung für die MRC Brand Safety Guidelines für monetarisierte Inhalte zu erhalten. Diese Worte haben jedoch noch keine greifbaren Ergebnisse gebracht. Während Facebook noch in diesem Monat mit Facebook ein Audit für markensicherheitsbezogene Metriken vereinbart hatte und MRC vorhatte, Transparenzberichterstattungsstandards zu integrieren, die GARM in Zukunft im Rahmen dieses Audits offiziell machen will, hat sich Facebook nicht zu dieser Komponente des Audits verpflichtet. Unabhängig davon plant Facebook eine unabhängige Prüfung seiner selbst veröffentlichten Berichte zur Durchsetzung von Inhalten und Standards.
Getrennt, aber auf verwandten Trajektorien, arbeiten sowohl Facebook als auch YouTube mit MRC an markensicherheitsbezogenen Audits, die nicht GARM-spezifisch sind. Facebook wird im Juni ein MRC-Audit in Bezug auf Markensicherheitsmetriken einleiten. Und das Google-eigene YouTube hat von MRC eine Akkreditierung für seine Markensicherheitsprozesse erhalten, die Inhalte auf der Plattform auf individueller Videoebene für Anzeigen bewerten, die über das Reservierungsprogramm von YouTube oder über die Anzeigentechnologie von Google gekauft wurden. Aber es hat sich noch zu einer Prüfung der Markensicherheitstransparenzberichte verpflichtet, die es für GARM liefert. Im vergangenen Jahr begann die Videoplattform mit der Aktualisierung ihrer Brand Safety-Prozesse, um sie an die Standards von GARM anzupassen.
“YouTube ist weiterhin bestrebt, mit GARM zusammenzuarbeiten, um seine Mission zu unterstützen, einen branchenweiten Ansatz für den Aufbau eines nachhaltigeren und gesünderen digitalen Ökosystems für alle zu entwickeln. Wir sind in Gesprächen mit dem MRC, um unsere nächsten Akkreditierungen zu prüfen, haben uns jedoch zu diesem Zeitpunkt nicht zu einer unabhängigen Prüfung unserer Metriken verpflichtet “, sagte ein YouTube-Sprecher gegenüber Digiday.
Es gibt ein bisschen Bürokratie, die die Komplexität erhöht und den Prozess verlangsamt. MRC kann keine Prüfung durchführen, um die von Plattformen für den GARM-Bericht bereitgestellten Daten zu überprüfen, bis die Berichtspflichten von GARM abgeschlossen und dann in die Markensicherheitsstandards und -audits von MRC aufgenommen wurden. Das muss laut MRC noch passieren.
Werbung
Im Gegensatz dazu glaubt GARM-Teilnehmer TikTok an die Mission Rechenschaftspflicht und Transparenz, Das Unternehmen ist jedoch nicht bereit, sich zu einem Audit durch Dritte zu verpflichten. “Wir haben jetzt nicht wirklich eine Haltung dazu”, sagte Dave Byrne, Global Head of Brand Safety and Industry Relations bei TikTok, in Bezug auf Audits der Markensicherheitsdaten durch Dritte, die GARM zur Verfügung gestellt werden. Aber er fügte hinzu, dass GARM Plattformen ein Forum gibt, “um transparent zu sein, so dass Werbetreibende sie zur Rechenschaft ziehen können, aber es fühlt sich nie wie ein Konflikt an; Es fühlt sich an wie eine kollaborative Arbeitsumgebung.”
Plattformpartner davon zu überzeugen, externen Audits zuzustimmen, ist “natürlich ein Ausschreibungsverfahren”, sagte Luis Di Como, evp Global Media bei Unilever, einem Gründungsmitglied von GARM. Während er sagte, dass GARM Advertiser-Mitglieder eine unabhängige Aufsicht über die Berichterstattung über die Markensicherheit von First-Party-Plattformen fordern, räumte Di Como ein: “Dies kann nicht über Nacht geschehen.”
Ein Zeichen des Fortschritts
Insgesamt zielt der GARM-Prozess darauf ab, die unterschiedlichen Bemühungen der Plattformen, Inhalte zu moderieren und markensicherheitsbezogene Messungen durchzuführen, in Einklang zu bringen. Der aggregierte Messbericht von GARM übersetzt beispielsweise die Kategorien von Inhaltsverletzungen, die die Plattformen intern oder in ihren eigenen Transparenzberichten verwenden, in Standardkategorien. Was Facebook als “Hassrede” und “Mobbing und Belästigung” bezeichnet und Twitter als “hasserfülltes Verhalten” bezeichnet, wird von GARM als “Hassrede & Aggressionsakte” bezeichnet.”
Zu diesem Zeitpunkt betonten Rakowitz und Di Como beide den Wert der neu vereinbarten Kennzahlen, die im Eröffnungsbericht der Gruppe enthalten sind. Die neue Violative View Rate misst den Prozentsatz der Aufrufe, die Inhalte enthalten, die als Verstoß angesehen werden, während ein anderer neuer Standard, der von YouTube für den Bericht verwendet wird, die Advertising Safety Error Rate, den Prozentsatz der gesamten Impressionen auf Inhalte misst, die gegen die Monetarisierungsrichtlinien für Inhalte verstoßen, die mit den GARM-Standards übereinstimmen.
Werbung
Der GARM-Bericht bietet eine Makroebene aggregierter Daten, die zeigen, was gemäß den Markensicherheitsmaßnahmen auf einer Plattform geschieht. Aber die Existenz der neuen Metriken scheint bereits zu beeinflussen, wie die Plattformen und andere auf Kampagnenebene berichten. Die Existenz dieser neu erstellten standardisierten Metriken – von denen GARM hofft, dass MRC sie schließlich für alle Plattformen verifizieren wird – “wirkt sich definitiv auf die Berichterstattung nach der Kampagne aus”, sagte Rakowitz. “Wir hören nicht nur von den Content-Verifizierungsunternehmen, sondern auch von den Plattformen selbst, dass einige dieser Metriken in die Kampagnenberichterstattung aufgenommen werden”, fuhr er fort.
Die Folgewirkungen können weiter reichen und über die Werbung hinausgehen. Da Regulierungsbehörden und Gesetzgeber große Technologieplattformen und ihre angeblichen schädlichen gesellschaftlichen Auswirkungen in einen Topf werfen und eine transparente Berichterstattung über Hassreden und Desinformation fordern, könnten GARM-Standards den Plattformen letztendlich dabei helfen, sich darauf abzustimmen, wie sie diese Informationen auch an Regierungen melden, schlug Rakowitz vor.
“Werbetreibende, CMOs und Media Leads sind nicht die einzigen Stakeholder”, sagte er.
Dieser Artikel wurde aktualisiert, um zu reflektieren, dass Facebook sich nicht verpflichtet hat, dass das MRC eine Prüfung seiner Markensicherheits-Transparenzberichterstattung für GARM durchführt. Facebook hatte sich zu einer solchen Prüfung verpflichtet, aber nach seiner Veröffentlichung sagte ein Facebook-Sprecher Digiday, dass es nur einer Komponente des Brand Safety Audits zugestimmt habe, die nicht die Transparenzberichterstattung an GARM beinhaltet.
Werbung
Leave a Reply