Najnowsza oficjalna aktualizacja Facebooka do programu dostarczyła nowych informacji na temat tego, w jaki sposób zamierza zmniejszyć ekspozycję marek na treści, które mogą uznać za niewłaściwe. „Z naszych rozmów z branżą wiemy, że to rozwiązanie może nie zaspokoić potrzeb każdego reklamodawcy i że niektórzy reklamodawcy szukają szczegółowości na poziomie treści”, powiedziała Meta w poście na blogu na temat kontroli bezpieczeństwa marki.
„Cieszymy się, że możemy dać reklamodawcom większy wybór w dostępnych dla nich kontrolach przydatności marki”, powiedziała Samantha Stetson, wiceprezes Meta ds. To zajmie trochę czasu, ale to właściwa praca.”
Kategorie „wykluczenie tematu” są jednym ze sposobów na obniżenie wskaźnika występowania marek pojawiających się powyżej lub poniżej treści, które uznają za niewłaściwe, lub poza wytycznymi dotyczącymi przydatności marki. Przez lata Facebook niechętnie wprowadzał kontrole reklam w kanale wiadomości, wierząc, że kontekst nie jest ważnym czynnikiem reklamy w tym otoczeniu. Facebook oferował już „wykluczenie tematu” w innych ustawieniach reklam, takich jak reklamy wideo w strumieniu. W tym kontekście marki mogły wybierać rodzaje filmów, które sponsorowały. Jednak Kanał Informacyjny jest dynamicznym, ciągle zmieniającym się strumieniem postów i został uznany za znacznie trudniejsze wyzwanie.
Subskrybuj Ad Age teraz, aby uzyskać wielokrotnie nagradzane wiadomości i informacje.
Marki chcą mieć pewność, że ich reklamy nie pojawią się obok postów, które mogą być uznane za szkodliwe, niezależnie od tego, czy zawierają mowę nienawiści, czy dezinformację. W ciągu ostatnich dwóch lat sprawa nabrała większego znaczenia. W lipcu 2020 roku doszło do bojkotu reklam, kiedy to brands dołączyła do NAACP i Anti-Defamation League, aby protestować przeciwko dezinformacji i mowie nienawiści na Facebooku. Jest to temat, który firma wielokrotnie obiecywała rozwiązać i pokazywała kwartalne raporty o tym, jak łapie mowę nienawiści i usuwa inne obraźliwe materiały, które łamią wytyczne społeczności.
W czwartek Facebook wyjaśnił, jak do tej pory działało „wykluczenie tematu”. W sierpniu Ad Age poinformował o tym, jak Mondeléz widział zmiany w kampaniach reklamowych, testując ” wyłączenia tematyczne.”Zastosowanie kontroli zwiększyło ceny reklam o 15%, częściowo dlatego, że ograniczyło potencjalną publiczność reklam. To był sprawiedliwy handel, wyższe ceny dla większego bezpieczeństwa, powiedział Mondeléz w tym czasie.
Kontrola Facebooka działa, szukając kont, które najprawdopodobniej zaangażowały się w posty, które wchodzą w zakres tematów takich jak przestępczość, tragedia, wiadomości i polityka, a następnie nie wyświetlają tym użytkownikom określonych reklam.
„Gdy reklamodawca wybierze jeden lub więcej tematów, jego reklama nie zostanie dostarczona do osób ostatnio zajmujących się tymi tematami w ich kanale informacyjnym”, powiedziała Meta w czwartkowym poście na blogu.
W czwartek Meta powiedział, że kontrola kanału wiadomości na Facebooku była skuteczna przez 99% czasu, trzymając marki z dala od postów związanych z ” tragedią i konfliktem.”To było 94% skuteczne w trzymaniu reklam z dala od wiadomości i politycznych adjacency, meta powiedział w poście na blogu.
Facebook ogłosił również, że wprowadzi weryfikację zewnętrzną przed końcem roku. W lipcu Ad Age poinformował, że Integral Ad Science i Double Verify mają nadzieję stać się partnerami, którzy pomogą zmierzyć skuteczność kontroli.
„Przed PLd of the year, planujemy również współpracować z zewnętrznymi partnerami ds. bezpieczeństwa marki, aby opracować rozwiązanie sprawdzające, czy treści przylegające do reklamy w kanale wiadomości są zgodne z preferencjami przydatności marki”, powiedział post na blogu Meta. „Zaczniemy od zapytania o propozycje w najbliższych tygodniach.”