Atak terrorystyczny w Christchurch wstrząsnął opinią publiczną z wielu powodów, również z tego, że był on transmitowany na żywo w mediach społecznościowych. Wiele kontrowersji i pytań pojawiło się wokół samych tych mediów - czy moderacja może działać szybciej i czy istnieją sposoby, by skuteczniej blokować treści ekstremistyczne czy terrorystyczne? Jest to na pewno problem wielowymiarowy. Brad Smith, President w Microsoft, przedstawił kilka obszarów działań, w których swoją rolę powinny odegrać firmy technologiczne.
Pierwszym obszarem działań jest skupienie się na prewencji. Firmy muszą podjąć nowe kroki, by zapobiegać postowaniu i udostępnianiu aktów przemocy przeciwko niewinnym ludziom. Większy udział w tym powinny mieć nowe i potężniejsze narzędzia technologiczne, a te istniejące powinny być rozwijane dalej. Smith wspomina tu o PhotoDNA, które identyfikuje i przyporządkowuje cyfrowe hashe (rodzaj cyfrowego identyfikatora) znanej zawartości przemocowej. Dostawcy technologii powinni też rozwijać nowe narzędzia oparte na AI, które pozwolą rozpoznawać nową, nieznaną wcześniej zawartość, która może pokazywać przemoc. Dotyczy to również identyfikacji wyedytowanych kopii oflagowanych wcześniej nagrań.
Brad Smith pisze też o potrzebach rozwiązań przeglądarkowych, opartych np. na bezpiecznym wyszukiwaniu, które blokują zawartość, gdy ludzie próbują ją obejrzeć lub pobrać; branżowej wymiany wiedzy i technologii na zasadach open source i innych mechanizmów współpracy oraz zrozumienia, że sama technologia nie rozwiąże problemu.
Drugim obszarem jest efektywniejsze odpowiadanie w chwili kryzysu. Nawet bowiem w obliczu postępów nie można zakładać, że nigdy już nie nastąpi kolejna tragedia. Smith uważa, że firmy technologiczne powinny rozważyć stworzenie protokołu dla tego typu zdarzeń, by mogły wspólnie reagować, szybciej dzielić się informacjami, pomagać poszczególnym platformom i usługom działać proaktywnie i upewnić się przy tym, że nie ogranicza się komunikacji, która leży w interesie publicznym.
Smith wzywa również do dyskusji nad zdefiniowaniem kategorii "potwierdzonych wydarzeń", której treści wymagałyby od firm dodatkowego przetwarzania, wykrywania i blokowania (jeśli mowa o treściach ekstremistycznych i przemocowych). Pomogłoby to w lepszej identyfikacji i zatrzymaniu zawartości, nim szerzej się rozpowszechni.
Ostatnim obszarem jest zabieganie o zdrowsze środowisko online. Choć narzędzia cyfrowe służą do wzmacniania przemocy, to mowa nienawiści istnieje przecież od wieków. Dyskurs cyfrowy staje się jednak czasem porażająco toksyczny, a komentarze są wyrazem najgorszych cech ich autorów. Choć od mowy nienawiści do ataków zbrojnych jest oczywiście daleka droga, to nie pomaga na pewno to, że interakcja online normalizuje w cyberprzestrzeni standardy zachowań, które większość z nas uznałaby za nieakceptowalne w świecie rzeczywistym - dodaje Smith.
Smith wzywa do wspólnych starań liderów z całego sektora technologicznego, a także do dyskusji z udziałem ludzi spoza branży - z rządami, społeczeństwami obywatelskimi i organizacjami zajmującymi się taką problematyką.