Pascal Kubli

Gedanken aus dem Digitalen

Fighting Evil: Challenges in Automated Content Moderation

The documentary “The Cleaners” is about content moderators in the Philippines whose task it is to «clean» social networks like Facebook, YouTube and Twitter of objectionable content. The movie was directed by H. Block and M. Riesewick and won several awards (IMDb 2019). ‘Content Moderation’ as defined by Sarah T. Roberts (2017: 1) is “the organized practice of screening user-generated content (UGC) posted to Internet sites, social media and other online outlets, in order to determine the appropriateness of the content for a given site, locality, or jurisdiction. The process can result in UGC being removed by a moderator, acting as an agent of the platform or site in question”. Moderators have the daily task to check offensive, brutal, dramatic, pornographic and violent content for violations of the platform guidelines – and to delete them if necessary. This is not new: For example, Roberts (2016: 2) already has pointed out, that content moderators are exposed to content that is “personally deleterious or damaging”, including content that may impugn the workers own identities. The documentary accompanies several (former) employees of the Cognizant company in the Philippines and impressively shows the tragic and psychologically extremely traumatizing work of content moderators – who pay the high price for the fact that the vast majority of social media users are not being exposed to content such as terrorist executions, child abuse, suicide and murder (The Guardian 25 Sep 2019; Dwoskin, Whalen & Cabato 25 July 2019).

In view of the enormous burden on content moderators, it seems very obvious to use automated computer programs to assess and delete content that violates the UCGs of social networks. And anyway, due to the enormous amount of data as well as the changeable nature of language, standards and game rules (UCG and legal requirements), the use of machine learning algorithms is indispensable (Binns, Veale, Van Kleek & Shadbolt 2017). But while Policymakers routinely call for social media companies like Facebook to identify and take down hate speech, they wrongly assume that automated technology can accomplish on a large scale the kind of nuanced analysis that humans can do on a small scale. Today’s tools for parsing (analyzing) social media text have limited ability to analyze or detect the intent of the speaker and the complexity of the content moderation process is often overlooked (Duarte, Llanso & Loup 2018, Roberts 2018). Roberts (2016) states, for example, that the (already subjective) assessment of UCG requires not only cultural knowledge (about the platform itself, as well as about the audience assumed) but also linguistic competence in the language of the UGC (which in most cases is not the native language, knowledge of the relevant laws of the place of origin of the platform, and last but not least expertise regarding user guidelines as well as other platform-level specifics concerning what is allowed and what is not allowed. The following section gives an overview on recent approaches, whereas the last section presents existing limitations for the use of automated content moderation.

Recent Approaches

In early text-based internet, mechanisms to enact moderation was often direct and visible for the user – such as demanding a user to alter a contribution from offensive or insulting material, the deletion or removal of posts, complete banning of users or the application of text filters to disallow posting of specific types of words or content. But as the internet as well as social media platforms have grown enormously, the desire for major platforms to control the UGC that they host and disseminate has also grown exponentially (Roberts 2017). While so far the law allowed the platform owners to be immune from some of the liability that was usually associated with a publisher for UGC, in recent years various legal cases both in the USA and around the world have demonstrated that these platform owners may not be immune to all liabilities – and consequently are taking on a more governed approach towards content moderation (Li, Xiong & Tapia 2018). To date, many tools to identify and filter content have been developed, including keyword filters, spam detection tools and hash matching algorithms. These tools are based on the existence of certain pre-established keywords, metadata or patterns. While these tools can be effective at identifying content that contains known keywords, or matches a known hash or metadata pattern, they are not capable of parsing the meaning or context of text. Therefore, research and industry have begun to turn to machine-learning natural language processing (NLP) tools in order to make predictions about the meaning of content (e.g. if text expresses positive or negative opinion). Although NLP tools are able to process and classify text on a much larger scale than humans which would make them attractive to replace current content moderation, their development comes (at least initially) with high costs as most of today’s classifiers are trained using examples of text labelled by humans as either belonging or not belonging to a targeted category of content – e.g. hate speech vs. not hate speech (Duarte et al. 2018). There are recently five limitations of NLP in the context of social media analysis, which now shortly will be presented, before a short outlook is given.

Limitations of Automated Content Analysis

1. The first limitation refers to the fact that NLP tools work best when trained on specific domains and contexts. For example, Abbasi, Hassan & Dhar (2014) found that domain-specific tools can capture sentiment on Twitter more accurately than general tools. Since objectionable content is relatively rare compared to all content, very large random samples must be taken for each possible domain. Taking such large random samples is difficult and expensive (Duarte et al. 2018).

2. Since social bias is also reflected in language, the use of NLP tools carries the risk to further marginalize and disproportionately censor groups that are already discriminated when decisions are based on them. For example, Zhao et al. (2017) found in a study using machine-learning to label images that, while the activity of cooking was about 33% more likely to be associated with females than males in the training corpus, the resulting model associated cooking with females 68% of the time. Using NLP tools for content moderation therefore could lead to content moderation decisions that disproportionately censor groups such as marginalized groups or those with minority views.

3. Often, social media platforms provide “clear, if somewhat general, operational definitions” about objectionable content (Myers West 2018: 4370). According to Duarte et al. (2018) will tools that rely on narrow definitions will miss some of the targeted speech and may be easier to evade. Thus, a tension can be identified between definitions that are as clear as possible and computational flexibility.

4. Duarte et al (2018) have evaluated multiple NLP studies and concluded that under ideal conditions an accuracy of around 70-80% is achieved. While such high levels of accuracy (e.g. using neural networks as done by Clieback et al. 2017) demonstrate an impressive increase within this area, an accuracy rate of 80% also means that one out of every five people is treated wrong in such decision-making. As the authors further mention, “even an accuracy rate of 99% will lead to a high volume of erroneous decisions when applied at scale“ (Duarte et al. 2018: n.pag).

5. Last but not least, today’s NLP tools still fall far short of many policymakers’ expectations when it comes to their ability to parse language as the meaning of language is highly dependent on contextual elements such as tone, speaker, audience and forum. And because NLP filtering tools rely on previously seen features in text (e.g. words, word-relations), they are also easy to evade (Duarte et al. 2018). It has therefore already been suggested to consider information beyond the text (such as demographic information about the speaker). In addition to the risk of amplifying an existing bias (see 2nd limitation), using information about the speaker to adjudicate speech could raise additional human rights and censorship concerns (Duarte et al. 2018).

In conclusion, it can be said that despite clear progress in the application of Natural Language Processing in the area of Content Moderation, there are still major challenges to overcome. However, these seem to have already been recognized and addressed by research and need to be further examined. If in the future it will only be possible to reliably moderate parts of the offensive content using NLP tools, this would considerably reduce the enormous psychological burden on content moderators and as well as the time to remove objectionable content.

(pk)

Bibliography

Abbasi A., Hassan A. & Dhar M. (2014): Benchmarking Twitter Sentiment Analysis Tools. Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC’14). (https://www.aclweb.org/anthology/L14-1406/ [State 22.10.2019]).

Binns R., Veale M., Van Kleek M. & Shadbolt N. (2017): Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation. In G.L. Ciampaglia, A. Mashadi & T. Yasseri (eds.): Social Informatics (SocInfo 2017), Lecture Notes in Computer Science, 10540, 405-415. doi: 10.1007/978-3-319-67256-4_32

Duarte N., Llanso E. & Loup A. (2018). Mixed Messages? The Limits of Automated Social Media Content Analysis. Proceedings of the 1st Conference on Fairness, Accountability and Transparency (PMLR), 81, 106-106.

Dwoskin E., Whalen J. & Cabato R. (25 July 2019): Content moderators at YouTube, Facebook and Twitter see the worst of the web – and suffer silently. The Washington Post. Retrieved from https://www.washingtonpost.com/technology/2019/07/25/social-media-companies-are-outsourcing-their-dirty-work-philippines-generation-workers-is-paying-price/ (State 20.11.2019).

IMDb International Movie Database (2019): The Cleaners – im Schatten der Netzwelt (2018). Awards. (https://www.imdb.com/title/tt7689936/awards [State 20.11.2019]).

Li C.-S., Xiong G. & Tapia E.M. (2018): New frontiers in cognitive content curation and moderation. APSIPA Transactions on Signal and Information Processing, 7(7), 1-11.
doi: 10.1017/ATSIP.2018.9

Myers West S. (2018): Censored, suspended, shadowbanned: User interpretations of content moderation on social media platforms. New Media & Society, 20(11), 4366-4383. doi: 10.1177/1461444818773059

Roberts S.T. (2016): Commercial Content Moderation: Digital Laborers› Dirty Work. Media Studies Publications, 12, n.pag. (https://ir.lib.uwo.ca/commpub/12 [State 22.10.2019]).

Roberts S.T. (2017): Content Moderation. In L.A. Schintler & C.L. McNeely (eds.): Encyclopedia of Big Data. doi: 10.1007/978-3-319-32001-4

Roberts S.T. (2018): Digital detritus: ‹Error› and the logic of opacity in social media content moderation. First Monday, 23(3). doi: 10.5210/fm.v23i3.8283

The Guardian (25 Sep 2019): Facebook failing to protect moderators from mental trauma, lawsuit claims. (https://www.theguardian.com/technology/2018/sep/24/facebook-moderators-mental-trauma-lawsuit [State 20.11.2019]).

Zhao J., Wang T., Yatskar M., Ordonez V. & Chang K.-W. (2017): Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP 2017). (https://arxiv.org/pdf/1707.09457 [State 22.10.2019]).

SaaS auf dem Vormarsch

In den letzten Jahren bekam ich immer häufiger E-Mails Software-Anbietern, welche mir ihre Software als monatliches Abo verkaufen wollten: Von Microsoft’s Office365-Paket über Apple’s iCloud und Adobe’s Creative Cloud bis hin zum Passwortmanager 1Password. Sie alle tun es: Das Geschäftsmodell nennt sich Software as a Service (SaaS). Anstatt einmal für die Software bzw. deren Nutzungslizenz zu bezahlen, muss man monatlich oder jährlich in die Tasche greifen, um den Dienst zu nutzen. Auf den ersten Blick klingt dies nach Abzocke – oder bringt dies auch dem Nutzer etwas?

Für Software-Anbieter ist es ein lukratives Geschäft. Das scheint auf der Hand zu liegen, schliesslich setzen immer mehr Unternehmen als Geschäftsmodell auf die Bezahlung per Abonnement – das auch als Subscription Economy (dt. Abonnement-Wirtschaft) bezeichnet wird. Als Nutzer hat man oftmals gar keine Wahl mehr zwischen dem einmaligen Erwerben einer Lizenz und einem Abo. Dies kann natürlich ärgerlich sein, wenn man auf bestimmte Produkte angewiesen ist. Es gibt natürlich auch kostenlose Open-Source Lösungen: So zum Beispiel OpenOffice statt Office365, Gimp anstelle von Adobe Photoshop, etc. Auch wenn diese Alternativen möglicherweise nicht an ihre kostenpflichtigen Geschwister herankommen, sind sie von der Funktionalität oftmals vergleichbar.

Aber geht es dabei nun wirklich nur darum, die Nutzer abzuzocken? – Nein, natürlich nicht. SaaS als Geschäftsmodell bietet sowohl für Anbieter als auch für Nutzer einige Vorteile: Abo-Modelle stellen für Softwareunternehmen aufgrund monatlicher Einnahmen eine stabilere Einnahmequelle und somit mehr finanzielle Sicherheit dar. Die Nutzer profitieren wiederum von regelmässigen Updates und verfügen stets über die neuste Version der Software. Diese wird dabei normalerweise in einer Cloud gehostet, wodurch dem Nutzer auch «virtuelle» Rechenleistung und Speicherplatz zur Verfügung gestellt werden kann. Und nicht zuletzt bietet das monatliche Bezahlen eine grössere Flexibilität für die Nutzer: Die Software-Abos lassen sich normalerweise unkompliziert kündigen und müssen somit nur dann bezahlt werden, wenn sie wirklich gebraucht werden. Ansonsten setzt man einfach für kürzere oder längere Zeit aus, bis die Software wieder gebraucht wird – und kann dann stets auf die aktuellste Version der Software zugreifen.

(pk)

Digitale Empörung

Bei Facebook läuft derzeit alles drunter und drüber – an Alltag ist dabei nicht zu denken. Zu gross sind die Wellen der Empörung, welche derzeit auf den Social Media-Giganten herunterbrechen. In einer Serie von Enthüllungen deckten ‹The Guardian›, die ‹New York Times› sowie der britische Nachrichtensender ‹Channel 4 News› den grössten Datendiebstahl bei Facebook auf: Im Auftrag der britischen Politmarketingfirma Cambridge Analytica entwickelte der Psychologe und Datenwissenschaftler Aleksandr Kogan die App ‹thisisyourdigitallife›. Mithilfe seines Unternehmens ‹Global Science Research› (GSR) und seiner App sammelte Kogan die Daten von hunderttausenden von Facebook-Nutzern, welche gegen Bezahlung einen Persönlichkeitstest ausfüllten – dies unter dem Vorwand, die persönlichen Nutzerangaben würden lediglich für Forschungszwecke verwendet. Dass dieses Versprechen nicht eingehalten wurde, ist spätestens seit den Veröffentlichungen von letzter Woche bekannt. Dieser Artikel soll sich jedoch nicht nur um Facebook drehen – sondern beschäftigt sich im Allgemeinen mit der Frage, weshalb wir Unternehmen wie Google, Facebook oder Amazon freiwillig unsere persönlichen Informationen anvertrauen und was ein Skandal daran ändern kann.

War es zu Beginn der Enthüllungen noch eine ganze Flut an medialen Beiträgen, die sich mit dem Datenskandal rund um Facebook und dem Schutz der Privatsphäre beschäftigten, so waren es diese Woche bereits erkennbar weniger. Dies ist einleuchtend, es geschehen schliesslich auf der ganzen Welt laufend neue Ereignisse, welche ebenfalls einen Platz in der medialen Berichterstattung verdient haben und deswegen auch veröffentlicht werden sollten. Doch gerade auch über Themen wie Datenschutz oder der Schutz der digitalen Privatsphäre sollte häufiger gesprochen werden. Einerseits in der Gesellschaft selbst, schliesslich scheint mehrheitlich noch kein starkes Bewusstsein für den Schutz (als auch Wert) persönlicher Daten vorhanden zu sein – inzwischen nutzen in der Schweiz immerhin 88% der Bevölkerung das Internet wöchentlich (Bundesamt für Statistik, 2017). Andererseits wäre auch in der Politik mehr Handeln notwendig. Nach dieser jüngsten Affäre geriet insbesondere politische Werbung ins Visier der Politik, welche Untersuchungen ankündigte: In Grossbritannien ist dies beispielsweise das Information Commissioner’s Office (ICO), welches die Verwendung von Data Analytics für politische Zwecke untersucht – als auch die britische Wahl-Kommission, welche sich für die Rolle von Cambridge Analytica und Facebook im Zusammenhang mit dem ‹Brexit› interessiert. In den USA schlug der demokratische Senator Mark Warner als Reaktion auf die mögliche russische Einflussnahme auf die Präsidentschaftswahlen 2016 den sogenannten «Honest Ads Act» vor, welcher im Online-Bereich die Regulierung von politischer Werbung verlangt (The Guardian, 17.03.2018).

Doch nun zu den möglichen Gründen, weshalb wir unsere Daten freiwillig an Grosskonzerne ausliefern: Mit der Verbreitung des Internets und dem Aufkommen von sozialen Netzwerken wie Facebook, YouTube oder LinkedIn, Online-Dienstleistungen wie Google Maps oder deren Suchmaschine entstand eine Art ‹Digital Deal›. Ein kurzes Beispiel: Wollte man früher mit dem Auto von Zürich nach Kopenhagen fahren und kannte die schnellste Route dorthin nicht, konnte man sich eine Karte (und etwas später auch ein Navigationsgerät) kaufen, um sicher ans Ziel zu gelangen. Für beides musste man unmittelbar mit Geld bezahlen. Als Google im Jahr 2005 erstmals den Online-Kartendienst Google Maps auf den Markt brachte, kam eine vielversprechende Wahloption hinzu: Der Online-Kartendienst lässt sich weltweit bequem vom Smartphone, Tablet oder Computer aus bedienen, präsentiert dem Nutzer in kürzester Zeit die beste Route – und er kostet nichts. Die meisten von Ihnen werden sich vermutlich darüber im Klaren sein, dass wir für diese Dienstleistung dennoch bezahlen. Zwar nicht mit Geld, aber mit Daten. Und dennoch nutzen die meisten von uns – mich eingeschlossen – nach wie vor Dienste wie Google Maps, YouTube oder Instagram.

Den Grund dafür sehe ich im ‹Digital Deal›, genauer im wahrgenommenen Verhältnis von Kosten und Nutzen. Erstens ist die Beziehung zwischen Plattform-Anbieter und Nutzer geprägt durch ein Geben (Information) und Nehmen (Mehrwert): Für den Einzelnen mag es kein Problem sein, den Anbietern gewisse Informationen über persönliche Konsum-Präferenzen, Urlaubsziele oder den Freundeskreis herauszurücken, schliesslich bekommt man dafür auch einen Mehrwert. Zudem scheint die Bezahlung mit Informationen ohnehin angenehmer zu sein, als den zuvor hart erarbeiteten Lohn dafür auszugeben. Zweitens kommt hinzu, dass man sich über die Jahre an die Nutzung von Facebook, Google & Co. gewöhnt hat und diese wiederum keinen Aufwand scheuen, um das Nutzererlebnis (und somit die Nutzungszeit) laufend zu verbessern. Und zum Schluss spielen natürlich auch Netzwerkeffekte eine entscheidende Rolle, weshalb wir WhatsApp nur ungern löschen oder Facebook den Rücken kehren: Je mehr Nutzer auf einer Plattform angemeldet sind, desto grösser ist der Nutzen für den einzelnen Teilnehmer: Je mehr meiner Freunde auf Facebook angemeldet sind, desto mehr lohnt es sich für mich; Je mehr Personen auf tripadvisor Bewertungen abgeben, desto aussagekräftiger sind die dort verfügbaren Informationen, etc.

Auch wenn die Informationen über mich als einzelne Person nicht viel Wert für ein Unternehmen haben, so sieht dies bei einer Aggregation – d.h. dem Zusammenfassen aller Nutzerinformationen – ganz anders aus (Stichwort ‹Big Data›). Da für den Nutzer selbst durch die Aggregation der Informationen kein Schaden entsteht, scheint dies auch niemandem wehzutun. Mittlerweile sind wir jedoch an einem Punkt angelangt, an welchem nahezu jede Website im Internet Informationen über uns sammelt und diese (mit oder ohne unserem Einverständnis) möglicherweise auch weitergibt. Als einzelner Nutzer hat man mit hoher Wahrscheinlichkeit schon lange den Überblick darüber verloren, welche Anbieter welche Informationen über uns gesammelt haben und ob diese weitergegeben wurden oder nicht.

Natürlich kann man nun sagen, es ist mir egal, wenn einige Unternehmen Informationen über mich besitzen. Dies mag so vielleicht stimmen. Problematisch wird es jedoch dann, wenn Unternehmen über so viele Daten verfügen, dass damit beispielsweise Wahlen manipuliert oder ausführliche Bürger-Profile erstellt werden können. So lag beispielsweise der Suchmaschinen-Marktanteil von Google in Europa im Jahr 2017 bei rund 92% (Lunapark, 2017). Dies bedeutet, dass 9 von 10 Suchanfragen in Europa über Google laufen. Glaubt man den Schätzungen des Statistik-Portals Statista, beläuft sich die Anzahl Internetnutzer in Europa auf rund 700 Millionen Nutzer. Geht man (etwas vorsichtiger gesehen) davon aus, dass lediglich 7 von 10 europäischen Internetnutzern die Suchmaschine regelmässig verwenden, so hat Google regelmässig Einsicht in die Suchanfragen von rund 490 Millionen Europäern. Ebenso verfügt Facebook gemäss eigenen Angaben weltweit über 1,4 Milliarden tägliche Nutzer (DAU) und somit Einblick in deren virtuelles Verhalten. Über Whatsapp, welches ebenfalls zu Facebook gehört, werden täglich rund 60 Milliarden Nachrichten versendet. Diese Flut an Information ist grösser als jede Empörungs-Welle bei einem weiteren Skandal.

Während früher, meist mit Bezug auf Orwell, hauptsächlich auf die Gefahr staatlicher Überwachung hingewiesen wurde, so wissen wir mittlerweile, dass auch kommerzielle Überwachung eine Gefahr darstellt. Welche Gefahr dabei als verherender wahrgenommen wird, lässt sich aus meiner Sicht nicht beantworten. Auch wenn die Politik im Bereich des Datenschutzes immer wieder Taten ankündigt, so handelt es sich vermutlich noch um einen langen Weg – den es jedoch unbedingt einzuschlagen gilt.

Ich persönlich habe zumindest die starke Hoffnung, dass durch den Facebook-Skandal bei vielen Menschen das Bewusstsein über den Schutz (als auch den Wert) persönlicher Daten gestärkt wurde und sie sich als Leser in Zukunft bewusst nochmals den ‹Digital Deal› (Information vs. Mehrwert) vor Augen führen, bevor sie sich auf einer weiteren Plattform anmelden.

(pk)

Zum Nutzen von SRG & Co.

https://platform.twitter.com/widgets.js

Meine Gedanken zu No Billag

Am 4. März 2018 stimmt das Schweizer Stimmvolk über die Eidgenössische Volksinitiative «Ja zur Abschaffung der Radio- und Fernsehgebühren» (kurz: No Billag) ab. Nachdem der öffentliche Abstimmungskampf durch die Befürworter der Initiative relativ früh lanciert wurde, traten die Gegner der Vorlage etwas später in Erscheinung – so zum Beispiel Operation Libero, welche anfangs Dezember öffentlich zu Spenden für ihre Gegenkampagne aufriefen (Operation Libero am 04.12.2017).

Die Initiative lässt sich als Konsequenz der Revision des Bundesgesetzes über Radio und Fernsehen (RTVG) im Jahr 2015 betrachten. Bereits damals wurde ausführlich über die Gebühren sowie den Umfang des «service public» diskutiert (NZZ am 15.06.2015). Insbesondere die Tatsache, dass die RTVG-Revision vom Stimmvolk nur knapp (50,1% Ja-Stimmen) angenommen wurde, zeigt auf, dass bereits damals eine gewisse Unzufriedenheit mit der SRG in einzelnen Bevölkerungsschichten vorhanden war. Und es scheint tatsächlich so, dass für viele No Billag in direktem Zusammenhang mit der damaligen RTVG-Abstimmung steht: Immer wieder hörte man – insbesondere seitens der Befürworter – dass die Politik damals keinen Gegenvorschlag vorgelegt habe und die (erhoffte) Annahme von No-Billag nun als Quittung dafür zu verstehen sei. Dies mag für den einen oder anderen eine lächerliche Begründung zur Annahme dieser Initiative sein – ich muss jedoch zugeben, dass die Politik in dieser Hinsicht vor drei Jahren tatsächlich mehr hätte unternehmen können, um diesen kritischen Stimmen entgegenzuwirken. Trotzdem stellt dies in meinen Augen keinen ausreichenden Grund dar, diese Initiative anzunehmen.

Meiner Meinung nach wurde in den letzten Jahren jedoch zu wenig über die öffentlich-rechtliche Institution SRG sowie den Umfang ihres Auftrags diskutiert: Während die Existenz der SRG früher durch die Frequenzknappheit oder die vergleichsweise hohen Kosten der Rundfunkproduktion und -verbreitung legitimiert wurde, so haben sich die Verhältnisse seither stark verändert: Aufgrund des technologischen Fortschrittes (Breitbandübertragung, Internet) konnte einerseits das Problem der Frequenz-Knappheit minimiert werden und andererseits führte die Liberalisierung des Rundfunkmarktes zu einer Entschärfung des Marktversagens, zumindest im Unterhaltungsbereich. Somit ist nicht nur die SRG in der Schweiz, sondern sind alle öffentlich-rechtlichen Rundfunkveranstalter – gerade in Zeiten von Informationsüberfluss, Nachfragemärkten und Fake News – gefordert, die Bedürfnisse der Bevölkerung angemessen zu berücksichtigen und als unabhängige Institutionen die Bildung, kulturelle Entfaltung und freie Meinungsbildung aller auch weiterhin zu fördern und erhalten.

Wie bereits erwähnt stehen alle öffentlich-rechtlichen Rundfunkanbieter unter Druck. Während in den meisten europäischen Ländern die Leistung öffentlich-rechtlicher Medien hauptsächlich unter dem Begriff «Public Value» diskutiert wird, ist dieser Begriff in der Schweiz relativ unbekannt. Er geht zurück auf die britische BBC, welche 2004 im Rahmen der gesetzlichen Notwendigkeit, den Programmauftrag und die strategische Neuausrichtung alle zehn Jahre neu definieren zu müssen, unter dem Titel «Building Public Value: Renewing the BBC for a digital world» einen Public Value Test einführte. Die Europäische Kommission legte 2009 bei der Neufassung der Rundfunkmitteilung für alle Mitgliedsstaaten ebenfalls fest, dass bei der Einführung neuer Dienste durch beihilfefinanzierte Angebote der «Public Value» mit den zu erwartenden Marktauswirkungen abgewogen werden müsse. Auch wenn diese Bestimmungen für die Mitgliedsstaaten nicht bindend sind, so wurde dadurch der Rechtfertigungsdruck zur Legitimierung der Finanzierung des öffentlich-rechtlichen Rundfunks in vielen europäischen Ländern erhöht und insofern auch eine medienpolitische Auseinandersetzung zum Thema Public Value in vielen europäischen Staaten vorangetrieben. Auf die schweizerische Debatte zum «service public» hatte dies bisher jedoch keinen starken Einfluss. Insofern ist es begrüssenswert, dass durch No Billag in der Schweiz eine gesellschaftliche Debatte zur Zukunft des gebührenfinanzierten Rundfunks angestossen wurde.

Auch wenn es derzeit nach einem Sieg für die Gegner der Vorlage aussieht – sowohl die SRG-Trendumfrage (gfs.bern)  als auch die Tamedia-Trendumfrage (LeeWas) prognostizieren eine Ablehnung von rund 60% – so bleibt es spannend bis am 4. März: Einerseits besteht aufgrund der Umfrageergebnisse die Gefahr, dass insbesondere Gegner der Vorlage vom 4. März auf eine Stimmabgabe verzichten («No Billag kommt ohnehin nicht durch…») und andererseits könnte die erwartete Ablehnung von No Billag Unentschlossene dazu verleiten, an der Urne ein taktisches Ja einzulegen – mit dem Hintergedanken, durch ein knappes Abstimmungsresultat den Reformdruck auf die SRG zu maximieren.

Ich persönlich hoffe auch in Zukunft auf eine unabhängige und starke SRG als Leitmedium und habe den Abstimmungskampf, die Arena-Sendungen, Podiums-Diskussionen und Zeitungsartikel mit grossem Interesse mitverfolgt. Schlussendlich wird sich diese Debatte auch für den öffentlich-rechtlichen Rundfunk in der Schweiz als gewinnbringend erweisen – schliesslich wurde in den letzten zehn Jahren nie annähernd so intensiv und ausführlich über die Institution SRG diskutiert wie in diesem einen, äusserst emotional geführten Abstimmungskampf.

(pk)

Hallo, Welt.

Herzlich Willkommen auf meiner Website! Dies ist mein erster Beitrag und ich möchte dabei die Gelegenheit ergreifen, die Ziele dieser Website kurz zu erläutern: Einerseits sehe ich diese Website als Experiment, um neue Dinge auszuprobieren und meine Programmierkenntnisse zu verbessern. Andererseits sehe ich diese Website auch als Chance, spannende Artikel oder Themen zu veröffentlichen oder eigene Auswertungen vorzustellen.

Präsentiert von WordPress & Theme erstellt von Anders Norén