Riot in the Matrix
- Description
- Reviews
- Citation
- Cataloging
- Transcript
If you are not affiliated with a college or university, and are interested in watching this film, please register as an individual and login to rent this film. Already registered? Login to rent this film. This film is also available on our home streaming platform, OVID.tv.
Why do data protection activists bother? What do they seek to achieve and who supports them? Their opponents, as their allies, often are in unexpected positions. The film explores the world of a community of well-connected activists who, with cleverness, wit and persistence, stand up to presumed almighty opponents. They are concerned with nothing less than the protection of privacy, the freedom of expression and therewith, democracy itself.
Citation
Main credits
Schmölzer, Hansjürgen (film director)
Schmölzer, Hansjürgen (film producer)
Schmölzer, Hansjürgen (screenwriter)
Laufer, Nora (screenwriter)
Cox, Peter (narrator)
Other credits
Director of photography, Manuel Prett; editor, Uwe Seifner; music, Sebastian Vötterl [and 3 others].
Distributor subjects
No distributor subjects provided.Keywords
SCRIPT
„RIOT IN THE MATRIX“
English for
52:00 minutes version
Timecodes for
Cleanfeed-Version
200420_Matrix_52Min_INT_FINAL_Playout.mxf /*.mov
04.06.2020
ENGLISH NARRATOR – HIGHLIGHTED YELLOW
ENGLISH SUBTITLES – HIGHLIGHTED GREEN
INSERTS / INSERTLINES / OPENER TITLE / CLOSING CREDITS – HIGHLIGHTED TURKQUOISE
01:00:07 NARRATOR
Nobody needs more protection than a child. Our offspring is what we are quickest ready to fight for. And yet we give them away from the very beginning. Because immediately after birth they are recorded digitally and thus become transparent people.
01:00:26 THOMAS LOHNINGER (IT)
Jede Frage die ich in das Google-Suchfeld eingebe ist eine Antwort über mich, die ich Google gebe.
01:00:30 SUBTITLE
Each question I type into Google provides them with answers about me.
01:00:34 MAX SCHREMS (IT)
Es geht einfach um die Macht im Informationszeitalter.
01:00:34 SUBTITLE
Power in the information age is all it´s about.
01:00:39 OPENER TITLE
RIOT IN THE MATRIX
A film by Hansjürgen Schmölzer
01:01:06 NARRATOR
Big internet companies such as Amazon know a woman is pregnant long before everybody else does.
01:01:14 KATHARINA NOCUN (IT)
Wenn man große Datenmengen hat. Und das hat Amazon. Dann kann man so etwas namens Korrelationsanalyse machen. Das heißt, man guckt, gibt es Muster in bestimmten Gruppen: beispielsweise wie ändert eine Frau ihr Verhalten, die 9 Monate später nur noch Babyklamotten bestellt. Und natürlich ist es heute schon so, dass Amazon bei Kundinnen, die dann unparfumierte Pflegeprodukte kaufen, sagen kann, diese Frau freut sich wahrscheinlich auf ihr Baby und zwar selbst dann, wenn sie keine expliziten Babyprodukte bestellt.
01:01:15 INSERT
KATHARINA NOCUN
Data protection activist
01:01:16 SUBTITLE
With the huge amount of data Amazon have, they can make a correlation analysis.
01:01:22 SUBTITLE
That means the looking for patterns.
01:01:24 SUBTITLE
Does a woman change her buying pattern who 9 months later only orders baby clothes?
01:01:29 SUBTITLE
Amazon can detect that a woman is probably pregnant when she orders unperfumed care products.
01:01:38 SUBTITLE
Even if she doesn't order baby products as such.
01:01:44 VERA JOUROVA (IT)
The people have a tendency to provide their data, their identity to somebody else without any clue what the other one will do with the data.
01:01:46 INSERT
VERA JOUROVA
European Commissioner for Values & Transparency
01:01:59 NARRATOR
EU Commissioner Vera Jourova has a meeting with representatives of the European internet search engine Qwant, which is committed to data protection
01:02:08 VERA JOUROVA (OT)
We need to communicate it from the perspective of every single Person.
By the way – have you listened?
01:02:17 WOJTEK TALKO (OT)
Yes.
01:02:19 VERA JOUROVA (OT)
… the differenciation between handling consumers and handling citizens – I had that reflex immediately, when I came into this topic of data protection, as a person who experienced totalitarism. Suddenly I realised: My god. This has very similar features. You are just the element in the crowd. And you don´t have any clue, what´s happening to you.
01:02:49 ERIC LEANDRI (OT)
For example Grindr. It´s a …
01:02:51 WOJTEK TALKO (OT)
It´s a gay dating app.
01:02:54 ERIC LEANDRI (OT)
Yes. It´s a gay dating app. And they take for gay dating – they ask them, if they are HIV positive or negative or what is their status. And so, thy can say: Yes, I´m HIV positive. Or no. And this is may last …
01:03:14 VERA JOUROVA (OT)
Medical ..
01:03:15 ERIC LEANDRI (OT)
Medical check.
They have sold that information to banks, credit organisations and insurance companies. How is that possible. And when the people in the US ask them, why have you done that, they just answer: because you give me the right to do it.
01:03:23 INSERT
ERIC LÉANDRI
CEO of the web search engine Qwant
01:03:36 VERA JOUROVA (IT)
You hear the conflict: Identity, which you can not sell. And at the same time, private data as money. The business model of the IT-sector is mainly based on the transactions.
The Algorithms, which are used for selling more products, beeing used for selling the politicians. It was a lesson learned from Cambridge Analytica. A useful lesson.
01:04:08 INSERTLINE
May 22nd 2018: Hearing of Mark Zuckerberg in the European Parliament.
01:04:16 MARC ZUCKERBERG
President Tajani. Honorable members of the European Parliament. It´s good to be back in Europe. Thank you for inviting me here today, for this important discussion.
01:04:16 INSERT
MARK ZUCKERBERG
CEO of Facebook
01:04:27 NARRATOR
Facebook gave the hearing 70 minutes. Many questions remained unanswered.
01:04:33 GABRIELE ZIMMER
Ich würde sie gerne als erstes fragen wollen, warum sie eigentlich kein öffentliches Meeting zulassen wollten. Unter Beteiligung auch von Abgeordneten, die aus den entsprechenden Ausschüssen kommen. Um tatsächlich auch hier miteinander diskutieren zu können. Warum haben Sie sich dem verweigert?
01:04:33 SUBTITLES
I would like to know why you didn´t allow a public meeting with
MPs from the relevant committees?
01:04:43 SUBTITLES
Why refuse any discussion?
01:04:45 INSERT
GABRIELE ZIMMER
Former Member of the European Parliament, The Greens
01:04:48 VERA JOUROVA
We didn´t hear many answers because we mainly heard the questions. The time for this hearing was swallowed by the questions.
01:04:49 MARC ZUCKERBERG
I want to be sensitive to time, because we are 15 minutes over the – the scheduled meeting. I think that this was … I realised, that there were a lot of specific questions, that didn´t get specifically answered. So thank you again for inviting me, for …
01:05:17 JAN ALBRECHT
Mr. Zuckerberg. I think, there was one question raised by Guy Verhofstadt. And that´s linked to my question. And that´s the seperation of different services. I think it´s a very important question in this round. The market power of facebook and the question, if you crossuse for example data between Facebook and Whats App. So it would be good, if you say at least one word to that.
01:05:33 INSERT
JAN PHILIPP ALBRECHT
Former Member of the European Parliament, The Greens
01:05:38 MP FROM THE OFF
Will you allow users to escape targeted advertising. I mean, I asked you six yes or no questions. I got not a single answer. And of course – well you asked for this format: Well. For reason.
01:05:54 MARC ZUCKERBERG
I´ll make sure, we follow up with and give you answers to those.
01:06:00 NARRATOR
Facebook did reply in writing. Result: not very satisfying.
01:06:10 ALEXA
Hier ist der Wikipedia Artikel über Max Schrems. Maximilian Max Schrems ist ein österreichischer Jurist, Autor und Datenschutzaktivist. Er konnte mit seiner Klage vor dem Europäischen Gerichtshof das transnationale Safe Harbour Abkommen zwischen der EU und den USA beenden, was als starkes Signal für den Grundrechtsschutz in Europa angesehen wird.
01:06:10 SUBTITLES
Wikipedia about Max Schrems: Maximilian Max Schrems is an Austrian lawyer, author and privacy activist.
01:06:18 SUBTITLES
He filed a lawsuit before the European Court of Justice that overturned the Safe Harbour Agreement between the USA and the EU
01:06:26 SUBTITLES
which is seen as a strong signal for the protection of fundamental rights in Europe.
01:06:31 MAX SCHREMS (OT)
Na. brauch ich nicht.
01:06:32 MAX SCHREMS (IT)
Ich mag die Macht behalten darüber, was ich erzähle und wem ich es erzähle und wie ich was teile. Und ich glaube, in viel größerem Kontext ist einfach wirklich die Frage, wer hat im Internet die Macht über unsere Information. Kommen wir in eine Welt, wo wir praktisch vollkommen durchleuchtet sind und die dann machen können, was sie wollen?
01:06:33 INSERT
MAX SCHREMS
Data protection lawyer, NOYB
01:06:35 SUBTITLES
I like to keep the power over what I tell to whom and how I share it.
01:06:38 SUBTITLES
In a much bigger context the question is who has the power over our information on the Internet.
01:06:53 MAX SCHREMS
Es hat die ganzen Snowden Aufdeckungen gegeben und jedem war klar, dass die großen US-Konzerne eigentlich die NSA unterstützen. Aber dass das halt amerikanisches Recht ist und die Europäer sich viel beschweren und alle möglichen Untersuchungsausschüsse einrichten und so weiter, aber im Kern der NSA nicht sagen können, dass sie das nicht mehr tun können - weil: Anderes Land. Hat seine eigenen Regeln. Kannst nix machen.
01:06:53 SUBTITLES
After the Snowden disclosures everyone knew the big US companies were in fact supporting the NSA.
01:07:00 SUBTITLES
But since that was based on US law Europeans couldn´t do much about it
01:07:05 SUBTITLES
except for some parliamentary committees of inquiry and complaints.
01:06:26 SUBTITLES
Since the USA have their own rules, the Europeans didn´t have any means to stop the NSA.
09:27 SUBTITLES
The Europeans complaint a lot but felt it was American law and
01:07:15 SENATOR LEAHY (VO)
We caught millions and millions and millions of records to 215. But only dozends of them have been proofed.
01:07:16 INSERTLINE
June 12th 2013: Hearing of NSA Director Keith B. Alexander in the US-Senat
01:07:30 GENERAL ALEXANDER (VO)
That´s correct.
01:07:31 MAX SCHREMS
Dann hat mich, ich glaube eine Journalistin angerufen und hat gesagt, ob das nicht nach europäischem Datenschutz-Recht alles illegal ist, dass diese großen Konzerne das alles in die USA schicken? Und ich war so: Das ist eine sehr gute Frage! (lacht)
Ja. (lacht),
01:07:32 SUBTITLES
One day a journalist phoned me and asked whether it wasn´t illegal according to European Data Protection law
01:07:37 SUBTITLES
that the internet companies transfer EU data to the US. And I said: good question! Yeah, it is!
01:07:44 MAX SCHREMS
Und das war eigentlich der Punkt, der das ausgelöst hat, dass ich mir dann gedacht habe: Interessant, da könnte man eigentlich zu dem Thema eine Beschwerde einbringen und eigentlich schon von Anfang an mit der Idee, dass man Safe Harbour killt.
01:07:44 SUBTITLES
And that´s when I thought, we might file a complaint
01:07:49 SUBTITLES
to kill the “Safe Harbour Agreement” that allowed dataexport from the EU to the USA.
even try to kill Safe Harbour.
01:07:55 MAX SCHREMS
Datenschutz stirbt an 10.000 kleinen Nadelstichen. Und jeder Nadelstich allein ist zu klein, dass jemand als Privatperson deswegen klagt. Und da war es klar, dass wir praktisch eine NGO dafür brauchen, oder einen Verein der das irgendwie auf europäischer Ebene macht.
01:07:55 SUBTITLES
Data protection is dying from thousands of minor breaches,
01:08:00 SUBTITLES
all of which alone too small to file a complaint.
01:08:02 SUBTITLES
It became clear that we needed a NGO or an association to do it on a European level.
01:08:07 MONIKA RIEGLER (OT)
Na alle simma nicht gleichzeitig weg.
01:08:07 SUBTITLES
No, we aren´t all away at the same time.
01:08:09 MAX SCHREMS (OT)
Ich hab mir gedacht, es hat eine Woche gegeben, wo alle weg sind.
01:08:09 SUBTITLES
I thought there was one week with everyone gone.
01:08:11 MONIKA RIEGLER (OT)
Na.
01:08:11 SUBTITLES
No.
01:08:12 MAX SCHREMS (OT)
Dann hab ich mir das falsch gemerkt.
01:08:12 SUBTITLES
Then I remembered it wrong.
01:08:15 MAX SCHREMS (OT)
Gut. Dann nimmst du das, oder? Paßt. Super.
01:08:15 SUBTITLES
Ok, can you take that? Ok, good!
01:08:19 MAX SCHREMS (IT)
Ich habe schon lange ventiliert, dass wir so einen Verein machen sollten, dass immer mehr Leute gesagt haben: Jetzt mach das auch. Red´ net nur davon.
01:08:19 SUBTITLES
I have long considered establishing a data protection NGO.
01:08:22 SUBTITLES
And more and more people said: Don´t just talk. Do it.
01:11:39 ALEXA
Laut Wikipedia: NOYB Europäisches Zentrum für digitale Rechte, von Englisch none of your business – geht dich nichts an – ist eine Nichtregierungsorganisation, die sich der Durchsetzung des Datenschutzes innerhalb der Europäischen Union verschrieben hat.
01:08:38 SUBTITLES
According to Wikipedia, NOYB - European centre for digital rights – from “none of your business”
01:08:44 SUBTITLES
is a NGO committed to enforce data protection within the European Union.
01:08:54 ALEXA
Am Tag des Gültigkeitsbeginns der Datenschutzgrundverordnung erhob NOYB Beschwerde gegen Google, Instagram, WhatsApp und Facebook wegen ihrer intransparenten Praxis der Verarbeitung personenbezogener Daten zu Werbezwecken.
01:08:54 SUBTITLES
The day the Data Protection Regulation was in force,
01:08:58 SUBTITLES
NOYB filed a complaint against Google, Instagram WhatsApp and Facebook
01:09:02 SUBTITLES
for using personal data for commercial purposes without informing the people concerned.
01:09:08 ALEXA
Im Januar 2019 verhängte die französische Datenschutzaufsichtsbehörde ein Bußgeld in Höhe von 50 Millionen Euro an Google, weil das Unternehmen rechtlich unwirksame Einwilligungen zur Verarbeitung ihrer personenbezogenen Daten für „Targeted Advertising“ eingeholt hatte.
01:09:08 SUBTITLES
In January 2019 the French data protection board imposed a fine of 50 million euros on Google.
01:09:16 SUBTITLES
Google had gathered legally ineffective consent to process personal data for targeted advertising.
01:09:30 MAX SCHREMS (OT)
Wir haben´s schräg gemacht (lacht).
01:09:30 SUBTITLES
Doesn´t look straight. – Is it straight? – No.
01:09:37 MAX SCHREMS (OT)
Das schaut aus wie moderne Kunst.
01:09:37 SUBTITLES
Looks like modern art.
01:09:41 NARRATOR
Different works of art can be found in the big Libraries of the world. The books in these Libraries preserve the cultural heritage of the world. Google offered many major libraries, to digitize their holdings. Such as the Austrian National Library. Why?
01:09:56 BRODNIG
Der Slogan, oder ein Motto Googles ist es ja: Wir stellen das Wissen der Welt zur Verfügung.
Vor ein paar Jahren ging dann die Nationalbibliothek diesen Deal ein und es wurde groß als win-win-Situation befeiert: Nämlich Google hilft der Nationalbibliothek, dass die Werke erhalten werden und man kann dann auch auf Google nachschauen. Nur, wenn man genauer hinschaut: Wir geben eigentlich ein Eigentum Österreichs, der Österreichischen Nationalbibliothek einem riesigen Konzern, der damit wachsen, der damit noch wichtiger werden kann.
01:09:56 INSERT
INGRID BRODNIG
Journalist
01:09:59 SUBTITLES
Google´s slogan is: We make knowledge available to the world.
01:10:03 SUBTITLES
A few years ago Google made a deal with the Austrian National Library
01:10:06 SUBTITLES
It was celebrated as a win-win deal:
01:10:09 SUBTITLES
Google helps to preserve the books and make them accessible on Google.
01:10:15 SUBTITLES
But when you look closely, you see what really happened.
01:10:18 SUBTITLES
Austrians national property was handed over to a huge company that can grow with it and become even more powerful.
01:10:26 BRODNIG
Im ersten Moment schaut das ja super aus, wenn Google hilft, dass Bücher einfach stärker digitalisiert werden. Aber man vergisst ein bisschen zu fragen, warum macht Google das? Und die eine Erklärung ist, weil sie der beste und liebste Konzern sind. Die andere Erklärung ist, weil es ihrem Geschäftsmodell hilft, einfach alle Daten der Welt zu haben.
01:10:26 SUBTITLES
Looks nice on first sight: Google helps digitize books.
But why goes Google so?
01:10:34 SUBTITLES
Is it because they are the nicest company ever?
Or because it´s their business model to own all the data of the world?
01:10:42 HORST BISCHOF
Gewisse Forschungsarbeiten kann ich nur mehr bei diesen großen Konzernen überhaupt durchführen. Die Algorithmen sind da jetzt nicht mehr das Ausschlaggebende, sondern es sind wirklich die Daten, die hier den Ausschlag geben.
Und da haben wir als Europa einen erheblichen Nachteil, dass eben diese Konzerne amerikanisch dominiert sind.
01:10:43 INSERT
HORST BISCHOF
Professor for applied computer science, Graz University of Technology
01:10:45 SUBTITLES
Certain research nowadays can only be done within the big data companies.
01:10:48 SUBTITLES
It´s not the algorithms anymore which make the big difference, but the data.
01:10:54 SUBTITLES
Europe has a significant disadvantage today, because these companies are US-dominated.
01:11:01 NARRATOR
The US internet companies not only have the data but also nearly unlimited funds to have the best European minds work for them. Not without reason.
01:11:15 NARRATOR
In Europe, the globally active Internet companies hardly pay any taxes. For years the EU has been discussing what a fair regulation could look like. No result so far. Whoever controls the world market and pays hardly any taxes can buy know-how on a large scale.
01:11:29 NARRATOR
Amazon establishes artificial intelligence research centres across Europe.
The Berlin headquarters is more than discreet from the outside. It cooperates closely with European universities. The majority of the patents then end up with the US group.
01:11:51 NARRATOR
In Austria, at Graz University of Technology, research is being carried out on autonomous drones. The Graz Researchers are among the world leaders in this area. Amazon funds basic research there and has founded an own Company in the immediate vicinity of the University.
01:12:09 HORST BISCHOF
Amazon hat sich hier in Graz angesiedelt. Das ist jene Gruppe, die sich auch mit dem autonomen Fliegen bei Amazon beschäftigt. Genauer, in der Paketzustellung. Das sind fast alles Absolventen des Institutes, die dort mittlerweile arbeiten. Amazon ist deshalb nach Graz gegangen, weil das Knowhow der Personen ihnen so wichtig war, um das zu sichern.
01:12:09 SUBTITLES
Amazon opened an office in Graz.
01:12:11 SUBTITLES
They hired engineers from the local university institute to work on autonomous drones for parcel delivery.
01:12:27 NARRATOR
Similar University related companies are operated by Amazon, Google & Co around the world. Especially in Europe.
01:12:35 HORST BISCHOF
Amazon ist deshalb nach Graz gegangen weil das know-how der Personen ihnen so wichtig war. Um das zu sichern.
01:12:35 SUBTITLES
Amazon wanted to secure this knowhow from the Graz researchers for their inerests.
01:12:43 NARRATOR
The drones learn to reach their destination without human help. Parcels are to be delivered in this way.
01:12:52 NARRATOR
The use of these technologies is also of interest for other sectors.
01:13:00 BISCHOF
Wir machen natürlich keine rüstungsrelevante Forschung in dem Bereich, aber uns ist sehr wohl bewusst, dass natürlich Methoden, die wir hier entwickeln, auch anderweitig verwendet werden können.
01:13:00 SUBTITLES
We don´t do any research for the arms industry of course.
01:13:05 SUBTITLES
But we are well aware that methods we are developing here could be used otherwise.
01:13:12 VERA JOUROVA
God knows, how the Algorithms are set up. What was the starting idea behind that. Lack of transparency. Black box. It will be more and more the issue with the development of the artificial intelligence. We don´t want this: To copy the imperfections of this world.
01:13:19 INSERT
VERA JOUROVA
European Commissioner for Values & Transparency
01:13:35 NARRATOR
Artificial intelligence will change a lot of things in our lives. Internet companies have the data to train algorithms accordingly. How and with which goals they are programmed remains a secret. Will Europe become a kind of digital colony of corporations?
01:13:51 NARRATOR
Max Schrems almost managed to put a stop to this.
01:14:00 NARRATOR
As a result of its suit against Facebook, the European Court of Justice in 2015 overturned the safe-harbour agreement between the EU and the US.
01:14:12 NARRATOR
Safe-Harbour was the legal basis for the mass export of European user data to US servers.
01:14:21 NARRATOR
But success was not to be for long.
01:14:23 ARMIN WOLF
Schon seit Jahren verlangt der 28 jährige Jurist Max Schrems einen sorgsameren Umgang mit diesen Daten. Seit er weiß, dass Facebook mehr als 1.200 ausgedruckte Seiten nur über ihn gespeichert hatte. Auch längst gelöschte. Und heute hat der Europäische Gerichtshof entschieden, dass die EU-Regelung ungültig ist, auf die sich Facebook und tausende andere Unternehmen berufen, wenn sie Daten aus Europa in die USA schicken. Die USA würden nämlich, wie man seit den Enthüllungen von Edward Snowden weiß, keinen ausreichenden Datenschutz garantieren.
01:14:23 SUBTITLES
28-year-old lawyer Max Schrems has been advocating more careful handling of data for years.
01:14:30 SUBTITLES
Since he knows that Facebook stores more than 1.200 printed pages about him only – even presumably deleted ones.
01:14:39 SUBTITLES
Today, the European Court of Justice ruled that the EU regulation Facebook and other companies rely on, when sending data from Europe to the US is invalid.
01:14:51 SUBTITLES
Since the Snowdon disclosures we know that the US do not guarantee adequate data protection.
01:14:48 EUGH RICHTER VASSILIOS SKOURIS (VO)
Das entsprechende Maß an Sicherheit ist nicht gegeben. Die Regelung ist ungültig.
01:14:58 SUBTITLES
The required level of security is not provided. The regulation is invalid.
01:15:09 NEWSREADER
Für den Datenschützer Schrems ist es ein Meilenstein. Dazu gratuliert auch Edward Snowden auf Twitter. Gratuliere Max Schrems. Du hast die Welt zum Besseren verändert.
01:15:09 SUBTITLES
It is a milestone for the data protector Schrems.
01:15:12 SUBTITLES
Edward Snowdon on Twitter: Congratulations, Max. You changed the world for the better!
01:15:20 MAX SCHREMS
Bei uns war es am Anfang eine Geschichte, weil es David gegen Goliath war. Und in den USA war es dann auf einmal diese total unglaubwürdige Möglichkeit, dass da irgendein Bürger gewinnt gegen so einen Konzern vor Gericht.
01:15:20 SUBTITLES
European media liked it because it was a David against Goliath thing.
01:15:24 SUBTITLES
Americans were then totally stunned that a single citizen could win in court against a big company.
01:15:31 NARRATOR
The US government and the lobbyists then increased the pressure: With "Privacy Shield", the EU Commission very quickly created a new regulation to allow for the export of data to the USA.
01:15:43 MAX SCHREMS
Man hat zuerst gewusst, es gibt eigentlich keine Möglichkeit das abzuschließen. Und dann ist ein politischer „order“ gekommen, dass sie aber jetzt irgendein Agreement machen. Im vollen Wissen, dass das vom Gericht wahrscheinlich aufgehoben wird: Naja hmm, hamma festgestellt, geht eigentlich nicht, aber wenn wir es einfach wieder erlassen, dauert es halt einmal 4, 5 Jahre, bis es wieder aufgehoben wird und dann hamma 4, 5 Jahre eine Ruhe.
01:15:43 SUBTITLES
Everybody knew the agreement would not abide. But the political “order” was to make it.
01:15:54 SUBTITLES
In the full knowledge that the court would very likely overrule it again.
01:15:57 SUBTITLES
They said: Well, we know it doesn´t sorrespond to European law
01:15:59 SUBTITLES
But if we simply re-issue the agreement, it will take 4 or 5 years until it is lifted again. And we can continue as before.
01:16:05 NARRATOR
Privacy-Shield practically nullified the ruling of the European Court of Justice. The US secret services can use the PRISM program to continue spying on the European users of Facebook, Google and Co.
01:16:31 ALEXA
Hier ist der Wikipediartikel über Katharina Nocun. Katharina Maria Nocun ist eine Deutsch-Polnische Netzaktivistin, Bloggerin und ehemalige Politikerin. Sie war von Mai bis November 2013 politische Geschäftsführerin der Piratenpartei Deutschland und leitete bei Campact unter anderem die Kampagne „Schutz für Edward Snowden“ in Deutschland. Im April 2018 erschien ihr erstes Buch: „Die Daten die ich rief. Wie wir unsere Freiheit an Großkonzerne verkaufen“, welches die Problematik der Datensammlungen durch Unternehmen und Staat behandelt.
01:16:31 SUBTITLES
Wikipedia about Katharina Nocun: Katharina Nocun is a German-Polish net activist, blogger and former politician.
01:16:41 SUBTITLES
She was political director of the Pirate Party of Germany and led a campaign "Asylum for Edward Snowden" in Germany.
01:16:53 SUBTITLES
Her first book is: "The data I summoned - How we sell our freedom to large corporations.”
01:17:01 SUBTITLES
It deals with the problems of data gathering by companies and the state.
01:17:08 KATHARINA NOCUN
Es ist unmöglich heutzutage, sich den Datensammlungen von Google, Facebook und wie sie alle heißen zu entziehen. Diese Grenze zwischen privaten und staatlichen Daten gibt es nicht. Ich finde es hochgradig gefährlich, diese Konzentration von Daten, in den Händen von einigen wenigen großen Konzernen. Und je mehr das normalisiert wird, diese Überwachung. Desto mehr macht man sich natürlich auch verdächtig, wenn man sich dem entzieht.
01:17:08 SUBTITLES
It's impossible these days to escape the data collections of Google, Facebook etc.
01:17:15 SUBTITLES
There´s no difference between private and government data.
01:17:19 SUBTITLES
I consider this concentration of data in the hands of a few large corporations extremely dangerous.
01:17:24 SUBTITLES
The more people get used to this surveillance the more suspicious you become if you evade it.
01:17:33 NARRATOR
Who determines what we get to see? With what interests? The algorithms create filter bubbles in which hatred spreads in the net. A democratic dialogue is hardly possible anymore.
01:17:50 NARRATOR
EU Commissioner Vera Jourova took action by deleting her Facebook account and publicly calling on people to do the same.
01:17:58 VERA JOUROVA
It was just a dirty, flow of hatred. And I realized that it´s part of my individual freedom to close it or to stop it and also to show that you can survive without Facebook. I have survived it.
01:18:21 SPRECHERIN
Wer unbequeme Wahrheiten publiziert, läuft schnell Gefahr Opfer des Hasses werden.
01:18:21 NARRATOR
Those who publish inconvenient truths quickly run the risk of becoming victims of hatred.
01:18:28 KATHARINA NOCUN
Vor der Landtagswahl in Baden Württemberg habe ich das Wahlprogramm der AFD in Baden Würtemberg analysiert, screenshots gemacht und daraus einen Blogpost verfasst, um andere Menschen darauf hin zu weisen, was diese Partei eigentlich fordert. Beispielsweise, dass die AFD den Klimawandel leugnet. Und ich hab das abends gemacht. Habe dabei die ganze Zeit geflucht. Und mein Freund hat die ganze Zeit gefragt: Was ist denn? Was ist denn? Und ich: Das glaubst du nicht, was ich jetzt schon wieder gefunden habe. Am nächsten Tag bin ich dann aufgestanden und mein Blog war vom Netz gegangen, wegen der vielen Zugriffe. Das ist halt richtig viral gegangen. Ich habe viele Drohungen bekommen. Über Facebook krieg ich ständig ganz krude Sachen.
Das, was mir am Meisten in Erinnerung geblieben ist, ist dieses „Erhäng dich doch.“ … So. … Da steht man morgens auf und will frühstücken …
01:18:28 SUBTITLES
I once analysed the election programme of the German far-right party AFD.
01:18:34 SUBTITLES
I made screenshots of their homepage and wrote a blog post
01:18:38 SUBTITLES
to point out, what this party aims at in fact.
01:18:41 SUBTITLES
That they for instance deny climate change.
01:18:45 SUBTITLES
I did that in the evening swearing quite a lot which made my companion ask me “what´s wrong?”
01:18:50 INSERT
KATHARINA NOCUN
Data protection activist
01:18:53 SUBTITLES
I said “You won´t believe what I´ve found again!”
01:18:55 SUBTITLES
The next morning my blog had crashed due to too many hits. It went viral
01:19:03 SUBTITLES
I received a lot of threats and via Facebook. Weird stuff.
01:19:09 SUBTITLES
What I remember most was: “hang yourself”
01:19:14 SUBTITLES
You get up in the morning and want to have breakfast ...
01:19:19 AUS DEM OFF / INTERVIEWER FROM THE OFF
Wie geht man da damit um?
01:19:20 SUBTITLES
How do you deal with that?
01:19:21 KATHARINA NOCUN
Ich hab mich mittlerweile daran gewöhnt. Klingt bitter, aber es ist so.
01:19:21 SUBTITLES
Somehow I´ve got like used to it. Sounds bitter but that´s how it is.
01:19:34 NARRATOR
Can hate on the net be controlled by deletion obligations? In a recent decision, the European Court of Justice requires Facebook to delete hate comments. Does this open the door to censorship through algorithms?
01:20:00 NARRATOR
Katharina Nocun wants to make people aware of the issue. Most users don't have any idea how much big Internet companies know about each of us. The details are alarming.
01:20:13 KATHARINA NOCUN
Wenn du für einen Dienst nicht zahlst, bist du nicht der Kunde sondern das Produkt. Aber ist das wirklich so, oder ist das nur eine Übertreibung. Übertreibung. Willkommen beim Denkangebot Podcast. Willkommen beim Denkangebot Podcast. Mein Name ist Katharina Nocun und unser Thema heute lautet: Gläserner Kunde.
01:20:13 SUBTITLES
If you don´t pay for a service you are not a customer but the product. Is that an exaggeration?
01:20:25 SUBTITLES
Welcome to my Podcast. My name is Katherina Nocun
01:20:32 SUBTITLES
and I will talk about the „transparent customer“ today.
01:20:36 KATHARINA NOCUN
Seit 2008 bin ich Kunde bei Amazon. Im Rahmen eines Experiments habe ich dort angefangen, möglichst viel bei Amazon zu recherchieren und auch zu bestellen. Naja: Ich wollte eine schöne fette Datenspur legen. Denn nur sehr wenige Menschen wissen, dass sie einen rechtlichen Anspruch darauf haben, jederzeit von ihrem Anbieter eine Kopie ihrer eigenen Daten anzufordern. Was ich damals noch nicht wusste. Naja. Das sollte der Beginn einer der intensivsten Brieffreundschaften meines Lebens werden.
01:20:36 SUBTITLES
I have been a customer of Amazon since 2008.
01:20:39 SUBTITLES
As part of an experiment, I started searching and ordering as much as possible on Amazon´s webpage.
01:20:46 SUBTITLES
I wanted to create a nice fat data track.
01:20:50 SUBTITLES
Because very few people know that they have the right to request a copy of their own data from their provider.
01:20:58 SUBTITLES
That´s when one the most intensive penfriend correspondences of my life started.
01:21:05 KATHARINA NOCUN (OT)
Ich hab mich bereits mehrfach per Brief an die Datenschutzabteilung gewendet. Diese hat ab einem bestimmten Zeitpunkt nicht mehr reagiert. Deshalb rufe ich jetzt an.
01:21:05 SUBTITLES
“I sent several letters to your data protection department.”
01:21:10 SUBTITLES
“From a certain moment, they no longer replied. That´s why I´m phoning you.”
01:21:15 KATHARINA NOCUN
Denn leider rückte das Unternehmen die Informationen, die ich haben wollte zuerst nicht raus. Rückblickend muss ich sagen: Seine Daten von Amazon anzufordern, ist in etwa so, als würde man versuchen, einem Teenager die Wahrheit über das sturmfreie Wochenende aus der Nase zu ziehen. Erst wenn klar ist: Das kann ich auf gar keinen Fall mehr leugnen, werden Informationen rausgerückt. Und zwar Stück für Stück für Stück.
01:21:15 SUBTITLES
Because unfortunately, at first the company didn´t give out the information I wanted.
01:21:20 SUBTITLES
In retrospect I have to say that requesting your data from Amazon
01:21:25 SUBTITLES
is like trying to pull out the truth about the last party-weekend from a teenager.
01:21:30 SUBTITLES
Only once they know there is no point in denying anymore, they release information.
01:21:35 SUBTITLES
And then only one by one by one …
01:21:38 KATHARINA NOCUN
Ich telefoniere nicht von meinem eigenen Handy, das ist richtig. Über ein Kundenkonto kann man nicht telefonieren. Man nimmt ein Telefon.
01:21:38 SUBTITLES
I am not calling you from my own mobile, correct.
01:21:41 SUBTITLES
You can´t phone from a customer account. You use a telephone.
01:21:46 KATHARINA NOCUN
Amazon stellte sich zunächst dumm. Und schickte mir die Info: Ich könne mir ja alles in meinem Profil ansehen. Das ist natürlich totaler Quatsch. Nach einigen Monaten wurde mir eine verschlüsselte CD ROM zugeschickt. Darauf fand ich allerlei Dokumente. Und dann war da noch so eine große Excelltabelle.
Die Excelltabelle hatte 15.365 Zeilen. Und zu jeder Zeile gab es bis zu 50 zusätzliche Angaben. Ich habe etwas gebraucht, bis ich begriff: Das sind tatsächlich alle 15.365 Klicks, die Amazon in den letzten 14 Monaten meinem Account zugeordnet hat.
Hätte ich das ganze ausgedruckt, wäre der Papierstapel größer als ich mit meinen 1 Meter 70 gewesen. Als ich diesen Datenberg dann vor mir sah, verstand ich plötzlich, warum Amazon mir diese Informationen zunächst einmal vorenthalten wollte. Denn als ich so auf die Liste starrte, fühlte ich mich mit einem mal - sehr nackt.
01:21:46 SUBTITLES
At the beginning Amazon played dumb.
01:21:49 SUBTITLES
They told me I can find everything in my profile. Which is crap of course.
01:21:54 SUBTITLES
After a few months I recived an encrypted CD ROM with all kinds of documents. Including a huge excel file.
01:22:05 SUBTITLES
The Excel spreadsheet had 15.365 lines, each line with up to 50 additional entries.
01:22:14 SUBTITLES
It took me some time to realize:
01:22:16 SUBTITLES
Those were actually all 15.365 clicks Amazon had assigned to my account in the last 14 months.
01:22:25 SUBTITLES
If printed the paper stack would have been higher than me with my 1 meter 70.
01:22:31 SUBTITLES
With this mountain of data in front of me I suddenly understood why Amazon wanted to withhold this information.
01:22:38 SUBTITLES
I stared at the list and felt .... naked.
01:22:59 ALEXA
Dr. Ksenia Ermoshina ist eine russische Aktivistin und Forscherin für Internet-Freiheit. Sie promovierte in Wissenschafts- und Technologiesoziologie am Mines ParisTech Center for Sociology of Innovation. Sie arbeitet am Center for Internet and Society und ist assoziierte Postdoc-Forscherin am Citizen Lab der University of Toronto.
01:22:59 SUBTITLES
Dr. Ksenia Ermoshina is a Russian activist and researcher for internet freedom.
01:23:05 SUBTITLES
She holds a PhD in sociology of science and technology from the Mines ParisTech Center for Sociology of Innovation.
01:23:13 SUBTITLES
She works at the Center for Internet and Society and is an associate postdoctoral researcher at the Toronto University Citizen Lab.
01:23:21 NARRATOR
Challenge the powerful Russian regime on the Internet? Ksenia Ermoshina and a group of Internet activist dared to do exactly that.
01:23:40 KSENIA ERMOSHINA (IT)
I think it started, when my dad offered me my first computer. He said: I will buy you a computer. But you will not play videogames. So I started cracking some programmes. And since then, I evolved a bit. And then, there was this movement in 2011 in Russia. When elections were falsified. So we decided to take part. Some people still had Gmail or unsecure mail clients. So we had to move all our Communication from Google Groups from this centralised media to more protected media.
01:23:40 INSERT
KSENIA ERMOSHINA
Internet freedom activist
01:24:21 KSENIA ERMOSHINA (IT)
Somehow it protected us from infiltration. But it also had a bad role. Because, this activist technology is really frigthening the majority of people. They don´t want to migrate from Gmail. Because they feel themselves comfortable. It´s very userfriendly. So we lost a lot if activists because of these security measures.
01:24:48 SPRECHERIN
Für die Präsidentschaftswahlen in Russland 2011 hat Ksenia gemeinsam mit anderen Datenaktivisten einen gesicherten, anonym erreichbaren Server aufgesetzt.
01:24:48 NARRATOR
Together with other data activists, Ksenia set up a secure, anonymously accessible server for the presidential elections in Russia in 2011.
01:24:58 KSENIA ERMOSHINA
We tried to do several things. Actions, that acutally consist in going inside voting stations: So when you see someone, who is suspiciously putting a lot of voting ballots in the ballotbox, you can film it and send this data to a specific crowd sourced platform. And all the citizens of Russia can see the witnessing of the fraud. And this played an important part in the protest. Because people were using smartphones, to document the falsifications.
01:25:29 KSENIA ERMOSHINA
And just the next day. It was on 4th of December, there was a huge wave of protest on the street, because of this video witnessing. But it didn´t change the results. Because the Russian system is so heavy, that it´s very difficult for small actors, to change it, if they are a few. But we can raise awareness on a lot of subjects. And it makes people reflect and prepare somehow for changes in the future.
01:25:58 KSENIA ERMOSHINA
I was organising workshops for people, who wanted to install this kind of tools.
(eine Biene fliegt ihr um den Kopf – sie lacht) I hope there is no camera inside this small bee.
So, we were organising workshops, that are actually called Cryptoparties. I was putting people in connection. And also trying to make it simple. I was basically this translator between acitivists and hackers.
01:26:38 NARRATOR
Our personal data on the internet would be safer if they were treated like our exclusive personal property.
01:26:48 NARRATOR
Markus Sabadello and other programmers are developing software tools to give users back control over their digital identity.
01:27:00 MARKUS SABADELLO
We have been working on a kind of identifier. Some way, you can reference others. Something you can use, to start communicating and start building relationships: Called a “decentralized identifiyer”. It´s a new kind of internet adress. It´s a little bit like a domain name. But it´s something, you can choose yourself. This is happening right now. This is going to be standardised at the world wide web consortium. It´s only starting. But I think, it´s another interesting building block.
01:27:31 NARRATOR
Data sovereignty AND protection against an all-powerful opponent: Is that possible?
01:27:38 KSENIA ERMOSHINA
We managed to create a system that protected us from being tracked. We also use this idea that, instead of creating one big political party. Or one big movement. We should act like a distributed network of small groups. And people built a specific mobile App for observers.
01:28:12 MARKUS SABADELLO (OT)
Hey Ksenia. Are you there? Hello can you hear me? Are you still in the Ukraine at the hackathon? I wanted to follow up with you on, what we have talked about last time. Do you remember. Our project work on decentralised identity.
01:28:33 MARKUS SABADELLO (IT)
Man trifft sich ja regelmäßig bei Hakathons, wo man sich dann genau ein bestimmtes Feature, eine bestimmte Funktionalität oder auch ein bestimmtes Problem anschaut und versucht, das zu verbessern.
01:28:34 INSERT
MARKUS SABADELLO
Software Developer
01:28:36 SUBTITLE
We meet regularily at hakathons
01:28:39 SUBTITLE
where we work on a specific features or problem and try to improve them.
01:28:49 NARRATOR
At Hackathons weak points in the programmes are also eliminated.
01:28:53 FUXJÄGER
Do hommas.
MARKUS SABADELLO
Hey. Super.
01:28:53 SUBTITLE
Here you are!
Wow, great. – Awesome.
01:28:57 KOLLEGE
Kannst da mehrere a no eini schreiben?
01:28:57 SUBTITLE
Is it possible to insert more commands here?
01:29:00 FUXJÄGER
Yeah!
01:29:00 SUBTITLE
Yes.
01:29:03 SUBTITLE
That´s great!
01:29:05 FUXJÄGER
Nächster Schritt: Die Signaturen.
01:29:05 SUBTITLE
Next step: the signatures.
01:29:13 NARRATOR
With the General Data Protection Regulation GDPR the EU set new standards to protect privacy. The lobbying pressure of the Internet companies before the launch was heavy. Vera Jourova was the EU Commissioner responsible for the political implementation.
01:29:29 WOJTEK TALKO
The whole Problem is, that they did define it in the guidlines. And the guidelines mean, that it´s enough solidarity. The moment you have – like – one staff, GDPR applies.
01:29:37 INSERT
WOJTEK TALKO
Cebinet member of EU Commissioner Vera Jourova
01:29:43 VERA JOUROVA
That´s the problem. That it was put into the hands of these people.
01:29:48 WOJTEK TALKO
No, but I think, the problem if I understand – in the history, there was some exception in your proposal - in the commission proposal. And then, parliament removed everything, except of this. So basically, it was left a little without context and that´s why I think, it should have been removed completely. But this is one of this strange compromises, that GDPR includes.
01:30:08 VERA JOUROVA
We shouldn´t have let this happen. But it was at the beginning and I didn´t understand.
01:30:14 WOJTEK TALKO
And you didn´t have me.
01:30:16 VERA JOUROVA
And I didn´t have you …
01:30:27 NARRATOR
What can be deduced from the data Amazon possesses about Katharina Nocun?
The data analyst Katja Dittrich took a closer look at it. At conferences, they present the results together.
01:30:43 Katja Dittrich
Wir würden zu Beginn mal ne Frage stellen. Wieviele Personen haben die Weihnachtsgeschenke bei Amazon gekauft. Ola Upps. Ok. Ich würd mal grob sagen die Hälfte.
01:30:43 SUBTITLE
We would like to ask you a qustion:
01:30:45 INSERT
KATJA DITTRICH
Data Analyst
01:30:48 SUBTITLE
How many of you have ordered their christmas presents on Amazon?
01:30:51 SUBTITLE
Ok. I would say, the half of you.
01.30:54 NARRATOR
Katja Dittrich visualizes, that Amazon knows exactly what millions of people are interested in. Is that a threat to our civil rights?
01:31:07 NARRATOR
In order to raise awareness of data protection issues beyond the insider community, Katharina also cooperates with data journalists such as Michael Kreil.
01:31:17 MICHAEL KREIL
Oftmals ist mir bei Datenanalysen aufgefallen, dass ich wirklich komplett anonyme Daten hatte, aber dann tatsächlich auf einzelne Personen schließen konnte.
01:31:17 SUBTITLE
I often realized when I analysed anonymous data that I could deduce on single individuals.
01:31:25 MICHAEL KREIL
Wir hatten einmal ein Projekt gemacht, wo uns insgesamt 1.000 Leute ihre I-Phone Bewegungsdaten zur Verfügung gestellt haben. Und mir ist dann später aufgefallen, dass es in Brandenburg Dörfer gab mit Häusern, von denen dann das I-Phone dachte, dass dort irgendwie 10 WLAN Rooter stehen. Auf einem Grundstück. Was überhaupt keinen Sinn macht. Und ich habe dann weiter reingeforscht und habe festgestellt, das sind die Häuser, wo Leute leben, die ein I-Phone haben.
Das heißt, mir haben völlig andere Leute ihre anonymen Daten gegeben und daraus konnte ich völlig unbeteiligte Leute deanonymisieren.
01:31:26 SUBTITLE
We once did a project in which a total of 1.000 people provided us with their I-Phone movement data.
01:31:32 SUBTITLE
Later I noticed that there were private houses which the I-Phone assumed were equipped with 10 WLAN routers.
01:31:42 SUBTITLE
Which makes no sense.
01:31:44 SUBTITLE
I found out, these were the houses, where people with an I-Phone lived.
01:31:50 SUBTITLE
People had given me their anonymous data. And with that I was able to de-anonymize completely uninvolved other people.
01:31:58 MICHAEL KREIL
Das ist halt immer das Problem, bei Amazon oder bei anderen Datenkonzernen gibt es niemanden. Es gibt es nicht irgendwie eine New York Times, die darauf Zugriff hat um sich das anzuschauen, oder eine Datenschutzbehörde. Wir können jetzt eigentlich nur den Konzernen vertrauen.
01:31:58 SUBTITLE
That´s the problem. There is no control at Amazon or at others. There is no data protection authority that has access to control that.
01:32:07 SUBTITLE
All we can do is trust the corporations.
01:32:09 KATHARINA NOCUN
Es gab ja auch dieses Beispiel von dem Fitnesstrackeranbieter, der die besten Joggingrouten veröffentlicht hat. Und dann hat sich das Militär gemeldet und gesagt: Naja, das ist nicht ganz gut, wenn ihr den Grundriss unserer Militärbasen im Irak veröffentlicht.
01:32:09 SUBTITLE
There was this fitness tracker publishing the best jogging routes.
01:32:17 SUBTITLE
One day the military approached them and said:
01:32:26 SUBTITLE
"Well, it´s not the best idea to publish the layout of our military bases in Iraq."
01:32:24 MICHAEL KREIL
Die waren wunderbar schön zu sehen. Weil die Soldaten genau um die Grenzen des Campgeländes der geheimen Militärbasen laufen. Genau das ist es halt.
01:32:24 SUBTITLE
They could be seen perfectly.
01:32:26 SUBTITLE
Because the soldiers used to jog exactly along the boundaries of the secret camps.
01:32:30 NARRATOR
Even the US army can become a surveillance victim, obviously.
Michael Kreil also analyzed the Facebook data of Max Schrems. They reveal almost all of his life habits.
01:32:45 MICHAEL KREIL
Bei dem Fall Max Schrems beispielsweise hatte man viel darüber gesprochen, wie viele Daten Facebook eigentlich sammelt. Wir hatten versucht, das nochmals in Bildern zu machen und unterschiedliche Aspekte zu visualisieren. Beispielsweise Geodaten: Wo hat sich Max Schrems befunden. An welchen Orten. Wann schläft er, wann ist er wach. Wie sind so seine Tag-Wach Rhythmen. Und haben versucht in mehreren kleinen Grafiken einen Eindruck zu vermitteln, was in diesen Daten drin steht. Eine Perspektive darauf, wie sein Freundeskreis ist. Und so weiter und so fort.
01:32:45 SUBTITLE
The question is how much data Facebook had actually gathered about Max Schrems.
01:32:52 SUBTITLE
We tried to visualize different aspects of Max Schrems´ data. Geodata, for example: Where was Max Schrems?
01:33:01 SUBTITLE
When does he sleep, when is he awake? What´s his day-wake rhythm?
01:33:06 SUBTITLE
These small graphics visualize the information contained in the data.
01:33:11 SUBTITLE
They show the network of friends and so on.
01:33:16 NARRATOR
Markus Sabadello and other developers try to get to the root of the problem.
01:33:27 MARKUS SABADELLO (IT)
Self sovereign identity ist das Gegenteil von dem was heute passiert.
Heute, wenn ich im Internet unterwegs bin, ist Identität immer etwas, das mir zugewiesen wird. Von Amazon, von Facebook, von Skype. Überall dort, wo ich mich mit Username und Passwort registriere. Und die Idee der self sovereign identity ist, das umzudrehen. Dem Individuum Souveräntität über seine Identität, über seine Daten zu geben, wo niemand außer mir bestimmen kann, wer ich bin.
01:33:27 SUBTITLE
Self sovereign identity is the opposite of what we have today.
01:33:01 INSERT
MARKUS SABADELLO
Software developer
01:33:33 SUBTITLE
Today on the Internet, identity is something that is assigned to me from Amazon, from Facebook etc.
01:33:39 SUBTITLE
Everywhere I register with a username and password.
01:33:41 SUBTITLE
The idea of self sovereign identity is to reverse that.
01:33:45 SUBTITLE
To give back sovereignty over identity and data to the individual.
01:33:50 SUBTITLE
To make sure, that nobody but me can determine who I am.
01:33:58 NARRATOR
To do so Sabadello and his colleagues develop both the software and the necessary hardware such as the so-called "Freedom Box".
01:34:07 SABADELLO (IT)
Die Freedom Box ist quasi die physische Komponente zu so einem dezentralen System. Das ist ein kleiner Server, den sich jeder zuhause aufstellen kann, wo ich bestimmte Dinge, bestimmte Dienste, Anwendungen, Services, die ich normalerweise verwende, die üblicherweise auf zentralen Servern verwaltet werden und betrieben werden im Silicon Valley oder sonstwo - dann kann ich diese Dienste wie social networking oder chat oder so, mit einem kleinen Server, nämlich der freedom box, beim mir zuhause selbst betreiben.
01:34:07 SUBTITLE
The Freedom Box is the physical component of such a decentralized system. It´s a small home server.
01:34:17 SUBTITLE
This allows me to operate certain services for social networks at home,
01:34:07 SUBTITLE
that are normally managed on servers in Silicon Valley or elsewhere.
01:34:40 NARRATOR
The freedom box can already be ordered on the internet. But so far, it is only known in a small community.
01:34:53 LOHNINGER (OT)
Hamma alles für morgen?
01:34:53 SUBTITLE
Are we ready for tomorrow?
01:34:55 ANGELIKA ADENSAMER (OT)
Ja. Ich hab dann zuerst noch diese schwarzen Dinger.
01:34:55 SUBTITLE
Yes.
01:35:01 NARRATOR NEU
Many Countries today already use spy software that can be secretly installed on private devices. The Austrian government also wanted to legalize such trojans in Austria. The NGO “epicentre works” in Vienna is preparing for a protest against that. The following day, the Austrian Constitutional Court will negotiate a lawsuit against these surveillance laws.
01:35:29 ANDREAS CSAK (OT)
Wir bringen Löcher am VfGH Gebäude an. Wie die Löcher, nur größer. Auf einem steht halt: Wenn der Bundestrojaner kommt, dann lässt es Löcher offen. Und Löcher sorgen für ungebetene Gäste. Und da gibt´s ein paar Löcher, aus denen dann Leute rausschauen, wie der Putin, oder der Kim Jong Un. Oder Trump oder …
01:35:29 SUBTITLE
We attach holes to the court wall.
01:35:34 SUBTITLE
One says: the federal trojan leaves holes open for uninvited guests.
01:35:40 SUBTITLE
Then there are holes where people like Putin or Kim Jong Un or Trump look out.
01:36:02 THOMAS LOHNINGER (IT)
Wir machen solche Aktionen, weil es ganz oft darum geht, dass es jemanden gibt, der aufsteht. Der vor dem Verfassungsgerichtshof mit diesen Schildern ein Symbol setzt.
01:36:02 SUBTITLE
We do that because it needs people to stand up.
01:36:07 SUBTITLE
To set a symbol in front of the Constitutional Court with these signposts.
01:36:13 POLIZIST/POLICEMAN (OT)
Bitte entfernen. Ja.
01:36:13 SUBTITLE
Please remove that.
01:36:15 LOHNINGER (IT)
Für Privatsphäre, für Grundrechte. Wir verstehen uns als die Stimme von ganz ganz vielen Leuten, die vielleicht nicht die Zeit haben am Vormittag auf die Freyung zu gehen und zu demonstrieren.
01:36:15 SUBTITLE
…for privacy, for fundamental rights. We stand for those who don´t have time to come here to protest.
01:36:33 LOHNINGER (IT)
Es sind einige Formen von anlaßloser Massenüberwachung da drinnen. Wie die Überwachung von allen Kennzeichen auf Österreichs Straßen.
01:36:33 SUBTITLE
The Trojan allows for mass surveillance without cause
01:36:38 SUBTITLE
such as the tracking of all the license plates on Austria's roads.
01:36:42 INSERTLINE
June 25th 2019: Austrian Federal Court of Constitution
01:36:42 GERICHTSDIENER / COURT USHER
Antrag eines Drittels der Mitglieder des Nationalrates zur Aufhebung näher bezeichneter Bestimmungen des Sicherheitspolizeigesetzes wegen Verfassungswidrigkeit.
01:36:44 SUBTITLE
Application to repeal the Security Police Act due to unconstitutionality.
01:36:53 THOMAS LOHNINGER
Die Verfassungsklage kommt von NEOS und SPÖ im Nationalrat. Und wir haben Input gegeben zu der Klage.
So ein Bundestrojaner kommt nur dann auf mein Telefon unbemerkt, indem er sich einer Sicherheitslücke bedient. Und das ist eine Sicherheitslücke, die gibt es nicht nur auf meinem Telefon. Sondern auf jedem Apple oder Google Telefon auf dieser Welt. Und dadurch muss der Staat auf einmal, wie jeder Cyberkriminelle dafür zahlen, dass diese Sicherheitslücken offen bleiben. Und dadurch investiert er in die Unsicherheit von Millionen von Geräten. Nur damit er ein paar Leute ausspionieren kann.
01:36:53 SUBTITLE
This constitutional complaint to which we had given input was brought in by two parties from the opposition. The Socialdemocrats and the Liberals.
01:37:02 SUBTITLE
A governmental trojan can only get unnoticed on my phone by using a security hole.
01:37:08 SUBTITLE
Which needs to be not only on my phone. But on every Apple or Google phone in the world.
01:37:14 SUBTITLE
The government, like every cybercriminal, has to pay to keep these loopholes open.
01:37:02 SUBTITLE
And is investing in the vulnerabilities of millions of devices by doing so. Just for being able to spy on a few people.
01:37:29 NARRATOR NEU
The Lawsuit against the new surveillance laws in Austria was sucessful. The constitutional court has reversed it. A stage of success for the activists.
01:37:44 NARRATOR
How do net activists mobilise citizens across Europe? If you have little money, you have to be smart.
01:37:54 THOMAS LOHNINGER
Der Trick ist, wir verwenden ganz alte Technologie, um neue Technologie zu retten. Also wir verwenden Faxe, um das Internet retten.
01:37:54 SUBTITLE
The trick is, we use very old technology to save new one. We use faxes to save the Internet.
01:38:03 THOMAS LOHNINGER (IT)
Als die EU-Kommission ihr Gesetz zur Netzneutralität vorgestellt hat, das war für uns einfach ein Moment - dass kann man so nicht stehen lassen. Da müssen wir was tun. Und ich habe dann mit drei vier Freunden gemeinsam die erste Version dieser Kampagne gebastelt.
01:38:03 SUBTITLE
When the EU commission presented their law for net neutrality, we knew we had to do something.
01:38:11 SUBTITLE
With a few friends I then came up with a first draft of the campaign.
01:38:17 THOMAS LOHNINGER (OT)
Und das machen wir einfach so, indem wir über die Website „safetheinternet“ den Leuten die Möglichkeit geben mit ein paar Klicks Faxe ans Europaparament schicken. Und das Schöne bei der Aktion ist, dass im Europaparlament die Faxgeräte gleichzeitig auch die Drucker sind. Das heißt, du kannst das Fax nicht ausschalten, ohne dass du den Drucker ausschaltest. (sie lachen)
Und das bedeutet, es gibt wirklich dann in dem Büro von dem einzelnen Abgeordneten eine physische Manifestation von dem Bürgerinnenprotest.
(sie lachen)
Und ich wett, das wird supertoll funktionieren.
01:38:17 SUBTITLE
That´s how we do it: People can send faxes to the European Parliament via the website "safetheinternet" with just a few clicks.
01:38:26 SUBTITLE
In the EU Parliament the fax-machines are also the printers. That means you can't turn off the fax without turning off the printer.
01:38:38 SUBTITLE
That leads to a real physical manifestation of the citizens' protest in the office of each member of parliament.
01:38:17 INSERTLINE
European Parliament Strasbourg
01:38:53 NARRATOR
Through their European network of data protection NGOs, activists got citizens across Europe to send faxes to EU parliamentarians of their countries in order to attract their attention.
01:39:23 SIMON SCHRÖCKER
Die blockieren unseren Drucker total.
01:39:23 SUBTITLE
They are completely blocking our printer.
01:39:27 MONIKA VANA (OT)
Das ist die lustige Datenschutzaktion oder?
01:39:27 SUBTITLE
That´s this funny data protection compaign, isn´t it?
01:39:30 MONIKA VANA (IT)
Wir haben einen so eng getakteten Zeitplan, dass es darum geht, Aufmerksamkeit zu erregen. Und alles was Aufmerksamkeit erregt, ist schon die halbe Miete. Und das erregt Aufmerksamkeit.
01:39:23 INSERT
MONIKA VANA
Member of the European Parliament, the Greens
01:39:33 SUBTITLE
With our tight schedule it's all about attracting attention. And this is getting attention.
01:39:39 THOMAS LOHNINGER
Und da haben wir eine halbe Million Kommentare an die Regulierungsbehörden geschickt.
01:39:39 SUBTITLE
Here we can see, that we sen half a million notes to the regulatory bodies.
01:39:47 NARRATOR
Max Schrems has messed with the largest corporations and the most powerful secret services in the world. His case against Facebook has once again landed him before the European Court of Justice. If he wins, the Internet companies and the NSA lose direct access to European user data. A lot is at stake: for us Europeans and for Max Schrems himself.
01:40:19 MAX SCHREMS (IT)
Wenn du verlierst, hast du Millionengebühren zu bezahlen in Wirklichkeit. Also, es ist eigentlich a bissel a Kamikaze-Aktion, da irgendwo a Klage einzubringen.
01:40:19 SUBTITLE
Losing the case means losing millions of procedural fees.
01:40:19 SUBTITLE
Filing a lawsuit is actually a kind of a kamikaze action.
01:40:28 SPRECHERIN
Das Team von NOYB hat gerade die schriftlichen Fragen des Europäischen Gerichtshofes in diesem Verfahren erhalten.
01:40:28 NARRATOR
The NOYB team has just received the written questions from the European Court of Justice in this case.
01:40:35 MAX SCHREMS (OT)
Before the law it said , it has to be a country. Now GDPR kind of allows also to be a sector within the country.
01:40:42 ALAN DAHI
But is it truely a sector of country. Is that certified? I mean you are streching this term.
01:40:49 MAX SCHREMS (IT)
Es lässt sich auch von der Art, wie die Fragen gestellt werden, auf was sie verweisen schon einschätzen, wie sie denken. Und in welchem Konstrukt sich jetzt für sie noch Fragen ergeben. Damit hat man schon a gute Idee, wo man eigentlich ist in so einem Fall.
01:40:50 SUBTITLE
The way the court formulates the questions gives yu an idea of how their minds work
01:40:59 SUBTITLE
and where you stand in such a case.
01:41:02 ALAN DAHI
But I mean if we look at 44 seperate from 45 than I agree with you. It´s problably just a security element.
01:41:02 INSERT
ALAN DAHI
Data protection lawyer, NOYB
01:41:09 MAX SCHREMS
So we should basically seperate that into 2 questions? Or 2 answers and say on the part, we would like to answer this and in the second one, we would like to answer that.
01:41:22 DEMONSTRANTEN / PORTESTERS
Wir zu-sam-men ge-gen drei-zehn! Wir zu-sam-men ge-gen drei-zehn!
01:41:22 SUBTITLE
Hand in hand against article thirteen.
01:41:22 INSERTLINE
March 2019: Anti-uploadfilter demonstrations across Europe.
01:41:30 DEMONSTRANTEN / PORTESTERS
Wir sind keine Bots! Wir sind keine Bots!
01:41:30 SUBTITLE
We are no bots. We are no bots.
01:41:37 DEMONSTRANTEN / PORTESTERS
Stoppt die Zensur! Stoppt die Zensur!
01:41:37 SUBTITLE
Stop censorship! Stop censorship!
01:41:44 DEMONSTRANTEN / PORTESTERS
Wir zu-sam-men ge-gen drei-zehn!
01:41:44 SUBTITLE
Hand in hand against Article thirteen.
01:41:46 THOMAS LOHNINGER
Ich habe hier wirklich große Sorge für die Meinungsfreiheit und die Vielfalt des Internets. Weil das ein so großer Kontrollhebel ist, der hier eingeführt wird. Wo das Missbrauchspotenzial und die Versuchung hier an diesem Regler zu drehen und mit einem einzigen Config-File von Demokratie auf Diktatur umzustellen.
01:41:22 INSERT
THOMAS LOHNINGER
Data protection activis, epicentre.works
01:41:48 SUBTITLE
I am very concerned about freedom of expression and the diversity of the Internet.
01:41:52 SUBTITLE
The uploadfilter is such a big control lever that is being introduced here.
01:41:56 SUBTITLE
The temptation to abuse this, to simply switch from democracy to dictatorship can be great.
01:42:06 DEMONSTRANTEN / PORTESTERS
Wir sind hier! Wir sind laut! Weil man uns die Freiheit klaut!
01:42:11 THOMAS LOHNINGER (OT)
Wisst ihr, woran mich das hier erinnert? An ACTA. Ich bin schon so ein „Old Fart“ und erinnere mich noch, wie wir damals ACTA gewonnen haben. Das war sehr ähnlich wie dieser Moment hier. Es fühlt sich genauso an. Es ist dieselbe Protestbewegung. Mit der niemand gerechnet hat. Mit Menschen, für die das Internet nicht nur „ das Neuland“ ist, sondern ihre alltägliche Lebensrealität. Und genau wir sind deswegen aufgefordert, jetzt wirklich mit allen Leuten zu reden, die wir kennen, um das Bewusstsein zu schärfen und dann hoffentlich am Dienstag zu gewinnen.
Emails schreiben, nicht mehr so hilfreich. Ruft´s dort an. Sagt anderen Leuten, dass sie anrufen sollen. Redet mit eurem Umfeld.
01:42:11 SUBTITLE
This reminds me of ACTA. I´m an old fart remembering when we won ACTA.
01:42:19 SUBTITLE
It feels the same way. It is the same protest movement. A movement nobody expected.
01:42:19 SUBTITLE
With people for whom the Internet is not simply new territory, but their everyday reality.
01:42:35 SUBTITLE
We must talk to everyone we know to raise awareness in order to win on Tuesday.
01:42:44 SUBTITLE
It is already to late to write e-mails. Call the MPs by phone. Tell other peple, they shall call.
01:42:54 NARRATOR
Despite Europe-wide mass protests the activists could not gain a majority against the introduction of upload filters in the EU Parliament. They certainly won't give up though.
01:43:05 THOMAS LOHNINGER (IT)
Manche Politiker haben sich wirklich überzeugen lassen. Wir hatten 150 Pledges von Abgeordneten, die dann gesagt haben: Ja. Ich werde gegen dieses Gesetz stimmen. Wir hatten aber auch Abgeordnete die sich beschwert haben, wie es sein kann, dass man sie jetzt bei der Arbeit stört, weil die Bevölkerung sie anruft.
01:43:05 SUBTITLE
Certain politicians have been persuaded. We had 150 pledges from MPs who said: I will vote against this law.
01:43:13 SUBTITLE
But we also had MEPs complaining of being disturbed at work because people kept phoning them.
01:43:30 NARRATOR
Max Schrems is on his way to Luxemburg. In a few days' time, the European Court of Justice will be hearing its model case against Facebook, which could once again put a stop to the uncontrolled export of data to the USA.
01:44:00 NARRATOR
The US are putting pressure on the process. The question is whether the PRISM interception programme will continue to have access to the user data of tens of millions of EU citizens.
01:44:15 NARRATOR
For the first time in history, the US gained the right to be heard before the European Court of Justice.
01:44:27 (precicely) NARRATOR
Tension before the trial is high.
01:44:41 NARRATOR
The NOYB team rented a house near the European Court of Justice where they want to prepare for the trial.
01:45:09 ALAN DAHI
OK. Then in 20 Minutes
01:45:10 MAX SCHREMS
OK. Then in 20 Minutes
01:45:20 MAX SCHREMS
In Wirklichkeit vor so einer Verhandlung ist es Bulimielernen, wie man das so auf der UNI nennt.
Man probiert noch jedes Ding sich irgendwie ins Hirn hinein zu stecken, weil man einfach nicht weiß. Man ist ja bei so einem Gericht wie ein Prüfling am Ende.
01:45:20 SUBTITLE
It´s kind of binge learning before such a trial. You try to memorize as many facts as possible.
01:45:28 SUBTITLE
In the end in front of the court you are like a student in an exam.
01:45:31 MAX SCHREMS (OT)
It´s annoying to get these questions. Beauce they are usually Questions, that go against you. At the same time it allows to clearify Issues.
01:45:36 MAX SCHREMS
Vom EUGH wird man gefragt. Dann darf man antworten. Aber man darf sich selbständig gar nicht melden. Man weiß, von 1000 Fragen die man vorbereitet, kann eine oder zwei kommen. Das heißt man weiß inherrent, dass 99% von der Arbeit sinnlos sind. Deswegen war eigentlich für uns am Ende das Pauken das größte Ding. Sonst ist man weg vom Fenster.
01:45:36 SUBTITLE
Before the European Court of Justice you just can talk when you are asked.
And only to the questions you have been asked.
01:45:41 SUBTITLE
From hundreds of topics you are preparing they might ask you one or two.
01:45:46 SUBTITLE
You know 99% of the work is for nothing. But still you have to go this extra mile.
01:46:03 MAX SCHREMS
Das größte Problem ist, wir haben kein Geld. Also man braucht Leute, die das pro bono zur Verfügung stellen und gleichzeitig gut sind. Weil, du streitest gegen die US Regierung Facebook & Co und das wär schon sinnvoll, dass deine Argumente dann wasserdicht sind.
01:46:05 SUBTITLE
The problem is, we don´t have money.
So we are in need to find people, who work for free.
01:46:07 SUBTITLE
And they ned to be excellent. Because we fight the US government, Facebook and Co.
01:46:12 SUBTITLE
Thus your arguments need to be watertight.
01:46:19 NARRATOR
The day before the hearing, the team has a last meeting with its pro bono international legal advisors.
Professor Hofmann of Luxembourg University is one of the leading European law experts. Together with Irish lawyers and US civil rights specialist Ashley Gorsky, they discuss their strategy.
01:46:42 MAX SCHREMS
Im Kern geht es um die Frage, kann ich Daten in die USA schicken?
Beim ersten Verfahren war es interessant, weil die USA über Pressemitteilungen erklärt hat, dass der EuGH das europäische Recht falsch verstanden hat, also sozusagen die amerikanische Botschaft ausgesendet, ja, der EuGH hat das alles falsch verstanden. Was schon ziemlich dreist ist, einem Höchstgericht zu erklären, dass es irgendwie das Recht falsch verstanden hätte. Also, stellen wir uns vor, wir würden das bei den USA machen, dass irgendwie der Supreme Court nicht genau weiß, wie er die amerikanische Verfassung auszulegen hat. Das hat schon a gewisse Dreistigkeit in sich.
01:46:42 SUBTITLE
The main question ist: is it legal to send data to the USA?
01:46:45 SUBTITLE
In the first case the US Government had stated that the European Court of Justice had misunderstood European law.
01:46:56 SUBTITLE
Which is quite bold to tell a high court that it misunderstood the law of it´s own competences.
01:47:01 SUBTITLE
Just imagine, Europeans would say the US Supreme Court doesn´t know how to interpret the US constitution. That has audacity.
01:47:09 INSERTLINE
July 18th 2019: European Court of Justice, Luxembourg
Court hearing: Schrems versus Facebook.
01:47:39 (exactly) NARRATOR
A long trial day begins.
01:47:42 NARRATOR
The interest of the public is high.
01:47:51 NARRATOR
The decision of the court will determine whether the US needs to review its data protection policy.
01:48:05 NARRATOR
In the Schrems case against Facebook, the European Court of Justice has to clarify whether Europeans can assert their fundamental right to data protection and privacy in the USA if personal user data is exported to US servers.
01:48:39 NARRATOR
The US and numerous European governments make their statements behind closed doors.
01:48:50 NARRATOR
During the break, it becomes clear that the US representatives may have made a tactical mistake.
01:48:55 MAX SCHREMS
Es ist glaube ich, eher ein bisserl ein Schuss ins Knie, weil ursprünglich haben sie gesagt, naja das ist ja alles eine Fehlentscheidung, weil wir wurden ja nicht gehört. So, jetzt wurden sie gehört und alle Fakten sind genau so festgestellt worden wie vorher. Und ich glaube nicht, dass viel Missverständnis übrig geblieben ist.
01:48:56 SUBTITLE
The US arguments now backfire to them: Initially they said it was a judicial error because they hadn´t been heard.
01:49:02 SUBTITLE
Now they have been heard and all the facts remained the same. There is not much misunderstanding left.
01:49:10 NARRATOR
Facebook is the defendant in this case. The strategy of Facebook lawyers is simple: they play for time.
01:49:21 MAX SCHREMS
Sie haben insofern nicht unrecht, als jedes mal, wenn sie sich wieder nicht dran halten, sie 5-
Und das ist ihre Strategie: Recht brechen bis zum Anschlag und dann wenn man halt verurteilt wird, zu sagen, ja, das ist jetzt sehr wichtig, dass das Gericht das jetzt neu klar gestellt hat. Das sind ja diese wordings, die da verwendet werden. Und das Faszinierende ist, dass wir das auch medial durchgehen lassen. Das sind dann wirklich Zitate, die werden in Zeitungen hineingeschrieben, dass jetzt Facebook das begrüßt, dass es verurteilt worden ist, weil das jetzt eine Klarstellung ist.
Die Klarstellung hätten sie 10 Jahre vorher auch schon haben können. Weil jeder Jusstudent hätte ihnen sagen können, dass des net geht lacht.
01:49:21 SUBTITLE
Not a bad strategy insofar as every time they break the law again, they gain 5-10 years,
01:49:27 SUBTITLE
because if there is another lawsuit, it´ll take ages again.
01:49:31 SUBTITLE
That is their strategy: break the law as long as possible,
01:49:36 SUBTITLE
and when they are sentenced, to say how important it is, that the court clarified that.
01:49:41 SUBTITLE
These are the Wordings they use. And the fascinating thing is, that thy get through with that in the media.
01:49:48 SUBTITLE
We can read these quotes in the papers “that Facebook welcomes being sentenced because things are clear now.”
01:49:57 SUBTITLE
That was already clear 10 years ago; every law student could have told them, that this was not legal.
01:50:08 NARRATOR
Facebook officials wouldn't say anything in front of the camera. There was no response to interview requests for months. They merely sent a written statement:
01:50:16 ALEXA – FACEBOOK STATEMENT
„Wir begrüßen die Prüfung dieser komplexen Fragestellungen durch den EuGH. Standardvertragsklauseln bieten wichtige Garantien, die sicherstellen, dass Daten von EU-Bürgern bei der Übermittlung in Drittländer geschützt sind. Die Klauseln wurden von der Europäischen Kommission entworfen und verabschiedet. Sie ermöglichen es Tausenden von Europäerinnen und Europäern, weltweit Geschäfte zu tätigen.“ Schreiben Sie den Kommentar bitte Jack Gilbert, Associate General Counsel bei Facebook zu.
01:50:16 SUBTITLE
We welcome the examination of these complex issues.
01:50:21 SUBTITLE
Standard clauses provide important guarantees to ensure that data of EU citizens are protected when transferred to third countries.
01:50:30 SUBTITLE
The clauses have been drafted and adopted by the European Commission.
01:50:35 SUBTITLE
They enable thousands of Europeans to do business worldwide.
01:50:41 SUBTITLE
Please attribute the comment to Jack Gilbert, Associate General Counsel at Facebook.
01:50:51 NARRATOR
How the European Court of Justice will decide is yet to be seen. Further proceedings will certainly follow. And the data protectors will continue to fight for the protection of privacy, freedom of expression and democracy.
01:51:09 MAX SCHREMS
Die letzte Kuh machts Türl zu.
01:51:09 SUBTITLE
The last one locks the door.
01:51:38 CLOSING CREDITS
Director
Hansjürgen Schmölzer
Script
Hansjürgen Schmölzer, Nora Laufer
Dramaturgy
Wolfgang Stahl
Director of photography
Manuel Prett
2nd camera unit
Anna Abbasi, Hansjürgen Schmölzer
Editor
Uwe Seifner
Sound
Anna Abasi
Music
Sebastian Vöterl, Constantin Stimmer
Viktor Schlüter, Sofia Faltenbacher
Sounddesign
Rudolf Pototschnig
Motion Graphics
Lisa Schmölzer, Florian Huber
Narrator (English)
Peter Cox
Production BSX
Sabine Arenkens
Production ORF
Rina Bohland
Commissioning Editors ORF
Sharon Nuni
Siegfried Steinlechner
Producer ORF
Martin Traxl
Producer BSX
Hansjürgen Schmölzer
Supported by
Fernsehfond Austria (Logo)
Film Commission Graz (Logo)
Film Fond Wien (Logo)
World Sales
First Hand Films (Logo)
Special Thanks
Daniel Erlacher, Maximilian Hebrank, Ivona Juric, Elisabeth Köberl, Sylvia Reitbauer, Chaos Computer Club Berlin, Elevate Festival Graz, TU-Graz, Metalab Wien
A coproduction of
ORF (Logo)
and
BSX (Logo)
© 2020
END 01:52:00
Duration: 52:00
NARRATOR
Andrea Jelinek has a key role in European data protection: the Austrian regulator is chair of the European Data Protection Board. Cases landing on her desk often lead to EU-wide model proceedings.
NARRATOR
Not just too much data but also the absence of it can cause problems. Julian Stopp has no debts and is well trained.
NARRATOR
Could the public sector become more independent of IT companies? Katharina Nocun and her friends are working on it. Open source software could save enormous licensing costs. The lobbying pressure on the other hand, is heavy.
NARRATOR
The NGO “Free Software Foundation Europe” launched the campaign “Pubic Money, Public Code”. The aim: Public money only for open source software.
NARRATOR
With simple Videos on the Net, acitivists try to win communities and authorities.
NARRATOR
German Telekom´s Stream On tariff creates a two tier society on the internet. Internet activists do mind and have the means to bring corporations to their knees.
NARRATOR
Who are these people who are fighting with the world´s biggest corporations and most powerful secret services? At the Chaos Communication Camp, Europe´s net activists meet. Their mission: nothing less than to save the internet.
NARRATOR
Switzerland plans to place the administration of personal data in private hands. Protest is pre-programmed.