Archiv der Kategorie: Computerkram

Datenbanken, Teil 4: Eins-zu-Eins-Beziehungen

Teil 2 der Serie über Datenbanken, in dem es um das Entity-Relationship-Modell ging, liegt nun schon ungefähr 2 Jahre zurück, aber relationale Datenbanken haben natürlich nichts von ihrer Aktualität eingebüßt und in der Zwischenzeit haben wir in unserem Podcast darüber berichtet. Bisher haben wir 1:N- und N:M-Beziehungen betrachtet. In diesem Teil geht es weiter, denn mit den Beziehungen ist es manchmal kompliziert.

Dieser vierte Teil der Serie setzt Kenntnisse der Grundbegriffe des E/R-Modells und der Umsetzung von 1:N- und N:M-Beziehungen ins relationale Modell voraus. In den ersten drei Teilen der Serie wurden diese erklärt.

Beispiele für 1:1-Beziehungstypen; Quelle;
CC-BY-SA 2.5 Maximilian Dörrbecker

Für 1:N- und N:M-Beziehungen wurde im vorherigen Teil bereits diskutiert, wie die Umsetzung ins relationale Modell erfolgt. 1:N-Beziehungen können am einfachsten mit einer Fremdschlüsselspalte auf der N-Seite umgesetzt werden während für N:M-Beziehungen immer eine Beziehungstabelle notwendig ist.

1:1-Beziehungen

Eine weitere Beziehungsart zwischen zwei Entitätstypen ist die 1:1-Beziehung. Betrachten wir zunächst als Beispiel die Beziehung zwischen einer Person und ihrem Ausweis.

Eine Person besitzt nur einen Ausweis und ein Ausweis gehört zu einer Person. Wir gehen in dem Beispiel weiterhin davon aus, dass jede Person in der Datenbank auch einen Ausweis besitzt und es nur personalisierte Ausweise gibt.

Datenbanken, Teil 4: Eins-zu-Eins-Beziehungen weiterlesen

Datenbanken, Teil 3: Tabellen erstellen mit SQL

Im zweiten Teil der Serie über Datenbanken, der zugegebenermaßen schon etwas zurück liegt, hatte ich versprochen, im folgenden Teil der Serie zu zeigen, wie man in der Praxis mit SQL Tabellen erstellt. Dieses Versprechen will ich nun hiermit einlösen. In der ersten Staffel unseres Podcasts haben uns in der Zwischenzeit allerdings auch schon mit SQL beschäftigt.

SQL ist eine weit verbreitete Sprache für relationale Datenbankmanagementsysteme und umfasst, wie im ersten Teil schon erwähnt, sowohl eine Abfragesprache (Query Language) wie auch Sprachen zum Einfügen und Löschen von Daten (Data Manipulation Langauge) und zum Anlegen eines Datenbankschemas (Data Definition Language). SQL wird von vielen aktuellen relationalen Datenbankmanagementsystemen (DBMS) verstanden. Ein weit verbreitetes und kostenloses DBMS ist MySQL. Die Codebeispiele in diesem und den folgenden Teilen beziehen sich, sofern nichts anderes angegeben ist, auf MySQL. Da SQL aber weitgehend standardisiert ist, sollten sie auch in anderen DBMS funktionieren.

Datenbanken, Teil 3: Tabellen erstellen mit SQL weiterlesen

Darknet

Aber in einer freien, offenen Demokratie gibt es meiner Meinung nach keinen legitimen Nutzen.

Staatssekretärs im Bundesinnenministerium Günter Krings (CDU) über das “Darknet”

Ja, wir leben in einer freien und offenen Demokratie, aber offenbar arbeitet man in der CDU dran. Paradoxerweise führt Herr Krings gerade durch seine Forderungen nach einer Kriminalisierung des Tor-Netzwerks seine Prämisse ad absurdum.

Na Bravo

Da hat ja gerade eine knappe Mehrheit im EU-Parlament eindrucksvoll bewiesen, wie manche Abgeordneten die junge Generation der Internetnutzer ohne jeden Respekt anpissen als gekauft, Bots oder Mob diffamieren, den Rat von Experten schlicht ignorieren und vor der Lobby der Content-Mafia Zeitungsverleger und Verwertungsgesellschaften einknicken.

Wenn nur bald mal wieder Wahl wäre… Moment…

Artikel 13

Morgen wird im EU-Parlament über die umstrittende Urheberrechtsreform abgestimmt.

Vorgestern sind Zehntausende in ganz Deutschland gegen diese Reform auf die Straßen gegangen. Wir waren in Frankfurt dabei. Es hat mich gefreut, so viele junge Menschen und mutmaßlich viele Informatiker, die sonst nicht immer sehr politisch sind, dort zu sehen. Der Paulsplatz war vor Beginn der Veranstaltung jedenfalls schon gut gefüllt.

Aber gibt es nicht auch Gründe, für diese Reform zu sein?

Nein!

Bei näherer Betrachtung der wesentlichen Argumente der Befürworter fällt auf, dass der aktuelle Entwurf nicht geeignet ist, um die Ziele zu erreichen, die man sich davon verspricht.

Sollten nicht die Plattformen mehr an die Urheber zahlen?

Ja klar, aber die Reform ist nicht geeignet, dieses Ziel zu erreichen. Zwar ist in Artikel 13 vorgesehen, dass die Plattformen Inhalte von Verwertungsgesellschaften lizenzieren. Hinter dieser Logik steht die Annahme, dass YouTube wohl nur dazu benutzt wird, urheberrechtlich geschützes Material von Musikern und Filmstudios illegal zu verbreiten. Aber das ist nicht so! Klar kann man sich die Musikvideos der deutschen Top 100 Charts bei YouTube ansehen, aber die wurden von den Bands selbst hochgeladen. Sollten andere Uploader urheberrechtlich geschützte Musik zum Beispiel als Hintergrund für eigene Filme verwenden, ist dies natürlich erst mal urheberrechtlich nicht in Ordnung. Allerdings zahlt YouTube bereits heute Lizenzgebühren an die GEMA!

Die Reform stärkt also allenfalls die Verhandlungsposition der Verwertungsgesellschaften, da bislang ein Plattformbetreiber erst ab Kenntnis einer Urheberrechtsverletzung haftbar war, nach der Reform aber direkt beim Upload. Es ist aber keineswegs so, dass bisher kein Geld geflossen war und es ist auch nicht so, dass YouTube gezwungen wäre, Lizenzen abzuschließen. Sie könnten auch den Upload verhindern, dann wären wir bei den Uploadfiltern (s.u.).

Künstler, die nicht von der GEMA vertreten werden, haben weiterhin nichts davon, da es kaum möglich sein wird, mit einer Vielzahl von Musikern Lizenzvereinbarungen abzuschließen. Die Reform stärkt also gar nicht die Urheber, sondern nur die Verwerter.

Desgleichen gilt im Text-Bereich für Autoren, die nicht von der VG Wort vertreten wären. (Ok, das betrifft jetzt vielleicht eher Artikel 11.) Einer der größten Empfänger von Auszahlungen der VG Wort ist im übrigen Gerüchten zufolge der Springer-Verlag. Kein Wunder also, dass Bild und Welt so stark für die Reform schreiben.

Aber da steht doch gar nix von Uploadfiltern?

Äh, doch. Der Plattformbetreiber ist nämlich dann nicht haftbar, wenn er die bestmögliche Anstrengung unternimmt, den zukünftigen Upload von urheberrechtlich geschütztem Material zu unterbinden (“best efforts to prevent their future uploads”). Das geht nur mit Uploadfiltern.

Es gibt übrigens eine Reihe von erlaubten Nutzungen von urheberrechtlich geschütztem Material in Form von Zitaten oder Satire. Das ist sogar auch nach dem Entwurf von Artikel 13 ausdrücklich erlaubt. Allerdings würde der Einsatz von Uploadfiltern zweifellos zu Kollateralschäden führen, also in verhältnismäßig großer Zahl auch legale Uploads zurückweisen.

Kann man da nicht mit KI was machen?

Nein! Filter auf Basis von Machine Learning haben eine zu große Fehlerrate. Insbesondere die Unterscheidung von legaler Nutzung im Rahmen von Satire ist ein hartes Problem. (Ich weiß, wo von ich Rede, ich hab’ mal ne Doktorarbeit über Machine Learning geschrieben.) Das ist auch die einhellige Meinung von Informatikern, auch wenn einige “Experten” der CDU da anderer Meinung sind. Und nein, Google erkennt die Memes nicht mit KI, sondern daran, dass jemand an ein Bild mal “Meme” dran geschrieben hat.

Im übrigen braucht Machine Learning Trainingsdaten, also sprich Vorlagen, anhand derer die zu klassifizierenden Inhalte zu identifizieren sind. Technisch sind nur die großen Plattformen mit vielen Daten dazu in der Lage, mit wenigstens halbwegs zufriedenstellender Genauigkeit einen solchen Uploadfilter zu bauen. Mittelgroße Betreiber müssten sich also einen solchen Filter von Google zur Nutzung geben lassen. Die Uploadfilter zementieren also noch die Vormachtstellung von Google.

YouTuber sind auch Urheber!

Was in den Argumenten der Befürworter keine Rolle zu spielen scheint ist übrigens die Tatsache, dass die YouTuber, die von den genannten Kollateralschäden, dem unberechtigen Zurückweisen von Inhalten durch automatische Filter, betroffen wären, auch Urheber sind. Auch unter diesen gibt es welche, die mit ihren Werken Geld verdienen. Nur weil es nicht über Filmstudios und Großverlage läuft, kann man das nicht einfach unter den Tisch fallen lassen. Für diese Urheber bedeuten Uploadfilter potentiellen Einnahmeausfall.

Zensur?

Und dann war da noch das Zensur-Problem. Natürlich ist eine Verhinderung von urheberrechtsverletzenden Uploads erst mal keine Zensur, aber wenn eine Infrastruktur erst mal etabliert ist, gibt es immer auch die Möglichkeit, sie zu missbrauchen. Eine Ausweitung auf Terrorpropaganda ist schon angedacht. Aber was kommt dann? Manch einer denkt da schon weiter.

Fazit

Fassen wir also zusammen:

Artikel 13 stärkt nicht die Urheber, sondern allenfalls die Verwertungsgesellschaften.

Artikel 13 führt nicht dazu, dass die großen Plattformen geschwächt werden, sondern zementiert noch ihre Vormachtstellung.

Uploadfilter sind technisch schwierig, weil Machine Learning ist nicht in der Lage, hinreichend genau zwischen legalen Zitaten und Satire und urheberrechtlich illegaler Nutzung zu unterscheiden.

Artikel 13 führt also nicht dazu, dass alle Urheber besser gestellt werden, denn YouTuber sind auch Urheber und die werden von ungenauen Filtern behindert.

Cyberbull

Wenn Ihr mal ne spannende Serie schauen wollt, schaut Euch Designated Survivor an, aber bitte nur die erste Staffel.

Wenn Ihr ne schlechte Serie schauen wollt, schaut Euch auch Designated Survivor an, aber diesmal die zweite Staffel.

Diese Serie bekommt von mir nicht nur die Auszeichnung für das größtmögliche Qualitätsgefälle, sondern auch den Preis für den größten jemals gemessenen Bullshit in Szenen mit Computerbezug.

Dass Bildschirminhalte nicht so eine große Rolle spielen, so lange es irgendwie kompliziert und doch cool aussieht, ist nichts neues. Auch dass mittels Magie aus einem Satellitenbild eine hoch aufgelöste Frontalaufnahme eines Verdächtigen entsteht, ist im Fernsehen schon lange Standard. Dass dieses Bild dann “Pixel für Pixel” mit den Datenbanken abgeglichen wird, ist schon eine Spezialität. Einen einzelnen weißen, schwarzen oder bunten Punkt in einer Datenbank zu suchen, das bringt sicher viel. Aber egal, das geht vielleicht noch als unglückliche Formulierung durch.

Anekdoten aus Designated Survivor

Ein wenig später freut sich der IT-Crack Chuck, dass er die Firewall des Laptops eines Verdächtigen überwunden hat. Da staunt der Laie und der Fachmann wundert sich. Warum hat sich Chuck die Mühe gemacht, die Firewall, die den Rechner vor unbefugtem Zugriff aus dem Netzwerk schützen soll, zu überwinden, wenn das Gerät direkt vor ihm auf dem Tisch steht?

Aber vielleicht ist es auch nur des Wortwitzes wegen: Der Laptop geht wenige Augenblicke später in Flammen auf, weil der böse Besitzer “den Akku gehackt” hat. Vielleicht hätte das FBI doch lieber einen IT-Forensiker anstellen sollen, der sich mit sowas auskennt.

Eher ein Schmankerl für Kenner war dann noch, dass der selbe Chuck Erkenntnisse über eine Auktion von Alan-Turing-Memorabilia gewinnt, bei der unter anderem eine Turing-Maschine versteigert wurde. Da wurde der Käufer wohl betrogen, handelt es sich bei einer Turing-Maschine doch um ein mathematisches Konstrukt, ein rein theoretisches Gebilde, nicht um ein physisch existierendes Gerät.

Warum ärgert mich das?

Eigentlich finde ich sowas ja ganz amüsant, besonders weil es gerade in dieser Serie so unglaublich übertrieben absurd ist, wenn man sich auch nur ein bisschen mit der Materie auskennt.

Doch das Problem ist, dass sich so beim Zuschauer ein falsches Bild von Computertechnik, von Sicherheitslücken und von Angriffen auf IT-Systeme verfestigt. Wenn etwas nur oft genug im Fernsehen gezeigt wird, und wenn es auch in einer Action-Serie ist, besteht leider die Gefahr, dass es irgendwann jemand für bare Münze nimmt.

Anstatt sich von solchem Cyber-Zauber beeindrucken zu lassen, sollten sich Computernutzer (d.h. wir alle!) lieber auch mal mit echter IT-Sicherheit befassen. Wer sich auch nur ansatzweise von dem Bild inspirieren lässt, das in dieser TV-Serie vermittelt wird, schwebt in Gefahr, die realen und alltäglichen Bedrohungsszenarien zu ignorieren.

Die letzte Konsequenz davon sieht man auch in dem aktuellen Fall von “Doxing“, bei dem personenbezogene Daten von etwa 1000 Menschen, darunter viele Politiker, veröffentlicht wurden. Mehr Kompetenz im Umgang mit IT-Systemen ist notwendig, um die Ursachen zu verstehen und solche Vorfälle in Zukunft zu vermeiden. Nimmt man dagegen zu viel von dem Mumpitz zu sich, wie er in Designated Survivor und anderen Action-Serien vorkommt, dann kommen leider so kompetenzbefreite Ideen wie die des “Hack-Back” auf den Tisch, statt generell die (defensive) IT-Sicherheit zu stärken. Letzteres könnte natürlich als Nebeneffekt dazu führen, dass der Bundestrojaner dann nicht mehr läuft. Ob man das deshalb nicht will?

Die Realität ist spannender!

Dass die Realität sehr viel spannender ist als Cyber-Bullshit, sieht man übrigens jedes Jahr beim Chaos Communication Congress. Dieses Jahr wurde da unter anderem gezeigt, wie man über Fax in Firmennetze einbrechen kann, es wurde die biometrische Identifikation mit Venenerkennung durch eine Attrappe überwunden und es wurde gezeigt, wie man Geldautomaten um ihren Inhalt erleichtern kann.

Man sich übrigens durchaus an der Realität orientieren und trotzdem daraus eine spannende Serie stricken! Mein Schlusswort ist deshalb: Wenn Ihr mal ne spannende Serie mit mehr Cyber, aber weniger Bullshit sehen wollt, dann schaut Euch Mr. Robot an!

Fake Science und Verlage

Derzeit berichtet die Tagesschau unter dem Titel “Fake Science” über pseudowissenschaftliche Verlage, die ohne Peer Review gegen Bezahlung alles veröffentlichen. Am Montag soll dazu im Ersten die volle Reportage laufen.

Neu ist das Phänomen nicht. Schon 2005 haben drei MIT-Studenten ein computergeneriertes Fake-Paper bei einer Konferenz untergebracht und vor etwas über einem Jahr hat es die gewagte These, dass der konzeptuelle Penis Schuld am Klimawandel hat, nicht nur in eine Fachzeitschrift der Sozialwissenschaften, sondern auch in die Medien geschafft.

Im Interview mit der Tagesschau – siehe dazu weiter unten das eingebettete Video –unterscheidet die Journalistin Svea Eckert, die im Rahmen ihrer Recherchen selbst eine solche pseudo-wissenschaftliche Konferenz besucht hat, zwischen drei Gruppen von Teilnehmern. Zum einen ernsthafte Wissenschaftler, die die Pseudowissenschaftlichkeit der Konferenz oder Zeitschrift im Vorfeld nicht erkannt haben, denen schlicht das Geld aus der Tasche gezogen wurde und die danach nie wieder dort auftauchen. Zum zweiten Wissenschaftler, die unter hohem Publikationsdruck stehen und diesen Weg nutzen, um die Zahl ihrer Publikationen künstlich in die Höhe zu treiben.

Die dritte Gruppe dagegen, deren Existenz mir in der Tat so noch nicht bewusst war, ist gefährlich. Sie nutzt diese Veröffentlichungsmethode, um ihre eigenen Interessen durch scheinbar wissenschaftliche Studien zu untermauern und so zum Beispiel wertlose “Medikamente” zu verkaufen.

Hintergrund GcMAF

Einer der Auslöser für die Recherchen war offenbar der Tod der an Krebs erkrankten Moderatorin Miriam Pielhau, die auf Basis von falschen Studien über das Mittel GcMAF darauf gesetzt hatte. Pikant ist an dieser Stelle allerdings, dass über dieses Mittel zuerst in eigentlich als seriös eingestuften Zeitschriften zum Beispiel aus dem Wiley-Verlag veröffentlicht wurde, die Studien dann aber später zurückgezogen wurden, wie ich über einen Tweet mitbekommen habe.

Die komplette Reportage anzuschauen könnte durchaus lohnen. Allerdings lenkt diese “Fake Science”-Reportage zu diesem Zeitpunkt den Blick von einem anderen, weniger öffentlich diskutiertem, aber für Wissenschaftler mindestens genau so wichtigem Schauplatz ab: den gescheiterten Verhandlungen des Projekt DEAL, einer Bestrebung zur bundesweiten Lizenzierung von Angeboten großer Wissenschaftsverlage, mit Elsevier.

Gierige Wissenschaftsverlage

Wie unterscheidet sich denn eigentlich das Geschäftsmodell eines Verlags wie Elsevier von dem der “Fake Science”-Verlage? Erschreckenderweise ist die Antwort: Fast gar nicht. Beide kassieren für die Veröffentlichung von Papieren von den Autoren, also den Wissenschaftlern. Elsevier verlangt aber zudem noch Geld von den Wissenschaftlern, die die Artikel ihrer Kollegen hinterher lesen wollen, und zwar nicht zu knapp. Weil Elsevier an dieser Stelle die Hand ein wenig zu weit aufhält, sind die Verhandlungen erst einmal auf Eis gelegt, teilt die Hochschulrektorenkonferenz mit. Natürlich findet bei seriösen Wissenschaftsverlagen eine Begutachtung durch Kollegen, ein Peer Review, statt, dies geschieht aber ehrenamtlich durch andere Wissenschaftler. Unterm Strich zieht also ein Verlag wie Elsevier den Forschern das Geld noch schlimmer aus der Tasche als die “Fake Science”-Verlage und die öffentliche Hand zahlt dreifach: Die Forschung selbst wird meistens öffentlich gefördert, der Verlag wird für die Veröffentlichung bezahlt und die Bibliotheken der Hochschulen zahlen nochmal dafür, dass ihre Wissenschaftler die Veröffentlichungen dann auch lesen dürfen.

Dass es auch anders geht, zeigen Open-Access-Journale wie z.B. das Journal of Machine Learning Research. Dieses Magazin ist ein Beispiel, das eindrucksvoll zeigt, dass die Wissenschaftsverlage nichts, aber auch gar nichts leisten, was nicht auch von Wissenschaftlern in Eigenregie erledigt werden kann.

In der Informatik scheint man generell schon etwas weiter zu sein als in den Naturwissenschaften. Ich habe beim Schreiben meiner Doktorarbeit praktisch alle von mir gelesenen Aufsätze frei im Netz finden können, weil sowieso die allermeisten Papers in diesem Bereich von ihren Autoren zusätzlich auf ihren eigenen Homepages oder denen der Universität zugänglich sind. Und wenn nicht, würden sicher viele Autoren auf Nachfrage ihre Papers auch direkt rausrücken, schließlich wollen die ja zitiert werden. Bei den Informatikern spielt Elsevier glücklicherweise so gut wie keine Rolle und die Bedingungen des Springer-Verlags (der Wissenschaftsverlag, nicht der von der Bildzeitung), der im Informatikbereich viele Konferenzbände veröffentlicht, sind weniger restriktiv. Da hieß es damals, dass es von Seiten des Verlags wünschenswert sei, dass man mit der Veröffentlichung auf der eigenen Homepage bis ein Jahr nach Veröffentlichung bei Springer warten soll. Ich dachte mir dann immer, dass es von meiner Seite wünschenswert ist, das nicht zu tun. Das war dann auch ok.

Wenn die Verhandler des Projekts DEAL hart bleiben, kommt vielleicht auch Elsevier irgendwann zu der Erkenntnis, dass die Wissenschaftler sehr wohl ohne die Verlage leben können, aber die Verlage nicht ohne die Wissenschaftler. Immer mehr Forscher lehnen es inzwischen ab, für Elsevier ehrenamtlich Peer Review zu betreiben oder bei Elsevier zu veröffentlichen. Und wer von dort was lesen muss, der wird sich jetzt, da den deutschen Universitätsbibliotheken der Zugang gesperrt wurde (bis vor kurzem hatte den Elsevier in seiner unendlichen Güte auch nach Auslaufen der alten Lizenz noch zur Verfügung gestellt), vielleicht das “umstrittene” Sci-Hub für sich entdecken…

Amazon Prime Video und Netflix auf dem Raspberry Pi

Um einem nicht so smarten TV ein wenig Grips einzutreiben, bietet sich ein kostengünstiger Raspberry Pi mit dem Media Center KODI an. Es empfiehlt sich aus Performance-Gründen ein Raspberry Pi 3.

Es sind allerdings ein paar Sachen zu beachten, wenn man auch Netflix und Amazon Prime Video schauen will, weswegen ich hier einmal zusammentragen will, was ich dafür konfigurieren musste.

KODI, LibreELEC und NOOBS

Zunächst einmal ist zu beachten, dass die für Amazon und Netflix nötigen Add-Ons nur mit der neuesten Version 18 von KODI laufen und die aber nicht auf dem “normalen” Raspbian-Betriebssystem. Es ist daher angezeigt, LibreELEC zu installieren. Mit dieser Linux-Distribution kann man nicht viel anderes machen als KODI laufen zu lassen, das aber dafür gut. LibreELEC kann zunächst wie die meisten anderen Raspi-Betriebssysteme ganz bequem über NOOBS installiert werden.

“Milhouse 9.0”-Builds

Für die Amazon- und Netflix-Plugins braucht man die neueste Version. Hierzu geht man nach dem ersten Hochfahren von KODI aus auf die LibreELEC-Einstellungen und stellt unter “System” die Aktualisierungen auf manual und bei den benutzerdefinierten Kanälen die URL http://milhouse.libreelec.tv/builds/master/RPi2 ein (auch wenn man einen Raspi 3 hat). Unter Update-Kanal stellt man dann auf “Milhouse 9.0” und wählt dann unter “Verfügbare Versionen” einen der aktuellen Nightly-Builds aus.

Achtung, diese sind nicht immer so stabil! Versionen vom Mai liefen bei mir nicht so gut, jetzt habe ich mich mehr oder weniger willkürlich für die Version 0421 vom 21. April entschieden und damit läuft es gut.

Amazon Prime Video

KODI ist nur nicht viel ohne Add-Ons. Viele gute offizielle Add-Ons findet man im gewöhnlichen Repository, nicht so die Netflix- und Amazon-Plugins. Dazu installiert man zuerst aus dem normalen Repository ein neues Repository, nämlich “Kodinerds”. Das findet man unter All Repositories ➜ Add On Repositories ➜ Kodinerds Add-ons und vom Kodinerds Repository installiert man dann wieder zwei andere Repositories, nämlich erst mal “Sandmann79s Repository” für die Amazon-Add-Ons und das “Netflix”-Repository für das Netflix-Add-On (siehe zu Netflix unten).

Bei den angebotenen Amazon-Add-Ons scheint das internationale “Amazon VOD” besser zu funktioniert als das andere, das nur für Deutschland gedacht ist. Letzteres lädt die Playlisten des eigenen Accounts in eine lokale Datenbank, was aber unnötig lange dauert.

Für die Wiedergabe von DRM-geschützten Material, die es von Amazon oder Netflix kommt, braucht man die “Widevine”-Libraries. Das Amazon-Plugin installiert die automatisch, das dauert aber etwas.

In den Einstellungen des Add-Ons sollte man noch bei der Wiedergabemethode “Input Stream” einstellen. Ein gültiger Prime-Account ist natürlich Pflicht, die Zugangsdaten gibt man auch in den Einstellungen des Add-Ons ein.

Netflix

Bei Netflix hat bei mir die Installation aus dem Repository nicht funktioniert, daher habe ich die aktuelle Version des Netflix-Add-Ons von Github heruntergeladen (“Clone or download” auswählen und als ZIP runterladen, siehe Anleitung) und in KODI über “Installation aus ZIP” installiert. Damit das funktioniert, muss man evtl. in KODI noch die Installation von Add-Ons aus Fremdquellen explizit zulassen. Über die Samba-Dateifreigabe von KODI/LibreELEC findet das ZIP-File den Weg auf die SD-Karte des Raspi. Auch für Netflix ist selbstverständlich ein gültiger Login erforderlich.

Podcasts

Zu beachten ist noch, dass die Version des beliebten “Apple iTunes Podcasts”-Add-On (das keinen iTunes-Account braucht, sondern nur so heißt, weil es die Liste der Podcasts von Apple zieht) aus dem KODI-Repository nicht mit dieser Konfiguration läuft. Im KODI-Forum wird erklärt, wie man das Add-On trotzdem zum Laufen bekommt.

Alternativ kann man aber seine Podcasts auch anders über KODI abspielen. Man trägt dazu die URL des RSS-Feeds seines Podcasts über Musik- bzw. Video (je nachdem, ob es ein Audio- oder Video-Podcast ist) als Quelle ein, allerdings nicht beginnend mit “http://”, sondern mit “rss://”.