<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Aktualität | Z01 - Digitale Transformation und Datenkompetenz</title>
    <link>/category/aktualitat/</link>
      <atom:link href="/category/aktualitat/index.xml" rel="self" type="application/rss+xml" />
    <description>Aktualität</description>
    <generator>Wowchemy (https://wowchemy.com)</generator><language>en-us</language><copyright>© 2022 Dr. Christian Ruiz</copyright><lastBuildDate>Sun, 24 Jul 2022 00:00:00 +0000</lastBuildDate>
    <image>
      <url>/images/logo_hudc663841e01151fbfe1f951f4900df5b_8067_300x300_fit_lanczos_2.png</url>
      <title>Aktualität</title>
      <link>/category/aktualitat/</link>
    </image>
    
    <item>
      <title>Emergency Communication in case of an Outage</title>
      <link>/post/2022-07-24-wifi-direct-in-case-of-emergency/</link>
      <pubDate>Sun, 24 Jul 2022 00:00:00 +0000</pubDate>
      <guid>/post/2022-07-24-wifi-direct-in-case-of-emergency/</guid>
      <description>&lt;p&gt;It seems that the scenario of an electricity and internet outage became a realistic scenario for the upcoming Swiss winter &lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt;. How would an emergency communication with the people in your workplace or neighborhood look like when the internet and telephone lines are out? Would such a scenario mean the come-back of radio-based solutions such as walkie-talkies? In my latest blog, I am discussing a rather unknown and imperfect technology called Wi-Fi Direct that could however be a cheap and easy alternative that everyone with an Android mobile phone could use in such a situation.&lt;/p&gt;
&lt;p&gt;During my time as an intern in Albania in 2008, electricity-shortages occurred on a weekly basis. It happened usually in the morning at work, as the steel-works and industries were requiring a lot of power then. It was thus less the romantic picture of a blackout at night with candle light. The workplace was equipped with auxiliary diesel-generators that jumped in surprisingly well: The computers back then rarely went black.&lt;/p&gt;
&lt;p&gt;Today we are very dependent on electricity and the internet. If the electricity and therewith the internet would have an outage, then communication would be abruptly stopped. The normal telephone lines would not work &lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt;, the mobile communication transmitters would be without energy, and the landline routing servers would also be out &lt;sup id=&#34;fnref:3&#34;&gt;&lt;a href=&#34;#fn:3&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;3&lt;/a&gt;&lt;/sup&gt; .&lt;/p&gt;
&lt;p&gt;There is of course no need to paint a black picture of such a case. And while it might be exaggerated to go full-scale “prepper”, it would be nevertheless wise to think such a case through and to be prepared with at least a minimum plan.&lt;/p&gt;
&lt;p&gt;Very likely the first reaction is physical communication and gatherings at the workplaces and on the streets or hallways in case of your neighborhood. However, communication in such an emergency situation is nevertheless necessary: I guess that not all the elevators have an auxiliary power-supply yet and there are people needing assistance. Coordination might be in some cases required beyond an oral distance.&lt;/p&gt;
&lt;p&gt;Walkie-talkies or other radio equipment can in such cases work on batteries, if a company plans to invest early in such equipment. But there is also a cheaper and easier, although quite imperfect alternative: Not many people know that mobile phones can also communicate directly among themselves without routers or antennas in between. It is called Wi-Fi Direct ® &lt;sup id=&#34;fnref:4&#34;&gt;&lt;a href=&#34;#fn:4&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;4&lt;/a&gt;&lt;/sup&gt;, which is an open standard and enables communication between devices that is over ten times faster than bluetooth. The technology is currently almost only used for fast file transfers and for sending documents to printers.&lt;/p&gt;
&lt;p&gt;As shown in the following picture, it was not difficult to make a simple app that can transmit messages between devices &lt;sup id=&#34;fnref:5&#34;&gt;&lt;a href=&#34;#fn:5&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;5&lt;/a&gt;&lt;/sup&gt;. The devices make peer-to-peer connections without needing to specify the server and client roles, and it can be extended to as many peers as available in range.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/wifi_direct2.jpg&#34; alt=&#34;Picture from own simple chat app over WiFi-Direct technology&#34;&gt;
&lt;em&gt;Picture from own simple chat app over WiFi-Direct technology&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;The technology has two larger downsides, which is likely why the technology is so unknown in the first place. First, it is restricted to the distance of its internal Wi-Fi antenna – usually 100 meters in the open space minus connectivity-loss by obstacles such as walls, floors etc. Nevertheless, I think that one should keep in mind a broadcasting possibility that would work like a human chain: if many devices are used, they can re-transmit messages so that larger peer-to-peer networks get established in such a situation.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/wifi_direct1.png&#34; alt=&#34;Extend the range by broadcasting through the participants. Picture by Stefan Schweihofer from Pixabay&#34;&gt;
&lt;em&gt;Extend the range by broadcasting through the participants. Picture by Stefan Schweihofer from Pixabay&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;A second downside is that Apple, a large manufacturer of mobile devices, did not include the technology and instead uses an own proprietary wireless ad hoc service for sending files between Apple devices (iPhone, Macs etc.). The fact that Apple does not use the open Wi-Fi Direct standard makes it impossible to send and receive messages from and to other operating systems such as Android or Windows.&lt;/p&gt;
&lt;p&gt;Nevertheless, if you think in case of an emergency, a cheap and easy solution for quick communication around you (without radio equipment) could be useful. The installation of an app (in non-outage times of course) would suffice for that.&lt;/p&gt;
&lt;p&gt;There might be other interesting use-cases of such a technology. One would be in the case of communicating anonymously with other people around you. For example in countries where you get arrested when publicly displaying an empty protest sign &lt;sup id=&#34;fnref:6&#34;&gt;&lt;a href=&#34;#fn:6&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;6&lt;/a&gt;&lt;/sup&gt; , or in countries where the entire internet connectivity is taken offline by the regime&lt;sup id=&#34;fnref:7&#34;&gt;&lt;a href=&#34;#fn:7&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;7&lt;/a&gt;&lt;/sup&gt;. In such cases, apps like Telegram might not be reliable anymore. The technology, used together with “MAC randomization” that is now installed in every Android device, could be used as a means of communication in places such as the metro or public squares.&lt;/p&gt;
&lt;p&gt;What do you think about this technology? Would such a technology be of use? Send me a message or comment on social media.&lt;/p&gt;
&lt;section class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;
&lt;hr&gt;
&lt;ol&gt;
&lt;li id=&#34;fn:1&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://www.tagesanzeiger.ch/bei-strommangel-muss-jede-5-migros-filiale-schliessen-345644688648&#34;&gt;https://www.tagesanzeiger.ch/bei-strommangel-muss-jede-5-migros-filiale-schliessen-345644688648&lt;/a&gt; &lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:2&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://blog.alertswiss.ch/de/gefahren-kennen/stromausfall/srf-blackout-totaler-stromausfall-in-der-ganzen-schweiz/&#34;&gt;https://blog.alertswiss.ch/de/gefahren-kennen/stromausfall/srf-blackout-totaler-stromausfall-in-der-ganzen-schweiz/&lt;/a&gt; &lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:3&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://www.tarife.at/ratgeber/blackout-funktioniert-beim-stromausfall-das-handy-und-das-internet&#34;&gt;https://www.tarife.at/ratgeber/blackout-funktioniert-beim-stromausfall-das-handy-und-das-internet&lt;/a&gt; &lt;a href=&#34;#fnref:3&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:4&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://www.wi-fi.org/discover-wi-fi/wi-fi-direct&#34;&gt;https://www.wi-fi.org/discover-wi-fi/wi-fi-direct&lt;/a&gt; &lt;a href=&#34;#fnref:4&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:5&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Based on a great tutorial by Sarthi Technologies, see &lt;a href=&#34;https://www.youtube.com/watch?v=nw627o-8Fok&amp;amp;list=PLFh8wpMiEi88SIJ-PnJjDxktry4lgBtN3&#34;&gt;https://www.youtube.com/watch?v=nw627o-8Fok&amp;amp;list=PLFh8wpMiEi88SIJ-PnJjDxktry4lgBtN3&lt;/a&gt; &lt;a href=&#34;#fnref:5&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:6&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://www.berliner-zeitung.de/kultur-vergnuegen/debatte/proteste-in-russland-eine-frau-haelt-ein-weisses-schild-hoch-und-wird-abgefuehrt-li.216795&#34;&gt;https://www.berliner-zeitung.de/kultur-vergnuegen/debatte/proteste-in-russland-eine-frau-haelt-ein-weisses-schild-hoch-und-wird-abgefuehrt-li.216795&lt;/a&gt; &lt;a href=&#34;#fnref:6&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:7&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://eurasianet.org/how-did-kazakhstan-shut-down-the-internet&#34;&gt;https://eurasianet.org/how-did-kazakhstan-shut-down-the-internet&lt;/a&gt; &lt;a href=&#34;#fnref:7&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;/section&gt;
</description>
    </item>
    
    <item>
      <title>Passwörter im Team teilen?</title>
      <link>/post/2022-02-14-totp/</link>
      <pubDate>Mon, 14 Feb 2022 00:00:00 +0000</pubDate>
      <guid>/post/2022-02-14-totp/</guid>
      <description>&lt;p&gt;Ein Berner Geschäftsführer kam mit folgendem Problem auf mich zu: Sein Team muss verschiedene Passwörter zeitgleich teilen. Für die Sicherheit wird eine Zwei-Faktor-Authentifizierung benötigt, die sich aber nicht auf ein Gerät/Smartphone beschränkt.&lt;/p&gt;
&lt;p&gt;Möglich wird dies mit &amp;ldquo;Time-based One-time Passwords&amp;rdquo; oder kurz TOTP. Dabei werden Einmalkennwörter basierend auf einer kryptographischen Hash-Funktion generiert, die maximal 30 Sekunden lang gültig sind. Diese Lösung wurde von der &amp;ldquo;Initiative for Open Authentification&amp;rdquo; entwickelt und im 2011 von der Internet Engineering Task Force veröffentlicht.&lt;/p&gt;
&lt;p&gt;Nun hatte sein Team zweierlei Probleme:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Die gemeinsamen geheimen Schlüssel lagen unverschlüsselt auf Trello.&lt;/li&gt;
&lt;li&gt;Der Prozess war mühsam: Die Mitarbeitenden mussten den geheimen Schlüssel in eine App eintippen, um dann ein Einmalkennwort zu generieren, der dann wiederum auf der Zielwebsite eingefügt wird.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Da es auf Trello keine Power-Up für TOTP gab, fragte er mich, ob es möglich wäre eine zu entwickeln?&lt;/p&gt;
&lt;h1 id=&#34;eine-power-up-für-trello&#34;&gt;Eine Power-Up für Trello&lt;/h1&gt;
&lt;p&gt;Die Entwicklung einer eigenen Power-Up hat mich gereizt: Schliesslich kann zumindest ein Team von solch einer Entwicklung direkt profitieren - und vielleicht haben sogar andere Teams ähnliche Probleme?&lt;/p&gt;
&lt;p&gt;Somit habe ich ein simples UI als spezielle TOTP-Trello-Task gemacht. Darin kann man die geheimen Schlüssel verschlüsselt abspeichern und mit dem Team im gleichen Trello-Board teilen. Es werden darin laufend die neusten Einmal-Codes generiert.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cdn.glitch.global/940830b4-2b76-49cf-b75f-b52491e557bd/screencast_1.gif?v=1641683723069&#34; alt=&#34;VIDEO&#34;&gt;&lt;/p&gt;
&lt;p&gt;Wenn man ein Code benötigt, kann man einfach auf &amp;ldquo;copy&amp;rdquo; klicken, und den Code im Zielfenster einfügen. Folgend zeigt die authentifizierung auf Dockerhub:&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://cdn.glitch.global/940830b4-2b76-49cf-b75f-b52491e557bd/screencast_2.gif?v=1641684145187&#34; alt=&#34;VIDEO&#34;&gt;&lt;/p&gt;
&lt;h1 id=&#34;sicherheit-und-kontrolle&#34;&gt;Sicherheit und Kontrolle&lt;/h1&gt;
&lt;p&gt;Das Power-Up wurde von den Trello-Entwicklern Atlassian kritisch überprüft. Es gab mehrere Runden mit Feedbacks, die zu Verbesserungen des Power-Ups geführt haben. Insgesamt hat es zwei Monate gedauert, um das grüne Licht aus den USA zu bekommen.&lt;/p&gt;
&lt;p&gt;Alle gespeicherten Secrets werden auf dem Board verschlüsselt und benötigen ein Team-Passwort, welches die Werte vollständig kryptographisch verschlüsselt. Das bedeutet, dass man ohne das Team-Passwort nicht auf die Secrets zugreifen kann.&lt;/p&gt;
&lt;p&gt;Serverseitig werden absolut keine Nutzerdaten gepeichert, und es findet kein sensitiver Datenaustausch mit dem Server statt.&lt;/p&gt;
&lt;h1 id=&#34;sofort-ausprobieren&#34;&gt;Sofort ausprobieren&lt;/h1&gt;
&lt;p&gt;&amp;mdash;&amp;gt; &lt;a href=&#34;https://trello.com/power-ups/61b4a249979c8c03b5fb67d0/totp-generator&#34; target=&#34;_blank&#34; rel=&#34;noopener&#34;&gt;Man kann das power-up &amp;ldquo;TOTP Generator&amp;rdquo; kostenlos ausprobieren!&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Auf Feedbacks bin ich gespannt!&lt;/p&gt;
</description>
    </item>
    
    <item>
      <title>Offene Machine Learning Modelle in der Verwaltung</title>
      <link>/post/2021-12-10-offene-machine-learning-modelle-in-der-verwaltung/</link>
      <pubDate>Fri, 10 Dec 2021 00:00:00 +0000</pubDate>
      <guid>/post/2021-12-10-offene-machine-learning-modelle-in-der-verwaltung/</guid>
      <description>&lt;p&gt;Der Bedarf nach rechtlichen und ethischen Leitplanken im Umgang mit Machine Learning (ML) Algorithmen wächst bei staatlichen Akteuren rasant. Diese haben zunehmend nicht nur die Regulierung von Unternehmen im Blick, sondern sind auch selbst Technologienutzende geworden. Das Gebot nach Transparenz findet man in allen Leitlinien und Studien dazu, da es für das Vertrauen in den öffentlichen Sektor zentral ist. Das Vertrauen beruht auf Grundpfeilern wie Nichtdiskriminierung, Legalität und Legitimität des staatlichen Handelns. Doch fehlen konkrete Vorgaben, wie eine solche Transparenz genau erreicht werden kann. Folgend wird ein mehrstufiges praxisnahes Konzept vorgeschlagen&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;Dieser Beitrag lehnt sich dabei in theoretischer Hinsicht stark an die Studie «Einsatz Künstlicher Intelligenz in der Verwaltung: rechtliche&lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt; und ethische Fragen»&lt;sup id=&#34;fnref:3&#34;&gt;&lt;a href=&#34;#fn:3&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;3&lt;/a&gt;&lt;/sup&gt; an, die eine wichtige Lücke schliesst. Der ethische Teil der Studie behandelt sieben ethische Grundsätze – einer davon ist Transparenz.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/trans_picture1.png&#34; alt=&#34;Bild: Titelseite der genannten Studie der Uni Basel und von Algorithm Watch Schweiz&#34;&gt;
&lt;em&gt;Bild: Titelseite der genannten Studie der Uni Basel und von Algorithm Watch Schweiz&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Die Studie erwähnt dabei vier unterschiedliche Transparenztheorien&lt;sup id=&#34;fnref:4&#34;&gt;&lt;a href=&#34;#fn:4&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;4&lt;/a&gt;&lt;/sup&gt;:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Eine davon ist die Stärkung der kollektiven Autonomie, die für die öffentliche Debatte in demokratischen Prozessen essenziell ist. Das ist auch eine Grundauffassung, die man in Leitlinien der OECD und der Europäischen Kommission findet: Transparenz ermöglicht den Bürger*innen nachzuvollziehen wie «ML-basierte Entscheidungen zustande kommen, um diese anfechten zu können»&lt;sup id=&#34;fnref:5&#34;&gt;&lt;a href=&#34;#fn:5&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;5&lt;/a&gt;&lt;/sup&gt;. Nachverfolgbarkeit und Erklärbarkeit &lt;sup id=&#34;fnref:6&#34;&gt;&lt;a href=&#34;#fn:6&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;6&lt;/a&gt;&lt;/sup&gt; machen dadurch einen wichtigen Teil der Transparenz aus.&lt;/li&gt;
&lt;li&gt;Transparenz kann auch eine Rolle als «Desinfektionsmittel» haben (Die Studie zitiert dabei Louis Brandeis: «Sonne ist das beste Desinfektionsmittel»&lt;sup id=&#34;fnref:7&#34;&gt;&lt;a href=&#34;#fn:7&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;7&lt;/a&gt;&lt;/sup&gt;). Wenn ein Prozess offengelegt ist, dann führt dies zu einer Vermeidung von unethischen Verhalten aber auch zu einer generellen Schadensvermeidung durch unbeabsichtigte Elemente.&lt;/li&gt;
&lt;li&gt;Transparenz kann auch zu technologischer Optimierung durch den aktiven Einbezug eines grösseren Netzwerks führen. Experten und Laien können dadurch Verbesserungen vorschlagen.&lt;/li&gt;
&lt;li&gt;Zuletzt kann Transparenz, neben der erstgenannten kollektiven Autonomie, auch die individuelle Autonomie stärken, da das Individuum durch Information eine fundierte Entscheidung treffen kann.&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Berechtigt könnte man kritisieren, dass ein Blick auf die Transparenz allein andere wichtige Grundprinzipien ausser Acht lässt. Ich würde aber behaupten, dass es ohne Transparenz nicht geht: diese ist notwendig aber nicht ausreichend um die ethischen Bedürfnisse abzudecken. Dazu kommt, dass die oben genannten vier Transparenzdimensionen sich stark mit den anderen sechs Grundsätzen der Studie überschneiden. Ohne diese Grundsätze hier im Detail zu beschreiben möchte ich einige Beispiele geben:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;«Schadensvermeidung» und «Benefizienz»: Man kann ein ML-Algorithmus am besten entwickeln, wenn der gesamte Prozess transparent ist. So kann man auch ungewollten Schaden abwenden, da Fehler, Biases u.ä. früh erkannt werden. Die «Möglichkeit, mithilfe von KI-Systemen Gutes zu tun»&lt;sup id=&#34;fnref:8&#34;&gt;&lt;a href=&#34;#fn:8&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;8&lt;/a&gt;&lt;/sup&gt;, lässt sich mit Transparenz besser bewerkstelligen, da man vor, während und nach der Implementierung überprüfen kann, ob man wirklich Gutes tut.&lt;/li&gt;
&lt;li&gt;«Gerechtigkeit und Fairness»: Je transparenter der gesamte Prozess ist, desto wahrscheinlicher wird es, dass «nur faire und gerechte Datensätze verwendet werden», dass «angemessene Funktionen, Prozesse und analytische Strukturen  in  die  Modellarchitektur  aufgenommen  werden», dass «das System [keine] diskriminierende Auswirkungen hat», und dass «das System unvoreingenommen implementiert» wird&lt;sup id=&#34;fnref:9&#34;&gt;&lt;a href=&#34;#fn:9&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;9&lt;/a&gt;&lt;/sup&gt;.&lt;/li&gt;
&lt;li&gt;«Autonomie»: Deckt sich sehr stark sowohl mit der kollektiven wie auch mit der individuellen Autonomie, die oben beschrieben wurde.&lt;/li&gt;
&lt;li&gt;«Kontrolle» und «Rechenschaftspflicht»: Beide instrumentellen und aufsichtsrechtlichen Elemente bedingen, dass man kontrollieren kann und für etwas rechenschaftspflichtig sein kann. Transparenz erscheint mir da wie eine wichtige Voraussetzung dafür.&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Wie könnte nun eine praxisnahe Umsetzung aussehen, um die ethischen Erwartungen auch zu erfüllen?&lt;/p&gt;
&lt;h3 id=&#34;stufe-1&#34;&gt;STUFE 1&lt;/h3&gt;
&lt;p&gt;Die aktuelle Praxis in einigen Ländern stellt die Kommunikation und Offenlegung der verwendeten Algorithmen in den Mittelpunkt. Dabei gibt es zwei Alternativen. Ein technischerer Ansatz in Grossbritannien sieht neu einen «Algorithmic transparency data standard»&lt;sup id=&#34;fnref:10&#34;&gt;&lt;a href=&#34;#fn:10&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;10&lt;/a&gt;&lt;/sup&gt; vor, mit welchem man sehr detailliert eine möglichst genaue Dokumentation von im öffentlichen Sektor verwendeten Algorithmen erstellen kann.&lt;/p&gt;
&lt;p&gt;Statt eines technischen Zielpublikums lässt sich auch eine grössere Öffentlichkeit erreichen: u.a. Amsterdam und Helsinki haben dies mit einem Register erreicht, in dem jeder Algorithmus in einigen Paragraphen mit Ziel und Zweck erläutert wird&lt;sup id=&#34;fnref:11&#34;&gt;&lt;a href=&#34;#fn:11&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;11&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;Transparenz wird dabei bloss als Kommunikation verstanden. Dabei kann man durchaus auch detailliert erklären, welche Überlegungen und Massnahmen man z.B. gegen Nichtdiskriminierung oder zur Schadensminimisierung durchgeführt hat. Aber es bleibt bei einer Dokumentation, die man nicht nachprüfen oder nachrechnen kann. Nichtsdestotrotz ist es ein absolutes Minimum ein solches Register mit öffentlich zugänglichen Informationen zu haben.&lt;/p&gt;
&lt;h3 id=&#34;stufe-2&#34;&gt;STUFE 2&lt;/h3&gt;
&lt;p&gt;In einer zweiten Stufe könnte man sowohl Computercode als auch Machine Learning Modelle offenlegen. Das ist zwar eine technische Forderung, aber sie ermöglicht zivilgesellschaftlichen und privaten Akteuren den vollständigen Zugang zum Algorithmus. Und in der Regel dürfte es kein Problem für Verwaltungen darstellen beides zu veröffentlichen.&lt;/p&gt;
&lt;p&gt;Die Formel aus dem Modell&lt;sup id=&#34;fnref:12&#34;&gt;&lt;a href=&#34;#fn:12&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;12&lt;/a&gt;&lt;/sup&gt; ermöglicht die exakte Nachberechnung eines Resultats: Man setzt die Inputwerte ein, und erhält das berechnete Output des Algorithmus. Ein «Modell» kann man sich auch als eine Datei vorstellen: In der Praxis kann beim Trainieren eines Algorithmus eine Datei abgespeichert werden, die dann zur Berechnung verwendet werden kann. Man könnte diese Datei öffentlich zugänglich machen.&lt;/p&gt;
&lt;p&gt;Neben dem offenen Computercode und den offenen Modellen, stellt sich auch die Frage nach offenen Behördendaten. Hier setzt sich in der Verwaltung bereits das Prinzip «open by default» durch, welches besagt, dass alle nicht schützenswerten Daten veröffentlicht werden sollen.&lt;/p&gt;
&lt;p&gt;Falls es sich um solche schützenswerten Daten handelt, könnte man drei Sachen andenken. Einerseits kann man mittels Datenschutzverträge in bestimmten vordefinierten Fällen den Zugriff darauf erhalten. Zweitens könnte man in einer «AI Sandbox» oder geschützten Umgebung einen Zugang dazu bekommen, wie das in Grossbritannien, Norwegen und Frankreich gerade versucht wird&lt;sup id=&#34;fnref:13&#34;&gt;&lt;a href=&#34;#fn:13&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;13&lt;/a&gt;&lt;/sup&gt;. Drittens könnte man einen Beispieldatensatz mit synthetischen Daten mitliefern, so dass zumindest die Schwelle für die Nachvollziehbarkeit möglichst gering ist – aber da ‘Bias’ auch als Muster in den Daten selbst entstehen kann, ist dies nicht die geeignetste Variante.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/trans_picture2.png&#34; alt=&#34;Bild: CC0 / Pixabay / Elchinator&#34;&gt;
&lt;em&gt;Bild: CC0 / Pixabay / Elchinator&lt;/em&gt;&lt;/p&gt;
&lt;h3 id=&#34;stufe-3&#34;&gt;STUFE 3&lt;/h3&gt;
&lt;p&gt;Eine weitere Stufe der Transparenz wäre erreicht, wenn der Lebenszyklus eines Algorithmus vollständig erfasst werden würde. Dies bedingt zwei Elemente.&lt;/p&gt;
&lt;p&gt;Erstens, und zusätzlich zur Veröffentlichung der Modelle und des Computercodes, stellt sich die Frage nach einer strikten Versionierung. Was bei Computercode geläufig ist, wird in der Industrie auch teilweise bei ML-Modellen angewandt. Denn nur so kann man rückwirkend vollständig nachvollziehen, welcher Algorithmus in welchem Moment verwendet wurde. In der Praxis werden die Modelle häufig aktualisiert oder verändert. So kann diese dynamische Komponente mitberücksichtigt werden.&lt;/p&gt;
&lt;p&gt;Zweitens braucht es eine regelmässig stattfindende Kontrolle – ein Monitoring, welches öffentlich ist und mindestens jährlich stattfindet. Ähnlich dem britischen «algorithmic data transparency standard», könnte man sich auch hier eine Art Standardprotokoll überlegen. Dieses Monitoring ermöglicht auch zu erkennen, ob die Ziele und der gewünschte Nutzen erreicht wurden.&lt;/p&gt;
&lt;h3 id=&#34;stufe-4&#34;&gt;STUFE 4&lt;/h3&gt;
&lt;p&gt;Ein offenes ML-Modell bleibt eine «black box», da man das innere eines komplexen Algorithmus nicht menschlich simpel nachvollziehen kann. Diese Problematik basiert auf «Ockhams Dilemma»: man kann entweder Algorithmen mit sehr genauen Vorhersagen oder menschlich verständliche/interpretierbare Algorithmen haben, aber nicht beides gleichzeitig&lt;sup id=&#34;fnref:14&#34;&gt;&lt;a href=&#34;#fn:14&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;14&lt;/a&gt;&lt;/sup&gt;. Beispielsweise werden simplere Regressionen in der Wissenschaft verwendet, da dort die Erklärbarkeit und nicht die genauste Vorhersage im Mittelpunkt stehen. Eine weitere Stufe wäre deshalb begleitende simplere Algorithmen (z.B. lineare Modelle oder Ceteris-Paribus Annahmen&lt;sup id=&#34;fnref:15&#34;&gt;&lt;a href=&#34;#fn:15&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;15&lt;/a&gt;&lt;/sup&gt;) parallel dazu zu trainieren und zu veröffentlichen.&lt;/p&gt;
&lt;p&gt;Ein solcher Ansatz wurde im Bundesamt für Statistik im Pilotprojekt Plausi++ versucht: der komplexe Algorithmus war für die genauste Berechnung der Plausibilisierung zuständig, während ein simples Modell eine menschlich verständliche Erklärung für die Entscheidung der Plausibilisierung liefern soll&lt;sup id=&#34;fnref:16&#34;&gt;&lt;a href=&#34;#fn:16&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;16&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;Technisch könnte es sein, dass dies nicht in allen Anwendungsfällen möglich oder zu guten Resultaten führt. Aber selbst bei Bilddaten kann man mit linearen Modellen Erklärungsansätze für die Entscheidungen bekommen: So kann man beispielsweise den Bildabschnitt gezeigt bekommen, der für die Vorhersage am relevantesten war&lt;sup id=&#34;fnref:17&#34;&gt;&lt;a href=&#34;#fn:17&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;17&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/trans_picture3.png&#34; alt=&#34;Bild: S.18 aus Schlussbericht Plausi++, Abbildung zeigt Ceteris-Paribus Ansatz, um die berüchtigte black box zu öffnen&#34;&gt;
&lt;em&gt;Bild: S.18 aus Schlussbericht Plausi++, Abbildung zeigt Ceteris-Paribus Ansatz, um die berüchtigte black box zu öffnen&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Die oben vorgestellten vier Stufen stellen einen neuen praxisnahen Vorschlag für eine vollständige Transparenz dar. Wie oben erwähnt, denke ich, dass Transparenz eine notwendige aber nicht ausreichende Bedingung ist, um die in der Theorie behandelten ethischen Erwägungen ganzheitlich zu erfüllen. Somit müssen zwangsläufig weitere Überlegungen angestellt werden.&lt;/p&gt;
&lt;p&gt;Beispielsweise kann Transparenz einen diskriminierenden Effekt eines Algorithmus sichtbar machen, aber dadurch ist die dadurch entstandene Diskriminierung noch nicht beseitigt: – «Diskriminierung kann auch transparent, nachvollziehbar und verstehbar erfolgen»&lt;sup id=&#34;fnref:18&#34;&gt;&lt;a href=&#34;#fn:18&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;18&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;Des Weiteren gibt es Fälle, wo «bias» nicht vermieden werden können&lt;sup id=&#34;fnref:19&#34;&gt;&lt;a href=&#34;#fn:19&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;19&lt;/a&gt;&lt;/sup&gt;. Prof. Rayid Ghani zeigt beispielsweise an einer Präsentation an der EPFL Anwendungsfälle auf, bei dem ein Algorithmus entweder auf Effizienz, Gleichheit oder Gleichwertigkeit optimiert werden kann - mit unmittelbaren Nachteilen für die jeweils anderen beiden Dimensionen &lt;sup id=&#34;fnref:20&#34;&gt;&lt;a href=&#34;#fn:20&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;20&lt;/a&gt;&lt;/sup&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/trans_picture4.png&#34; alt=&#34;Ein weiteres Puzzleteilchen, Bild: CC0 / Pixabay / Alexas_Fotos&#34;&gt;
&lt;em&gt;Ein weiteres Puzzleteilchen, Bild: CC0 / Pixabay / Alexas_Fotos&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Ein solches Transparenzverständnis ist in der öffentlichen Verwaltung gerade im Bereich der Datenbewirtschaftung nicht neu: So haben sich offene Behördendaten und Prinzipien wie «open by default» durchgesetzt. Eine vollständige Transparenz im Einsatz von ML-Algorithmen ist somit ein weiteres Puzzleteil in diesem bereits existierenden Selbstverständnis.  Das zeugt auch, dass man bestehende Grundprinzipien in der Datenbewirtschaftung auf eine angepasste Weise auch auf Algorithmen anwenden könnte, ohne das Rad neu zu erfinden. Beispielsweise CARE&lt;sup id=&#34;fnref:21&#34;&gt;&lt;a href=&#34;#fn:21&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;21&lt;/a&gt;&lt;/sup&gt;:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Collective Benefit: Machine Learning Ansätze müssen einen öffentlichen und öffentlich legitimierten Nutzen haben.&lt;/li&gt;
&lt;li&gt;Authority to Control: Die Stärkung der kollektiven wie auch individuellen Autonomie.&lt;/li&gt;
&lt;li&gt;Responsibility: Verantwortung im Umgang mit den Modellen, Prozessen, Daten.&lt;/li&gt;
&lt;li&gt;Ethics: Schadensvermeidung und Benefizienz im gesamten Lebenszyklus eines Algorithmus.&lt;/li&gt;
&lt;/ul&gt;
&lt;section class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;
&lt;hr&gt;
&lt;ol&gt;
&lt;li id=&#34;fn:1&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Ich bedanke mich sehr herzlich bei allen Personen, die Feedbacks zu diesem Blogartikel gegeben haben! &lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:2&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Nachtrag am 20.12.2021 aufgrund von juristisches Feedback zur Präzisierung des Begriffs Transparenz: Juristisch kann hier Transparenz &amp;ldquo;am ehestens&amp;hellip; i.S. des Öffentlichkeitsgesetzes verstanden werden, nämlich dahingehend, dass breite Kreise (Zivilgesellschaft, Medien, Interessierte etc.) Zugang zu den Informationen erhalten. Eine andere Form der Transparenz verlangt das Datenschutzgesetz (nämlich die Transparenz über die Nutzung der eigenen Daten).
Und noch einmal etwas anderes ist die Tranparenz i.S. der verfassungsrechtlichen Begründungspflicht (bei staatlichem ADM), welche die grds. Nachvollziehbarkeit einer Entscheidung im Einzelfall fordert&amp;rdquo;. Vielen Dank an Nadja Braun Binder für diese Präzisierung! &lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:3&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;«Einsatz Künstlicher Intelligenz in der Verwaltung: rechtliche und ethische Fragen», Juristische Fakultät der Universität Basel und Algorithm Watch Schweiz – siehe S. 72 ff.
&lt;a href=&#34;https://www.zh.ch/content/dam/zhweb/bilder-dokumente/themen/politik-staat/kanton/digitale-verwaltung-und-e-government/projekte_digitale_transformation/ki_einsatz_in_der_verwaltung_2021.pdf&#34;&gt;https://www.zh.ch/content/dam/zhweb/bilder-dokumente/themen/politik-staat/kanton/digitale-verwaltung-und-e-government/projekte_digitale_transformation/ki_einsatz_in_der_verwaltung_2021.pdf&lt;/a&gt; &lt;a href=&#34;#fnref:3&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:4&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;ibid. &lt;a href=&#34;#fnref:4&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:5&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;AI-Principles der OECD 2018, übersetzt durch Autor, &lt;a href=&#34;https://www.oecd.org/going-digital/ai/principles/&#34;&gt;https://www.oecd.org/going-digital/ai/principles/&lt;/a&gt; &lt;a href=&#34;#fnref:5&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:6&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Ethik-Leitlinien für eine vertrauenswürdige KI der Europäischen Kommission, 2018, siehe z..B. Seite 17, &lt;a href=&#34;https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html&#34;&gt;https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html&lt;/a&gt; &lt;a href=&#34;#fnref:6&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:7&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Op. Cit.: S. 72 &lt;a href=&#34;#fnref:7&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:8&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Op. Cit.: S. 70 &lt;a href=&#34;#fnref:8&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:9&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Op. Cit.: S. 68 &lt;a href=&#34;#fnref:9&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:10&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://www.gov.uk/government/publications/algorithmic-transparency-data-standard&#34;&gt;https://www.gov.uk/government/publications/algorithmic-transparency-data-standard&lt;/a&gt; &lt;a href=&#34;#fnref:10&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:11&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe z.B.Amsterdam &lt;a href=&#34;https://algoritmeregister.amsterdam.nl/en/ai-register/&#34;&gt;https://algoritmeregister.amsterdam.nl/en/ai-register/&lt;/a&gt; oder Helsininki
&lt;a href=&#34;https://ai.hel.fi/en/ai-register/&#34;&gt;https://ai.hel.fi/en/ai-register/&lt;/a&gt; &lt;a href=&#34;#fnref:11&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:12&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Auch wenn eine Formel hier sprichwörtlich gemeint ist, ist ein Modell wortwörtlich tatsächlich
eine Art komplexe Formel &lt;a href=&#34;#fnref:12&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:13&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe beispielsweise &lt;a href=&#34;https://www.eipa.eu/publications/briefing/sandboxes-for-responsible-artificial-intelligence/&#34;&gt;https://www.eipa.eu/publications/briefing/sandboxes-for-responsible-artificial-intelligence/&lt;/a&gt; oder &lt;a href=&#34;https://www.huntonprivacyblog.com/2021/02/25/regulatory-sandboxes-are-gaining-traction-with-european-data-protection-authorities/&#34;&gt;https://www.huntonprivacyblog.com/2021/02/25/regulatory-sandboxes-are-gaining-traction-with-european-data-protection-authorities/&lt;/a&gt; &lt;a href=&#34;#fnref:13&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:14&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe z.B. S.6 und ff.
&lt;a href=&#34;https://unece.org/fileadmin/DAM/stats/documents/ece/ces/ge.44/2018/T4_Switzerland_RUIZ_Paper.pdf&#34;&gt;https://unece.org/fileadmin/DAM/stats/documents/ece/ces/ge.44/2018/T4_Switzerland_RUIZ_Paper.pdf&lt;/a&gt; &lt;a href=&#34;#fnref:14&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:15&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe z.B. das Buch von Christoph Molnar &lt;a href=&#34;https://christophm.github.io/interpretable-ml-book&#34;&gt;https://christophm.github.io/interpretable-ml-book&lt;/a&gt; &lt;a href=&#34;#fnref:15&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:16&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe Bericht dazu &lt;a href=&#34;https://www.bfs.admin.ch/bfs/de/home.assetdetail.9847917.html&#34;&gt;https://www.bfs.admin.ch/bfs/de/home.assetdetail.9847917.html&lt;/a&gt; &lt;a href=&#34;#fnref:16&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:17&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://towardsdatascience.com/interpretable-machine-learning-for-image-classification-with-lime-ea947e82ca13&#34;&gt;https://towardsdatascience.com/interpretable-machine-learning-for-image-classification-with-lime-ea947e82ca13&lt;/a&gt; &lt;a href=&#34;#fnref:17&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:18&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Präsentation von Prof. Bettina Berendt anlässlich der Veranstaltung «KI: Rechtliche
Rahmenbedingungen für die künstliche Intelligenz in der Schweiz» &lt;a href=&#34;#fnref:18&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:19&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Wie es z.B. in der Veranstaltung «KI: Rechtliche Rahmenbedingungen für die künstliche
Intelligenz in der Schweiz» mehrmals erwähnt wurde &lt;a href=&#34;#fnref:19&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:20&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;&lt;a href=&#34;https://z01.ch/post/2021-01-26-amld-ai-democracy/&#34;&gt;https://z01.ch/post/2021-01-26-amld-ai-democracy/&lt;/a&gt; &lt;a href=&#34;#fnref:20&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li id=&#34;fn:21&#34; role=&#34;doc-endnote&#34;&gt;
&lt;p&gt;Siehe z.B. Seite 9, Kommunikation mit Daten, Matthias Mazenauer, Statistisches Amt
Kanton Zürich, &lt;a href=&#34;https://docs.google.com/presentation/d/17b7yOEEclFejydFpE1-&#34;&gt;https://docs.google.com/presentation/d/17b7yOEEclFejydFpE1-&lt;/a&gt;
AdaSRrgvSp7sq/edit#slide=id.p1 &lt;a href=&#34;#fnref:21&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;/section&gt;
</description>
    </item>
    
    <item>
      <title>AI &amp; Democracy</title>
      <link>/post/2021-01-26-amld-ai-democracy/</link>
      <pubDate>Tue, 26 Jan 2021 00:00:00 +0000</pubDate>
      <guid>/post/2021-01-26-amld-ai-democracy/</guid>
      <description>&lt;p&gt;Die “Applied Machine Learning Days” an der EPFL haben sich in den letzten Jahren zu einem Schweizer Schlüsselevent mit internationaler Strahlkraft entwickelt. Technologie ist dabei nur eine Seite der Medaille: Die Themen umfassen soziale, politische und wirtschaftliche Aspekte im Zusammenhang mit Machine Learning. Dieses Jahr finden die Applied Machine Learning Days nicht wie sonst während einer gesamten Woche statt, sondern über das gesamte Jahr verteilt. Der erste Tag begann gestern mit dem spannenden Thema “AI and Democracy”. Das ausgezeichnete Grundsatzreferat hat dabei neue Standards gesetzt. Auch bei den anderen Beiträgen hat man gemerkt, dass ausserhalb der Schweiz viele spannende und lehrreiche Projekte zu “AI und Democracy” stattfinden.&lt;/p&gt;
&lt;p&gt;Prof. Rayid Ghani von der Carnegie Mellon University hielt sein Grundsatzreferat zum Thema Einsatz von Data Science, um Fairness und gleichwertige Behandlung bei sozialen/politischen Anwendungen zu erzielen. Dabei fing Rayid mit drei Beispiele seiner beruflichen Laufbahn an, wie Data Science Politik positiv beeinflussen kann. Diese Beispiele sind ein guter Einstieg, um die darauffolgenden Überlegungen besser in einen Kontext setzen zu können.&lt;/p&gt;
&lt;p&gt;So hat er beispielsweise mitgeholfen ein System zu entwickeln, welches vorhersagt in welchen Häusern am wahrscheinlichsten noch bleihaltige Farbe an den Wänden ist. Das ist ein grosses Gesundheitsproblem und führt in den USA dazu, dass besonders viele Babys mit Bleivergiftungen in die Spitäler eingeliefert werden, da sie den giftigen Staub einatmen. Mit einem solchen Algorithmus kann die Regierung solche Einwohnerinnen und Einwohner präventiv kontaktieren, um staatlich finanzierte Kontrollen und Baumassnahmen durchzuführen - und schlimmeres noch vor der Geburt des Nachwuchses zu verhindern.&lt;/p&gt;
&lt;p&gt;Ein weiteres Beispiel ist die Auswertung von Polizeireports, um Polizisten gezielt präventiv zu identifizieren, die (wieder) gewalttätig werden könnten. Somit können Ressourcen in psychologischer Unterstützung frühzeitig einzusetzen werden, um Polizeigewalt zu verhindern.&lt;/p&gt;
&lt;p&gt;Ein letztes Beispiel war der Einsatz bei den 10 Millionen Häftlingen, die jedes Jahr in den USA in Haft kommen. Eine grosse Gruppe von Häftlingen hat mentale Probleme und kehren immer wieder in Haft zurück. Durch die Unterstützung von Algorithmen wird nun gezielt nach gewissen Persönlichkeitsmustern gesucht, die mit psychologischer Hilfe unterstützt werden können, damit diese den Kreislauf des Wiederkehrenden Aufenthalts in Haft durchbrechen können.&lt;/p&gt;
&lt;p&gt;Zu diesen Eingangsbeispielen gehören immer jeweils drei Elemente dazu: Verstehen was das Problem ist, Vorhersage von gewissen Ereignissen und zuletzt auch die aktive Beeinflussung der Lage. Dabei sind die Ressourcen begrenzt und deshalb wird eine Abwägung zwischen Gleichwertigkeit, Effizient und Effektivität notwendig: Möchte man beispielsweise so vielen Leuten wie möglich helfen? Oder fokussiert man sich zunächst auf die Personen, die man am leichtesten/günstigsten erreichen kann? Wenn man beispielsweise Covid-Testzentren zentral aufstellt, dann spart dies Ressourcen, aber Personen in der Peripherie haben einen schlechteren Zugang.&lt;/p&gt;
&lt;p&gt;Rayid meint, dass sie bisherige Diskussion im Bezug auf Machine Learning sich stets auf die Frage fokussiert hat, ob ein rechnerisches Modell fair ist. Aber in Wirklichkeit geht es darum das gesamte System und die Outcomes fair zu gestalten - und das ist eine inhärent soziale Frage, die unbedingt zunächst definiert werden muss. Dabei zeigt das Institut von Rayid auch auf, dass es durchaus möglich ist solche Outcomes zu definieren, Abwägungen bezüglich den Zielen zu treffen und dann konkret zu messen. Nur dann kann man den Entscheidern ein “Policy Menu” (Bild unten) präsentieren, in welchem die verschiedenen Aspekte und Optionen sichtbar werden. In dieser Illustration führt die effizienteste Lösung zu einem grösseren Graben zwischen Weissen und Hispanics. Der Grund könnte darin liegen, dass es in dieser Intervention günstiger is an Weisse Teilnehmenden zu gelangen. Eine Lösung die auf gleiche Behandlung durch die Intervention beruht, würde 2% mehr kosten. Die Linien verlaufen dort parallel, da beide Gruppen gleich viel profitieren. Eine Politik, die aber darauf abzielt, eine Situation der Gleichwertigkeit zu schaffen, muss einen Zusatzeffort bei den Hispanics machen, damit dann beide Linien an einem gemeinsamen Punkt kongruieren - mit weiteren 2% Kosten.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/aidem_picture1.png&#34; alt=&#34;Quelle: AMLD, Präsentation von Rayid Ghani, 25.01.2021&#34;&gt;&lt;/p&gt;
&lt;p&gt;Um überhaupt zu wissen, welche Metriken man bei der Erstellung der Szenarien priorisieren soll, hat sein Institut folgende “fairness tree” vorbereitet, welches dabei hilft  die im jeweiligen Anwendungsfall relevanten sozialen “Bias Measures” zu identifizieren. Somit können Algorithmen gezielt eingesetzt werden, um die vordefinierten Ziele den Ressourcen entsprechend zu optimieren.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/aidem_picture2.png&#34; alt=&#34;Quelle: Center for Data Science and Public Policy&#34;&gt;&lt;/p&gt;
&lt;h2 id=&#34;weitere-interessante-beiträge&#34;&gt;Weitere interessante Beiträge&lt;/h2&gt;
&lt;p&gt;Facebook fordert in den Nutzungsbedingungen, dass politische Werbungen als solche deklariert werden müssen. Aber wird das respektiert? Die Frage ist schwierig zu beantworten, da Facebook keine Daten dazu veröffentlicht. Die brasilianische Wissenschaftlerin Oana Goga und ihr Team haben ein add-on für Browser entwickelt, damit freiwillige Helfer dieses installieren können und somit Daten über die Werbungen an eine Datenbank geschickt werden können. Das Team konnte somit für die Präsidentschaftswahlen 2018 rund 239 Tausend Werbungen von 40 Tausend Werbenden sammeln. 2% der Werbungen, die gezeigt wurden, waren politische Werbungen, die aber nicht als solche deklariert wurden. Der Anteil der korrekt deklarierten politischen Werbungen beträgt etwa 2-4%. Der Anteil der nicht-deklarierten Werbungen ist somit sehr gross.&lt;/p&gt;
&lt;p&gt;Oana Goga hat aber auch die interessante Frage der Definition einer politischen Werbung diskutiert. So betrachten Facebook und TikTok auch themenbezogene Werbungen als politisch, wenn sie in eine Liste von politischen Themen fallen. Das ist auch konform mit dem “EU Code of Practice on Disinformation”. Twitter und Google machen dies wiederum nicht. Bei themenbezogenen Werbungen ist es aber schwierig eine saubere Grenze zu ziehen. Folgend zwei Beispiele aus ihren Slides, die unterschiedlich beantwortet werden:&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/aidem_picture3.png&#34; alt=&#34;Quelle: AMLD, Präsentation von Oana Goga, 25.01.2021&#34;&gt;&lt;/p&gt;
&lt;p&gt;Mit offenen und grossen Datenmengen Korruption bekämpfen - so könnte man die Präsentation von Irio Musskopf bezeichnen. Sein Team hat veröffentlichte Finanzdaten untersucht, um Anomalien zu finden. Zu den Beispielen gehören Sandwiches die über 50$ gekostet haben, Abrechnungen in Brasilien während die Parlamentarier angeblich gerade in Grossbritannien auf Instagram ein Bild gepostet haben, oder 3 ungefähr gleichzeitige Lunch-Abrechnungen, die aber über 4000km weit entfernt voneinander sind.&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;/img/aidem_picture4.png&#34; alt=&#34;Quelle: AMLD, Präsentation von Rayid Ghani, 25.01.2021&#34;&gt;&lt;/p&gt;
&lt;p&gt;Ein interessanter Input kam von Christine Choirat vom Swiss Data Science Center mit dem Titel “Big Problem, Big Data (And Vice Versa). Bei einer Studie zu Luftqualität in den USA ist sie mit dem amerikanischen “HONEST Act” konfrontiert worden. Dieses fordert, dass Rohdaten, Computercodes und alles weitere von Umweltstudien veröffentlicht werden muss. Open Science ist natürlich zu begrüssen, aber hier wurden sensible Patientendaten von “Medicare” verwendet, die nicht veröffentlicht werden können. Somit darf momentan mit dem HONEST Act gar keine Umweltstudie veröffentlicht werden, wenn nicht alle Rohdaten veröffentlicht werden.&lt;/p&gt;
&lt;p&gt;Diese Erfahrung ist im Swiss Data Science Center in die Plattformen Renku und insbesondere in das gesicherte “Swiss Data Custodian” geflossen, wo Wissenschaftler miteinander kollaborieren können, aber sensible Daten nur Befugten zugänglich sind. Somit kann man den Spagat zwischen Open Science (mit Komponenten wie Reproduzierbarkeit) und der Verwendung von besonders schützenswerten Daten erreichen.&lt;/p&gt;
&lt;p&gt;Arianna Ornaghi lieferte einen spannenden Beitrag zu einer Analyse anhand von Natural Language Processing (NLP) von Richtersprüchen nach “gender bias”. Sie fand ein Weg, um Richter mit einem “gender slant” per NLP zu identifizieren, und kam zum Ergebnis, dass Richter mit “Gender slant” häufiger Urteile von untergeordneten Instanzen aufheben, wenn es durch weibliche Richterinnen gefällt wurden.&lt;/p&gt;
&lt;p&gt;Zusammengefasst gab es an diesem AMLD-Tag zu “AI und Democracy” sehr viele neue Dinge zu lernen. Ich freue mich schon auf die weiteren Tage mit Themen wie nachhaltige Energie, Einsatz von AI im Zusammenhang mit Covid (siehe auch das Bild oben mit den vielfältigen Anwendungen), klinischer Einsatz und Städten.&lt;/p&gt;
&lt;p&gt;Ich bedanke mich sehr herzlich bei allen die Feedbacks zu diesem Blogartikel gegeben haben!&lt;/p&gt;
</description>
    </item>
    
  </channel>
</rss>
