Open navigation
Suche
Büros – Schweiz
Alle Standorte entdecken
Globale Reichweite

CMS bietet nicht nur fachkundige Rechtsberatung für lokale Jurisdiktionen, sondern meistert mit Ihnen zusammen effektiv die Komplexität des globalen Geschäfts- und Rechtsumfeldes.

Entdecken Sie, wo wir tätig sind
Insights – Schweiz
Alle Insights entdecken
Suche
Expertise
Insights

Unsere Expertinnen und Experten bieten eine zukunftsorientierte Beratung für Ihr Unternehmen in einer Vielzahl von Fachgebieten und Branchen weltweit.

Themen entdecken
Büros
Globale Reichweite

CMS bietet nicht nur fachkundige Rechtsberatung für lokale Jurisdiktionen, sondern meistert mit Ihnen zusammen effektiv die Komplexität des globalen Geschäfts- und Rechtsumfeldes.

Entdecken Sie, wo wir tätig sind
CMS Switzerland
Insights
Über CMS

Wählen Sie Ihre Region

Veröffentlichung 21 Jun 2024 · Schweiz

KI-Serie 4: Künstliche Intelligenz im Bereich von Rechts­strei­tig­kei­ten und Schieds­ver­fah­ren: Welche Auswirkungen wird sie haben?

13 min. Lesezeit

Auf dieser Seite

Künstliche Intelligenz (KI) hat nicht nur den Weg für IT-affine Praxisfelder geebnet. Es ist auch wahrscheinlich, dass sie Aspekte von Rechtsstreitigkeiten revolutionieren wird, insbesondere die Art und Weise, wie Verfahren durchgeführt werden, und die Vielfalt der Streitigkeiten, die sich aus dem KI-Bereich entwickeln könnten. Im Folgenden möchten wir einige der bemerkenswertesten Trends und Entwicklungen hervorheben. Einerseits sind KI-unterstützte Methoden der Rechtsstreitführung am nahen Horizont sichtbar (wenn auch ohne vollständige Genauigkeit bestätigt), andererseits wird ein wachsendes Risiko von KI-bezogenen Rechtsstreitigkeiten offensichtlich, das eine frühe Reflexion und Reaktion von Unternehmen erfordert.

1. Mittels künstlicher Intelligenz unterstützte Führung von Rechtsstreitigkeiten

  • Virtuelle Rechtsassistenten im Justizsystem: Virtuelle Rechtsassistenten spielen eine relevante Rolle in juristischen Abläufen. KI-gestützte virtuelle Assistenten könnten sich in den nächsten Jahren verbessern und viele administrative Aufgaben wie Terminplanung, Dokumentenerstellung und Aktenführung könnten zunehmend von Maschinen übernommen werden. Folglich könnten menschliche Anwälte oder Richter mehr mit solchen Assistenten interagieren, ähnlich wie sie es heute bereits mit menschlichen Assistenten tun.
  • Anpassung der Arbeitsabläufe an die Bedürfnisse der Justiz: Heutige Richter und Anwälte müssen lange Schriftsätze mit sehr unterschiedlichem Inhalt lesen. Es ist denkbar, dass der Einsatz von KI-Tools genutzt werden kann oder wird, um das Lesen und Verarbeiten zu beschleunigen oder zumindest zu verbessern. Darüber hinaus könnten Richter Vorlieben haben, wie Gerichtsdokumente strukturiert sein sollten, und diese Präferenzen durch ein KI-basiertes Modell vorschlagen, z.B. Vorlagen oder Vorschläge, wie ihre „Wunsch-Schriftsätze“ aussehen sollen (z.B. haben die Schweizer Arbeitsgerichte umfassende Schriftsatzvorlagen für potenzielle Arbeitnehmer, um ihre Ansprüche geltend zu machen). Ob dies eintreten wird und in welchem Umfang, ist schwer vorherzusagen. Richter sind möglicherweise nicht immer bereit, ihre Präferenzen für Schriftsätze im Voraus transparent zu machen oder gar Türen zu einem potenziellen Profiling zu öffnen. Ausserdem haben Richter wenig Anreiz, mehr Fälle zu bearbeiten. Daher könnte es für einen Richter sogar vorteilhafter sein, schlecht verfasste Schriftsätze zu erhalten, die er ablehnen und dann einen Fall schliessen kann (weil er nicht den gesetzlichen Anforderungen entspricht).
  • KI-unterstützte gerichtliche Logik: Abhängig von der Komplexität der Fälle wäre es aus Richtersicht wahrscheinlich unethisch und würde den gesetzlichen und verfassungsrechtlichen Prinzipien widersprechen, KI-Analysen in den Entscheidungsprozess einzubeziehen. Algorithmen, die auf Milliarden von Daten basieren, könnten bei der Faktenanalyse helfen oder eine Reihe überzeugender rechtlicher Argumente entwickeln, die ein Richter wahrscheinlich überprüfen und verfeinern würde. Die aktuellen Verfahrensgesetze in der Schweiz verankern das Prinzip, dass ein Richter seine Entscheidungen im Allgemeinen selbst begründen, formulieren und fällen muss (eine nicht gesetzeskonforme Delegation dieser persönlichen Aufgabe an Dritte wird oft als sogenannte „demission du juge“ bezeichnet, eine Verhaltensweise, die nicht erlaubt ist und rechtlich angefochten werden kann). Dennoch ist es eine auffällige Realität, dass nicht komplexe Massenverfahren (wie z.B. die Durchsetzung von Parkverstössen) bereits automatisiert durchgeführt werden (man erhält eine E-Mail/SMS von einer Polizeibehörde, die den Tatbestand/Parkverstoss erklärt, die Option bietet, „Ich akzeptiere“ zu klicken, und eine automatische Zustellung eines Bescheides sowie eine Zahlungsoption über TWINT zur Zahlung der Geldstrafe und zur Schliessung des Falls anbietet), und es ist wahrscheinlich, dass KI-unterstützte gerichtliche Entscheidungen in Bereichen des Rechts mit weniger komplexen Massengeschäften zunehmen könnten.
  • Emotionen- und Stimmungsanalyse: Das klingt unheimlich und weit hergeholt. Aber könnte ein KI-basiertes Tool überprüfen, ob der Richter seufzt oder ob ein anderes Mitglied des Gerichts die Stirn runzelt? Könnten wir die Augen eines Zeugen untersuchen und feststellen, ob er nervös ist? Was wäre, wenn ein KI-Tool solche Stimmungen analysieren könnte? Würde dies Anwälte befähigen, ihre Taktiken während eines Gerichtsverfahrens anzupassen? Während Widerstand gegen die Einführung solcher (überwachungsähnlichen, lügendetektorähnlichen) Funktionen zu erwarten ist, ist es fair zu sagen, dass menschliche Teilnehmer an Gerichtsverfahren schon immer Stimmungen und menschliches Verhalten beobachtet haben (insbesondere in Vergleichsgesprächen) und ihre Taktiken bis zu einem gewissen Grad angepasst haben. Das zweifelhafte Element bei der Emotionen- und Stimmungsanalyse liegt wahrscheinlich in der Frage der Genauigkeit der analysierten Stimmungen, die nur auf äusseren (bloss oberflächlichen) Erscheinungen menschlicher Teilnehmer in einem sehr kurzen Zeitraum basieren. Es könnte gut sein, dass menschliche Teilnehmer weiterhin mehr ihrem eigenen Instinkt vertrauen als einem KI-Tool. Ein solches KI-Tool könnte jedoch immer noch Hinweise für einen Teilnehmer geben, z.B. eine Mitteilung an einen Anwalt im Sinne von „der Richter gähnt zum 10. Mal, er scheint sich unwohl zu fühlen und kennt offensichtlich Ihr schriftliches Plädoyer nicht gut genug“. Ein Anwalt könnte dann eigene Schlüsse ziehen, beispielsweise mehr zu plädieren, als er geplant hatte, um ein überzeugenderes Argument für den Richter zu liefern. Oder ein KI-Tool könnte vorschlagen, dass die einseitigen Bemerkungen eines Richters eine Voreingenommenheit gegenüber einem Zeugen oder einer bestimmten Argumentationslinie offenbaren. Ein Anwalt, der mit Echtzeit-Feedback von einem KI-Tool ausgestattet ist, könnte dann seine Strategie im Gerichtssaal anpassen, vorausgesetzt, dass solche Tools zuverlässig, genau und ausreichend schnell sind. 

Während all dies noch Zukunftsmusik ist und nicht alle diese Tools in naher Zukunft von Relevanz sein werden, glauben wir, dass einige dieser Funktionen allmählich in das Justizsystem einfliessen werden und neue Fragen zu den Risiken des KI-Einsatzes und der Vereinbarkeit mit gesetzlichen und verfassungsrechtlichen Anforderungen des Justizsystems aufwerfen könnten.



2.   Wachsende Risiken von KI-bezogenen Rechtsstreitigkeiten

Das Risiko für Unternehmen, die KI-Tools entwickeln oder nutzen, durch Rechtsstreitigkeiten ist im Wandel, da KI nicht nur Chancen bietet, sondern auch Risiken mit sich bringt, die zu Haftung führen können. Risiken können sich aus den Input-Daten ergeben, die ein solches System verwendet, aus der Nutzung des KI-Systems selbst und aus den späteren Ergebnissen des Systems (Output). Unternehmen sollten bestimmen, ob sie zusätzliche Schutzmassnahmen in ihre KI-Systeme einbauen müssen. Im Folgenden werden wir einige bemerkenswerte Rechtsstreitigkeiten weltweit vorstellen, die sich in der Zukunft auch auf Ihr Unternehmen auswirken könnten.

  • Streitigkeiten im Bereich des geistigen Eigentums: Eines der bekanntesten Szenarien für Rechtsstreitigkeiten basiert auf Vorwürfen, dass die Nutzung von Daten durch KI-Systeme bestehende geistige Eigentumsrechte verletzt. Weltweit sind verschiedene Rechtsstreitigkeiten zu diesem Thema anhängig (siehe mehr Informationen z.B. unter https://sustainabletechpartner.com/topics/ai/generative-ai-lawsuit-timeline/). Einer der bekanntesten Fälle ist die in den USA anhängige Klage von drei Künstlern, die eine Sammelklage gegen Stability AI und Midjourney eingereicht haben und behaupten, dass die Nutzung ihrer Werke Urheberrechte und andere Gesetze verletzt bzw. die Arbeit der Künstler bedroht (siehe mehr Informationen zu diesem Fall z.B. unter https://www.theartnewspaper.com/2024/05/10/-deviantart-midjourneystablediffusion-artificial-intelligence-image-generators). Eine weitere Entscheidung des High Court in London im Jahr 2024 befasste sich mit der Patentierbarkeit von trainierten „künstlichen neuronalen Netzwerken“ (siehe z.B. https://aibusiness.com/responsible-ai/a-uk-high-court-just-ruled-ai-can-be-patented ). Darüber hinaus haben eine Reihe von Gerichten geprüft, ob KI-Systeme unter den Patentgesetzen als Erfinder benannt werden können oder nicht (siehe z.B. https://www.cnbc.com/2023/12/20/ai-cannot-be-named-as-an-inventor-top-uk-court-says-in-patent-dispute.html). Weitere Einblicke in solche Fälle werden in einer separaten Veröffentlichung gegeben sowie in einem geplanten KI-Rechtsstreit-Tracker-Tool, das wir weiter aktualisieren werden.
  • Rechtsstreitigkeiten in Bezug auf automatisierte Entscheidungsfindung: In den Niederlanden hat das Berufungsgericht Amsterdam geprüft, ob Fahrer ein Recht auf Zugang zu ihren persönlichen Daten und die Nutzung von automatisierten Entscheidungsfindungsprozessen einschliesslich Profiling von Uber und Ola haben. In einer Reihe von Entscheidungen stellte das Gericht fest, dass Informationen offengelegt werden müssen und dass bestimmte automatisierte Entscheidungsfindungsprozesse wie die Erstellung von Betrugswahrscheinlichkeitswerten und das gebündelte Matching-System (das Uber-Fahrer mit Passagieren verbindet) erhebliche Auswirkungen auf die Fahrer haben, sodass die Unternehmen verpflichtet waren, eine grundlegende Erklärung ihrer Algorithmen, der bewerteten Faktoren und ihrer Gewichtung zur Erreichung einer Entscheidung über die durchschnittlichen Bewertungen der Fahrer abzugeben (siehe weitere Informationen unter https://www.sector-plandls.nl/wordpress/blog/the-ola-uber-judgments/).
  • Vertragsverletzungsstreitigkeiten: Obwohl dieser Fall vor dem Prozess beigelegt wurde, wurde im Fall Tyndaris SAM v. MMWWVWM („VWM“) eine Klage erhoben mit der Begründung, dass ein KI-System falsch operiert habe (d.h. von dem abgewichen sei, was versprochen wurde). Tyndaris hatte ein KI-System entwickelt, das als Supercomputer verwendet wurde, um KI in Echtzeitnachrichten und sozialen Medien anzuwenden, um Investitionstrends ohne menschliches Eingreifen zu identifizieren. Tyndaris und VWM schlossen einen Vertrag, in dem VWM in einen Account investierte, welcher von Tyndaris unter Verwendung dieses KI-Systems verwaltet wurde. In einem Zahlungsstreit behauptete VWM unter anderem, dass das System nicht ausreichend getestet oder ordnungsgemäss von Fachleuten mit Erfahrung im systematischen Handel entworfen oder analysiert worden sei und dass das KI-System nicht zu den besten Tageszeiten in den Markt eingestiegen sei, sodass VWM vorteilhafte Investitionen verpasst habe. Dieser Fall zeigt die Notwendigkeit auf, vertragliche Risiken bei der Entwicklung und dem Angebot von KI-Systemen mit spezifischen Klauseln über das Testniveau und die Begrenzung von Garantie- oder Haftungsklauseln zu mindern (weitere Informationen finden Sie unter http://dispute-resolutionblog.practicallaw.com/ai-powered-investments-who-if-anyone-is-liablewhen-it-goes-wrong-tyndaris-v-vwm).
  • Durchsetzung von Menschenrechten und Diskriminierungsstreitigkeiten: Im Vereinigten Königreich hat das Berufungsgericht Menschenrechte im Kontext von KI-gestützten Gesichtserkennungssystemen geprüft. Im Fall R (Bridges) v. Chief Constable of South Wales Police and others im Jahr 2020 stellte das Berufungsgericht fest, dass die Verwendung von automatisierter Gesichtserkennungstechnologie nicht „im Einklang mit dem Gesetz“ angewendet wurde, insbesondere mit dem Recht auf Achtung des Privat- und Familienlebens gemäss der Europäischen Menschenrechtskonvention. Das Gericht rügte die Polizeibehörde wegen ihrer Datenschutzfolgenabschätzung und stellte fest, dass keine angemessenen Schritte unternommen worden waren, um zu verhindern, dass die Technologie eine rassistische oder geschlechtsspezifische Voreingenommenheit aufweist (weitere Informationen finden Sie unter https://www.libertyhumanrights.org.uk/issue/legal-challenge-ed-brid-ges-v-south-wales-police/). In einem weiteren bemerkenswerten Fall kündigte der Staat Michigan an, dass er einen Vergleich in Höhe von 20 Millionen Dollar erzielt habe, um eine Sammelklage zu regeln, wonach die Arbeitslosenversicherungsbehörde des Staates ein automatisiertes Entscheidungssystem verwendet habe, um Empfänger fälschlicherweise des Betrugs zu beschuldigen, was zur Beschlagnahme von Vermögenswerten ohne ordnungsgemässes Verfahren führte. Das Michigan Integrated Data Automated System (MiDAS) wurde verwendet, um automatisch Betrugsverdachtsfälle zu erkennen und zu beurteilen. Leider begann das System aufgrund fehlerhafter Algorithmen, Arbeitslosenbewerber fälschlicherweise und ohne oder mit zu wenig menschlicher Aufsicht zu beschuldigen (weitere Informationen finden Sie z.B. unter https://michiganadvance.com/briefs/thousands-of-michiganders-falsely-accused-of-unemployment-fraud-get-20m-settlement/).
  • Produkthaftungsstreitigkeiten: Produkthaftungsstreitigkeiten gibt es im Bereich der Softwarestreitigkeiten schon länger. Dies ergibt sich aus der Tatsache, dass Software (obwohl sie nicht isoliert als greifbares „Produkt“ nach den schweizerischen Produkthaftungsgesetzen qualifiziert werden kann) in bestimmten Konstellationen (insbesondere, wenn sie in ganzheitliche IT-Systeme einschliesslich Hard- und Software integriert ist) als Produkt qualifiziert und den schweizerischen Produkthaftungsgesetzen unterliegen kann. Im Kontext von KI sind weitere Entwicklungen absehbar, da bald die neue europäische KI-Haftungsrichtlinie zusammen mit dem allgemeinen Produkthaftungsregime in Kraft treten wird. Nach dieser Richtlinie wird es widerlegbare Vermutungen geben, die es Einzelpersonen erleichtern sollen, Ersatz für von KI verursachte Schäden zu fordern (und die erforderliche Beweislast zu erreichen). Die Richtlinie soll auf Ansprüche angewendet sein, die unter verschuldensabhängigen Haftungsregimen erhoben werden, und ein Mechanismus ist vorgesehen, um den Beklagten die Widerlegung der Vermutungen zu ermöglichen (weitere Informationen zur europäischen KI-Haftungsrichtlinie finden Sie unter https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en). Die europäische KI-Haftungsrichtlinie wird zusätzlich/parallel zum europäischen KI-Gesetz angewendet (weitere Informationen zum europäischen KI-Gesetz finden Sie unter https://cms.law/en/che/publication/ai-series-1-the-eu-artificial-intelligence-act-is-almost-ready-to-go).

 

3.   Handlungsempfehlungen für Unternehmen zur Begrenzung ihrer KI-Rechtsstreitigkeitsrisiken

  • Wählen und testen Sie KI-Systeme, die robust und für Ihre Zwecke getestet sind. Darüber hinaus sollte den Nutzern eine angemessene Schulung zur sicheren Nutzung von KI-Systemen angeboten werden, einschliesslich angemessener Sicherheits- und Governance-Massnahmen, um sicherzustellen, dass Systeme nicht einfach an Drittanbieter ausgelagert, sondern weiterhin unter der Verantwortung des Unternehmens beaufsichtigt werden.
  • Informieren Sie Kunden, wenn KI zur Erbringung von Dienstleistungen eingesetzt wird, und bieten Sie Haftungsausschlüsse an, um Ihre Haftung zu begrenzen.
  • Stellen Sie sicher, dass die Technikgestaltung und der Betrieb eines KI-Systems dokumentiert werden, damit Sie in der Lage sind zu erklären, wie das System funktioniert, wenn dies von Aufsichtsbehörden verlangt wird. Selbst in üblichen zivilgerichtlichen Verfahren kann ein KI-Systembetreiber nach Beweisgrundsätzen verpflichtet sein, sein System zu erklären, und die Nichtfähigkeit dazu kann z.B. in der Schweiz nach dem freien Ermessen eines Richters zum Nachteil eines KI-Systembetreibers bewertet werden. Schliesslich seien Sie zurückhaltend mit der Verwendung von KI-generierten Beweismitteln selbst, da diese möglicherweise nicht als glaubwürdig nach dem freien Ermessen eines Richters angesehen werden (z.B. Deepfake-Videos einer Rede einer Partei, die sich als unwahr herausstellt – all dies ist bereits in Gerichtsverfahren vorgekommen).
  • Verwenden Sie vertragliche Klauseln zur Begrenzung der Haftung für fehlerhafte KI-Systeme oder -Ergebnisse (wenn das System in ein output-generierendes Produkt integriert ist).
  • Wenden Sie Prozesse an, um Risiken für Verbraucher zu minimieren, z.B. Richtlinien zur Überprüfung von KI-Ergebnissen auf Voreingenommenheiten oder Fehler, Ausschluss vertraulicher Informationen auf der Eingabestufe und/oder zur Gewährleistung der Einhaltung von Datenschutzgrundsätzen beim Einspeisen von Daten in die KI auf der Eingabestufe.
  • Bieten Sie technische Optionen für die Anfechtbarkeit im Falle eines Widerspruchs eines Kunden gegen die Verwendung von KI oder des von ihr generierten Outputs. Unveränderbarkeit von KI-Ergebnissen führt zwangsläufig zu Konflikten mit den rechtlichen Ansprüchen der Kunden. Die Möglichkeit, unzureichende/n KI/Output zu adressieren und zu ändern, wird dazu beitragen, langwierige Haftungsstreitigkeiten von vornherein zu vermeiden. Beachten Sie, dass technische Nichtanfechtbarkeit zu Gerichtsentscheidungen führen kann, die ein dauerhaftes Verbot der Verwendung eines bestimmten KI-Tools fordern. Dies liegt weder im Interesse des KI-Tool-Entwicklers noch der Benutzer, die stark darauf angewiesen sind, wenn sie es in ihre eigenen Produkte integrieren. Ein dauerhaftes Verbot würde zu einem allgemeinen „Mangel an Verfügbarkeit“ führen, was zusätzliche Haftungsansprüche gegenüber dem KI-Tool-Entwickler auslösen könnte. Solche Szenarien sind nach Möglichkeit zu vermeiden.
  • Seien Sie sich der Risiken in Bezug auf die zuständige Gerichtsbarkeit bewusst, wenn Sie ein KI-System auf den Markt bringen. Wenn ein KI-System in verschiedenen Rechtsordnungen entwickelt oder eingesetzt wird, kann es schwierig sein, festzustellen, welches Recht und welcher Gerichtsstand letztendlich anwendbar ist. Z.B. legen multilaterale Verträge über die Zuständigkeit nahe, dass Klagen in dem Gebiet erhoben werden können, in dem ein Schaden erlitten wird, in dem die rechtsverletzenden Handlungen begangen wurden, in dem der Beklagte seinen Sitz hat oder z.B. in welchem Markt eine Verletzung von Rechten des geistigen Eigentums ihre Wirkung entfaltet.

Newsletter

Stay informed by subscribing to our newsletter.

Related articles

KI-Serie 1: Das EU-Gesetz zur künstlichen Intelligenz steht kurz vor der Verabschiedung!

KI-Serie 2: Künstliche Intelligenz und ihre potenziellen Auswirkungen auf die Werbebranche

KI-Serie 3: Aufsichtsbehörden richten ihr Augenmerk zunehmend auf KI im Finanzsektor

Vorherige Seite

3. KI-Serie 3: Aufsichtsbehörden richten ihr Augenmerk zunehmend auf KI im Finanzsektor

Nächste Seite

5. KI Serie 5: M&A – Investitionen in Künstliche Intelligenz


Zurück nach oben