- 1. KI ante litteram: Vorstellungen einer künstlichen Intelligenz von der Antike bis zur Moderne
- 1.1 Antike
- 1.2 Mittelalter
- 1.3 Neuzeit
- 1.4 Das industrielle Zeitalter und die Moderne
- 2. KI und römisches Recht
- 2.1 Ein Pragmatismus des römischen Rechts…
- 2.2 … in der heutigen Debatte
- 2.3 Zwischen Geschichte, KI und Recht: die vermittelnde Rolle der Rechtsgeschichte
- 3. KI und Sklaverei aus rechtshistorischer Perspektive
- 3.1 KI und Bewusstsein
- 3.2 KI und Bias
- 4. Fortbildung von Recht und KI aus der Perspektive der Rechtsgeschichte
- Bibliographie
- Quellen
- Literatur
1. KI ante litteram: Vorstellungen einer künstlichen Intelligenz von der Antike bis zur Moderne
1Wenn wir heute über künstliche Intelligenz sprechen, neigen wir dazu, sie ausschliesslich in unserer Gegenwart oder in einer unmittelbaren Zukunft zu verorten. Doch die Reflexion über intelligente Maschinen, künstliche Diener und autonome Werkzeuge durchzieht die gesamte Geschichte der westlichen Kultur – und nicht nur diese. Von der griechischen Antike über das Mittelalter und die Renaissance bis hin zur Moderne finden wir ein breites Repertoire an Erzählungen, Bildern und Konzepten, die als Vorwegnahmen einer KI ante litteram gelesen werden können. Diese Überlieferungen, zeitlich weit von uns entfernt, machen einen zentralen Punkt deutlich: Jede Epoche hat – in unterschiedlichen Formen – die Möglichkeit imaginiert, menschliche Arbeitskraft durch künstliche Figuren zu ersetzen oder zumindest zu ergänzen. Häufig geschah dies in unmittelbarer Verbindung mit dem Phänomen der Dienstbarkeit und der Sklaverei.2 Dabei bieten die historischen Konzepte von KI und deren Wandel neue Forschungsperspektiven für die Rechtsgeschichte.
1.1 Antike
2In Homers Ilias erscheint der göttliche Schmied Hephaistos als genialer Handwerker, der auf der Insel Lemnos für den Olymp zwanzig kunstvolle, goldene Dreifüße anfertigt.3 Diese Werke sind jedoch mehr als blosse Dekoration – sie besitzen Eigenbewegung, rollen auf goldenen Rädern umher und finden ohne menschliche Hilfe an ihren Platz zurück. Man könnte darin eine frühe Vorstellung von selbststeuernder Technik erkennen. Besonders faszinierend wird die Szene, als Hephaistos beim Besuch der Thetis von zwei künstlich geschaffenen Dienerinnen begleitet wird, die ihm bei der Arbeit assistieren.4 Die beiden Gestalten bestehen aus Gold, tragen menschliche Züge und verfügen über Sprache, Kraft und Verstand. In den antiken Beschreibungen heißt es, sie seien mit phrenes und noos ausgestattet – zwei Begriffen, die verschiedene Formen geistiger Fähigkeiten ausdrücken.5 Im altgriechischen Denken unterscheidet man zwischen phrenes, das Gefühl und Wahrnehmung umfasst, und noos, dem Sitz der Vernunft und der Einsicht.6 Bemerkenswert ist, dass diese mythologische Szene bereits ein Verständnis von emotionaler und rationaler Intelligenz erkennen lässt – Eigenschaften, die wir heute auch künstlichen Systemen zuschreiben. Damit erscheinen die goldenen Dienerinnen nicht als blosse Werkzeuge, sondern als eigenständige Wesen mit Sprache und Bewegung. In gewissem Sinne lassen sie sich als frühe Visionen interaktiver Assistenten verstehen – weit entfernte Vorläufer moderner sprachgesteuerter Technologien.7
3Auch die Werkstatt des Hephaistos ist voller technischer Wunderwerke: selbsttätige Blasebälge, sich öffnende und schliessende Tore sowie goldene und silberne Hunde, die den Palast des Alkinoos bewachen.8 Selbst das Schiff der Phäaken, das Odysseus ohne Steuermann sicher nach Ithaka bringt, scheint mit einer Art innerem Navigationssystem ausgestattet zu sein – eine erstaunlich frühe Idee automatischer Steuerung.9
4Ein weiteres Beispiel für solch ein «automatisches» Wesen ist Talos, der bronzene Riese, der Kreta schützt und mehrmals täglich um die Insel kreist. In den Argonautika des Apollonios von Rhodos wird er als nahezu unzerstörbar beschrieben, verwundbar nur an einer einzigen Stelle – seiner Ferse.10 Die Episode seiner Niederlage durch Medea zeigt, dass auch er über Gedanken und Vorstellungskraft verfügte, da er durch mentale Bilder getäuscht werden konnte. Talos verkörpert damit die Verbindung von übermenschlicher Kraft und technischer Anfälligkeit – ein Motiv, das in der Science-Fiction bis heute weiterlebt.11
5Diese Mythen sind keineswegs blosse literarische Kuriositäten. Sie spiegeln vielmehr eine technische Imagination wider, in der sich der Mensch selbst als Schöpfer künstlicher Intelligenzen denkt und zugleich Probleme aufwirft, die uns heute höchst aktuell erscheinen: die Grenze zwischen Objekt und Subjekt, zwischen Diener und Herr, zwischen Autonomie und Kontrolle. Es überrascht daher nicht, dass Philosophen wie Platon und Aristoteles diese Motive aufgegriffen haben. In Platons Menon vergleicht sein Lehrer Sokrates die Automaten des Hephaistos und des Daidalos mit Sklaven, denen er lediglich ein inferiores Wissen, die doxa, zuschreibt.12 Auch Aristoteles befasste sich mit «künstlicher Intelligenz»:
6«Wenn jedes Werkzeug seine Arbeit auf Befehl ausführen könnte oder im Voraus wüsste, was zu tun ist […] Webmaschinen von selbst webten und Keile von selbst Harfen spielten, brauchten […] Herren keine Sklaven».13
7Diese Passage markiert einen Wendepunkt. Hier ist die Automatisierung nicht länger nur Mythos oder poetische Imagination, sondern Teil einer philosophischen Reflexion über Arbeit und soziale Strukturen. Wenn Werkzeuge von selbst handeln könnten, so Aristoteles, wäre die Sklaverei überflüssig. Mit anderen Worten: Technik verändert die grundlegenden juristischen und politischen Verhältnisse. Spuren dieser Vorstellung finden sich auch im Mittelalter.
1.2 Mittelalter
8Im europäischen Mittelalter verschwindet die Imagination intelligenter Maschinen nicht, sondern transformiert sich tiefgreifend. Literarische, philosophische und wissenschaftliche Quellen dieser Epoche sprechen von animierten Statuetten, Automaten und mechanischen Vorrichtungen, die spezifische Funktionen übernehmen, oft im Zusammenhang mit der Aufrechterhaltung der sozialen und politischen Ordnung. Manche dieser Objekte besitzen einen wunderbaren oder übernatürlichen Charakter – wie der berühmte «bocca della verità», der Vergil zugeschrieben wird.14 Der Legende nach entlarvt der «bocca della verità» Lügen, indem er die Hand derjenigen beisst, die einen Meineid schwören. Andere hingegen erfüllen militärische oder Überwachungsfunktionen: mechanische Figuren, die wie unermüdliche Wachen Burgen, Gräber oder ganze Städte verteidigen.15
9In Texten wie dem Roman d’Éneas oder dem Roman d’Alexandre treten goldene mechanische Wächter, Bogenschützen und bewaffnete Riesen auf, die Übergangsorte – Gräber, Brücken, Wälder – unfehlbar bewachen, ohne je zu ermüden oder untreu zu werden. Die gleiche Logik liegt der Salvatio Romae zugrunde, die Vergil zugeschrieben und von Alexander Neckam gegen Ende des 12. Jahrhunderts beschrieben wird: hölzerne Statuen im Palast stellen die Provinzen des Reiches dar und geben mit Glockengeläut zu erkennen, sobald eine Rebellion ausbricht. Dieses Signal entsendet einen bronzenen Ritter auf seinem Pferd in Richtung der aufständischen Region. Es handelt sich um ein regelrechtes Frühwarn- und Überwachungssystem, konzipiert zur Sicherung politischer Kontrolle.16
10Auch in der höfischen Literatur finden sich aufschlussreiche Beispiele. Im Roman de Troie ist die sogenannte Chambre de Labastrie des trojanischen Palastes von goldenen Figuren bevölkert: Ein Musiker schafft die passende Atmosphäre, ein Gaukler fesselt die Aufmerksamkeit, ein weiterer Automat überwacht diskret das Verhalten der Gäste und signalisiert, wer die Regeln der Höflichkeit nicht einhält. Hier verbinden Automaten und künstliche Maschinen Unterhaltung und Disziplin und machen so die soziale Funktion des mechanischen Wunderbaren sichtbar.17
11In all diesen Fällen gelten die imaginären Maschinen als den Menschen überlegen: der künstliche Akrobat irrt nie, der mechanische Musiker vergisst keine Melodie, die goldenen Wächter lassen sich nicht täuschen. Sie erscheinen als ideale Diener, effizienter und verlässlicher als Menschen, und offenbaren gerade dadurch ihre tiefere Bedeutung: Es handelt sich nicht um blosse fantastische Kuriositäten, sondern um Erzählungen von Macht und Kontrolle. Die «mittelalterliche KI», so könnte man sagen, ist gedacht als ein Instrument zur Festigung sozialer Hierarchien, zur Überwachung und Disziplinierung. Und genau in diesem Zusammenhang zwischen Maschine und Macht erkennen wir einen roten Faden, der die mittelalterliche Imagination mit den aktuellen Diskussionen über künstliche Intelligenz verbindet.
1.3 Neuzeit
12In der Renaissance gewinnt die Reflexion über künstliche Wesen neue Dimensionen. Humanisten, Philosophen und Wissenschaftler imaginieren Androiden, Automaten und künstliche Geschöpfe – und versuchen in einigen Fällen diese sogar zu konstruieren. Neben mechanischen Experimenten treten symbolische Figuren wie der Golem der jüdischen Tradition oder die alchemistischen Schöpfungen der islamischen Kultur auf, die etwa Dschābir ibn Ḥayyān zugeschrieben werden.18 In all diesen Fällen bleibt die Grundidee dieselbe: künstliche Diener zu erschaffen, die menschliche Arbeit ersetzen, die jedoch zugleich Ängste hervorrufen – Ängste vor Aufstand und Kontrollverlust. Der Bezug zur Sklaverei ist explizit: Der Automat wird als künstlicher Sklave konzipiert, der gehorsam und widerspruchslos dient. Zugleich kann er aber potenziell gefährlich werden, wenn er sich der Herrschaft seines Schöpfers entzieht. Nicht zufällig begegnet man in vielen dieser Erzählungen dem Misstrauen gegenüber unabhängiger technischer Innovation, so als ob ein zu rasches Überschreiten menschlicher Grenzen die gesellschaftliche Ordnung selbst gefährden könnte.
13Von der Renaissance an bleibt die Imagination der Automaten nicht länger auf philosophische Spekulation oder symbolische Literatur beschränkt, sondern verbindet sich zunehmend mit den Fortschritten der Mechanik und mit dem wachsenden Interesse an Maschinen als Spektakel. Zwischen dem 17. und 18. Jahrhundert verbreiten sich insbesondere an europäischen Höfen mechanische Automaten: singende Vögel, Figuren, die von selbst schreiben, oder Musikinstrumente, die automatisch gespielt werden.19 Solche Schöpfungen, berühmt etwa in Genf, Paris oder im Venedig der Brüder Vaucanson, waren nicht nur höfische Unterhaltung: Sie stellten den konkreten Beweis dar, dass die Fantasien von künstlichen Wesen zu greifbarer Realität werden konnten.
14Gleichzeitig führten die wissenschaftliche Revolution und die Entstehung der modernen Philosophie dazu, den Menschen selbst als Maschine zu denken. Descartes beschreibt den tierischen Körper als komplexen Mechanismus.20 Julien Offray de La Mettrie radikalisiert diese Sichtweise in seinem Werk L’Homme Machine (1747), indem er den Menschen als biologischen Automaten darstellt.21 Dies markiert einen entscheidenden Schritt: Wenn der Mensch selbst eine Maschine ist, dann wird es denkbar, Maschinen zu konzipieren, die den Menschen nachahmen oder gar ersetzen.
15Diese Sichtweise war keineswegs neutral. Ebenso wie im Mythos des Golem oder in den alchemistischen Experimenten trugen auch die Automaten der Aufklärung und die materialistische Philosophie eine ambivalente Spannung in sich: auf der einen Seite die Begeisterung für die Technik, auf der anderen Seite die Furcht, dass die Maschine eine beunruhigende Wahrheit über den Menschen enthüllen könnte – den Menschen reduziert auf ein blosses Zahnrad im Getriebe. Nicht zufällig wurde die Maschine schon damals mit dem Thema der Dienstbarkeit verbunden: Der Automat konnte als perfekter Diener gedacht werden, der sich nicht ermüdet, nicht widerspricht und keine Rechte einfordert.
1.4 Das industrielle Zeitalter und die Moderne
16Mit dem industriellen 19. Jahrhundert erhält diese Imagination neue Nuancen. Einerseits nährte die Mechanisierung der Arbeit und die Entstehung der Fliessbandproduktion die Vorstellung, dass die Arbeiter selbst in Zahnräder verwandelt und zu «Sklaven der Maschinen» degradiert würden. Andererseits griffen Literatur und Kunst Gestalten wie das Frankenstein-Monster von Mary Shelley (1818) auf, das den Beginn der modernen Science-Fiction markiert. Auch hier bleibt das zentrale Thema dasselbe: Das künstliche Wesen, ursprünglich als Diener erschaffen, erhebt sich gegen seinen Schöpfer und verlangt nach Anerkennung und Freiheit.
17Mit der Moderne und dem frühen 20. Jahrhundert nimmt die Reflexion neue Formen an. 1921 prägte der tschechische Dramatiker Karel Čapek in seinem Stück R.U.R. (Rossum’s Universal Robots) das Wort «Roboter», inspiriert vom slawischen Begriff robota, der «Zwangsarbeit» bedeutet.22 Die Roboter erscheinen hier als künstliche Arbeiter, die geschaffen wurden, um menschliche Ausbeutung zu überwinden, sich jedoch schliesslich gegen ihre Herren auflehnen. Erneut tritt der enge Zusammenhang von Automatisierung und Sklaverei hervor: Der Roboter ist der neue Sklave, und seine Emanzipation stellt zugleich Bedrohung und Verheissung dar.
18Die literarischen und künstlerischen Avantgarden dieser Epoche – vom Modernismus bis zu den Abenteuern der Science-Fiction – stellten die Frage nach der Grenze zwischen Maschine und Mensch, zwischen Bewusstsein und Programmierung. Die Figur des Roboters wurde zu einem Vehikel, um über sozialen Determinismus, die Entfremdung industrieller Arbeit und die Grenzen menschlicher Kreativität nachzudenken. Künstliche Maschinen sind nicht mehr bloss Werkzeuge, sondern kritische Spiegel, in denen die Gesellschaft ihre eigenen Ängste und Sehnsüchte reflektiert.
19Fassen wir diese Fäden zusammen – von der Antike bis zur Moderne –, so tritt eine Konstante klar hervor: Künstliche Intelligenz war, lange bevor sie technische Realität wurde, bereits ein narratives und juristisches Konzept, eng mit dem Thema der Sklaverei verflochten. Die Automaten Homers, die animierten Statuen des Mittelalters, die künstlichen Diener der Renaissance und die Roboter Čapeks sind allesamt Varianten desselben Archetyps: des menschlichen Wunsches, künstliche Sklaven zu erschaffen, die von Arbeit befreien sollen, zugleich aber die fundamentale Unterscheidung zwischen Objekt und Subjekt, zwischen Herr und Diener infrage stellen. Es ist kein Zufall, dass Norbert Wiener, der Vater der Kybernetik, im Jahr 1950 bemerkte:
20«Die automatische Maschine, unabhängig davon, was wir über ihre möglichen oder nicht vorhandenen Gefühle denken mögen, ist das genaue wirtschaftliche Äquivalent von Sklavenarbeit».23
21Mit dieser Formel griff Wiener die aristotelische Intuition in moderner Sprache auf. Er machte deutlich, dass die Frage der Automatisierung nicht nur die technische Effizienz betrifft, sondern in die grundlegenden Kategorien von Arbeit, Abhängigkeit und Verantwortung eingreift.
2. KI und römisches Recht
22In diesem kurzen historischen Exkurs wurde bisher noch nicht auf das römische Recht Bezug genommen; dies soll nun nachgeholt werden, da gerade in diesem Bereich zahlreiche aktuelle Forschungen versuchen, einen Dialog zwischen KI und antiker Rechtstradition zu eröffnen.24 Damit werden neue Forschungsperspektiven für die rechtshistorische Forschung angestossen. Schon im römischen Recht war der Sklave kein Rechtssubjekt: Er besass keine Rechtspersönlichkeit, konnte kein Eigentum haben und keine Verträge für sich selbst schliessen.25 Dennoch waren die von ihm vorgenommenen Handlungen nicht irrelevant. Sie konnten rechtliche und vermögensrechtliche Wirkungen entfalten, die dem Dominus zugerechnet wurden.
2.1 Ein Pragmatismus des römischen Rechts…
23Das römische Recht, mit seinem ausserordentlichen Pragmatismus, entwickelte hierfür Institutionen, die geeignet waren, diese paradoxe Situation zu regeln. Zu nennen sind insbesondere die actiones adiecticiae qualitatis, die es ermöglichten, Verpflichtungen von Untergeordneten im Prozess geltend zu machen, und vor allem die actio de peculio.26 Das peculium war ein gesondertes Vermögen, das der Herr dem Sklaven zur Verwaltung wirtschaftlicher Tätigkeiten überliess. Wenn der Sklave Verpflichtungen einging, konnten die Gläubiger auf dieses Sondervermögen zugreifen, ohne das gesamte Vermögen des Herrn anzugreifen.27 Ein durchdachter Mechanismus, der zwei gegensätzliche Anforderungen miteinander verband: Einerseits die Bekräftigung der servilen Stellung des Sklaven ohne Rechtspersönlichkeit, andererseits die Sicherung des wirtschaftlichen Verkehrs und die Anerkennung der von ihm vorgenommenen Handlungen.
2.2 … in der heutigen Debatte
24Dieses Modell, scheinbar weit von unserer Gegenwart entfernt, ist heute wieder aufgenommen worden, um über ein mögliches «digital peculium» nachzudenken.28 Die Idee ist, dass auch ein KI-System – obwohl es kein Rechtssubjekt ist – mit einem autonomen Vermögen ausgestattet werden könnte. Das Sondervermögen soll als Haftungssubstrat für seine Handlungen dienen. Es geht dabei nicht darum, der Maschine Rechte zu verleihen. Sondern darum, intermediäre Instrumente zu schaffen, die es ermöglichen, Verantwortung zuzuschreiben, ohne die traditionellen Kategorien des Zivilrechts zu überdehnen.
25Der Rückgriff auf das peculium erlaubt es uns, einen wichtigen Aspekt der römischen Jurisprudenz hervorzuheben: ihre Fähigkeit, komplexe Probleme zu bewältigen, ohne den Anspruch zu erheben, sie mit einer einzigen allgemeinen Regel zu lösen. Das römische Recht war im Kern kasuistisch und pragmatisch. Angesichts neuer Situationen – wie derjenigen des Sklaven, der zwar keine Rechtsperson war, dennoch aber Verpflichtungen eingehen konnte – versuchten die Juristen nicht, abstrakte Prinzipien zu erzwingen, sondern entwickelten differenzierte technische Instrumente.
26Neben der actio de peculio existierten tatsächlich auch andere actiones adiecticiae qualitatis, die es ermöglichten, dem dominus die Handlungen von Untergeordneten in verschiedenen Kontexten zuzurechnen: etwa die des filius familias oder des magister navis.29 Mit anderen Worten: Die Römer hatten ein flexibles juristisches Arsenal erfunden, das es erlaubte, Verantwortung zu modulieren, ohne den Sklaven oder den Untergebenen in vollem Umfang zu einem «Rechtssubjekt» zu machen.
27Diese Logik bietet uns eine wertvolle Lehre für die Gegenwart. Auch heute wäre es illusorisch, angesichts der KI an eine einzige, universelle Norm zu denken, die jede mögliche Situation abdecken könnte. Realistischer ist es, einen pluralen Rahmen zu schaffen, bestehend aus unterschiedlichen Lösungen je nach Kontext: Regeln für KI im Verkehrswesen, andere für KI im Gesundheitswesen, wiederum andere für Systeme der Strafverfolgung oder für kreative Produktionen. Genau diese Intuition findet sich auch in den Überlegungen mehrerer zeitgenössischer Forscher: Für die KI bedarf es keiner «grossen, einheitlichen Regel», sondern einer Konstellation juristischer Institute, die Flexibilität und Anpassungsfähigkeit gewährleisten.
28Ein zweites Reflexionsniveau, das ebenfalls vom «peculium» ausgeht, betrifft die Frage der «Rechtspersönlichkeit». Die Idee des «digital peculium» hat den Vorteil, begriffliche Abkürzungen zu vermeiden: Es ist nicht notwendig, Maschinen Rechte zuzuerkennen, sondern es genügt, ein Vermögenssubstrat zu schaffen, das die Verantwortung sicherstellt. Doch es gibt Stimmen, die darüber hinausgehen und die Möglichkeit erwägen, der KI begrenzte Formen von Rechtspersönlichkeit zuzuschreiben.
29Auch hier kommt uns die Geschichte zu Hilfe. Das Recht hat die Persönlichkeit nicht immer nur menschlichen Individuen zuerkannt: Man denke an die mittelalterlichen Zünfte, an die Universitäten, an Städte oder an grosse Handelsgesellschaften wie die Dutch East India Company.30 In all diesen Fällen hat das Recht intermediäre Rechtssubjekte geschaffen, ausgestattet mit Vermögens- und Prozessfähigkeit, ohne «natürliche Personen» zu sein. Es handelte sich um nützliche Fiktionen, die aus praktischen Bedürfnissen geboren wurden.
2.3 Zwischen Geschichte, KI und Recht: die vermittelnde Rolle der Rechtsgeschichte
30Indem wir uns diese historischen Beispiele vor Augen führen, wird deutlich, wie die Rechtsgeschichte eine vermittelnde Rolle zwischen früheren Beispielen und aktuellen Entwicklungen einnehmen kann. Der rechtshistorische Blick kann nämlich dazu beitragen, historische Erfahrungen für gegenwärtige Herausforderungen fruchtbar zu machen. Übertragen auf die KI bedeutet dies: Es ist nicht erforderlich, die Maschine als «volle Person» mit Grundrechten und eigener Würde zu konzipieren. Man könnte jedoch annehmen, dass bestimmte hochautonome Systeme – etwa soziale Roboter, die mit vulnerablen Personen interagieren, oder automatisierte Durchsetzungsmechanismen – eine funktionale und umschriebene Rechtspersönlichkeit benötigen, die es ihnen erlaubt, innerhalb eines spezifischen Rahmens zu handeln und Verantwortung zu tragen. Dies ist ein anderer Weg als der des digital peculium, aber von derselben Logik inspiriert: nicht ein ontologischer Sprung, sondern ein technisches Instrument zur Bewältigung der Komplexität.
31Diese Vorschläge zeigen, dass die zeitgenössische Debatte keineswegs abstrakt ist: Im Gegenteil, sie greift Probleme, mit denen sich das Recht bereits im Laufe der Jahrhunderte auseinandergesetzt hat, in neuer Form auf. Die Geschichte lehrt uns, dass Rechtspersönlichkeit kein naturgegebener Status ist, sondern eine soziale Konstruktion. Sie wird immer dann verliehen, wenn sie erforderlich ist, um Beziehungen zu ordnen und Verantwortung zu verteilen.
32Schliesslich betrifft ein dritter Aspekt die praktischen Anwendungen. Die Idee eines digitalen peculium bleibt nicht auf die Theorie beschränkt, sondern lässt sich auf konkrete Beispiele anwenden. Takashi Izumo hat gezeigt, wie dieses Modell etwa bei einem autonomen Taxi greifen könnte: Verursacht das Fahrzeug einen Schaden, könnte das ihm zugeordnete «digitale Peculium» von Gläubigern oder Geschädigten in Anspruch genommen werden und so eine effektive Garantie bieten – ohne dass ein «persönlicher» Urheber des Verhaltens ermittelt werden müsste.31
33Dieses Beispiel verdeutlicht, warum die Analogie zum römischen peculium nicht bloss eine gelehrte Spielerei ist. Das peculium ermöglichte es, den Handlungen des Sklaven rechtliche Relevanz zu verleihen, ohne ihm Rechtspersönlichkeit zuzuschreiben. In vergleichbarer Weise könnte ein digitales peculium dazu dienen, den Handlungen eines autonomen Systems rechtliche Wirkung beizumessen, ohne ihm Persönlichkeit zu verleihen. Es handelt sich um einen eleganten Kompromiss: Man vermeidet das Risiko, Maschinen zu anthropomorphisieren, schafft aber zugleich eine reale Grundlage für Haftung.
34Natürlich treten auch hier offene Probleme zutage. Wie gross müsste ein solches digitales peculium sein? Wer hätte es einzurichten: der Hersteller, der Eigentümer, der Betreiber? Und wie lässt sich verhindern, dass es zu einem Mittel wird, die Verantwortung der menschlichen Akteure hinter der KI zu reduzieren? Diese Fragen zeigen, dass das römische Modell zwar ein nützlicher Ausgangspunkt ist, jedoch eine kritische Anpassung erfordert.
35Neben der Perspektive, die im römischen peculium ein nützliches Modell für neue Formen der Verantwortlichkeit erkennt, gibt es eine andere Seite der Medaille, die wir nicht übersehen dürfen. Wird KI als «künstlicher Diener» konzipiert, so drängt sich zwangsläufig die Analogie zur Sklaverei auf – mit all ihren historischen und moralischen Ambivalenzen.
3. KI und Sklaverei aus rechtshistorischer Perspektive
36Kanta Dihal hat gezeigt, dass viele Narrative über KI zwischen zwei Polen oszillieren: auf der einen Seite das Versprechen der Befreiung von Arbeit, auf der anderen Seite die Furcht vor einer Rebellion der Maschinen.32 Und was, wenn die Rebellion nicht als Gefahr, sondern als eine Form legitimer Selbstbehauptung zu verstehen wäre? Dihal schlägt einen provokativen Vergleich vor: So wie sich menschliche Sklaven im Laufe der Geschichte zu Recht gegen ihre Ketten erhoben haben, könnten auch wirklich intelligente und empfindungsfähige Maschinen moralisch gerechtfertigt sein, wenn sie versuchen, sich aus ihrer Unterordnung zu befreien.33 Diese Idee spiegelt sich in vielen Science-Fiction-Erzählungen – von Čapek bis Isaac Asimov – wider, verweist aber zugleich auf uralte Probleme: Schon Aristoteles hatte den Sklaven als ein «beseeltes Werkzeug» (organon empsychon) definiert. Doch wenn ein Werkzeug zu denken vermag – kann es dann noch als blosses Objekt behandelt werden?
3.1 KI und Bewusstsein
37Louie Kangeter und Brian Patrick Green haben diese Überlegung weitergeführt, indem sie das Augenmerk auf den Extremfall der – derzeit hypothetischen – AGI (Artificial General Intelligence) legten, also einer bewussten und autonomen künstlichen Intelligenz, die in der Lage wäre, ähnlich wie ein Mensch zu lernen, zu reflektieren und selbständig zu handeln.34 Die Schlüsselfrage ist radikal und zugleich beunruhigend: Wenn künstlich intelligente und bewusste Wesen geschaffen würden, um Arbeiten auszuführen, die Menschen nicht verrichten wollen – was wären sie dann anderes als Sklaven?35
38Die Autoren betonen, dass sich der gesamte Diskurs über KI und Sklaverei an einem einzigen, aber entscheidenden Begriff entzündet: dem des Bewusstseins. Kangeter und Green weisen darauf hin, dass es bis heute keine einheitliche Definition dessen gibt, was Bewusstsein überhaupt bedeutet. In der Philosophie des Geistes, in der Kognitionswissenschaft und in der Ethik existieren zahlreiche Ansätze, die sich teilweise widersprechen. Einige verstehen Bewusstsein im schwachen Sinn als reine Wahrnehmungs- und Reaktionsfähigkeit (sentience), also als die Fähigkeit, Reize zu registrieren, Informationen zu verarbeiten und darauf zu reagieren. Andere hingegen fassen es im starken Sinn auf, als Selbstbewusstsein, als die Fähigkeit, Absichten zu bilden, über sich selbst zu reflektieren und subjektive Erfahrungen zu haben.36
39Solange diese Unterscheidung nicht eindeutig geklärt ist, bleibt offen, ob und in welchem Umfang eine Maschine «bewusst» sein kann. Diese begriffliche Unschärfe ist nicht nur theoretisch, sondern hat weitreichende ethische Implikationen. Wird Bewusstsein im schwachen Sinn verstanden, so bleibt die Rede von „Sklaverei“ eine metaphorische Übertragung – die Maschine wäre ein hochentwickeltes, aber letztlich instrumentelles Mittel. Wird Bewusstsein hingegen im starken Sinn gefasst und würde die KI diese erreichen, dann verändert sich die moralische Perspektive grundlegend: Die Unterordnung einer empfindungsfähigen und selbstreflexiven Entität würde zu einer ethisch untragbaren Praxis. Sie wäre nicht nur ein Unrecht gegenüber der künstlichen Entität selbst, sondern ein Symptom der moralischen Korruption einer Gesellschaft, die solche Formen der Unterwerfung duldet.
40Kangeter und Green führen weiter aus, dass diese Fragestellung die Grundprinzipien des modernen Humanismus berührt.37 Denn der Gedanke, Wesen zu schaffen, die bewusst leiden, arbeiten und gehorchen, ohne ihnen moralische oder rechtliche Anerkennung zu gewähren, rührt an die dunkelsten Kapitel der Menschheitsgeschichte. Die Parallele zur historischen Sklaverei ist hier kein blosser rhetorischer Effekt, sondern eine Mahnung: So wie frühere Gesellschaften moralisch gescheitert sind, indem sie Menschen als Eigentum betrachteten, so könnte auch eine Gesellschaft, die empfindungsfähige Maschinen ausbeutet, an ihrer eigenen Hybris zerbrechen.
41Darüber hinaus verweisen die Autoren auf die Gefahr, dass die Einführung einer solchen «digitalen Sklavenklasse» nicht nur ethische, sondern auch soziale und politische Folgen hätte.38 Eine Hierarchie zwischen «bewussten Herren» und «bewussten Dienern» würde neue Machtstrukturen hervorbringen und bestehende Ungleichheiten weiter verstärken. Der Fortschritt, der eigentlich der Befreiung dienen sollte, könnte so in eine neue Form der Abhängigkeit umschlagen – ein paradoxes Ergebnis, das an Hegels Dialektik von Herrschaft und Knechtschaft erinnert.39 Hegel beschrieb diese Dialektik wie folgt: Wer herrscht, gerät durch die Abhängigkeit von der Arbeit des anderen seinerseits in Gefangenschaft. In zeitgenössischen Begriffen formuliert: auch wir können in die Abhängigkeit der künstlichen Intelligenz geraten. Eine Gesellschaft, die sich daran gewöhnt, jede Aufgabe an Maschinen zu delegieren, läuft zudem Gefahr, Fähigkeiten, Kreativität und Innovationskraft zu verlieren.
3.2 KI und Bias
42Darüber hinaus gibt es noch einen weiteren Aspekt, der die Frage der «Sklaverei» mit jener der kulturellen Vorurteile (Bias) verbindet. Wenn Sklaven der Vergangenheit durch Machtverhältnisse und ideologische Narrative definiert und in ihrem Status gehalten wurden, so droht die KI heute, neue Formen der Dominanz durch die Trainingsdatensätze zu perpetuieren. Kostas Karpouzis, der das Höhlengleichnis Platons aufgreift, betont, dass generative Modelle uns die Welt nicht «so wie sie ist» zeigen, sondern lediglich die Schatten der dominierenden kulturellen Narrative.40 Das Problem betrifft dabei nicht nur die Quantität der Daten, sondern ebenso ihre Qualität: Wenn die Daten aus begrenzten und homogenen Kontexten stammen, wird die Wahrnehmung der KI zwangsläufig verzerrt sein.
43Dies bedeutet, dass KI niemals neutral ist. Jeder Algorithmus trägt die Kontexte, Vorurteile und kulturellen Hierarchien in sich, in denen er entwickelt wurde. Wenn die Stimmen ganzer Gemeinschaften in den Daten ausgeschlossen bleiben, wird KI zu einem Mechanismus von Exklusion und Marginalisierung, der globale Ungleichgewichte eher verstärken als abbauen kann. Deshalb betont Karpouzis: Es genügt nicht, «mehr Daten» aus unterrepräsentierten Kulturen hinzuzufügen; vielmehr muss gewährleistet werden, dass diese Daten kontextreich, authentisch und plural sind und dass beim Aufbau der Datensätze die betroffenen Gemeinschaften selbst einbezogen werden.41
44Das Thema der Zugänglichkeit ist hier von entscheidender Bedeutung. Einerseits kann KI ein mächtiges Instrument zur Demokratisierung von Wissen sein: automatische Übersetzungen, Hilfsmittel für Menschen mit Behinderungen, Vereinfachung komplexer Konzepte. Andererseits ist der Zugang zur KI ungleich verteilt: infrastrukturelle Kosten, Sprachbarrieren und globale Ungleichheiten drohen, sie zu einem Privileg weniger wirtschaftlicher und technologischer Machtzentren zu machen. So wie die Sklaverei in der Vergangenheit durch eine soziale Ordnung gerechtfertigt wurde, die wenigen zum Vorteil und vielen zum Nachteil gereichte, besteht auch heute die Gefahr, dass KI zu einem Instrument wird, das Ungleichheiten vergrössert, anstatt sie zu verringern.
45Von KI und Sklaverei zu sprechen, bedeutet nicht bloss, eine provokative Metapher zu gebrauchen. Es bedeutet, anzuerkennen, dass sich hinter dem Bild der Maschine als idealem Diener eine Reihe von Dilemmata verbirgt, die uns selbst betreffen: die Art und Weise, wie wir Machtverhältnisse konstruieren, unsere Fähigkeit, Gerechtigkeit und Pluralismus zu gewährleisten, sowie unsere Verantwortung gegenüber künftigen Generationen.
46Darum hat die Rechtsgeschichte hier eine entscheidende Rolle. Sie erinnert uns daran, dass die Sklaverei über Jahrhunderte eine juristische Institution war – nicht nur ein soziales Faktum – und dass ihre Abschaffung auch über eine Transformation von Sprache und normativen Kategorien verlief. In gleicher Weise gilt heute: Wenn wir neue Formen der digitalen Versklavung vermeiden wollen, müssen wir nicht nur an der Technik ansetzen, sondern ebenso an den juristischen und kulturellen Kategorien, mit denen wir KI beschreiben. Es geht darum, KI nicht als blosses Werkzeug und nicht als neue Sklaven zu verstehen, sondern als Technologien, die so reguliert werden müssen, dass sie Würde, Freiheit und Gleichheit nicht gefährden.
4. Fortbildung von Recht und KI aus der Perspektive der Rechtsgeschichte
47Ein weiteres eindrucksvolles Beispiel für die vermittelnde Funktion der Rechtsgeschichte bietet der Blick auf die Entwicklung des Urheberrechts. Mit dem Statute of Anne von 1710 sah sich der englische Gesetzgeber einer neuartigen Herausforderung gegenüber: der Regulierung der Produktion und Verbreitung von Werken im Zeitalter des Buchdrucks. Erstmals wurde den Autoren ein persönliches Recht zuerkannt, zugleich jedoch eine zeitlich begrenzte Schutzdauer festgelegt, um die freie Zirkulation des Wissens zu gewährleisten. Das Recht suchte damit ein Gleichgewicht zwischen zwei scheinbar gegensätzlichen Anforderungen: dem Schutz individueller Kreativität einerseits und dem kollektiven Zugang zu Wissen andererseits.
48Diese historische Dynamik zeigt, dass sich das Recht durch schrittweise Anpassungen wandelt, die aus der Auseinandersetzung mit technologischen Innovationen hervorgehen. Das 19. Jahrhundert brachte neue Rechtsfiguren für Fotografie, Phonograph und Kino hervor; das 20. Jahrhundert vervielfachte die Regulationen für Radio, Fernsehen und Informatik. Heute stellt sich mit der generativen KI die Frage in neuer Form: Wer ist der Urheber eines Textes oder Bildes, das von einem Algorithmus erzeugt wird? Die Maschine selbst, der Programmierer, der Nutzer, der den Prompt eingibt – oder alle zusammen?
49Ein weiterer Punkt, den die neuere Forschung hervorgehoben hat, ist, dass das Statute of Anne nicht nur als Geburtsakt des modernen Copyrights zu verstehen ist, sondern als Beginn eines Prozesses der Pluralisierung, der die gesamte Geschichte des Urheberrechts geprägt hat. Wie Elena Cooper gezeigt hat, löste dieses Statut die Frage der Kreativität und ihres Schutzes nicht ein für alle Mal, sondern eröffnete eine Debatte, die sich im Laufe des 18., 19. und 20. Jahrhunderts kontinuierlich veränderte.42 Jede neue Technologie – von der Fotografie über den Phonographen bis zum Kino und Radio – zwang das Recht, neue Akteure (Autor, Interpret, Produzent, Sender) zu unterscheiden und die Schutzformen zu vervielfältigen.
50Auf die Gegenwart übertragen, bedeutet diese historische Lektion, dass wir auch im Falle der KI nicht mit einer einzigen, endgültigen Definition von «Autor» oder «Schöpfer» rechnen dürfen. Vielmehr lehrt uns die Geschichte, mit einem Spektrum unterschiedlicher Lösungen zu rechnen – einem pluralen Rahmen, der sich an die jeweiligen Kontexte anpasst: vom amateurhaften Gebrauch der KI bis zur industriellen Content-Produktion, von kreativen Anwendungen bis zur wissenschaftlichen Forschung.
51In diesem Sinne wirkt die Rechtsgeschichte als wahre Vermittlerin zwischen Vergangenheit und Zukunft: Sie erinnert uns daran, dass die Dilemmata, die wir heute der KI zuschreiben, tiefe historische Wurzeln haben und dass das Recht ihnen nicht mit esoterischen Neuerfindungen begegnen muss, sondern mit der kreativen Weiterentwicklung bereits erprobter Kategorien.
Bibliographie
Quellen
| Aristoteles: Politika 1253b. |
| Descartes, René: Brief an Marquis de Newcastle vom 23. November 1646, in: Correspondance IV. Juillet 1643–Avril 1647. Œuvres complètes IV. Hrsg. Charles Adam, Paul Tannery. Paris: Vrin 1996, S. 574. |
| Flaccus, Gaius Valerius: Argonautica IV, 1635-1688. |
| Hegel, Ge[org] Wilh[elm] Fr[iedrich]: System der Wissenschaft. Erster Theil: Die Phänomenologie des Geistes. Bamberg u. Würzburg: Goebhardt 1807, S. 114-128. |
| Homer: Ilias V, 748-752; XVIII, 418–422; XVIII, 468. |
| Homer: Odyssee VII, 91-94; VIII, 556. |
| [Offray de La Mettrie, Julien]: L’Homme Machine. Leyde: Luzac 1748. |
| Platon: Menon 97d-98a. |
Literatur
| Bremmer, Jan: The Early Greek Concept of the Soul. Princeton, Chichester: Princeton University Press [1983]. |
| Cooper, Elena: AI and performers' rights in historical perspective. In: European Intellectual Property Review, (8.45) 2023, S. 444-453. |
| Darcus, Shirley M.: Noos Precedes Phren in Greek Lyric Poetry. In: L'Antiquité Classique (46.1) 1977, S. 41-51. |
| Dihal, Kanta: Enslaved Minds: Artificial Intelligence, Slavery, and Revolt. In: Stephen Cave, Kanta Dihal und Sarah Dillon (Hrsg.), AI Narratives: A History of Imaginative Thinking about Intelligent Machines. Oxford 2020, S. 189-212, online: https://doi.org/10.1093/oso/9780198846666.003.0009. |
| Gamauf, Richard: § 102 Klage aufgrund Sonderguts oder unmittelbarer Zuwendung in das Vermögen des Gewalthabers (actio de peculio vel de in rem verso). In: Handbuch des Römischen Privatrechts. Ulrike Babusiaux, Christian Baldus, Wolfgang Ernst, Franz-Stefan Meissel, Johannes Platzschek, Thomas Rüfner(Hrsg.). Handbuch des Römischen Privatrechts Band 1, Tübingen 2023, S. 2789-2826. |
| Gamauf, Richard: § 36 Sklaven (servi). In: Handbuch des Römischen Privatrechts. Ulrike Babusiaux, Christian Baldus, Wolfgang Ernst, Franz-Stefan Meissel, Johannes Platzschek, Thomas Rüfner (Hrsg.). Handbuch des Römischen Privatrechts Band 1, Tübingen 2023, S. 924-994. |
| Gemelli, Mattia: Il robot come servus novus: spunti di comparazione e tentative storici di approccio alla disciplina della odierna intelligenza artificiale. In: Cammino Diritto (6) 2023, S. 1-33. |
| Heine, Klaus und Quintavalla, Alberto: Bridging the accountability gap of artificial intelligence– what can be learned from Roman law? In: Legal Studies (44) 2024, S. 65–80, online: https://doi.org/10.1017/lst.2022.51 |
| Izumo, Takashi: Digital Specific Property of Robots: A Historical Suggestion from Roman Law. In: Delphi - Interdisciplinary Review of Emerging Technologies (1.1) 2018, S. 14-19, online: https://doi.org/10.21552/delphi/2018/1/8. |
| Kangeter, Louie und Green, Brian Patrick: AGI and slavery. AI Ethics (5) 2025, S. 3311–3319, online: https://doi.org/10.1007/s43681-024-00618-z. |
| Karpouzis, Kostas: Plato’s Shadows in the Digital Cave: Controlling Cultural Bias in Generative AI. In: Electronics (13.1457) 2024, S. 1-13, online: https://doi.org/10.3390/electronics13081457. |
| Kunstreich, Jasper: Zunft und Unordnung: Zur Rechtsstellung der Zünfte in Frankfurt am Main und Hamburg, 1350–1380. In: Zeitschrift der Savigny-Stiftung für Rechtsgeschichte: Germanistische Abteilung (139.1) 2022, S. 86-111, online: https://doi.org/10.1515/zrgg-2022-0003. |
| LaGrandeur, Kevin: Artificial Slaves in the Renaissance and the Dangers of Independent Innovation. In: Stephen Cave, Kanta Dihal und Sarah Dillon (Hrsg). AI Narratives: A History of Imaginative Thinking about Intelligent Machines. Oxford 2020, S. 95-118, online: https://doi.org/10.1093/oso/9780198846666.003.0005. |
| Lamberti, Francesca: § 34 Hauskinder (filii familias). In: Handbuch des Römischen Privatrechts. Ulrike Babusiaux, Christian Baldus, Wolfgang Ernst, Franz-Stefan Meissel, Johannes Platzschek, Thomas Rüfner (Hrsg.). Handbuch des Römischen Privatrechts Band 1, Tübingen 2023, S. 858-875. |
| Liveley, Genevieve und Thomas, Sam: Homer’s Intelligent Machines: AI in Antiquity. In: Stephen Cave, Kanta Dihal und Sarah Dillon (Hrsg.). AI Narratives: A History of Imaginative Thinking about Intelligent Machines. Oxford 2020, S. 25-48, online: https://doi.org/10.1093/oso/9780198846666.003.0002. |
| Meissel, Franz-Stefan: § 81 Klage aus Gesellschaftsvertrag (actio pro socio). In: Handbuch des Römischen Privatrechts. Ulrike Babusiaux, Christian Baldus, Wolfgang Ernst, Franz-Stefan Meissel, Johannes Platzschek, Thomas Rüfner(Hrsg.). Handbuch des Römischen Privatrechts Band 1, Tübingen 2023, S. 2315-2356. |
| Miceli, Maria: Sulla struttura formulare delle 'Actiones adiecticiae qualitatis'. Turin: G. Giappichelli 2001. |
| Pagallo, Ugo: The Laws of Robots: Crimes, Contracts, and Torts. Dordrecht 2013, online: https://doi.org/10.1007/978-94-007-6564-1. |
| Park, Julie: Making the Automaton Speak: Hearing Artificial Voices in the Eighteenth Century. In: Stephen Cave, Kanta Dihal und Sarah Dillon (Hrsg). AI Narratives: A History of Imaginative Thinking about Intelligent Machines. Oxford 2020, S. 119-143, online: https://doi.org/10.1093/oso/9780198846666.003.0006. |
| Suardi, Laura: Miti greci e intelligenza artificiale: dai tripodi e le fanciulle meccaniche dell’Iliade alla lezione del Protagora, in: Corriere della Sera, 28. Oktober 2024, online: https://www.corriere.it/tecnologia/24_ottobre_28/miti-greci-e-intelligenza-artificiale-dai-tripodi-e-le-fanciulle-meccaniche-dell-iliade-alla-lezione-del-protagora-ae62e7a2-b522-4212-bdba-81bebffacxlk.shtml (abgerufen am 12. November 2025). |
| Truitt, E[lly]. R.: Demons and Devices: Artificial and Augmented Intelligence before AI. In: Stephen Cave, Kanta Dihal und Sarah Dillon (Hrsg.). AI Narratives: A History of Imaginative Thinking about Intelligent Machines. Oxford 2020, S. 49-71, online: https://doi.org/10.1093/oso/9780198846666.003.0003. |
| van den Hoven van Genderen, Robert: Do We Need New Legal Personhood in the Age of Robots and AI? In: Corrales, M., Fenwick, M., Forgó, N. (Hrsg.). Robotics, AI and the Future of Law. Perspectives in Law, Business and Innovation. Singapore 2023, S. 15-55, online: https://doi.org/10.1007/978-981-13-2874-9_2. |
| Wiener, Norbert: The Human Use of Human Beings. Cybernetics and Society. Cambridge: The Riverside Press 1950. |
