To Örebro University

oru.seÖrebro University Publications
Change search
Link to record
Permanent link

Direct link
Publications (10 of 20) Show all publications
Ebers, M. (Ed.). (2025). Legal Tech Stichwortkommentar (5thed.). Baden-Baden: Nomos Verlagsgesellschaft
Open this publication in new window or tab >>Legal Tech Stichwortkommentar
2025 (German)Collection (editor) (Refereed)
Place, publisher, year, edition, pages
Baden-Baden: Nomos Verlagsgesellschaft, 2025. p. 1418 Edition: 5th
National Category
Law
Identifiers
urn:nbn:se:oru:diva-123291 (URN)
Available from: 2025-09-01 Created: 2025-09-01 Last updated: 2025-09-01Bibliographically approved
Zou, M., Poncibo, C., Ebers, M. & Calo, R. (Eds.). (2025). The Cambridge Handbook on Generative AI and the Law. Cambridge: Cambridge University Press
Open this publication in new window or tab >>The Cambridge Handbook on Generative AI and the Law
2025 (English)Collection (editor) (Refereed)
Place, publisher, year, edition, pages
Cambridge: Cambridge University Press, 2025
National Category
Law
Identifiers
urn:nbn:se:oru:diva-123292 (URN)9781009492584 (ISBN)
Available from: 2025-09-01 Created: 2025-09-01 Last updated: 2025-09-01Bibliographically approved
Ebers, M. (2024). AI Robotics in Healthcare Between the EU Medical Device Regulation and the Artificial Intelligence Act: Gaps and Inconsistencies in the Protection of Patients and Care Recipients. Oslo Law Review, 11(1), 1-12
Open this publication in new window or tab >>AI Robotics in Healthcare Between the EU Medical Device Regulation and the Artificial Intelligence Act: Gaps and Inconsistencies in the Protection of Patients and Care Recipients
2024 (English)In: Oslo Law Review, E-ISSN 2387-3299, Vol. 11, no 1, p. 1-12Article in journal (Refereed) Published
Abstract [en]

The growing inclusion of social robots in therapeutic situations raises a variety of unresolved legal and ethical issues, including risks to patient autonomy, human dignity and trust, the potentially life-threatening effects of inaccurate or malfunctioning technology, diminished privacy due to the reliance on enormous amounts of personal (sensitive health) data, new challenges to data security due to the cyber-physical nature of robots, and the problem of how to obtain informed consent to medical treatments based on opaque AI decision making. From this broad spectrum, the article deals with the protection of the health and safety of patients and care recipients under EU law. A more detailed analysis shows that neither the EU’s Medical Device Regulation nor its Artificial Intelligence Act adequately address the risks to patient health and safety that arise in many situations where AI systems are used in the healthcare and nursing sector. Against this backdrop, the article provides recommendations as to which aspects should be regulated in the future and argues for a public discussion about the extent to which we, as a society, should replace human therapists with AI-enabled technology.

Place, publisher, year, edition, pages
Universitetsforlaget, Scandinavian University Press, 2024
Keywords
AI Act, Medical Device Regulation, medical devices, artificial intelligence, robotics, chatbots
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118686 (URN)
Available from: 2025-01-20 Created: 2025-01-20 Last updated: 2025-01-23Bibliographically approved
Ebers, M. (2024). Avatars and the Protection of Digital Identities in the Metaverse. MetaverseUA Chair
Open this publication in new window or tab >>Avatars and the Protection of Digital Identities in the Metaverse
2024 (English)Other (Refereed)
Abstract [en]

Avatars allow users to create (digital) identities in virtual worlds - including the Metaverse; to express themselves, communicate, and interact with others. But how does the law protect these digital identities? What are the legal implications if an avatar is insulted, defamed, assaulted, harassed, or copied by other users (or their avatars)? What if a Metaverse platform provider restricts or even fully blocks an avatar’s ability to communicate and operate in the virtual space?

This research paper addresses these questions from a comparative law perspective, examining users’ rights related to their avatars. To this end, it analyzes the contractual relationships governing avatars, with a focus on the rights and obligations derived from platform terms and conditions, as well as the relevance of property and copyright law to digital identities, assessing both the possibilities and limitations of these frameworks. At its core, the paper argues for recognizing a new fundamental right to digital identities for users with regards to their avatars, based on Article 8 of the European Convention on Human Rights (ECHR). Given the increasing convergence of real and virtual identities, the paper concludes that virtual harm inflicted on users through their avatars should be recognized as morally and legally significant under Article 8 of the ECHR. Accordingly, personality rights already established in private law should extend to virtual identities in a manner analogous to their application to real-world identities.

Place, publisher, year, pages
MetaverseUA Chair, 2024. p. 36
Series
MetaverseUA Chair Research Paper ; 3
Keywords
Avatars, Metaverse, IP Rights, Contractual Rights, Digital Identity, Fundamental Rights
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118688 (URN)
Available from: 2025-01-20 Created: 2025-01-20 Last updated: 2025-01-23Bibliographically approved
Ebers, M. & Sein, K. (2024). Data-driven Technologies: Challenges for Privacy and Data Protection Law. In: Martin Ebers; Karin Sein (Ed.), Privacy, Data Protection and Data-driven Technologies: (pp. 3-37). Routledge
Open this publication in new window or tab >>Data-driven Technologies: Challenges for Privacy and Data Protection Law
2024 (English)In: Privacy, Data Protection and Data-driven Technologies / [ed] Martin Ebers; Karin Sein, Routledge, 2024, p. 3-37Chapter in book (Refereed)
Abstract [en]

Data-driven technologies introduce new privacy risks that are currently not (explicitly) addressed by European data protection law. Against this backdrop, the chapter discusses the general conceptual shortcomings of the GDPR, followed by an overview of the various issues that arise when applying EU data protection law to data-driven technologies and an analysis of the (often unclear and incoherent) relationship between the GDPR and EU digital law. A final section draws conclusions and provides recommendations on how the EU data protection legal framework could be improved to take sufficient account of data-driven technologies.

Place, publisher, year, edition, pages
Routledge, 2024
Series
Routledge Research in the Law of Emerging Technologies
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118607 (URN)9781032614472 (ISBN)9781003502791 (ISBN)
Available from: 2025-01-20 Created: 2025-01-20 Last updated: 2025-01-23Bibliographically approved
Ebers, M. (2024). Die Erbringung von Rechtsdienstleistungen durch Large Language Models (LLMs). In: Martin Ebers; Benedikt Quarch  (Ed.), Rechtshandbuch ChatGPT: KI-basierte Sprachmodelle in der Praxis (pp. 332-359). Baden-Baden: Nomos Verlagsgesellschaft
Open this publication in new window or tab >>Die Erbringung von Rechtsdienstleistungen durch Large Language Models (LLMs)
2024 (German)In: Rechtshandbuch ChatGPT: KI-basierte Sprachmodelle in der Praxis / [ed] Martin Ebers; Benedikt Quarch , Baden-Baden: Nomos Verlagsgesellschaft, 2024, p. 332-359Chapter in book (Refereed)
Abstract [de]

Generative KI-Systeme (generative AI; GenAI), insbesondere große Sprachmodelle (Large Language Models; LLMs) und die darauf basierenden Anwendungen wie OpenAI‘s. GPT, Microsoft’s Copilot, Google’s Gemini, Meta’s LLaMa und andere Modelle (wie BLOOM, Ernie 3.0 Titan und Anthropic's. Claude 2) haben das Potenzial, den Rechtsmarkt wie keine andere Technologie zu verändern. Die von der Firma OpenAI im November 2022 veröffentlichte Anwendung ChatGPT wurde nicht nur innerhalb eines Monats zur erfolgreichsten Internet-App aller Zeiten, vielmehr zeigte sich zugleich, dass sich LLMs in vielen unterschiedlichen Branchen einsetzen lassen, um Arbeitsprozesse zu optimieren.

KI-gestützte Lösungen können die juristische Arbeit beschleunigen und zum Teil auch verbessern. Gleichzeitig wirft ihre Verwendung jedoch eine Reihe ethischer, rechtlicher und gesellschaftlicher Fragen auf. Dies gilt auch für LLMs. Die für Juristen involvierten Risiken wurden bereits unmittelbar nach Einführung von ChatGPT deutlich: Zwei Anwälte in New York wurden zu einer Geldstrafe in Höhe von 5.000 USD verurteilt, weil sie bei Gericht einen Schriftsatz eingereicht hatten, der sechs von ChatGPT „erfundene“ Präzedenzfälle enthielt und an diesen selbst festgehalten hatten, nachdem das Gericht deren Existenz in Frage gestellt hatte.

Das Vorkommnis wirft für die Rechtspraxis eine Reihe von Fragen auf. Dürfen Kanzleien und Rechtsabteilungen LLMs (wie ChatGPT) in der juristischen Praxis überhaupt einsetzen? Welche Pflichten haben Anwälte, wenn sie sich auf GenAI verlassen möchten? Unter welchen Voraussetzungen sind Anwälte für mögliche Fehler des KI-Systems verantwortlich? Wie können Mandanten vor Risiken und Schäden beim Einsatz von LLMs geschützt werden? Liegt ein Fall der unerlaubten Rechtsdienstleistung vor, wenn ein Unternehmen wie OpenAI/Microsoft eine Anwendung wie ChatGPT zur Verfügung stellt, die (auch) für juristische Zwecke verwendet werden kann?

Das vorliegende Kapitel geht diesen Fragen nach, indem – im Anschluss an das vorangegangeneKapitel zu Legal Prompts (s. § 12) – zunächst die vielfältigen Einsatzmöglichkeitenvon GenAI im Rechtsmarkt überblicksweise dargestellt werden (→ Rn. 9 ff.).Im Anschluss wird erörtert, ob bereits das Anbieten von LLMs als (unerlaubte) Rechtsdienstleistungeingestuft werden kann (→ Rn. 39 ff.). In einem weiteren Teil werdensodann die (berufs-)rechtlichen Pflichten erörtert, die sich beim Einsatz von LLMs fürKanzleien und Rechtsabteilungen ergeben (→ Rn. 67 ff.). Ein abschließender Teil wirftschließlich einen Blick auf die KI-VO und die Frage, inwieweit dieser neue RechtsaktLLM-Tools, die zur Nutzung durch Unternehmen, Kanzleien und Rechtsuchende bestimmtsind, reguliert (→ Rn. 94 ff.).

Place, publisher, year, edition, pages
Baden-Baden: Nomos Verlagsgesellschaft, 2024
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118680 (URN)9783756012855 (ISBN)9783748940432 (ISBN)
Available from: 2025-01-20 Created: 2025-01-20 Last updated: 2025-01-23Bibliographically approved
Ebers, M. (2024). Die KI-Verordnung ante portas: Ein neuer Rechtsrahmen für Legal Tech?. Legal Tech Zeitschrift (1), 1-2
Open this publication in new window or tab >>Die KI-Verordnung ante portas: Ein neuer Rechtsrahmen für Legal Tech?
2024 (German)In: Legal Tech Zeitschrift, ISSN 2750-4603, no 1, p. 1-2Article in journal, Editorial material (Other academic) Published
Abstract [de]

Nach mehr als zweieinhalb Jahren intensiver Beratungen in Brüssel wurde am 8. Dezember 2023 ein politischer Kompromiss in den Trilog-Verhandlungen zur KI-Verordnung (KI-VO) erzielt. Besonders umstritten war bis zuletzt, wie sog. Basismodelle und generative KI-Systeme (wie ChatGPT), biometrische Systeme sowie KI in der Strafverfolgung reguliert werden sollen. Für eine kurze Zeit sah es so aus, als könnten die Verhandlungen vollends scheitern. Ende November 2023 sprachen sich die Regierungen der drei größten EU-Länder Frankreich, Deutschland und Italien gegen eine harte Regulierung von Basismodellen aus. Unterhändler:innen des Europäischen Parlaments hatten das Treffen daraufhin demonstrativ verlassen.

Der nun gefundene Kompromiss muss in den nächsten Wochen – bis Anfang Februar 2024 – noch finalisiert und vom Rat sowie vom Europäischen Parlament im Plenum abgesegnet werden. Eine finale Fassung der KI-VO lag bei Abfassung dieses Editorials Anfang Januar 2024 immer noch nicht vor. Schon jetzt lassen sich jedoch die Grundlinien der KI-Verordnung skizzieren und ihre Auswirkungen für Legal Tech-Anwendungen abschätzen.

Place, publisher, year, edition, pages
Baden-Baden: Nomos Verlagsgesellschaft, 2024
National Category
Law
Identifiers
urn:nbn:se:oru:diva-118690 (URN)
Available from: 2025-01-21 Created: 2025-01-21 Last updated: 2025-01-22Bibliographically approved
Ebers, M. (2024). Die neue KI-VO: Was ändert sich im Legal Tech-Markt?. Baden-Baden: Nomos Verlagsgesellschaft
Open this publication in new window or tab >>Die neue KI-VO: Was ändert sich im Legal Tech-Markt?
2024 (German)Other (Other (popular science, discussion, etc.))
Abstract [de]

Nach mehr als zweieinhalb Jahren intensiver Beratungen wurde am 8.12.2023 ein politischer Kompromiss zur KI-Verordnung (KI-VO) erzielt. Zwar lag die finale Version bei Abfassung dieses Newsletters noch nicht vor. Schon jetzt lassen sich jedoch die Auswirkungen der KI-VO für Legal Tech (LT)-Anwendungen skizzieren. 

Place, publisher, year, pages
Baden-Baden: Nomos Verlagsgesellschaft, 2024
Series
Nomos Praxis-Newsletter ; v. 16.01.2024
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118691 (URN)
Available from: 2025-01-21 Created: 2025-01-21 Last updated: 2025-01-22Bibliographically approved
Ebers, M. & Streitbörger, C. (2024). Die Regulierung von Hochrisiko-KI-Systemen in der KI-VO. Recht Digital, 393-400
Open this publication in new window or tab >>Die Regulierung von Hochrisiko-KI-Systemen in der KI-VO
2024 (German)In: Recht Digital, ISSN 2702-2404, p. 393-400Article in journal (Refereed) Published
Abstract [de]

Der Beitrag analysiert die wichtigsten Vorschriften der KI-Verordnung zu Hochrisiko-KI-Systemenund die in diesem Zusammenhang auftretenden praxisrelevanten Fragen, indem derAnwendungsbereich, die Kriterien zur Klassifizierung als hochriskant, die materiellenAnforderungen sowie die Pflichten von Anbietern und Betreibern von Hochrisiko-KISystemendiskutiert werden.

Place, publisher, year, edition, pages
Munich: C. H. Beck, 2024
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118687 (URN)
Available from: 2025-01-20 Created: 2025-01-20 Last updated: 2025-01-23Bibliographically approved
Ebers, M. (2024). EU Consumer Law and the Artificial Intelligence Act: Two Worlds Apart?. In: Larry DiMatteo, Cristina Poncibò; Geraint Howells (Ed.), The Cambridge Handbook of AI and Consumer Law: Comparative Perspectives (pp. 215-235). Cambridge: Cambridge University Press
Open this publication in new window or tab >>EU Consumer Law and the Artificial Intelligence Act: Two Worlds Apart?
2024 (English)In: The Cambridge Handbook of AI and Consumer Law: Comparative Perspectives / [ed] Larry DiMatteo, Cristina Poncibò; Geraint Howells, Cambridge: Cambridge University Press, 2024, p. 215-235Chapter in book (Refereed)
Abstract [en]

This chapter analyses whether the AI Act sufficiently addresses consumers' interests and how the regulation blends into the existing system of consumer law. Section 15.2 provides an overview of the use of AI in consumer markets and the related risks for consumers, followed by a summary of the AI Act in section 15.3. Section 15.4 then focuses on prohibited practices, while section 15.5 analyses how so-called "generative AI systems" are regulated. Section 15.6 thereafter addresses the definition of high-risk AI systems and the corresponding mandatory requirements as well as the role of harmonised standards and conformity assessment procedures to protect consumer interests. Section 15.7 evaluates the provisions of the AI Act for low-risk AI systems, while section 15.8 examines how the AI Act will be enforced. Section 15.9 draws final conclusions.

Place, publisher, year, edition, pages
Cambridge: Cambridge University Press, 2024
Series
HBK Cambridge law handbooks
Keywords
Artificial Intelligence Act or AI Act, Generative AI, High-risk AI systems, Harmonised standards, Conformity assessment, Consumer vulnerability, Prohibited practices, Subliminal techniques
National Category
Law
Research subject
Law
Identifiers
urn:nbn:se:oru:diva-118674 (URN)10.1017/9781009483599.022 (DOI)9781009483599 (ISBN)9781009483551 (ISBN)
Available from: 2025-01-21 Created: 2025-01-21 Last updated: 2025-01-22Bibliographically approved
Identifiers
ORCID iD: ORCID iD iconorcid.org/0000-0001-5241-7121

Search in DiVA

Show all publications