Zusammenfassung Expert:innen-Workshops
In Anlehnung an einen Design-Thinking-Prozess wurde untersucht, wie nutzer- und privatsphärefreundliche Benutzerschnittstellen für das Metaversum gestaltet werden können. Grundlage bildeten unteranderem ein Expert:innenworkshop mit Vertreter:innen aus Datenschutz-, Privatsphäreschutz- und Verbraucherschutzorganisationen.
Virtuelle Belästigung
Die Expert:innen berichten, dass sich technische Schutzmaßnahmen wie Safe Bubbles oder Safe Zones in der Praxis bewährt haben, um physische Nähe im virtuellen Raum zu regulieren und Beschwerden zu verringern. Diese Räume stoßen jedoch an Grenzen, da sie verbale Angriffe oder Beleidigungen nicht verhindern und zum Teil umgangen oder missbraucht werden können. Ergänzend wurden Zugangsbeschränkungen – etwa nur für aktiv gespeicherte Kontakte – sowie individualisierbare Sicherheitseinstellungen bei der Avatar-Konfiguration vorgeschlagen, um kulturelle Unterschiede in der Wahrnehmung von Nähe zu berücksichtigen. Kritisch sehen die Expert:innen Inkognito-Modi, da sie zum Ausspähen anderer missbraucht werden könnten.
Die Expert:innen betonten, dass rein technische Lösungen nicht ausreichen. Plattformen sollten problematisches Verhalten automatisiert erkennen und moderieren, während zugleich rechtliche Konsequenzen und wirksame Identifizierungsmöglichkeiten, beispielsweise über eine eID, bestehen müssen. Empfohlen wird eine Kombination aus präventiven Designmaßnahmen und repressiven Sanktionsmechanismen, um Belästigung im Metaverse nachhaltig zu verhindern.
Social Bots
Im Metaverse gewinnt die Erstellung von Persönlichkeitsmodellen durch KI an Relevanz, was tief in die Privatsphäre eingreifen kann und Fragen zu den zulässigen Handlungen von Bots aufwirft. Als Schutzmaßnahmen wurden von den Expert:innen Bot-freie Zonen vorgeschlagen, in denen ausschließlich menschliche Nutzer:innen zugelassen sind. Technische Ansätze zur Umsetzung könnten digitale Wasserzeichen, kryptografische Verfahren oder die Verknüpfung digitaler Präsenz mit NFTs sein.
Zur Verifikation menschlicher Identität wurden 3D-Captchas, EU-weit einsetzbare eID-Wallets oder Ausweis-Avatar-Verknüpfungen diskutiert, wobei Anonymität für viele Nutzer:innen dennoch gewahrt bleiben sollte. Gleichzeitig betonten die Expert:innen die Notwendigkeit rechtlicher Rahmenbedingungen: Daten müssten für eine begrenzte Zeit gespeichert und auf richterliche Anordnung zugänglich sein, um Straftaten verfolgen zu können.
Empfohlen wird eine Kombination aus technischen Erkennungs- und Ausschlussmechanismen für Bots, klaren rechtlichen Vorgaben und international abgestimmten Schnittstellen, um die Integrität menschlicher Interaktionen im Metaverse zu sichern.
Fazit der Expert:innen
Insgesamt gilt: Ein abgestimmter Mix aus technischen Schutzmechanismen, rechtlichen Rahmenbedingungen und klaren Sanktionsmöglichkeiten verspricht die besten Ergebnisse – schnelle, einfach umsetzbare Maßnahmen können dabei kurzfristige Verbesserungen bringen, während langfristig robuste Identitäts- und Sicherheitskonzepte etabliert werden müssen.

