Bias

Mehr als Prompting: KI-Kompetenz als Zukunftsfrage

Generative KI, Meta-Arbeit und Kompetenzverlust: Warum Artikel 4 des AI Acts Humankapital in den Mittelpunkt rückt Autorinnen: Sabine Theresia Köszegi von der TU Wien & Heidi Scheichenbauer (Research Institute – Digital Human Rights Center) Ein Klick und plötzlich wird Denken „auslagerbar“. Ein Klick, und der Entwurf steht. Ein zweiter Klick, und die E-Mail klingt verbindlicher,

2026-02-27T12:00:57+01:0027. Feber 2026|Announcement, Keine Kategorie|

SocialAI: Chancengerechtes Prompt Engineering für die Soziale Arbeit

SocialAI: Chancengerechtes Prompt Engineering für die Soziale Arbeit Generative KI-Tools wie ChatGPT sind längst im Arbeitsalltag angekommen – auch in der Sozialen Arbeit. Das eröffnet neue Möglichkeiten: von schnellerem Texten über Ideenfindung bis zu strukturierter Dokumentation. Gleichzeitig steigen die Risiken dort besonders stark, wo mit vulnerablen Zielgruppen und sensiblen Daten gearbeitet wird. Denn KI-Systeme

2026-02-26T13:48:44+01:0025. Feber 2026|Announcement|

Forschungsprojekt „dAIbetes“ – General Assembly in Rom

Einblicke in das General Assembly Meeting des Forschungsprojekts „dAIbetes“ in Rom Die Projektpartner des wegweisenden Horizon-Europe-Projekts „dAIbetes“ trafen sich unter der Leitung der Universität Hamburg (UHAM) zum General Assembly Meeting von 12. bis 13. Dezember 2024 in Rom, um das erste Projektjahr Revue passieren zu lassen und intensiv über die nächsten Schritte im Projekt

2024-12-17T13:56:24+01:0017. Dezember 2024|Verkündung|

IRI§-ReMeP Workshop: Teilnahme an Panel zu Haftung für KI

Internationales Rechtsinformatik Symposion & Research Meets Practice Workshop zum Thema Haftung für KIAm 25. April 2024 fand der IRI§-ReMeP Hybrid Workshop zum Thema “Haftung für KI“ am Campus der Universität Wien, Altes AKH statt. Das Thema wurde aus verschiedenen Blickwinkeln beleuchtet und rechtliche, ethische sowie technische Fragestellungen rund um Künstliche Intelligenz behandelt.KI und HaftungZu Beginn

2024-04-26T13:59:52+02:0026. April 2024|Verkündung|

Guidelines zur sicheren Nutzung von „Large Language Models“ (LLM)

Wir freuen uns, Ihnen unser neues PDF zur sicheren Nutzung von „Large Language Models“ (LLM) präsentieren zu können! In diesem Dokument finden Sie wertvolle Empfehlungen und Informationen rund um den verantwortungsvollen Umgang mit Large Language Models wie ChatGPT, Google Bard und BingAI. Erfahren Sie, wie Sie LLM effektiv nutzen und mögliche Risiken vermeiden können. Das

2024-01-11T15:32:26+01:0017. Juli 2023|Publikation, Verkündung|
Go to Top