Politik des Verlags der Universität Lodz in Bezug auf generative künstliche Intelligenzwerkzeuge

Regeln für Autoren

  1. Nur Menschen können Autoren wissenschaftlicher Texte sein. GSI-Tools, einschließlich Chatbots wie ChatGPT, können nicht als Autoren/Co-Autoren genannt oder als Autoren zitiert werden.
  2. Die Autoren übernehmen die volle Verantwortung für den Inhalt des eingereichten Manuskripts, einschließlich aller mit GSI-Tools erstellten Auszüge, und haften daher für etwaige Verstöße gegen die Publikationsethik.
  3. Autoren, die KI-Tools zum Schreiben von Texten sowie zum Sammeln und Analysieren von Daten verwenden, sind verpflichtet, ehrlich und vollständig transparent offenzulegen, welches GSI-Tool, in welcher genauen Art und in welchem ​​Umfang verwendet wurde und welche Auswirkungen es auf die jeweilige Arbeit hatte.
  4. Von GSI erstellte oder bearbeitete Grafiken und Videos dürfen nicht in Veröffentlichungen verwendet werden, es sei denn, sie sind Gegenstand der Forschung für die jeweilige Arbeit.
  5. Mit der Einreichung eines Manuskripts müssen die Autoren eine entsprechende Erklärung über die Verwendung von GSI-gestützten Tools, einschließlich Chatbots, großen Sprachmodellen (LLM) oder Bildbearbeitungsprogrammen, bei der Erstellung der Arbeit sowie eine detaillierte Beschreibung des Zwecks, des Umfangs und der Methode ihrer Verwendung einsenden.
  6. Detaillierte Informationen zur Verwendung von KI-Tools sollten sowohl im Abstract als auch in den ersten Teilen des Textes enthalten sein, z. B. in einem separaten Abschnitt mit der Überschrift „Erklärung zur Verwendung von GSI bei der Erstellung des Artikels“, damit die Studie wiederholt und die Glaubwürdigkeit der Ergebnisse bestätigt werden kann.
    Erforderliche Informationen:
    • Uhrzeit und Datum der Anfrage,
    • Werkzeugdaten (Name, Version, Modell),
    • Grund, Umfang und Art der Anwendung,
    • alle Befehle (Prompts, d. h. vollständige Eingabeaufforderungen), die zum Abrufen von neuem Text, zum Transformieren von Text oder zum Konvertieren von Text in Tabellen oder Abbildungen verwendet werden,
    • Name und Version des verwendeten KI-Tools.
      Darüber hinaus sollte der Autor/die Autorin bei der Einreichung eines Manuskripts zur Veröffentlichung im Anschreiben Informationen zur Verwendung von KI-Tools angeben.
  7. Die Autoren müssen sich der Grenzen von generativen Werkzeugen der künstlichen Intelligenz, einschließlich Chatbots wie ChatGPT, aufgrund von Verzerrungen, Fehlern und Wissenslücken bewusst sein. Der Output sollte jedes Mal überprüft werden, und es sollte insbesondere darauf geachtet werden, ob folgende Probleme nicht vorkommen:
    mangelnde Objektivität des Inhalts, die mit der Art und Weise zusammenhängt, wie das System trainiert wird,
    b. mangelnde Zuverlässigkeit: Generative KI-Tools können falsche Inhalte produzieren, insbesondere bei Nischen- und Spezialthemen oder bei Inhalten, die auf sprachlicher Ebene plausibel und korrekt klingen, aber nicht auf wissenschaftlichem Niveau; sie können Fakten falsch interpretieren und nicht existierende Bibliographien erstellen,
    c. verzerrtes Bild: Einige Tools wurden auf Inhalte aus der Zeit vor einem bestimmten Datum trainiert und verfügen über unvollständige Daten,
    d. fehlendes kontextuelles Verständnis: Generative KI-Tools können das menschliche Verständnis nicht auf Texte anwenden, insbesondere bei idiomatischen Ausdrücken, Sarkasmus, Humor oder metaphorischer Sprache. Dies kann zu Fehlern / Fehlinterpretationen der generierten Inhalte führen,
    e. Mangel an adäquaten Trainingsdaten: Generative KI-Tools benötigen eine große Menge an qualitativ hochwertigen Trainingsdaten, um eine optimale Leistung zu erzielen. In einigen Bereichen oder Sprachen sind solche Daten jedoch nicht ohne weiteres verfügbar, was die Verwendbarkeit des Modells einschränkt.
  8. Die Autoren sollten auch angeben, welche Schritte sie unternommen haben, um das Risiko von Plagiaten zu verringern, um verlässliches, aktuelles Wissen zu präsentieren und um sicherzustellen, dass alle angegebenen bibliografischen Beschreibungen korrekt sind und dass die Urheberschaft der zitierten Werke korrekt angegeben ist. Besondere Aufmerksamkeit sollte der Überprüfung der erstellten Bibliographie und der Quellenangaben gewidmet werden, um sicher zu sein, dass sie alle zuverlässig und korrekt gekennzeichnet und beschrieben sind.

Regeln für Herausgeber von Zeitschriften und Monographien mit mehreren Autoren 

  1. Die Herausgeber prüfen jedes Mal, ob die Verwendung von GSI-Tools in ihrer Arbeit gerechtfertigt ist.
  2. Die Redaktion überprüft jede Einreichung mit Anti-Plagiatsprogrammen und sog. GSI-Detektoren, wobei die technischen Einschränkungen dieser Tools und das Risiko einer Fehlklassifizierung der Inhaltsquelle zu berücksichtigen sind.
  3. Redakteure müssen beachten, dass Chatbots die ihnen zur Verfügung gestellten Eingabedaten, einschließlich des Manuskriptinhalts, speichern und öffentlich weitergeben können, was die Vertraulichkeit des eingereichten Autorenmaterials verletzt.

Regeln für Gutachter

  1. Gutachter sollten keine GSI-Tools zur Unterstützung des Überprüfungsprozesses verwenden.
  2. Die Gutachter bewerten jedes Mal die Berechtigung für die Verwendung von GSI-Tools in ihrer Arbeit.
  3. Gutachter müssen beachten, dass Chatbots die ihnen übermittelten Eingabedaten, einschließlich des Inhalts des Manuskripts oder des Gutachtens, speichern und öffentlich weitergeben können, wodurch die Vertraulichkeit des eingereichten Autorenmaterials verletzt wird.

Quellen: 
Rekomendacje Stowarzyszenia Wydawców Szkół Wyższych 
ZASADY KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PROCESIE KSZTAŁCENIA I DYPLOMOWANIA W UŁ 
Authorship and AI tools. COPE position statement 
COPE forum: How to exclude AI-generated articles