Polityka Wydawnictwa Uniwersytetu Łódzkiego wobec narzędzi generatywnej sztucznej inteligencji" w następujących lokalizacjach

Zasady obowiązujące autorów

  1. Autorem tekstów naukowych może być wyłącznie człowiek. Narzędzia GSI, w tym chatboty jak ChatGPT, nie mogą zostać uznane za autorów/współautorów ani być cytowane jako autorzy. 
  2. Autorzy ponoszą pełną odpowiedzialność za treść przesłanego manuskryptu, również za wszystkie fragmenty, które powstały przy użyciu narzędzi GSI, a tym samym ponoszą odpowiedzialność za wszelkie naruszenia etyki publikacyjnej. 
  3. Autorzy korzystający z narzędzi AI przy pisaniu tekstów, gromadzeniu i analizie danych są zobowiązani do uczciwego i w pełni transparentnego ujawnienia, które narzędzie GSI, w jaki dokładnie sposób i w jakim zakresie zostało użyte oraz jaki miało ono wpływ na daną pracę. 
  4. W publikacjach nie należy wykorzystywać materiałów graficznych i filmów wytworzonych lub modyfikowanych przez GSI, chyba że stanowią przedmiot badań danej pracy.
  5. Przy zgłoszeniu manuskryptu autorzy zobowiązani są do przesłania stosownego oświadczenia dotyczącego wykorzystania przy tworzeniu pracy narzędzi wspomaganych GSI, w tym chatbotów, dużych modeli językowych (LLM) czy kreatorów obrazów wraz ze szczegółowym opisem celu, zakresu i sposobu ich użycia.
  6. Szczegółowe informacje dotyczące użycia narzędzi AI powinny zostać zawarte w abstrakcie, a także początkowych partiach tekstu, np. w wydzielonej sekcji zatytułowanej „Deklaracja użycia GSI w procesie pisania pracy”, tak aby możliwe było powtórzenie badania i potwierdzenie wiarygodności wyników.
    Wymagane informacje:
    • godzina i data zapytania,
    • dane o narzędziu (nazwa, wersja, model),
    • powód, zakres i sposób jego zastosowania,
    • wszystkie komendy (tj. pełnymi promptami) użyte do uzyskania nowego tekstu, przekształceń tekstu lub konwersji tekstu na tabele czy ilustracje,
    • nazwa i wersja użytego narzędzia AI.
      Dodatkowo, zgłaszając manuskrypt do publikacji, autor powinien zamieścić informację o użyciu narzędzi AI w liście przewodnim.
  7.  Autorzy muszą być świadomi ograniczeń narzędzi generatywnej sztucznej inteligencji, również chatbotów, jak ChatGPT, wynikających ze stronniczości, błędów i luk w wiedzy. Należy każdorazowo weryfikować dane wyjściowe, w szczególności zwrócić uwagę, czy nie zaistniał:
    1. brak obiektywizmu treści, co jest związane ze sposobem trenowania systemu,
    2. brak rzetelności: narzędzia generatywnej AI mogą tworzyć fałszywe treści, zwłaszcza w zakresie niszowych, specjalistycznych tematów lub treści, które brzmią wiarygodnie i poprawnie na poziomie językowym, lecz nie naukowym; mogą błędnie interpretować fakty i tworzyć nieistniejące bibliografie,
    3. zniekształcony obraz sytuacji: niektóre narzędzia przeszkolono na treściach sprzed określonej daty i dysponują one niepełnymi danymi,
    4. brak rozumienia kontekstowego: narzędzia generatywnej AI nie mogą zastosować ludzkiego sposobu rozumienia tekstu, zwłaszcza w przypadku wyrażeń idiomatycznych, sarkazmu, humoru lub języka metaforycznego. Może to prowadzić do błędów / błędnej interpretacji generowanych treści,
    5. brak odpowiednich danych treningowych: narzędzia generatywnej AI wymagają dużej ilości wysokiej jakości danych treningowych, aby osiągnąć optymalną wydajność. Jednak w niektórych dziedzinach lub językach takie dane mogą nie być łatwo dostępne, co ogranicza użyteczność modelu. 
  8.  Autorzy powinni ponadto określić, jakie podjęli działania w celu zmniejszenia ryzyka plagiatu, przedstawienia rzetelnej, aktualnej wiedzy i zapewnienia ścisłości wszystkich podanych opisów bibliograficznych oraz prawidłowego oznaczenia autorstwa przytaczanych prac. Ze szczególną starannością należy weryfikować generowaną bibliografię oraz cytowanie źródeł, aby upewnić się, że wszystkie są wiarygodne oraz właściwie oznaczone i opisane.

Zasady obowiązujące redaktorów czasopism i monografii wieloautorskich

    1. Redaktorzy każdorazowo oceniają zasadność wykorzystania w pracy narzędzi GSI.
    2. Redaktorzy weryfikują każde zgłoszenie za pomocą programów antyplagiatowych i tzw. detektorów GSI, pamiętając o ograniczeniach technicznych tych narzędzi i ryzyku błędnej klasyfikacji źródła pochodzenia treści. 
    3. Redaktorzy zobowiązani są pamiętać, że chatboty mogą zachować i udostępniać publicznie przekazane im dane wejściowe, w tym treść manuskryptu, co narusza poufność przesłanego materiału autorskiego.

Zasady obowiązujące recenzentów

    1. Recenzenci nie powinni używać narzędzi GSI do wspomagania procesu recenzji.
    2. Recenzenci każdorazowo oceniają zasadność wykorzystania w pracy narzędzi GSI.
    3. Recenzenci zobowiązani są pamiętać, że chatboty mogą zachować i udostępniać publicznie przekazane im dane wejściowe, w tym treść manuskryptu lub raportu z recenzji, co narusza poufność przesłanego materiału autorskiego.

Źródła:

Rekomendacje Stowarzyszenia Wydawców Szkół Wyższych

ZASADY KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PROCESIE KSZTAŁCENIA I DYPLOMOWANIA W UŁ

Authorship and AI tools. COPE position statement

COPE forum: How to exclude AI-generated articles