Policy of the Lodz University Press on Generative Artificial Intelligence Tools

Zasady obowiązujące autorów

  1. Autorem tekstów naukowych może być wyłącznie człowiek. Narzędzia GSI, w tym chatboty jak ChatGPT, nie mogą zostać uznane za autorów/współautorów ani być cytowane jako autorzy. 
  2. Autorzy ponoszą pełną odpowiedzialność za treść przesłanego manuskryptu, również za wszystkie fragmenty, które powstały przy użyciu narzędzi GSI, a tym samym ponoszą odpowiedzialność za wszelkie naruszenia etyki publikacyjnej. 
  3. Autorzy korzystający z narzędzi AI przy pisaniu tekstów, gromadzeniu i analizie danych są zobowiązani do uczciwego i w pełni transparentnego ujawnienia, które narzędzie GSI, w jaki dokładnie sposób i w jakim zakresie zostało użyte oraz jaki miało ono wpływ na daną pracę. 
  4. W publikacjach nie należy wykorzystywać materiałów graficznych i filmów wytworzonych lub modyfikowanych przez GSI, chyba że stanowią przedmiot badań danej pracy.
  5. Przy zgłoszeniu manuskryptu autorzy zobowiązani są do przesłania stosownego oświadczenia dotyczącego wykorzystania przy tworzeniu pracy narzędzi wspomaganych GSI, w tym chatbotów, dużych modeli językowych (LLM) czy kreatorów obrazów wraz ze szczegółowym opisem celu, zakresu i sposobu ich użycia.
  6. Szczegółowe informacje dotyczące użycia narzędzi AI powinny zostać zawarte w abstrakcie, a także początkowych partiach tekstu, np. w wydzielonej sekcji zatytułowanej „Deklaracja użycia GSI w procesie pisania pracy”, tak aby możliwe było powtórzenie badania i potwierdzenie wiarygodności wyników.
    Wymagane informacje:
    • godzina i data zapytania,
    • dane o narzędziu (nazwa, wersja, model),
    • powód, zakres i sposób jego zastosowania,
    • wszystkie komendy (tj. pełnymi promptami) użyte do uzyskania nowego tekstu, przekształceń tekstu lub konwersji tekstu na tabele czy ilustracje,
    • nazwa i wersja użytego narzędzia AI.
      Dodatkowo, zgłaszając manuskrypt do publikacji, autor powinien zamieścić informację o użyciu narzędzi AI w liście przewodnim.
  7.  Autorzy muszą być świadomi ograniczeń narzędzi generatywnej sztucznej inteligencji, również chatbotów, jak ChatGPT, wynikających ze stronniczości, błędów i luk w wiedzy. Należy każdorazowo weryfikować dane wyjściowe, w szczególności zwrócić uwagę, czy nie zaistniał:
    1. brak obiektywizmu treści, co jest związane ze sposobem trenowania systemu,
    2. brak rzetelności: narzędzia generatywnej AI mogą tworzyć fałszywe treści, zwłaszcza w zakresie niszowych, specjalistycznych tematów lub treści, które brzmią wiarygodnie i poprawnie na poziomie językowym, lecz nie naukowym; mogą błędnie interpretować fakty i tworzyć nieistniejące bibliografie,
    3. zniekształcony obraz sytuacji: niektóre narzędzia przeszkolono na treściach sprzed określonej daty i dysponują one niepełnymi danymi,
    4. brak rozumienia kontekstowego: narzędzia generatywnej AI nie mogą zastosować ludzkiego sposobu rozumienia tekstu, zwłaszcza w przypadku wyrażeń idiomatycznych, sarkazmu, humoru lub języka metaforycznego. Może to prowadzić do błędów / błędnej interpretacji generowanych treści,
    5. brak odpowiednich danych treningowych: narzędzia generatywnej AI wymagają dużej ilości wysokiej jakości danych treningowych, aby osiągnąć optymalną wydajność. Jednak w niektórych dziedzinach lub językach takie dane mogą nie być łatwo dostępne, co ogranicza użyteczność modelu. 
  8.  Autorzy powinni ponadto określić, jakie podjęli działania w celu zmniejszenia ryzyka plagiatu, przedstawienia rzetelnej, aktualnej wiedzy i zapewnienia ścisłości wszystkich podanych opisów bibliograficznych oraz prawidłowego oznaczenia autorstwa przytaczanych prac. Ze szczególną starannością należy weryfikować generowaną bibliografię oraz cytowanie źródeł, aby upewnić się, że wszystkie są wiarygodne oraz właściwie oznaczone i opisane.

Zasady obowiązujące redaktorów czasopism i monografii wieloautorskich

  1. Redaktorzy każdorazowo oceniają zasadność wykorzystania w pracy narzędzi GSI.
  2. Redaktorzy weryfikują każde zgłoszenie za pomocą programów antyplagiatowych i tzw. detektorów GSI, pamiętając o ograniczeniach technicznych tych narzędzi i ryzyku błędnej klasyfikacji źródła pochodzenia treści. 
  3. Redaktorzy zobowiązani są pamiętać, że chatboty mogą zachować i udostępniać publicznie przekazane im dane wejściowe, w tym treść manuskryptu, co narusza poufność przesłanego materiału autorskiego.

Zasady obowiązujące recenzentów

  1. Recenzenci nie powinni używać narzędzi GSI do wspomagania procesu recenzji.
  2. Recenzenci każdorazowo oceniają zasadność wykorzystania w pracy narzędzi GSI.
  3. Recenzenci zobowiązani są pamiętać, że chatboty mogą zachować i udostępniać publicznie przekazane im dane wejściowe, w tym treść manuskryptu lub raportu z recenzji, co narusza poufność przesłanego materiału autorskiego.

Źródła:

Rekomendacje Stowarzyszenia Wydawców Szkół Wyższych

ZASADY KORZYSTANIA Z SYSTEMÓW SZTUCZNEJ INTELIGENCJI W PROCESIE KSZTAŁCENIA I DYPLOMOWANIA W UŁ

Authorship and AI tools. COPE position statement

COPE forum: How to exclude AI-generated articles

Rules for Authors

  1. Only humans can be recognised as authors of scholarly texts. Generative AI (GAI) tools, including chatbots such as ChatGPT, cannot be recognised as authors or co-authors, nor can they be cited as authors.
  2. Authors bear full responsibility for the content of the submitted manuscript, including all parts produced using GAI tools. This responsibility extends to any breaches of publication ethics.
  3. Authors using AI tools in writing, data collection, or analysis are required to disclose, clearly and transparently: which GAI tools were used, precisely how and to what extent they were applied, as well as the impact of these tools on the work.
  4. GAI-generated or GAI-modified graphics or videos must not be used in publications unless they are the subject of the research itself.
  5. A statement regarding the use of GAI tools must accompany every manuscript submission. This applies to chatbots, large language models (LLMs), and image generators and must include a detailed description of the purpose, scope, and manner of their use.
  6. Detailed information on AI tool usage must be provided in the abstract and the early sections of the text, for example, in a dedicated section titled Declaration of GAI Use in the Writing Process, to enable replication of the research and verification of its results.
    Required Information:
    • date and time of queries,
    • tool details (name, version, model),
    • purpose, scope, and manner of use,
    • all full prompts used for generating, modifying, or converting text into tables or illustrations,
    • name and version of the AI tool used.
      Additionally, authors must disclose the use of AI tools in the cover letter when submitting the manuscript.
  7.  Authors must be aware of the limitations of GAI tools, including chatbots such as ChatGPT, which may stem from biases, errors, and knowledge gaps. It is essential to verify all outputs and check for:
    1. Lack of objectivity: Resulting from biases in the system’s training data,
    2. Lack of reliability: GAI tools may generate false content, particularly on niche or specialised topics. The text may sound linguistically correct but lack scientific accuracy. Errors may include fictitious bibliographies or misinterpreted facts,
    3. Distorted representation of facts: Some tools are trained on datasets with a cut-off date, resulting in incomplete knowledge,
    4. Misinterpretation of context: GAI tools lack human-level comprehension, especially regarding idiomatic expressions, sarcasm, humour, or metaphors, which may lead to errors or misleading interpretations,
    5. Insufficient training data: Generative AI tools require large volumes of high-quality training data for optimal performance. However, such data may be scarce in certain fields or languages, which may may reduce the tool’s reliability.
  8.  Authors should also outline the measures taken to minimise the risk of plagiarism, ensure the accuracy of knowledge presented, and verify all bibliographic references and proper attribution of cited works. Special care should be taken to review AI-generated bibliographies and citations, ensuring their accuracy, completeness, as well as proper attribution and description.

Rules for Journal and Multi-Author Monograph Editors

  1. Editors must assess the appropriateness of GAI tool use in each submitted work.
  2. Editors are required to verify all submissions using plagiarism detection software and GAI detectors, while remaining mindful of these tools’ technical limitations and the risk of misclassifying content origins.
  3. Editors must be aware that chatbots can store and publicly share input data, including manuscript content, thereby compromising the confidentiality of submitted authors’ materials.

Rules for Reviewers

  1. Reviewers should refrain from using GAI tools to assist in the peer-review process.
  2. Reviewers must assess the appropriateness of GAI tool use in the manuscript under review.
  3. Reviewers must be aware that chatbots can store and publicly share input data, including manuscript content or review reports, thereby compromising the confidentiality of submitted authors’ materials.

 

Sources:

Recommendations of the Association of Higher Education Publishers

RULES FOR USING ARTIFICIAL INTELLIGENCE SYSTEMS IN THE TEACHING AND GRADUATION PROCESS AT THE UNIVERSITY OF LODZ

Authorship and AI tools. COPE position statement

COPE forum: How to exclude AI-generated articles