„AI, wygeneruj obraz osoby z niepełnosprawnością”. (Od)tworzenie społecznych reprezentacji niepełnosprawności z wykorzystaniem narzędzi generatywnej sztucznej inteligencji

Autor

DOI:

https://doi.org/10.18778/0208-600X.92.03

Słowa kluczowe:

generatywna sztuczna inteligencja, blockchain, niepełnosprawność, stereotypy, komunikacja społeczna, uprzedzenia

Abstrakt

Tematyka reprezentacji niepełnosprawności w tradycyjnych i internetowych mediach była dotychczas często podnoszona przez wielu badaczy, którzy udowodnili, że przedstawienia obecne w środkach masowego przekazu mogą wpływać na społeczne postrzeganie tego tematu. Rozwój nowych technologii komunikacyjnych oferuje dzisiaj jednak nowe szanse w kwestii przedstawiania adekwatnych, realistycznych wizerunków osób niepełnosprawnych, a także przynosi nowe ryzyka. W artykule zwrócono uwagę na jedną z najszybciej rozwijających się technologii, jaką jest generatywna sztuczna inteligencja (GenAI), wpływająca na profesjonalnych nadawców i platformy społecznościowe. Łatwy dostęp do narzędzi opartych o tzw. GenAI stwarza dotychczas nieznane wyzwania, dotyczące jej możliwych zastosowań w tworzeniu powszechnie dostępnych treści online. O ile sztuczna inteligencja może zwiększać dostępność i poprawiać jakość życia osób z niepełnosprawnościami, jej wykorzystanie może jednocześnie skutkować utrwaleniem negatywnych reprezentacji społecznych tej grupy.

W oparciu o przegląd istniejących problemów i dyskusji na ten temat oraz wyniki własnych badań, w artykule staramy się odpowiedzieć na pytania dotyczące możliwych mechanizmów powielania stereotypów wobec niepełnosprawności przez treści wizualne generowane przez narzędzia oparte na sztucznej inteligencji. W żadnym miejscu w artykule nie używano AI do procesu pisania.

Bibliografia

Adiguzel T., Kaya M.H., Cansu F.K. (2023), Revolutionizing education with AI: Exploring the transformative potential of ChatGPT, „Contemporary Educational Technology”, 15(3), ep429. https://doi.org/10.30935/cedtech/13152
Google Scholar DOI: https://doi.org/10.30935/cedtech/13152

Adobe (2023), Adobe Firefly, https://www.adobe.com/products/firefly.html (dostęp: 16.06.2024).
Google Scholar

Barnes C. (1992), Disabling Imagery and the Media: An Exploration of the Principles for Media Representations of Disabled People. The First in a Series of Reports, Ryburn Publishing.
Google Scholar

Bennett C.L., Keyes O. (2020), What is the point of fairness? Disability, AI, and the complexity of justice, „ACM SIGACCESS Accessibility and Computing”, nr 125, 1. https://doi.org/10.1145/3386296.3386301
Google Scholar DOI: https://doi.org/10.1145/3386296.3386301

Clogston J.S. (1993), Changes in coverage patterns of disability issues in three major American newspapers, 1976–1991, Paper presented at the annual meeting of the Association of Education in Journalism and Mass Communication, Kansas City.
Google Scholar

Cocq C., Ljuslinder K. (2020), Self-representations on social media: Reproducing and challenging discourses on disability, „ALTER. European Journal of Disability Research”, nr 14, s. 71–84. https://doi.org/10.1016/j.alter.2020.02.001
Google Scholar DOI: https://doi.org/10.1016/j.alter.2020.02.001

Crawford K. (2020), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.
Google Scholar DOI: https://doi.org/10.12987/9780300252392

Croitoru F.A., Hondru V., Ionescu R.T., S h a h M. (2023), Diffusion models in vision: A survey, „IEEE Transactions on Pattern Analysis and Machine Intelligence”, nr 45(9), s. 10850–10869. https://arxiv.org/pdf/2209.04747 (dostęp: 15.06.2024).
Google Scholar DOI: https://doi.org/10.1109/TPAMI.2023.3261988

European Parliament (2023), EU AI Act: First Regulation on Artificial Intelligence, https://www. europarl.europa.eu/topics/en/article/(2023)0601STO93804/eu-ai-act-first-regulation-on-artificialintelligence (dostęp: 12.06.2024).
Google Scholar

Everypixel (2023), AI has already created as many images as photographers have taken in 150 years, „Everypixel Journal”, https://journal.everypixel.com/ai-image-statistics (dostęp: 15.06.2024).
Google Scholar

Feuerriegel S., Hartmann J., Janiesch C., Zschech P. (2023), Generative AI, „SSRN Electronic Journal”. https://doi.org/10.2139/ssrn.4443189
Google Scholar DOI: https://doi.org/10.2139/ssrn.4443189

Gadiraju V., Kane S., Dev S., Taylor A., Wang D., Denton E., Brewer R. (2023), ʽI wouldn’t say offensive but...ʼ: Disability-centered perspectives on large language models, [w:] Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, s. 205–216.
Google Scholar DOI: https://doi.org/10.1145/3593013.3593989

van Giffen B., Herhausen D., Fahse T. (2022), Overcoming the pitfalls and perils of algorithms: A classification of machine learning biases and mitigation methods, „Journal of Business Research”, nr 144, s. 93–106. https://doi.org/10.1016/j.jbusres.2022.01.076
Google Scholar DOI: https://doi.org/10.1016/j.jbusres.2022.01.076

Goggin G., Newell C. (2007), The business of digital disability, „The Information Society”, nr 23(3), s. 159–168. https://doi.org/10.1080/01972240701323572
Google Scholar DOI: https://doi.org/10.1080/01972240701323572

Górska A.M., Jemielniak D. (2023), The invisible women: Uncovering gender bias in AI-generated images of professionals, „Feminist Media Studies”, nr 23(8), s. 4370–4375. https://doi.org/10.1080/14680777.2023.2263659
Google Scholar DOI: https://doi.org/10.1080/14680777.2023.2263659

Haller B. (1999), How the news frames disability: Print media coverage of the Americans with disabilities act, „Research in Social Science and Disability”, nr 1, s. 55–83.
Google Scholar DOI: https://doi.org/10.1016/S1479-3547(00)80005-6

Hao S., Mack P., Laszlo S., Poddar S., Radharapu B., Shelby R. (2023), Safety and fairness for content moderation in generative models, „arXiv preprint”, arXiv:2306.06135.
Google Scholar

Hertzmann A. (2022), Give this AI a few words of description and it produces a stunning image – But is it art?, „The Conversation”, https://theconversation.com/give-this-ai-a-few-wordsof-description-and-it-produces-a-stunning-image-but-is-it-art-184363 (dostęp: 15.06.2024).
Google Scholar

Hill S. (2017), Exploring disabled girls’ self-representational practices online, „Girlhood Studies”, nr 10(2), s. 114–130. https://doi.org/10.3167/ghs.2017.100209
Google Scholar DOI: https://doi.org/10.3167/ghs.2017.100209

Hutchinson B., Prabhakaran V., Denton E., Webster K., Zhong Y., Denuyl S. (2020), Social biases in NLP models as barriers for persons with disabilities, [w:] Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, s. 5491–5501.
Google Scholar DOI: https://doi.org/10.18653/v1/2020.acl-main.487

Iwasiński Ł. (2023), Czy prawo nadąża za rozwojem sztucznej inteligencji, [w:] B. Sosińska-Kalata, P. Tafiłowski (red.), Nauka o informacji w okresie zmian. Nauka wobec współczesności: wojny informacyjne, Wydawnictwo SBP, Warszawa, s. 237–257.
Google Scholar

Johnson K. (2021), OpenAI debuts DALL-E for generating images from text, „VentureBeat”, https://venturebeat.com/business/openaidebuts-dall-e-for-generating-images-from-text/ (dostęp: 15.06.2024).
Google Scholar

Kania M.M. (2024), Factchecking i halucynacje AI, czyli weryfikacja efektów pracy z AI, Ifirma.pl, https://www.ifirma.pl/blog/factchecking-i-halucynacje-ai.html#czym-sa-i-skad-sie-biora-halucynacje-sztucznej-inteligencji (dostęp: 15.06.2024).
Google Scholar

Kasprowicz D. (2018), Eksperyment społeczny w międzynarodowych badaniach porównawczych nad komunikacją populistyczną, [w:] A. Szymańska, M. Lisowska-Magdziarz, A. Hess (red.), Metody badań medioznawczych i ich zastosowanie Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków, s. 193–217.
Google Scholar

Kumar V., Barik S., Aggarwal S., Kumar D., Raj V. (2023). The use of artificial intelligence for persons with disability: A bright and promising future ahead, „Disability and Rehabilitation: Assistive Technology”, Advance online publication. https://doi.org/10.1080/17483107.2 023.2288241
Google Scholar DOI: https://doi.org/10.1080/17483107.2023.2288241

Kurek-Ochmańska O., Struck-Peregończyk M., Lambrechts A.A. (2020), New labels, new roles? Changes in portraying disabled people in the Polish press, „Economics and Sociology”, nr 13(1), s. 165–181. https://doi.org/10.14254/2071-789X.2020/13-1/11
Google Scholar DOI: https://doi.org/10.14254/2071-789X.2020/13-1/11

Land C.W. (2023), Disability bias & new frontiers in artificial intelligence, „Journal on Technology and Persons with Disabilities”, 11, s. 28–42, https://scholarworks.calstate.edu/concern/publications/sf268c991 (dostęp: 18.02.2025).
Google Scholar DOI: https://doi.org/10.1111/ropr.12555

LeCun Y., Bengio Y., Hinton G. (2015), Deep learning, „Nature”, nr 521(7553), s. 436–444. https://doi.org/10.1038/nature14539
Google Scholar DOI: https://doi.org/10.1038/nature14539

Leonardo.AI (2024), Leonardo.AI, https://leonardo.ai/ (dostęp: 12.06.2024).
Google Scholar

Leslie D., Meng X.-L. (2024), Future shock: Grappling with the generative AI revolution, „Harvard Data Science Review” (Special Issue 5). https://doi.org/10.1162/99608f92.fad6d25c
Google Scholar DOI: https://doi.org/10.1162/99608f92.fad6d25c

Liu Y., Cao J., Liu C., Ding K., Jin L. (2024), Datasets for large language models: A comprehensive survey, „Proceedings of the Research Article Collection on Artificial Intelligence”, s. 1–23. https://doi.org/10.21203/rs.3.rs-3996137/v1
Google Scholar DOI: https://doi.org/10.21203/rs.3.rs-3996137/v1

Mack K.A., Qadri R., Denton R., Kane S.K., Bennett C.L. (2024), They only care to show us the wheelchair: Disability representation in text-to-image AI models, [w:] Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI ʼ24), Association for Computing Machinery, New York, s. 1–23). https://doi.org/10.1145/3613904.3642166
Google Scholar DOI: https://doi.org/10.1145/3613904.3642166

Manthey R., Ritter M., Heinzig M., Kowerko D. (2017), An exploratory comparison of the visual quality of virtual reality systems based on device-independent testsets, [w:] S. Lackey, J. Chen (red.), Virtual, Augmented and Mixed Reality. VAMR 2017. Lecture Notes in Computer Science, 10280, Springer, Cham, s. 177–186. https://doi.org/10.1007/978-3-319-57987-0_11
Google Scholar DOI: https://doi.org/10.1007/978-3-319-57987-0_11

Martineau K. (2023), What is generative AI?, IBM Research Blog, https://research.ibm.com/blog/what-is-generative-AI (dostęp: 12.06.2024).
Google Scholar

McCarthy J., Minsky M.L., Rochester N., Shannon C.E. (2006), A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, „AI Magazine”, nr 27(4), s. 12. https://doi.org/10.1609/aimag.v27i4.1904
Google Scholar

Microsoft (2024), Designer improvements with DALL-E-3 (Bing Image Creator), https://www.microsoft.com/en-us/bing/do-more-with-ai/image-creator-improvements-dall-e-3?form=MA13KP (dostęp: 12.06.2024).
Google Scholar

Miltenburg E.V. (2016), Stereotyping and bias in the Flickr30k dataset, [w:] J. Edlund, D. Heylen, P. Paggio (red.), Proceedings of Multimodal Corpora: Computer Vision and Language Processing (MMC 2016), s. 1–4, https://pure.uvt.nl/ws/files/27962110/stereotyping.pdf (dostęp: 12.06.2024).
Google Scholar

OECD (2019), Scoping the OECD AI Principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO), OECD Digital Economy Papers, 291. https://doi.org/10.1787/d62f618a-en
Google Scholar DOI: https://doi.org/10.1787/d62f618a-en

Pearson G.D.H., Knobloch-Westerwick S. (2019), Is the confirmation bias bubble larger online? Pre-election confirmation bias in selective exposure to online versus print political information, „Mass Communication and Society”, nr 22(4), s. 466–486. https://doi.org/10.1080/15205436.2019.1599956
Google Scholar DOI: https://doi.org/10.1080/15205436.2019.1599956

Radford A., Kim J.W., Hallacy C., Ramesh A., Goh G., Agarwal S., Sastry G., Askell, A., Mishkin P., Clark J., Krueger G., Sutskever I. (2021), Learning transferable visual models from natural language supervision, [w:] Proceedings of the International Conference on Machine Learning (ICML), t. 139, s. 8748–8763, https://proceedings.mlr.press/v139/radford21a/radford21a.pdf (dostęp: 30.11.2024).
Google Scholar

Rai A. (2020), Explainable AI: From black box to glass box, „Journal of the Academy of Marketing Science”, 48(1), s. 137–141. https://doi.org/10.1007/s11747-019-00710-5
Google Scholar DOI: https://doi.org/10.1007/s11747-019-00710-5

Robertson A. (2024), Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis, „The Verge”, https://www.theverge.com/2024/2/21/24079371/google-ai-geminigenerative-inaccurate-historical (dostęp: 12.06.2024).
Google Scholar

Sato M. (2024), I’m still trying to generate an AI Asian man and white woman, „The Verge”, https://www.theverge.com/2024/4/10/24122072/ai-generated-asian-man-white-woman-couple-geminidalle-midjourney-tests (dostęp: 12.06.2024).
Google Scholar

Sharma N., Liao Q.V., Xiao Z. (2024), Generative echo chamber? Effects of LLM-powered search systems on diverse information seeking, „arXiv”, https://arxiv.org/abs/2402.05880
Google Scholar DOI: https://doi.org/10.1145/3613904.3642459

Shuford J. (2024), Contribution of artificial intelligence in improving accessibility for individuals with disabilities, „Journal of Knowledge Learning and Science Technology”, nr 2(2), s. 421–433. https://doi.org/10.60087/jklst.vol2.n2.p433
Google Scholar DOI: https://doi.org/10.60087/jklst.vol2.n2.p433

Shumailov I., Shumaylov Z., Zhao Y., Papernot N., Anderson R., Gal Y. (2024), AI models collapse when trained on recursively generated data, „Nature”, t. 631(8022), s. 755–759. https://doi.org/10.1038/s41586-024-07566-y
Google Scholar DOI: https://doi.org/10.1038/s41586-024-07566-y

Singleton M. (2023), Clear bias behind this AI art algorithm, LinkedIn, https://www.linkedin.com/pulse/clear-bias-behind-ai-art-algorithms-malik-singleton/ (dostęp: 12.06.2024).
Google Scholar

Song Y., Sohl-Dickstein J., Kingma D.P., Kumar A., Ermon S., Poole B. (2021), Scorebased generative modeling through stochastic differential equations, „arXiv”, https://arxiv.org/pdf/2011.13456 (dostęp: 12.06.2024).
Google Scholar

Struck-Peregończyk M., Kurek-Ochmańska O. (2018), Wizerunek osób niepełnosprawnych w polskiej prasie opiniotwórczej na przykładzie tygodnika „Polityka” w latach 1997–2016, „Przegląd Socjologii Jakościowej”, t. 14(3), s. 48–71. https://doi.org/10.18778/1733-8069.14.3.04
Google Scholar DOI: https://doi.org/10.18778/1733-8069.14.3.04

Struck-Peregończyk M., Leonowicz-Bukała I. (2018), Bezbronne ofiary i dzielni bohaterowie: wizerunek osób niepełnosprawnych w polskiej prasie, „Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura”, t. 10(252), s. 148–164. https://doi.org/10.24917/20837275.10.1.12
Google Scholar DOI: https://doi.org/10.24917/20837275.10.1.12

Struck-Peregończyk M., Leonowicz-Bukała I. (2023), Zmiana narracji – kształtowanie własnego wizerunku w mediach społecznościowych przez osoby z niepełnosprawnościami, „Przegląd Socjologii Jakościowej”, t. 19(3), s. 62–79. https://doi.org/10.18778/1733-8069.19.3.04
Google Scholar DOI: https://doi.org/10.18778/1733-8069.19.3.04

Suleyman M. (2023), How the AI revolution will reshape the world, „Time”, https://time.com/6310115/ai-revolution-reshape-the-world (dostęp: 12.06.2024).
Google Scholar

Sułek A. (1979), Eksperyment w badaniach społecznych, PWN, Warszawa.
Google Scholar

Sundara Rajan M.T. (2024), Is generative AI fair use of copyright works? NYT v. OpenAI, Kluwer Copyright Blog, https://copyrightblog.kluweriplaw.com/2024/02/29/is-generative-ai-fair-useof-copyright-works-nyt-v-openai/ (dostęp: 12.06.2024).
Google Scholar

Tadeusiewicz R. (2019), Automatyzacja i sztuczna inteligencja jako źródła prawdziwych i wyimaginowanych zagrożeń, [w:] B. Galwas, P. Kozłowski, K. Prandecki (red.), Czy świat należy urządzić inaczej. Schyłek i początek, Komitet Prognoz „Polska 2000 Plus” przy Prezydium PAN, Warszawa, https://publikacje.pan.pl/chapter/116671/2019-czy-swiat-nalezy-urzadzic-inaczej-schylek-i-poczatek-automatyzacja-i-sztuczna-inteligencja-jako-zrodla-prawdziwych-i-wyimaginowanych-zagrozen-tadeusiewicz-ryszard?language=pl (dostęp: 12.06.2024).
Google Scholar

Thoreau E. (2006), Ouch!: An examination of the self-representation of disabled people on the internet, „Journal of Computer-Mediated Communication”, nr 11(2), s. 442–468. https://doi.org/10.1111/j.1083-6101.2006.00021.x
Google Scholar DOI: https://doi.org/10.1111/j.1083-6101.2006.00021.x

Tomaszewska I. (2024), Wygenerowane stereotypy – jak widzą świat generatory grafik AI?, Demagog.pl, https://demagog.org.pl/analizy_i_raporty/wygenerowane-stereotypy-jak-widza-swiat-generatory-grafik-ai/ (dostęp: 12.06.2024).
Google Scholar

Tomaszewski Ł. (2024), Korzystając z memów, użytkownicy mediów społecznościowych stali się czerwonymi zespołami zajmującymi się niedopracowanymi funkcjami sztucznej inteligencji, RapDuma.pl, https://rapduma.pl/technologia/korzystajac-z-memow-uzytkownicy-mediow-spolecznosciowych-stali-sie-czerwonymi-zespolami-zajmujacymi-sie-niedopracowanymi-funkcjami-sztucznej-inteligencji/2233/ (dostęp: 12.05.2024).
Google Scholar

Toner H. (2023), What are generative AI, large language models, and foundation models?, CSET – Center for Security and Emerging Technology, https://cset.georgetown.edu/article/what-aregenerative-ai-large-language-models-and-foundation-models/ (dostęp: 12.06.2024).
Google Scholar

Trewin S. (2018), AI fairness for people with disabilities: Point of view, „arXiv preprint”, arXiv:1811.10670 (dostęp: 12.06.2024).
Google Scholar

Wach K., Duong C.D., Ejdys J., Kazlauskaitė R., Korzynski P., Mazurek G., Paliszkiewicz, J., Ziemba E. (2023), The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT, „Entrepreneurial Business and Economics Review”, nr 11(2), s. 7–30. https://doi.org/10.15678/EBER.2023.110201
Google Scholar DOI: https://doi.org/10.15678/EBER.2023.110201

Whittaker M., Alper M., Bennett C.L., Hendren S., Kaziunas E., Mills M., Morris M.R., Rankin J.L., Rogers E., Salas M., West S.M. (2019), Disability, Bias, and AI – Report, AI Now Institute, https://ainowinstitute.org/publication/disabilitybiasai-2019 (dostęp: 30.11.2024).
Google Scholar

Wu Y.-C., Feng J.-W. (2018), Development and application of artificial neural network, „Wireless Personal Communications”, nr 102(2), s. 1645–1656. https://doi.org/10.1007/s11277-017-5224-x
Google Scholar DOI: https://doi.org/10.1007/s11277-017-5224-x

Zhang A.H., Alex S.Y. (2024), Korzystasz z darmowego ChatGPT? Służysz tylko do sczytywania danych, Wyborcza.biz., 9.06, https://wyborcza.biz/biznes/7,177150,31044402,korzystasz-z-darmowego-chatgpt-sluzysz-tylko-do-sczytywania.html (dostęp: 9.06.2024).
Google Scholar

Z h a n g A.H., Ya n g S.A. (2024, 3 czerwca), OpenAI’s GPT-4 collects user data for AI model training, violating copyrights. „Project Syndicate”, https://www.project-syndicate.org/commentary/openai-gpt4o-collecting-user-data-for-ai-model-training-violating-copyrights-by-angela-huyue-zhang-and-s-alex-yang-2024-06 (dostęp: 18.02.2025).
Google Scholar

Zhang L., Haller B. (2013), Consuming image: How mass media impact the identity of people with disabilities, „Communication Quarterly”, nr 61(3), s. 319–334. https://doi.org/10.1080/01463373.2013.776988
Google Scholar DOI: https://doi.org/10.1080/01463373.2013.776988

Zhou Z.H. (2021), Machine Learning, Springer Nature.
Google Scholar DOI: https://doi.org/10.1007/978-981-15-1967-3

Pobrania

Opublikowane

31-03-2025

Jak cytować

Leonowicz-Bukała, I., Struck-Peregończyk, M., Birek, M., & Dudzińska, K. (2025). „AI, wygeneruj obraz osoby z niepełnosprawnością”. (Od)tworzenie społecznych reprezentacji niepełnosprawności z wykorzystaniem narzędzi generatywnej sztucznej inteligencji. Acta Universitatis Lodziensis. Folia Sociologica, (92), 31–58. https://doi.org/10.18778/0208-600X.92.03