„AI, wygeneruj obraz osoby z niepełnosprawnością”. (Od)tworzenie społecznych reprezentacji niepełnosprawności z wykorzystaniem narzędzi generatywnej sztucznej inteligencji

Autor

DOI:

https://doi.org/10.18778/0208-600X.92.03

Słowa kluczowe:

generatywna sztuczna inteligencja, blockchain, niepełnosprawność, stereotypy, komunikacja społeczna, uprzedzenia

Abstrakt

Tematyka reprezentacji niepełnosprawności w tradycyjnych i internetowych mediach była dotychczas często podnoszona przez wielu badaczy, którzy udowodnili, że przedstawienia obecne w środkach masowego przekazu mogą wpływać na społeczne postrzeganie tego tematu. Rozwój nowych technologii komunikacyjnych oferuje dzisiaj jednak nowe szanse w kwestii przedstawiania adekwatnych, realistycznych wizerunków osób niepełnosprawnych, a także przynosi nowe ryzyka. W artykule zwrócono uwagę na jedną z najszybciej rozwijających się technologii, jaką jest generatywna sztuczna inteligencja (GenAI), wpływająca na profesjonalnych nadawców i platformy społecznościowe. Łatwy dostęp do narzędzi opartych o tzw. GenAI stwarza dotychczas nieznane wyzwania, dotyczące jej możliwych zastosowań w tworzeniu powszechnie dostępnych treści online. O ile sztuczna inteligencja może zwiększać dostępność i poprawiać jakość życia osób z niepełnosprawnościami, jej wykorzystanie może jednocześnie skutkować utrwaleniem negatywnych reprezentacji społecznych tej grupy.

W oparciu o przegląd istniejących problemów i dyskusji na ten temat oraz wyniki własnych badań, w artykule staramy się odpowiedzieć na pytania dotyczące możliwych mechanizmów powielania stereotypów wobec niepełnosprawności przez treści wizualne generowane przez narzędzia oparte na sztucznej inteligencji. W żadnym miejscu w artykule nie używano AI do procesu pisania.

Bibliografia

Adiguzel T., Kaya M.H., Cansu F.K. (2023), Revolutionizing education with AI: Exploring the transformative potential of ChatGPT, „Contemporary Educational Technology”, 15(3), ep429. https://doi.org/10.30935/cedtech/13152 DOI: https://doi.org/10.30935/cedtech/13152

Adobe (2023), Adobe Firefly, https://www.adobe.com/products/firefly.html (dostęp: 16.06.2024).

Barnes C. (1992), Disabling Imagery and the Media: An Exploration of the Principles for Media Representations of Disabled People. The First in a Series of Reports, Ryburn Publishing.

Bennett C.L., Keyes O. (2020), What is the point of fairness? Disability, AI, and the complexity of justice, „ACM SIGACCESS Accessibility and Computing”, nr 125, 1. https://doi.org/10.1145/3386296.3386301 DOI: https://doi.org/10.1145/3386296.3386301

Clogston J.S. (1993), Changes in coverage patterns of disability issues in three major American newspapers, 1976–1991, Paper presented at the annual meeting of the Association of Education in Journalism and Mass Communication, Kansas City.

Cocq C., Ljuslinder K. (2020), Self-representations on social media: Reproducing and challenging discourses on disability, „ALTER. European Journal of Disability Research”, nr 14, s. 71–84. https://doi.org/10.1016/j.alter.2020.02.001 DOI: https://doi.org/10.1016/j.alter.2020.02.001

Crawford K. (2020), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press. DOI: https://doi.org/10.12987/9780300252392

Croitoru F.A., Hondru V., Ionescu R.T., S h a h M. (2023), Diffusion models in vision: A survey, „IEEE Transactions on Pattern Analysis and Machine Intelligence”, nr 45(9), s. 10850–10869. https://arxiv.org/pdf/2209.04747 (dostęp: 15.06.2024). DOI: https://doi.org/10.1109/TPAMI.2023.3261988

European Parliament (2023), EU AI Act: First Regulation on Artificial Intelligence, https://www. europarl.europa.eu/topics/en/article/(2023)0601STO93804/eu-ai-act-first-regulation-on-artificialintelligence (dostęp: 12.06.2024).

Everypixel (2023), AI has already created as many images as photographers have taken in 150 years, „Everypixel Journal”, https://journal.everypixel.com/ai-image-statistics (dostęp: 15.06.2024).

Feuerriegel S., Hartmann J., Janiesch C., Zschech P. (2023), Generative AI, „SSRN Electronic Journal”. https://doi.org/10.2139/ssrn.4443189 DOI: https://doi.org/10.2139/ssrn.4443189

Gadiraju V., Kane S., Dev S., Taylor A., Wang D., Denton E., Brewer R. (2023), ʽI wouldn’t say offensive but...ʼ: Disability-centered perspectives on large language models, [w:] Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, s. 205–216. DOI: https://doi.org/10.1145/3593013.3593989

van Giffen B., Herhausen D., Fahse T. (2022), Overcoming the pitfalls and perils of algorithms: A classification of machine learning biases and mitigation methods, „Journal of Business Research”, nr 144, s. 93–106. https://doi.org/10.1016/j.jbusres.2022.01.076 DOI: https://doi.org/10.1016/j.jbusres.2022.01.076

Goggin G., Newell C. (2007), The business of digital disability, „The Information Society”, nr 23(3), s. 159–168. https://doi.org/10.1080/01972240701323572 DOI: https://doi.org/10.1080/01972240701323572

Górska A.M., Jemielniak D. (2023), The invisible women: Uncovering gender bias in AI-generated images of professionals, „Feminist Media Studies”, nr 23(8), s. 4370–4375. https://doi.org/10.1080/14680777.2023.2263659 DOI: https://doi.org/10.1080/14680777.2023.2263659

Haller B. (1999), How the news frames disability: Print media coverage of the Americans with disabilities act, „Research in Social Science and Disability”, nr 1, s. 55–83. DOI: https://doi.org/10.1016/S1479-3547(00)80005-6

Hao S., Mack P., Laszlo S., Poddar S., Radharapu B., Shelby R. (2023), Safety and fairness for content moderation in generative models, „arXiv preprint”, arXiv:2306.06135.

Hertzmann A. (2022), Give this AI a few words of description and it produces a stunning image – But is it art?, „The Conversation”, https://theconversation.com/give-this-ai-a-few-wordsof-description-and-it-produces-a-stunning-image-but-is-it-art-184363 (dostęp: 15.06.2024).

Hill S. (2017), Exploring disabled girls’ self-representational practices online, „Girlhood Studies”, nr 10(2), s. 114–130. https://doi.org/10.3167/ghs.2017.100209 DOI: https://doi.org/10.3167/ghs.2017.100209

Hutchinson B., Prabhakaran V., Denton E., Webster K., Zhong Y., Denuyl S. (2020), Social biases in NLP models as barriers for persons with disabilities, [w:] Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, s. 5491–5501. DOI: https://doi.org/10.18653/v1/2020.acl-main.487

Iwasiński Ł. (2023), Czy prawo nadąża za rozwojem sztucznej inteligencji, [w:] B. Sosińska-Kalata, P. Tafiłowski (red.), Nauka o informacji w okresie zmian. Nauka wobec współczesności: wojny informacyjne, Wydawnictwo SBP, Warszawa, s. 237–257.

Johnson K. (2021), OpenAI debuts DALL-E for generating images from text, „VentureBeat”, https://venturebeat.com/business/openaidebuts-dall-e-for-generating-images-from-text/ (dostęp: 15.06.2024).

Kania M.M. (2024), Factchecking i halucynacje AI, czyli weryfikacja efektów pracy z AI, Ifirma.pl, https://www.ifirma.pl/blog/factchecking-i-halucynacje-ai.html#czym-sa-i-skad-sie-biora-halucynacje-sztucznej-inteligencji (dostęp: 15.06.2024).

Kasprowicz D. (2018), Eksperyment społeczny w międzynarodowych badaniach porównawczych nad komunikacją populistyczną, [w:] A. Szymańska, M. Lisowska-Magdziarz, A. Hess (red.), Metody badań medioznawczych i ich zastosowanie Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków, s. 193–217.

Kumar V., Barik S., Aggarwal S., Kumar D., Raj V. (2023). The use of artificial intelligence for persons with disability: A bright and promising future ahead, „Disability and Rehabilitation: Assistive Technology”, Advance online publication. https://doi.org/10.1080/17483107.2 023.2288241 DOI: https://doi.org/10.1080/17483107.2023.2288241

Kurek-Ochmańska O., Struck-Peregończyk M., Lambrechts A.A. (2020), New labels, new roles? Changes in portraying disabled people in the Polish press, „Economics and Sociology”, nr 13(1), s. 165–181. https://doi.org/10.14254/2071-789X.2020/13-1/11 DOI: https://doi.org/10.14254/2071-789X.2020/13-1/11

Land C.W. (2023), Disability bias & new frontiers in artificial intelligence, „Journal on Technology and Persons with Disabilities”, 11, s. 28–42, https://scholarworks.calstate.edu/concern/publications/sf268c991 (dostęp: 18.02.2025). DOI: https://doi.org/10.1111/ropr.12555

LeCun Y., Bengio Y., Hinton G. (2015), Deep learning, „Nature”, nr 521(7553), s. 436–444. https://doi.org/10.1038/nature14539 DOI: https://doi.org/10.1038/nature14539

Leonardo.AI (2024), Leonardo.AI, https://leonardo.ai/ (dostęp: 12.06.2024).

Leslie D., Meng X.-L. (2024), Future shock: Grappling with the generative AI revolution, „Harvard Data Science Review” (Special Issue 5). https://doi.org/10.1162/99608f92.fad6d25c DOI: https://doi.org/10.1162/99608f92.fad6d25c

Liu Y., Cao J., Liu C., Ding K., Jin L. (2024), Datasets for large language models: A comprehensive survey, „Proceedings of the Research Article Collection on Artificial Intelligence”, s. 1–23. https://doi.org/10.21203/rs.3.rs-3996137/v1 DOI: https://doi.org/10.21203/rs.3.rs-3996137/v1

Mack K.A., Qadri R., Denton R., Kane S.K., Bennett C.L. (2024), They only care to show us the wheelchair: Disability representation in text-to-image AI models, [w:] Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI ʼ24), Association for Computing Machinery, New York, s. 1–23). https://doi.org/10.1145/3613904.3642166 DOI: https://doi.org/10.1145/3613904.3642166

Manthey R., Ritter M., Heinzig M., Kowerko D. (2017), An exploratory comparison of the visual quality of virtual reality systems based on device-independent testsets, [w:] S. Lackey, J. Chen (red.), Virtual, Augmented and Mixed Reality. VAMR 2017. Lecture Notes in Computer Science, 10280, Springer, Cham, s. 177–186. https://doi.org/10.1007/978-3-319-57987-0_11 DOI: https://doi.org/10.1007/978-3-319-57987-0_11

Martineau K. (2023), What is generative AI?, IBM Research Blog, https://research.ibm.com/blog/what-is-generative-AI (dostęp: 12.06.2024).

McCarthy J., Minsky M.L., Rochester N., Shannon C.E. (2006), A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, „AI Magazine”, nr 27(4), s. 12. https://doi.org/10.1609/aimag.v27i4.1904

Microsoft (2024), Designer improvements with DALL-E-3 (Bing Image Creator), https://www.microsoft.com/en-us/bing/do-more-with-ai/image-creator-improvements-dall-e-3?form=MA13KP (dostęp: 12.06.2024).

Miltenburg E.V. (2016), Stereotyping and bias in the Flickr30k dataset, [w:] J. Edlund, D. Heylen, P. Paggio (red.), Proceedings of Multimodal Corpora: Computer Vision and Language Processing (MMC 2016), s. 1–4, https://pure.uvt.nl/ws/files/27962110/stereotyping.pdf (dostęp: 12.06.2024).

OECD (2019), Scoping the OECD AI Principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO), OECD Digital Economy Papers, 291. https://doi.org/10.1787/d62f618a-en DOI: https://doi.org/10.1787/d62f618a-en

Pearson G.D.H., Knobloch-Westerwick S. (2019), Is the confirmation bias bubble larger online? Pre-election confirmation bias in selective exposure to online versus print political information, „Mass Communication and Society”, nr 22(4), s. 466–486. https://doi.org/10.1080/15205436.2019.1599956 DOI: https://doi.org/10.1080/15205436.2019.1599956

Radford A., Kim J.W., Hallacy C., Ramesh A., Goh G., Agarwal S., Sastry G., Askell, A., Mishkin P., Clark J., Krueger G., Sutskever I. (2021), Learning transferable visual models from natural language supervision, [w:] Proceedings of the International Conference on Machine Learning (ICML), t. 139, s. 8748–8763, https://proceedings.mlr.press/v139/radford21a/radford21a.pdf (dostęp: 30.11.2024).

Rai A. (2020), Explainable AI: From black box to glass box, „Journal of the Academy of Marketing Science”, 48(1), s. 137–141. https://doi.org/10.1007/s11747-019-00710-5 DOI: https://doi.org/10.1007/s11747-019-00710-5

Robertson A. (2024), Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis, „The Verge”, https://www.theverge.com/2024/2/21/24079371/google-ai-geminigenerative-inaccurate-historical (dostęp: 12.06.2024).

Sato M. (2024), I’m still trying to generate an AI Asian man and white woman, „The Verge”, https://www.theverge.com/2024/4/10/24122072/ai-generated-asian-man-white-woman-couple-geminidalle-midjourney-tests (dostęp: 12.06.2024).

Sharma N., Liao Q.V., Xiao Z. (2024), Generative echo chamber? Effects of LLM-powered search systems on diverse information seeking, „arXiv”, https://arxiv.org/abs/2402.05880 DOI: https://doi.org/10.1145/3613904.3642459

Shuford J. (2024), Contribution of artificial intelligence in improving accessibility for individuals with disabilities, „Journal of Knowledge Learning and Science Technology”, nr 2(2), s. 421–433. https://doi.org/10.60087/jklst.vol2.n2.p433 DOI: https://doi.org/10.60087/jklst.vol2.n2.p433

Shumailov I., Shumaylov Z., Zhao Y., Papernot N., Anderson R., Gal Y. (2024), AI models collapse when trained on recursively generated data, „Nature”, t. 631(8022), s. 755–759. https://doi.org/10.1038/s41586-024-07566-y DOI: https://doi.org/10.1038/s41586-024-07566-y

Singleton M. (2023), Clear bias behind this AI art algorithm, LinkedIn, https://www.linkedin.com/pulse/clear-bias-behind-ai-art-algorithms-malik-singleton/ (dostęp: 12.06.2024).

Song Y., Sohl-Dickstein J., Kingma D.P., Kumar A., Ermon S., Poole B. (2021), Scorebased generative modeling through stochastic differential equations, „arXiv”, https://arxiv.org/pdf/2011.13456 (dostęp: 12.06.2024).

Struck-Peregończyk M., Kurek-Ochmańska O. (2018), Wizerunek osób niepełnosprawnych w polskiej prasie opiniotwórczej na przykładzie tygodnika „Polityka” w latach 1997–2016, „Przegląd Socjologii Jakościowej”, t. 14(3), s. 48–71. https://doi.org/10.18778/1733-8069.14.3.04 DOI: https://doi.org/10.18778/1733-8069.14.3.04

Struck-Peregończyk M., Leonowicz-Bukała I. (2018), Bezbronne ofiary i dzielni bohaterowie: wizerunek osób niepełnosprawnych w polskiej prasie, „Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura”, t. 10(252), s. 148–164. https://doi.org/10.24917/20837275.10.1.12 DOI: https://doi.org/10.24917/20837275.10.1.12

Struck-Peregończyk M., Leonowicz-Bukała I. (2023), Zmiana narracji – kształtowanie własnego wizerunku w mediach społecznościowych przez osoby z niepełnosprawnościami, „Przegląd Socjologii Jakościowej”, t. 19(3), s. 62–79. https://doi.org/10.18778/1733-8069.19.3.04 DOI: https://doi.org/10.18778/1733-8069.19.3.04

Suleyman M. (2023), How the AI revolution will reshape the world, „Time”, https://time.com/6310115/ai-revolution-reshape-the-world (dostęp: 12.06.2024).

Sułek A. (1979), Eksperyment w badaniach społecznych, PWN, Warszawa.

Sundara Rajan M.T. (2024), Is generative AI fair use of copyright works? NYT v. OpenAI, Kluwer Copyright Blog, https://copyrightblog.kluweriplaw.com/2024/02/29/is-generative-ai-fair-useof-copyright-works-nyt-v-openai/ (dostęp: 12.06.2024).

Tadeusiewicz R. (2019), Automatyzacja i sztuczna inteligencja jako źródła prawdziwych i wyimaginowanych zagrożeń, [w:] B. Galwas, P. Kozłowski, K. Prandecki (red.), Czy świat należy urządzić inaczej. Schyłek i początek, Komitet Prognoz „Polska 2000 Plus” przy Prezydium PAN, Warszawa, https://publikacje.pan.pl/chapter/116671/2019-czy-swiat-nalezy-urzadzic-inaczej-schylek-i-poczatek-automatyzacja-i-sztuczna-inteligencja-jako-zrodla-prawdziwych-i-wyimaginowanych-zagrozen-tadeusiewicz-ryszard?language=pl (dostęp: 12.06.2024).

Thoreau E. (2006), Ouch!: An examination of the self-representation of disabled people on the internet, „Journal of Computer-Mediated Communication”, nr 11(2), s. 442–468. https://doi.org/10.1111/j.1083-6101.2006.00021.x DOI: https://doi.org/10.1111/j.1083-6101.2006.00021.x

Tomaszewska I. (2024), Wygenerowane stereotypy – jak widzą świat generatory grafik AI?, Demagog.pl, https://demagog.org.pl/analizy_i_raporty/wygenerowane-stereotypy-jak-widza-swiat-generatory-grafik-ai/ (dostęp: 12.06.2024).

Tomaszewski Ł. (2024), Korzystając z memów, użytkownicy mediów społecznościowych stali się czerwonymi zespołami zajmującymi się niedopracowanymi funkcjami sztucznej inteligencji, RapDuma.pl, https://rapduma.pl/technologia/korzystajac-z-memow-uzytkownicy-mediow-spolecznosciowych-stali-sie-czerwonymi-zespolami-zajmujacymi-sie-niedopracowanymi-funkcjami-sztucznej-inteligencji/2233/ (dostęp: 12.05.2024).

Toner H. (2023), What are generative AI, large language models, and foundation models?, CSET – Center for Security and Emerging Technology, https://cset.georgetown.edu/article/what-aregenerative-ai-large-language-models-and-foundation-models/ (dostęp: 12.06.2024).

Trewin S. (2018), AI fairness for people with disabilities: Point of view, „arXiv preprint”, arXiv:1811.10670 (dostęp: 12.06.2024).

Wach K., Duong C.D., Ejdys J., Kazlauskaitė R., Korzynski P., Mazurek G., Paliszkiewicz, J., Ziemba E. (2023), The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT, „Entrepreneurial Business and Economics Review”, nr 11(2), s. 7–30. https://doi.org/10.15678/EBER.2023.110201 DOI: https://doi.org/10.15678/EBER.2023.110201

Whittaker M., Alper M., Bennett C.L., Hendren S., Kaziunas E., Mills M., Morris M.R., Rankin J.L., Rogers E., Salas M., West S.M. (2019), Disability, Bias, and AI – Report, AI Now Institute, https://ainowinstitute.org/publication/disabilitybiasai-2019 (dostęp: 30.11.2024).

Wu Y.-C., Feng J.-W. (2018), Development and application of artificial neural network, „Wireless Personal Communications”, nr 102(2), s. 1645–1656. https://doi.org/10.1007/s11277-017-5224-x DOI: https://doi.org/10.1007/s11277-017-5224-x

Zhang A.H., Alex S.Y. (2024), Korzystasz z darmowego ChatGPT? Służysz tylko do sczytywania danych, Wyborcza.biz., 9.06, https://wyborcza.biz/biznes/7,177150,31044402,korzystasz-z-darmowego-chatgpt-sluzysz-tylko-do-sczytywania.html (dostęp: 9.06.2024).

Z h a n g A.H., Ya n g S.A. (2024, 3 czerwca), OpenAI’s GPT-4 collects user data for AI model training, violating copyrights. „Project Syndicate”, https://www.project-syndicate.org/commentary/openai-gpt4o-collecting-user-data-for-ai-model-training-violating-copyrights-by-angela-huyue-zhang-and-s-alex-yang-2024-06 (dostęp: 18.02.2025).

Zhang L., Haller B. (2013), Consuming image: How mass media impact the identity of people with disabilities, „Communication Quarterly”, nr 61(3), s. 319–334. https://doi.org/10.1080/01463373.2013.776988 DOI: https://doi.org/10.1080/01463373.2013.776988

Zhou Z.H. (2021), Machine Learning, Springer Nature. DOI: https://doi.org/10.1007/978-981-15-1967-3

Pobrania

Opublikowane

31-03-2025

Jak cytować

Leonowicz-Bukała, Iwona, Monika Struck-Peregończyk, Mikołaj Birek, and Katarzyna Dudzińska. 2025. “„AI, Wygeneruj Obraz Osoby Z niepełnosprawnością”. (Od)tworzenie społecznych Reprezentacji niepełnosprawności Z Wykorzystaniem narzędzi Generatywnej Sztucznej Inteligencji”. Acta Universitatis Lodziensis. Folia Sociologica, no. 92 (March): 31-58. https://doi.org/10.18778/0208-600X.92.03.