Od zeszłego roku toczą się intensywne dyskusje między osobami projektującymi o roli AI w naszej pracy (projektantów UX, projektantów graficznych i tych specjalizujących się w AI). I tym jak zmieni sposób w jaki pracujemy. Najczęściej padającym pytaniem jest to, czy AI zabierze nam pracę? I jak nikt nie jest raczej w stanie odpowiedzieć na to pytanie z całą pewnością, bo wróżenie z fusów nie idzie nam zbyt skutecznie, to wrzucę tu cytat, który jest bliski mojemu podejściu.
“AI won’t replace designers. A designer using AI—will”
— Ioana Teleanu
Tłumacząc na polski – AI nie zastąpi projektantów. Zastąpią ich projektanci używający AI.
Nie jestem specką od AI i raczej nie zanosi się żebym na taką aspirowała. Ale z ciekawością przyglądam się rozwojowi narzędzi i możliwości, które mogą ułatwić lub, no cóż, utrudnić nam pracę. Dlatego ten wpis potraktujcie raczej jako spis różnych myśli i obserwacji JEDNEJ projektantki, który być może zainspiruje was do dalszych poszukiwań. Kto wie, może stwierdzicie, że rozwój AI w projektowaniu to działka, w której chcecie się specjalizować?
Co to jest właściwie ten AI?
Nie jestem specką od tłumaczenia – więc spytajmy jeden z dostępnych modeli (Google Gemini) żeby nam o tym opowiedział.
Spytałam by wytłumaczył mi co to jest AI tak, by osoba niezwiązana z technologią to zrozumiała. Oto odpowiedź:
Sztuczna inteligencja, czyli AI (od angielskiego Artificial Intelligence), to dziedzina nauki, która zajmuje się tworzeniem maszyn, które potrafią myśleć i działać jak ludzie. Te maszyny, nazywane systemami AI, mogą uczyć się, rozwiązywać problemy, podejmować decyzje i wykonywać wiele innych czynności, które kiedyś były zarezerwowane tylko dla ludzi.
AI działa na zasadzie uczenia się na podstawie danych. Systemy AI są „karmione” ogromnymi ilościami informacji, na przykład zdjęciami, tekstami, kodami, dzięki czemu mogą się uczyć i wyciągać wnioski. Im więcej danych ma system AI, tym lepiej potrafi wykonywać swoje zadania.
Istnieje wiele różnych rodzajów AI, ale wszystkie opierają się na kilku kluczowych elementach:
- Uczenie maszynowe (Machine Learning): To zdolność systemów AI do uczenia się na podstawie danych i doświadczenia.
- Algorytmy: To zestawy instrukcji, które mówią systemom AI, jak mają działać.
- Moc obliczeniowa: Systemy AI potrzebują dużej mocy obliczeniowej, aby przetwarzać ogromne ilości danych.
A tak jeszcze bardziej po ludzku?
W codziennym życiu korzystamy z AI czasem nawet o tym nie wiedząc. Filtry antyspamowe w poczcie elektronicznej, rekomendacje podrzucane przez Netlixa, Spotify, TikToka czy YouTube, asystenci głosowi (jak Siri czy Google Assistant) – wszystkie to rozwiązania korzystają z AI. I będzie tych obszarów coraz więcej.
Co więcej – jeśli zajmujecie się projektowaniem UI, UXem, trzeba zdać sobie sprawę, że dużo się zmienia i będzie zmieniać. Sztuczna inteligencja wprowadza trzeci w historii informatyki paradygmat interfejsu użytkownika (za nngroup.com), przechodząc w stronę nowego sposobu interakcji, w którym użytkownicy mówią komputerowi, czego chcą, a nie jak to zrobić . A to oznacza, że będzie zmieniać się sposób w jaki będziemy wchodzić w interakcję z interfejsami.
Niemniej – trzeba zdać sobie również sprawę z problemów, które ten cały AI generuje.
Kwestie prawne
Wspomnieliśmy już o tym, że te wszystkie narzędzia AI na czymś się uczą – czymś są karmione. I tu dochodzimy do tematu kwestii prawnych i etycznych. Zacznijmy od tych prawnych. Korzystanie z AI generuje trochę problemów, ze względu na:
- własność intelektualną – no bo kto jest właścicielem praw autorskich skoro modele AI generują treści będące wynikową treści tworzonych przez różne osoby? Na jakich licencjach możemy wtedy takie treści (np. obrazy, muzykę, video czy teksty) dystrybuować?
- ochronę danych – czy i jak AI może przetwarzać dane osobowe? I jakie mamy w związku z tym prawa?
- odpowiedzialność – kto odpowiada za szkody spowodowane przez AI (np. błędnie wygenerowane wskazówki w konsekwencji, których ktoś straci zdrowie, pracę, kasę)? Tu przykładem mogą być choćby szkodliwe algorytmy, sugerujące nastolatkom treści zachęcające do samookaleczania lub innych, niebezpiecznych zachowań.
Ten pierwszy punkt stał się szczególnie nośnym tematem w naszym środowisku. I się nie dziwię. Problemy zaczęły pojawiać się gdy pierwsze narzędzia do generowania obrazów, zaczęły generować prace w stylu konkretnych artystów. I nie mam na myśli appek do odtwarzania obrazów jak tych van Gogha czy Rubensa. Tylko żyjących, działających i zarabiających na swoich ilustracjach projektantkach i projektantach. A to oznacza, że te modele, musiały uczyć się na ich pracach – wbrew ich woli.
Efekty są więc takie, że zamiast zlecać pracę osobom ilustrującym, można podobne prace wygenerować sobie za grosze, niskim nakładem czasu. I tu przechodzimy płynnie do kwestii etycznych.
Kwestie etyczne
Wraz z rosnącą popularnością AI, coraz ważniejsze staje się rozważenie kwestii etycznych związanych z tą technologią. I co mnie cieszy, to temat, który całkiem nas grzeje!
Problem z AI jest taki, że bazuje na wytworzonych przez ludzi materiałach. A ludzie – jak to ludzie, popełniają błędy, czasami kłamią i manipulują. Czasami robią to mając złe zamiary, czasami zwodzeni własnymi ograniczeniami (stereotypy, błędy poznawcze). Głośne były premiery pierwszy uczących się modeli. W 2016 roku Microsoft wypuścił chatbota AI, którego użytkownicy Twittera bardzo szybko nauczyli jak być rasistowskim dupkiem. I choć to dość przerysowany przykład, to musimy pamiętać, że nawet współczesne modele, dalekie są od bycia pozbawionymi stronniczości. Przynajmniej dopóki tworzą je ludzie lub bazują na ludzkiej twórczości.
O kwestiach etycznych w projektowaniu miałam okazję rozmawiać z dr Patrycją Rudnicką w ramach webinaru Strefy Designu SWPS. Zebrałam również na blogu narzędzia i materiały polecane na start.
Bardzo wnikliwe spojrzenie na to jak sprawdzać modele pod tym kątem, przekazała Dr. Rumman Chowdhury w trakcie tegorocznego axe-con, konferencji o dostępności. I w prezentacji Responsible and Ethical AI opowiada min. o problemach wynikających z próby stworzenia przeciętnego, w znaczeniu uśrednionego (en. average) człowieka. Na tej konferencji było więcej wystąpień związanych z wykorzystaniem AI, więc zachęcam do zarejestrowania się za darmo – wtedy macie dostęp do wszystkich nagrań, również z poprzedniej konferencji.
Halucynacje w AI – to ważne!
A jak mówimy o stronniczości. To trzeba jeszcze wspomnieć o zmyślaniu.
Halucynacje to sytuacje, gdy model generuje odpowiedzi, które nie są oparte na rzeczywistości lub danych, na których został wytrenowany. Te odpowiedzi mogą brzmieć przekonująco i logicznie, ale nie mają pokrycia w faktach. Skąd się te halucynacje biorą? Przede wszystkim w źródle – danych treningowych. Dane mogą być niekompletne, niedokładne lub stronnicze – odpowiedzi generowane przez AI będą po prostu te błędy odzwierciedlać. Błędy mogą wynikać również ze skali modelu (im większy tym trudniejsze budowanie zależności między danymi) i po prostu z błędów w samych algorytmach.
Co w efekcie możemy otrzymać? Np. nieprawdziwe dane (np. „najlepsze fonty do internetu to te bezszeryfowe”), nielogiczne rozwiązania (sklep online bez funkcji koszyka) albo stronnicze odpowiedzi (bazujące na stereotypach – „starsze osoby nie potrafią korzystać z internetu”).
Trzeba po prostu pamiętać, że źródłem informacji dla modeli AI jest w dużej mierze… internet. Ze wszystkimi jego zaletami i wadami. A to oznacza, że w źródłach znajdziecie też sporo marketingowego bełkotu, niemającego pokrycia w faktach (np. wiele artykułów promujących konkretne usługi i narzędzia) czy mnóstwo mitów powielanych przez niedouczone w temacie osoby.
Gdzie AI nie używam i dlaczego?
Są takie miejsca, w których korzystanie z AI, min. ze względu na halucynacje, totalnie mi się nie sprawdziło:
Nie generuję person z AI
Próbowałam generować persony dla projektów, dla których tworzyłam persony na bazie badań. Pozwoliło mi to porównać wyniki i wiecie co? Wyszło naprawdę bardzo słabo. Co więcej – próbowałam generować proto-persony dla jednego z projektów (tu nie miałam jeszcze badań) i niestety wychodziły bardzo generyczne. Testowałam też appki, które były po prostu nakładkami na ChatGPT, a reklamowały się jako narzędzia do generowania person. I tu podobnie – bardzo generyczne i oczywiste problemy. Ale może to wynikać z typów produktów jakie tworzyłam (raczej biznesowe, raczej wąskie grupy specjalistów).
Nie tworzę treści z AI (na bloga, newsletter, kanał czy sociale)
Niestety – jeżeli chcemy utrzymać pewien poziom merytoryki, generowane przez AI treści są dość… biedne. Nie chodzi o to, że są złe. Po prostu dość suche i powtarzalne, niewyróżniające się niczym z pośród masy podobnych treści. Jeśli chcecie szybko zbudować bazę tekstów pod SEO, pewnie się wam uda. Przynajmniej dopóki treści generowane przez AI nie będę spychane przez wyszukiwarki (a taka zapowiedź już się pojawiła).
Narzędzi AI używam częściej do generowanie pomysłów lub zarysu artykułów (a nawet zagadnień do wywiadów). Ale nie zdarzyło się jeszcze żebym nie przepisywała zdania po zdaniu do finalnego materiału.
Nie generuję projektów wizualnych z AI
I to znowu trochę wynika z mojego sposobu pracy i tego czym się zajmuję. Po prostu generowanie widoków interfejsów nie miałoby u mnie żadnego sensu. Większość produktów przy których pracowałam korzystało z design systemów albo konkretnych style guidów. Widzę potencjał w wykorzystywaniu generatorów do burzy mózgów, szukania kierunku wizualnego, gdy po prostu brakuje nam pomysłów. Ale w codziennej pracy, niestety, póki co, nie widzę dla dostępnych narzędzi zastosowania.
Nie testuję z AI
Te wszystkie „eyetrackery”, mapy kliknięć i podobne narzędzia są tylko predykcjami i raczej nie opierałabym decyzji biznesowych na ładnych, robiących efekt wow (a jakże) obrazkach. Przynajmniej jeszcze nie teraz. Zwłaszcza, że duża część testowanych przeze mnie aplikacji opiera się na statycznych zrzutach ekranu (a ruch ma naprawdę duże znaczenie w łapaniu naszej uwagi).
Na pewno są ciekawostką i jeśli dopiero uczycie się czym jest hierarchia wizualna i co psychologia ma wspólnego z projektowaniem, to ładnie mogą wam to uwidocznić (np. że naprawdę zwracamy uwagę na twarze). Póki co, bazuję jednak na rozmowach i testach z żywymi ludźmi.
Gdzie AI mi się sprawdza?
W pracy najczęściej wykorzystywałam Chat GPT i narzędzia służące do poprawy/przerobienia tekstu. Miałam okazję testować wbudowany w Notion – Notion AI, który całkiem się sprawdza, jeśli już trzymacie dokumentację w tej appce (pisałam już o tym na blogu). I moim chyba ulubionym zastosowaniem było przeformatowanie informacji z długiego, ciągłego tekstu, np. na tabelki.
Całkiem często wykorzystywałam też do „ładnego” rozpisania feedbacków lub skrócenia dłuższego tekstu (np. na formę podsumowania strony dokumentacji). Spoko działa też generowanie tekstów na slajdy prezentacji. Oraz… zmiana dziesiątek sticky notes na format user stories (co normalnie zajęłoby mi długie godziny).
A jak już jesteśmy przy karteczkach (sticky notes), to przez chwilę testowałam również wbudowane narzędzia AI w Miro. Przestałam z tej appki korzystać (po prostu nie wykorzystuję jej w obecnej pracy), ale całkiem nieźle działało w niej grupowanie informacji. Po kilku godzinach warsztatów karteczek potrafi się uzbierać cała masa – bywa, że każdy spisuje pomysły trochę po swojemu. Mimo to, Miro poradziło sobie świetnie z wyszukaniem wspólnych grup i nazwaniem ich.
Bawiłam się też trochę Midjourney (dopóki nie straciłam dostępu do swojego, opłaconego konta na Discordzie), ale znowu – były to raczej zabawy, niż poważna praca projektowa. Zdarzyło mi się wygenerować kilka obrazków pod slajdy do prezentacji (nawet do portfolio) i kilka ilustracji do Instagramowych rolek. Ale poza tym, nie znajduję w nim większego zastosowania.
Z narzędzi generujących obrazy dużo bardziej skorzystają osoby, które regularnie korzystały np. z baz zdjęć i ilustracji (tak zwanych stocków) lub chcą sobie usprawnić prace w obrębie fotomontażu i edycji zdjęć i grafik (świetnie sprawdzają się do tego wbudowane w Photoshopa narzędzia).
Co możemy teraz? Przegląd narzędzi
Mamy w tej chwili kilka typów narzędzi, które można użyć w procesie pracy, podrzucam listę kilku z nich. Nie ze wszystkich korzystałam i na razie nawet nie planuję. Ale myślę, że to dobra okazja żeby po prostu zobaczyć, jakie są możliwości.
ChatGPT – jeśli jeszcze nie znasz tego narzędzia, to najwyższy czas żeby się zainteresować, choćby po to żeby zrozumieć jak działa. Ma bardzo szerokie zastosowanie. Może pomóc w szeregu różnych działań związanych z badaniami rynku, odkryciem konkurencji, generowaniu pomysłów i treści.
DALL-E 2 – generator obrazów, który wykorzystać np. do tworzenia zdjęć person albo do ilustracji w prezentacji (lub projekcie UI – zdjęcia produktów, zdjęcia marketingowe).
Poll the People – badania konsumenckie z udziałem ponad 500 000 panelistów. Dzięki ich platformie analitycznej opartej na ChatGPT można zaoszczędzić czas na analizie wyników.
The AI Toolbox for Innovators – paczka narzędzi, które pomogą w burzy mózgów, generowaniu person (powiedziałabym, że bardziej proto), stworzą skrypt wywiadu lub brief do kolejnych badań.
WireGen – wtyczka Figmy, która generuje edytowalne makiety na podstawie opisów tekstowych (pojawiają się komentarze, że coś tam ostatnio średnio działa, więc warto zerkać czy czegoś nie zmieniają).
Visily – narzędzie, które przekształca zrzuty ekranu lub podpowiedzi tekstowe w edytowalne makiety i prototypy. Oferuje możliwość przełączania pomiędzy projektami o niskiej i wysokiej wierności. Integruje się też z Figmą.
Miro Assist – przekształca pomysły w ustrukturyzowane modele, takie jak historyjki użytkowników, kryteria akceptacji, diagramy techniczne i kod.
Notion AI – o nim akurat pisałam trochę w materiale o Notion. Ale jeśli korzystacie już z tej appki, możecie przyjrzeć się też temu płatnemu dodatkowi.
Tableau – oferuje narzędzia do wizualizacji danych i analityki biznesowej z wbudowanymi funkcjami AI do analizy danych.
Uizard – umożliwia generowanie interfejsu w oparciu o podpowiedzi tekstowe, przekształca ręcznie rysowane szkice w makiety oraz zrzuty ekranu wykorzystując inżynierię wsteczną. Zawiera gotowe szablony i komponenty interfejsu użytkownika dla interfejsów, zarówno z edytorem „przeciągnij i upuść”, jak i integracją z Figmą.
Galileo AI – generuje edytowalne projekty UI na podstawie opisów tekstowych. Integruje się z Figmą.
Framer – generuje projekt interaktywnej witryny na bazie opisu tekstowego, ma opcje tłumaczenia i dostosowania do stylu firmy. Te wizualne projekty były raczej wątpliwej urody, ale wierzę, że dłubiąc trochę dłużej, można osiągnąć spoko efekty.
Attention Insight – „przewiduje”, na co zwrócą uwagę użytkownicy po wejściu na stronę. Oprócz predykcyjnych map cieplnych może pomóc w porównywaniu projektów. Moim zdaniem te i poniższe narzędzie, dla stron internetowych jest raczej średnio użyteczne. Chyba, że macie bardzo statyczny projekt (brak ruchu, animacji, video, karuzeli itd.), bo do obu ładuje się zrzuty ekranu.
3M’s Visual Attention System (VAS) – narzędzie do prognozowania cieplnej mapy i oprócz interfejsów cyfrowych obejmuje także środowiska fizyczne (banery, opakowania, ulotki).
UserTesting AI – pomaga syntetyzować nagrania wideo i identyfikować kluczowe tematy, wzorce i spostrzeżenia. Funkcja analizy nastrojów narzędzia skupia się na tym, co mówią użytkownicy podczas sesji testowej. Koncentruje się na wskazówkach behawioralnych (co faktycznie robią użytkownicy), aby dokładnie wskazać miejsca, w których uczestnicy mieli trudności z interakcją ze stronami internetowymi lub prototypami podczas testów.
Co dalej?
Jeśli chcecie być na bieżąco w projektowaniu, szczególnie w przypadku nowych technologii, takich jak sztuczna inteligencja, kluczowe jest ciągłe uczenie się. Ale w wielu przypadkach sama, sucha wiedza teoretyczna, nam w tym nie pomoże – najlepiej próbować wciągać te technologie do codziennej pracy.
Zastanówcie się, jak możecie włączyć sztuczną inteligencję do swojego procesu pracy i jak może wspierać i przyspieszać ten proces. Jako projektanci, jesteśmy rzecznikami naszych użytkowników, dlatego w tej nowej erze sztucznej inteligencji pamiętajcie, aby korzystać ze sztucznej inteligencji w sposób etyczny.
Gdzie się o tym uczyć?
Problem z szybko rozwijającymi się obszarami jest taki, że materiały edukacyjne będą dezaktualizować się bardzo szybko. Więc na dziś, co mogę polecić od siebie to tych kilka źródeł:
AI: First New UI Paradigm in 60 Years – Artykuł Jakoba Nielsena, o którym wspomniałam na początku
Bardzo ciekawe treści wokół AI tworzy Grzesiek Róg i Adam Gospodarczyk, którzy oprócz publikacji na różnych platformach społecznościowych, tworzą treści o automatyzacji i AI na platformie eduweb i zautomatyzowani.pl. Będę miała niedługo okazję testować nowe treści od eduweba więc na blogu powinien pojawić się materiał-recenzja. Tymczasem to, co mogę na pewno polecić to ebook, który czytałam jakiś czas temu – Codzienność z GPT-4, który obszernie tłumaczy jak pracować z tym modelem. No i tu macie treści po polsku.
Z Grzegorzem Rogiem miałam okazję również prowadzić rozmowę o projektowaniu w erze sztucznej inteligencji – można ją przesłuchać na kanałach Strefy Designu Uniwersytetu SWPS.
Jeśli chodzi o materiały po angielsku, to tu raczej zerkam na X.com, więc trafiają do mnie raczej wyrywkowo artykuły. Z takiej bardziej zorganizowanej wiedzy, mogę polecić wam kurs na platformie Interaction Design Foundation (IxDF) – AI for designers. I tam już macie omówione dokładne narzędzia do wykorzystania w poszczególnych etapach procesu projektowego. Już kilka osób z mojego polecenia go przerabiało i też miały pozytywne wrażenia.
Raczej nie płaciłabym za szkoły, które reklamują się jako kursy dla UX/UI/AI designerów, bo uważam to za zwykły skok na kasę i jeżeli chcecie się faktycznie rozwijać w tym obszarze, szukałabym specjalistów i specjalistek, którzy mogą przekazać coś więcej, niż tylko kilka narzędzi, które sami możecie znaleźć i ogarnąć. A na pewno, można zacząć po prostu od darmowych artykułów, filmików i testowania darmowych wersji narzędzi.