Sztuczna inteligencja – kto o niej nie słyszał? Dzisiaj można spotkać ją praktycznie na każdym kroku. W kilku wcześniejszych artykułach wspominałam już z resztą, że pracuję z nią bardzo często. A jak to działa pod kątem dostępności cyfrowej?
Odpowiedź brzmi: to zależy. Warto też podkreślić, że moje doświadczenia odnośnie dostępności mogą znacznie różnić się od spostrzeżeń i wniosków innych osób niewidomych. Od razu też zaznaczam, że zadania, do których wykorzystywałam sztuczną inteligencję, obejmowały w głównej mierze generowanie tekstu. Oczywiście jestem świadoma, że można modele wykorzystywać do rozpoznawania obrazu i mowy, generowania napisów lub muzyki oraz wykonywania bardzo wielu innych zadań. Ja jednak korzystałam głównie z czatbotów. Na tym więc się skupię.
Pytania i odpowiedzi
W zależności od typu zadania oraz moich oczekiwań dotyczących zapewnienia odpowiedniego poziomu prywatności, korzystałam z różnych modeli generatywnych online i offline. Nie wszystkie modele sprawdzają się przy rozwiązywaniu każdego typu problemu i to jest zdecydowanie odczuwalne podczas interakcji.
Doświadczalnie sprawdzałam skuteczność wielu modeli w różnych zadaniach: od generowania opowieści, poprzez tłumaczenia aż po generowanie kodu i rozwiązywanie problemów technicznych o różnym stopniu skomplikowania. I dochodzę do wniosku, że sztuczna inteligencja może wiele zadań ułatwiać, ale czasami miewa problemy z tym, co dla człowieka oczywiste. Najbardziej widoczne było to w kontekście rozwiązywania łamigłówek logicznych oraz tworzenia opowiadań.
A do czego używam AI najczęściej?
Głównie do tłumaczenia tekstów lub generowania prostych treści, które mogę potem pozmieniać. Czaty z dużą skutecznością sprawdzą też gramatykę i ortografię, gdy potrzebuję wsparcia w tym zakresie. Szybciej niż ja znajdą też potrzebne informacje w obszernych dokumentach PDF lub podsumują tekst. Sprawdzą się też w sytuacji, gdy muszę przekształcić wypowiedź, na przykład nadać jej bardziej oficjalny ton. O ile w języku polskim poradzę sobie z tym zadaniem bez pomocy sztucznej inteligencji, w przypadku treści tworzonych po angielsku wolę upewnić się, że ton mojej wypowiedzi jest uprzejmy i profesjonalny. W takich sytuacjach czat bywa wręcz niezastąpiony, choć w zależności od dostawcy, jakość treści wymaga często dalszej weryfikacji.
Czy zdarzają się błędy??
Poza wspomnianymi już błędami logicznymi i widocznymi brakami w zakresie tak zwanego zdrowego rozsądku, zdarzają się też błędy wynikające z niezrozumienia wieloznacznego zapytania lub przekroczenia długości kontekstu (więcej o tym niżej).
Sami twórcy modeli przyznają, że ich dzieła mogą popełniać błędy. Warto więc wiedzieć, jak można sobie z nimi radzić. Poniżej zebrałam kilka myśli, którymi sama się kieruję w podobnych sytuacjach.
- Wybieram model odpowiedni do zadania. Niektóre znacznie lepiej radzą sobie z tłumaczeniami lub generowaniem kodu, inne zaś są skuteczniejsze w analizowaniu danych lub przeszukiwaniu długich dokumentów. W różnym stopniu słuchają też instrukcji, co wpływa na jakość i dokładność udzielanych przez nie odpowiedzi.
- Tworzę precyzyjne pytania lub polecenia (prompt). Im krótsze i bardziej konkretne, tym lepiej. Wieloznaczne lub ogólne pytania ograniczają skuteczność modelu. Zbyt specjalistyczne również, bo model może nie mieć niektórych informacji.
- Gdy rozmowa z czatem jest dłuższa, błędy modelu mogą wynikać z uciętego kontekstu. Kontekst w tym przypadku można tłumaczyć jako długość roboczej pamięci modelu. Jeśli się skończy, stosowane są różne strategie. Model może więc “zapominać” o pewnych fragmentach rozmowy, co prowadzi do frustrujących błędów. Dlatego warto rozbijać większy problem na mniejsze części.
- Zawsze też warto się zastanowić, jakiego typu zadanie model ma wykonać i na jakich danych. Dlatego przy tych bardziej wrażliwych wolę wykorzystywać modele offline, jeśli zadanie nie przekracza wydolności mojego sprzętu.
- Zawsze sprawdzam. Jeśli model zasugeruje kod, tłumaczenie lub rozwiązanie problemu, warto zweryfikować jego aktualność i poprawność w inny sposób. Choć dane użyte do trenowania czatbotów są periodycznie aktualizowane, nie zawsze są najnowsze. Nie mamy też wpływu na ich przygotowanie.
- Modele mają ograniczenia narzucone prawodawstwem lub polityką danego dostawcy. Oznacza to, że wiele z nich będzie domyślnie odmawiało współpracy przy tworzeniu określonego typu treści. I choć wydaje się to sensowne, zwłaszcza w przypadku modeli używanych online, nie zawsze jest to zachowanie, którego bym oczekiwała. Najlepiej widać to przy tworzeniu fikcyjnych treści lub dyskusji na tematy trudne społecznie. Przykładów nie muszę szukać daleko. Gdy przygotowywałam się do pisania tego artykułu i poprosiłam model offline o sugestie, odpowiedź zawierała takie o podtekście traktującym osoby z niepełnosprawnością w sposób nieprzemyślany. To zdecydowanie wynika ze sposobu, w jaki model został wytrenowany. Bo widzicie, dla mnie bycie osobą niewidomą jest czymś normalnym. I to, że nie zawsze tak było, niczego nie zmienia. Samodzielne i niezależne życie bez działającego zmysłu wzroku może być dla niektórych niewyobrażalne. Ale czy powinno zostać odzwierciedlone w trenowaniu modelu? Nie wiem, ale mam wątpliwości.
- Niektóre modele zaprojektowano tak, żeby korzystanie z nich było przyjemne. I zdarza im się imitować (czasem w dość nieoczywisty sposób) ludzkie emocje. Będą więc uprzejme, wspierające, taktowne i ogólnie zawsze otwarte na rozmowę. Stąd mogą niektórych uzależnić emocjonalnie lub odizolować od ludzi, którzy czasami przecież bywają niemili, wkurzeni lub po prostu głupi.
- Niektóre zadania najszybciej zrobię sama. Gdybym miała oszacować, ile czasu zajmuje na przykład samodzielne napisanie posta i poprawienie tego wygenerowanego przez czata, nie uzyskałabym jednoznacznej odpowiedzi. W wielu sytuacjach generowanie i poprawki zajmują więcej czasu niż pisanie posta od zera. Zauważyłam też, że wiele czatów znacznie lepiej radzi sobie z tworzeniem treści w języku angielskim. Posty w języku polskim bywają czasami nijakie i zwyczajnie przegadane.
A jak przedstawia się dostępność cyfrowa czatbotów?
Jak w przypadku każdej innej aplikacji, zależy od dostawcy. Same modele generują tekst na podstawie zapytania. W zależności od otrzymanego polecenia lub wbudowanych ustawień, zrobią to na różne sposoby. Istotne jest więc to, jak twórca aplikacji lub strony WWW przygotuje interfejs użytkownika. Jeśli zrobi to w przyjazny i dostępny sposób, komunikacja z modelem będzie bezkolizyjna.
Oto kilka spostrzeżeń odnośnie przyjaznych rozwiązań, które napotkałam.
- Na niektórych stronach dających dostęp do modeli generatywnych spotkałam się z bardzo czytelną informacją, że model przetwarza zapytanie. Jest ona cyklicznie powtarzana, a gdy model skończy, treść odpowiedzi zostaje odczytana automatycznie. Na życzenie można też powtórzyć odczytanie odpowiedzi.
- W niektórych aplikacjach desktopowych zostaje wyemitowany krótki sygnał dźwiękowy, gdy odpowiedź jest gotowa. To pomocne, ponieważ mogę zająć się czymś innym, gdy czekam na odpowiedź. A przy pracy z modelem offline może potrwać to nieco dłużej.
- Możliwość skopiowania odpowiedzi do schowka lub eksport całej konwersacji do pliku to także duże zalety.
- Na stronach internetowych przydaje się też poprawnie zaimplementowana hierarchia nagłówków lub punktów orientacyjnych (landmarków), co pozwala na szybszą nawigację pomiędzy różnymi elementami dialogu.
A czy sama próbowałam dopasować lub wytrenować model?
Byłby to bardzo ciekawy proces, ale jeszcze nie miałam okazji spróbować. Czy chciałabym? Oczywiście. Jeśli tylko znajdę odpowiednio dużo czasu, pozwolę sobie na podobny eksperyment. I chętnie opiszę wyniki w innym artykule. Tymczasem życzę Wam owocnej współpracy ze sztuczną inteligencją. Bo że może to być ciekawy proces, nie da się zaprzeczyć.
Barbara Filipowska
Audytor dostępności
Polecane artykuły
-
24.01.2024Nie tylko dizajn
Okiem niewidomego. Uczenie się
Ostatnie lata przyniosły szereg zmian w sposobie zdobywania wiedzy. Nie tylko coraz więcej wiemy o tym, w jaki sposób nasz…
-
29.01.2024Akademia WCAG
WCAG 2.1 – kryterium 2.4.10 – Nagłówki sekcji (Poziom AAA)
Dziś kryterium WCAG 2.4.10 nagłówki sekcji. Zapraszamy! Kryterium 2.4.10 nagłówki sekcji kryterium objęte poziomem AAA Duża część kryterium dotycząca nagłówków…
-
29.10.2023Dostępność cyfrowa
O Konferencji Marketingu w Kulturze i Forum Kultury Cyfrowej.
Gdańsk, perła północnej Polski, otworzył swoje bramy dla uczestników Konferencji #MarketingwKulturze oraz #ForumKulturyCyfrowej w 2023 roku. Miejsce spotkania? Niesamowity obiekt…