Wyższy standard skuteczności
Blog
Informacje z branży i życia firmy
Wybierz dziedzinę

Widmo Natural Language Processing. Czy copywriterom grozi wymarcie?

Opublikowano: 19-06-2018
Czas potrzebny do przeczytania: 6:35 min
Od razu zaznaczam, ze na tytułowe pytanie trudno jednoznacznie odpowiedzieć. Czy w ogóle będzie możliwe zastąpienie człowieka w pisaniu? Może już maszyny za nas piszą, a my nie jesteśmy tego świadomi?

Wiadomo, kto może czuć się zagrożony: pisarze, dziennikarze, pozycjonerzy – ogólnie rzecz biorąc wszyscy, którzy pracują pisząc. W poniższym artykule przyjrzymy się, co dzisiaj algorytmy już potrafią, co (prawdopodobnie) będą (lub nie) mogły pisać i czy są potencjalnym zagrożeniem dla nas.




Co programy już potrafią?

Po pierwsze – uczą się, i to dosyć szybko. Google Translate, który wystartował bez mała 12 lat temu, obsługuje dziś (w gorszym lub lepszym stopniu) ponad  100 popularnych (i tych mniej) języków. Potrzebujesz tłumaczenia z lub na Zulu, Sesotho czy Punjabi? Bez problemu, Google Translate Ci pomoże.

Dziś dzięki tłumaczowi Google’a możemy użyć kamery smartfona do tłumaczenia natychmiastowego, lub przetłumaczyć tekst prosto z obrazka. Magia, która dwadzieścia lat temu była jedynie fantazją uczniów z problemami nauki języków obcych, stała się normalnością.

Od 2 lat tłumacz Google’a radzi sobie już znacznie lepiej niż na początku, a to za sprawą algorytmu zwanego Neural Machine Translation. Tłumaczy już całe zdania od razu, a nie, jak było jeszcze kilka lat temu – kawałek po kawałku, słowo po słowie. Potrafi on tak dopasować szyk zdania, by najbardziej pasował do „ludzkiej”, naturalnej gramatyki. Algorytm jest „inteligentny”, tj. tak zbudowany, że z czasem, niejako ucząc się, tłumaczy coraz lepiej.




To tylko tłumaczenie. Co z tym tworzeniem?


Tłumaczenie to nieco inna sprawa (choć mocno związana), ale czy algorytmy potrafią napisać logiczną treść? Krótko mówiąc: tak. I robią to już dosyć dobrze.

Znane jest to od wielu lat i często nawet nie zdajemy sobie sprawy z tego, że w zasadzie istnieją programy, które robią to cały czas. Przykładowo, to często specjalne algorytmy odpowiadają za podawanie krótkich prognoz pogody, ostrzeżeń o burzach czy przy sprawdzaniu informacji o pyłkach unoszących się w powietrzu (taki system działa w Szkocji).

Pod koniec zeszłego roku, teksty (prawie w pełni) zautomatyzowanej agencji dziennikarskiej RADAR zostały opublikowane w 20 różnych lokalnych tytułach prasowych – zarówno online jak i w druku. Głównym celem oprogramowania jest stworzenie i opublikowanie 30 tysięcy lokalnych artykułów w ciągu jednego miesiąca. Oficjalną przyczyną działania tej agencji jest odpowiedź na zwiększone wymagania dotyczące artykułów opartych na faktach i domyślna walka z popularnymi ostatnio tzw. fake-newsami.

RADAR jest pół-zautomatyzowaną agencją, ponieważ nad bardzo ogólną treścią pracują reporterzy. Wyszukują oni informacje znajdujące się w otwartych dla każdego statystykach oraz innych zbiorach danych i piszą krótkie szablony, które następnie algorytm przetwarza na teksty dla setek lokalnych rynków.

Przypadek opisany wyżej jest o tyle ciekawy, że teksty opublikowane przez lokalne wydawnictwa to tak naprawdę 4 szablony, dopasowane do lokalnych sytuacji. 4 krótkie teksty (m.in. o tym, ile dzieci zostało urodzonych przez małżeństwa, pary i samotne kobiety w Wielkiej Brytanii w kontekście lokalnym) wystarczyły na 20 tygodników i dzienników.




Technologia, która za tym wszystkim stoi

Natural Language Processing (pol. przetwarzanie języka naturalnego) to jedna z dziedzin nauki, skupiona na językoznawstwie i sztucznej inteligencji. Do jej głównych celów należy przekształcenie suchych danych z baz, na bardziej zrozumiałą, „ludzką” formę. Działa to również w drugą stronę – ludzkie, akapitowe pismo jest „tłumaczone” na język danych, język komputerowy.

Wyróżniamy w tej dziedzinie dwie mniejsze kategorie: Natural Language Generation i Natural Language Understanding. Jak nazwa wskazuje, pierwsza poddziedzina zajmuje się głównie „tworzeniem”, czyli przekształcaniem baz danych w naturalne teksty, takie jak np. opisy produktów czy raportów finansowych.

Druga poddziedzina zajmuje się głównie „rozumieniem” – to, że oprogramowanie stworzyło tekst, nie oznacza, że „rozumie”, co napisało (i dzięki temu potrafiłoby poprawić swoje ewentualne błędy). Programy mają z tym bardzo duży problem i jest to jeden z cięższych orzechów do zgryzienia dla naukowców zajmujących się stworzeniem piszącej sztucznej inteligencji.

Zatem - czy np. pozycjonowanie będzie niedługo domeną robotów?