Autor:
Michał Araszkiewicz

Słowa kluczowe:
Sztuczna Inteligencja i prawo, wyjaśnialna Sztuczna Inteligencja, maszynowe uczenie się, prawo do wyjaśnienia, wpływ algorytmów na społeczeństwo

DOI:
10.26368/17332265-044-4-2018-3


Sztuczna Inteligencja i prawo do wyjaśnienia

Abstrakt

Celem artykułu jest przedstawienie podstawowych problemów związanych z  koncepcją wyjaśnialności  (interpretowalności, przejrzystości) algorytmów Sztucznej Inteligencji (SI), ze szczególnym uwzględnieniem kwestii stosowania systemów uczących się do przetwarzania informacji prawnej. Funkcjonowanie programów komputerowych uczących się jest obecnie doniosłym problemem społecznym, ponieważ na podstawie uzyskiwanych przez nie rezultatów są podejmowane decyzje w różnych sferach życia społecznego (działalność gospodarcza, stosunki pracy,
więziennictwo), a sposób ich działania jest trudny do wytłumaczenia nawet dla specjalistów i w zasadzie niemożliwy do zrozumienia dla osób, których dotykają skutki tych decyzji. W związku z tym postuluje się skonstruowanie podmiotowego prawa
do wyjaśnienia działania algorytmu. Uwarunkowania przetwarzania informacji prawnej stawiają wyższe wymagania – nie tylko wyjaśnienia, ale także racjonalnego uzasadnienia decyzji. Aktualne jest pytanie o to, czy algorytmy SI mogą być pomocne w poszukiwaniu takich uzasadnień.

 

AI and the right to explanation

Abstract

This article endeavours to present the basic problems associated with the concept of explainable, or interpretable, artificial intelligence algorithms, with especial emphasis on use of self-learning IT systems in processing legal information. Self-learning computer systems and the paths along which their learning progresses are becoming a pressing societal issue. While results generated by such systems are becoming a basis for decision-making in ever-new fields (e.g. business, employment relations, and the prison system), the exact hows and whys of these systems’ operation seem to evade specialists, let alone lay people or, most importantly, those directly affected by them. Accordingly, the idea has been posited that individuals should benefit from a right to request explanations as to how an algorithm works. In a situation where the algorithm in question is used to process information relevant to the individual’s legal status, the bar should be set higher, and the individual should be entitled not only to explanation, but also to a reasoned justification, analogously to a legal decision. Which leads to the question of whether AI algorithms are actually capable of generating such justifications.

Pobierz cały artykuł w formacie .pdf
0.057s / 5354.17 kB / 190 inc