Le concept d’intelligence artificielle peut être défini comme des machines capables d’imiter ce que les humains peuvent faire, où la capacité de résolution de problèmes inhérente aux humains peut également être réalisée par des machines.
De nos jours, le concept d’intelligence artificielle gagne progressivement une place dans la vie humaine dans de nombreux domaines avec les progrès de la technologie. À tel point que l’intelligence artificielle peut apparaître dans nos vies sous la forme de voitures sans conducteur, de moteurs de recherche informatiques, de téléphones intelligents, d’aspirateurs robots, etc., ainsi que l’intelligence artificielle appelée AL, ChatGPT.
À ce stade, la nécessité de déterminer le statut juridique de l’intelligence artificielle et sa responsabilité juridique dans le cadre de ce statut est apparue au premier plan. Lorsque les discussions dans ce contexte sont examinées, il y a des opinions selon lesquelles i) l’intelligence artificielle devrait rester en tant que biens/produits, ii) l’intelligence artificielle devrait se voir conférer une personnalité juridique, ou iii) l’intelligence artificielle devrait être acceptée en tant que personne non humaine, personne électronique, humain artificiel.
En droit européen, il est admis comme visibilité dominante que l’intelligence artificielle est un “produit” offert aux utilisateurs finaux et aux producteurs, et que les dommages causés par ledit produit doivent être évalués dans le cadre de la responsabilité du producteur. La directive 85/374 du Conseil européen sur la responsabilité du producteur est un exemple de ce point de vue.
En droit turc, la Loi n ° 7223 sur la Sécurité des Produits et les Réglementations Techniques, entrée en vigueur le 12 mars 2021, définit les biens immatériels et donc les systèmes d’intelligence artificielle comme des « produits »” En raison du parallélisme entre la directive européenne et l’UGTDK, bien qu’il y ait une opinion prédominante selon laquelle le fabricant peut être tenu responsable des dommages causés par l’intelligence artificielle, il n’y a pas de réglementation spécifique sur la responsabilité pour le moment.
De plus, un rapport du Parlement européen a publié une série de propositions et de recommandations en termes d’octroi de la personnalité aux IA. Le rapport est le premier document officiel à proposer le statut de personnalité pour une entité IA, et il a également introduit le concept de « personnalité électronique »”
Dans l’évaluation de l’intelligence artificielle en termes de responsabilité pénale, puisqu’il est hors de question de punir l’intelligence artificielle ou une machine qui lui est connectée, punir le fabricant, le programmeur, le propriétaire ou l’utilisateur pour leurs actes ne serait pas conforme au principe de “responsabilité pénale individuelle”.
Pour cette raison, tout d’abord, la définition des crimes et des sanctions que l’intelligence artificielle peut commettre devrait être clairement incluse dans la loi et, par conséquent, le fabricant, le programmeur, le propriétaire ou l’utilisateur d’algorithmes pouvant nuire intentionnellement ou par négligence aux personnes devrait être pris comme base de punition. Dans ce contexte, il est important d’assurer la transparence des sources de données. Documenter clairement d’où proviennent les données, comment elles sont collectées et par quel prétraitement elles passent facilitera l’identification et la réduction des éventuels préjugés.
De ce fait, l’absence d’une réglementation parallèle dans le champ d’application de la législation nationale et internationale poursuit le débat sur la nature juridique et la responsabilité de l’intelligence artificielle. En raison de la propagation et du développement imprévisibles de l’intelligence artificielle, il est évident que le besoin de statuts juridiques a augmenté.