Schopnosť veľkých jazykových modelov logicky usudzovať
DOI:
https://doi.org/10.62874/afi.2025.2.04Kľúčové slová:
umelá inteligencia, logika, usudzovanieAbstrakt
Rozmach veľkých jazykových modelov (LLMs) priniesol do právnej vedy novú vlnu diskusií o tom, do akej miery sú tieto systémy schopné nahradiť ľudské premýšľanie, predovšetkým logické usudzovanie. V článku sa skúma, či LLMs dokážu konzistentne aplikovať základné princípy formálnej logiky pri interpretácii a subsumpcii právnych noriem. Metodologicky je výskum postavený na sérii experimentov, ktoré využívajú päť typov typických logických chýb v právnom usudzovaní. Testované boli viaceré modely (ChatGPT-5, Gemini 2.5 Pro, Copilot, Grok 4 a Perplexity), a to na dvoch úrovniach vstupov: laických a odborníckych promptoch. Výsledky ukazujú opakujúce sa logické nekonzistencie naprieč všetkými modelmi, pričom presvedčivejšie výstupy sa dosahujú len pri explicitne formulovaných odborných zadaniach. Zistenia podčiarkujú zásadný rozdiel medzi štatistickým generovaním textu a skutočným právnym myslením, ktoré si vyžaduje logickú dedukciu a transparentnosť. Záverom sa konštatuje, že LLMs síce môžu byť užitočnými nástrojmi na podporu právnikov, no zatiaľ nie sú schopné plnohodnotne nahradiť ich prácu.
Downloads
Publikované
Číslo
Sekcia
License
Copyright (c) 2025 Acta Facultatis Iuridicae Universitatis Comenianae

This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.