Schopnosť veľkých jazykových modelov logicky usudzovať
##semicolon##
https://doi.org/10.62874/afi.2025.2.04##semicolon##
umelá inteligencia##common.commaListSeparator## logika##common.commaListSeparator## usudzovanieAbstrakt
Rozmach veľkých jazykových modelov (LLMs) priniesol do právnej vedy novú vlnu diskusií o tom, do akej miery sú tieto systémy schopné nahradiť ľudské premýšľanie, predovšetkým logické usudzovanie. V článku sa skúma, či LLMs dokážu konzistentne aplikovať základné princípy formálnej logiky pri interpretácii a subsumpcii právnych noriem. Metodologicky je výskum postavený na sérii experimentov, ktoré využívajú päť typov typických logických chýb v právnom usudzovaní. Testované boli viaceré modely (ChatGPT-5, Gemini 2.5 Pro, Copilot, Grok 4 a Perplexity), a to na dvoch úrovniach vstupov: laických a odborníckych promptoch. Výsledky ukazujú opakujúce sa logické nekonzistencie naprieč všetkými modelmi, pričom presvedčivejšie výstupy sa dosahujú len pri explicitne formulovaných odborných zadaniach. Zistenia podčiarkujú zásadný rozdiel medzi štatistickým generovaním textu a skutočným právnym myslením, ktoré si vyžaduje logickú dedukciu a transparentnosť. Záverom sa konštatuje, že LLMs síce môžu byť užitočnými nástrojmi na podporu právnikov, no zatiaľ nie sú schopné plnohodnotne nahradiť ich prácu.
##submission.citations##
##submission.downloads##
Publikované
Číslo
Sekcia
##submission.license##
##submission.copyrightStatement##
##submission.license.cc.by-nc-nd4.footer##