Schopnosť veľkých jazykových modelov logicky usudzovať

Autori

  • Marek Čiernik Univerzita Komenského v Bratislave, Právnická fakulta

DOI:

https://doi.org/10.62874/afi.2025.2.04

Kľúčové slová:

umelá inteligencia, logika, usudzovanie

Abstrakt

Rozmach veľkých jazykových modelov (LLMs) priniesol do právnej vedy novú vlnu diskusií o tom, do akej miery sú tieto systémy schopné nahradiť ľudské premýšľanie, predovšetkým logické usudzovanie. V článku sa skúma, či LLMs dokážu konzistentne aplikovať základné princípy formálnej logiky pri interpretácii a subsumpcii právnych noriem. Metodologicky je výskum postavený na sérii experimentov, ktoré využívajú päť typov typických logických chýb v právnom usudzovaní. Testované boli viaceré modely (ChatGPT-5, Gemini 2.5 Pro, Copilot, Grok 4 a Perplexity), a to na dvoch úrovniach vstupov: laických a odborníckych promptoch. Výsledky ukazujú opakujúce sa logické nekonzistencie naprieč všetkými modelmi, pričom presvedčivejšie výstupy sa dosahujú len pri explicitne formulovaných odborných zadaniach. Zistenia podčiarkujú zásadný rozdiel medzi štatistickým generovaním textu a skutočným právnym myslením, ktoré si vyžaduje logickú dedukciu a transparentnosť. Záverom sa konštatuje, že LLMs síce môžu byť užitočnými nástrojmi na podporu právnikov, no zatiaľ nie sú schopné plnohodnotne nahradiť ich prácu.

Downloads

Publikované

2025-12-22