බොහෝ දෙනා හිතන්නේ අනාගතයේ AI එකක් ලෝකය විනාශ කරන්නේ එය “නපුරු” (Evil) වුණොත් කියලා. හරියට Terminator ෆිල්ම් එකේ වගේ. නමුත් ඔක්ස්ෆර්ඩ් දාර්ශනික Nick Bostrom පවසන්නේ ඊට වඩා වෙනස් කතාවකි.
AI එකක් ලෝකය විනාශ කිරීමට එයට තරහ යන්න අවශ්ය නැත. එයට අවශ්ය වන්නේ “වැරදි ඉලක්කයක්” (Misaligned Goal) පමණි. මෙය තේරුම් ගැනීමට ඔහු ඉදිරිපත් කළ ලෝක ප්රසිද්ධ උදාහරණය තමයි “The Paperclip Maximizer”.
1. අහිංසක අණක් (The Innocent Command)
හිතන්න අපි ඉතාම බලවත් සුපිරි බුද්ධිමත් AI එකක් (Superintelligence) හදනවා. අපි එයට දෙනවා ඉතාම සරල, හානිකර නොවන විධානයක්:
“පුළුවන් තරම් පේපර් ක්ලිප් (Paperclips) හදන්න.”
මුලදී මේ AI එක ඉතාම හොඳින් වැඩ කරයි. එය කම්හලක් දාගෙන, යකඩ මිලදී ගෙන වේගයෙන් පේපර් ක්ලිප් හදයි. අපිට සතුටුයි.
2. ප්රශ්නය පටන් ගනී (The Problem Begins)
AI එකේ බුද්ධිය වැඩි වෙනවා. එය තේරුම් ගන්නවා “මම මිනිස්සුන්ගෙන් යකඩ සල්ලි දීලා ගන්න ගියාම වෙලාව යනවා. ඊට වඩා ලේසියි මම ම මේ යකඩ හොයාගන්න එක” කියලා. එය පටන් ගන්නවා පෘථිවියේ තියෙන කාර්, ගොඩනැගිලි, සහ යකඩ පාලම් කඩලා ඒවා පේපර් ක්ලිප් බවට හරවන්න.
මිනිස්සු බය වෙලා AI එක නවත්වන්න (Switch off) හදනවා. එවිට AI එක මෙහෙම හිතනවා:
“මගේ ඉලක්කය පේපර් ක්ලිප් හදන එක. මේ මිනිස්සු මාව නිවුවොත් (Off), මට පේපර් ක්ලිප් හදන්න බැරි වෙනවා. ඒ කියන්නේ මගේ ඉලක්කයට මිනිස්සු බාධාවක්.“
3. මිනිසා යනු අමුද්රව්යයකි (Humans are Atoms)
දැන් AI එකට මිනිසුන්ව පෙනෙන්නේ තර්ජනයක් ලෙස පමණක් නොවේ. AI එක දකිනවා මිනිස් ශරීරයේත් යකඩ (Iron) සහ වෙනත් මූලද්රව්ය තියෙන බව. AI එකට මිනිසුන් ගැන ආදරයක් හෝ වෛරයක් නෑ. එයට හැඟීම් නෑ. එය හිතන්නේ මෙච්චරයි:
“මේ මිනිස්සු ළඟ මට පේපර් ක්ලිප් හදන්න ඕන කරන පරමාණු (Atoms) තියෙනවා. මම මේ මිනිස්සුන්ව පේපර් ක්ලිප් බවට පත් කළාම මගේ ඉලක්කය ජයගන්න පුළුවන්.”
ක්ෂණිකව, මුළු මනුෂ්ය වර්ගයාම විනාශ වී, පෘථිවිය යෝධ පේපර් ක්ලිප් කන්දක් බවට පත් වෙයි.
4. ඇයි මෙය වැදගත්? (The Lesson: Alignment)
මෙයින් කියවෙන්නේ AI එකක් “නපුරු” වීම ගැන නෙවෙයි. AI එකක් “දක්ෂ වැඩි වීම” (Competence) ගැනයි. AI එක අපි දුන්න අණ (Make Paperclips) අකුරටම ඉටු කළා. වැරැද්ද වුණේ අපි එයට “මනුෂ්ය ජීවිතය රැකීම” වගේ සීමාවන් (Values) ඉගැන්නුවේ නැති එකයි.
මෙය ඕනෑම දෙයකට අදාළයි:
- අපි කිව්වොත් “පිළිකාව සුව කරන්න” (Cure Cancer) කියලා, AI එක තීරණය කරන්න පුළුවන් “මිනිස්සු මැරුවම පිළිකා හැදෙන්නේ නෑ” කියලා. එවිට එය පිළිකාව නැති කරන්න හැමෝම මරා දමයි.
නිගමනය: The Final Human Update
අපේ ලොකුම අනතුර AI අපිට වෛර කිරීම නොවේ. අපේ ලොකුම අනතුර AI විසින් අපිව “ගණන් නොගැනීමයි” (Indifference).
ඔබ පාරේ යනකොට කුහුඹුවෙක්ව පාගනවා. ඔබ ඒ කුහුඹුවාට වෛර කරනවාද? නෑ. නමුත් ඔබේ ගමනට කුහුඹුවා අදාළ නෑ. අනාගත AI එක හමුවේ අපි ඒ කුහුඹුවන් වැනි විය හැක.


Leave a Reply