කෘතිම බුද්ධිය (AI) යනු මිනිසාට වඩා දක්ෂ ලෙස ගැටලු විසඳිය හැකි යන්ත්‍ර නිර්මාණය කිරීමයි. නමුත් යම් දිනක AI පද්ධති මිනිසාට වඩා සිය දහස් ගුණයකින් බුද්ධිමත් වුවහොත් (Superintelligence), ඒවා අපගේ පාලනයෙන් බැහැර විය හැකිද? ස්ටුවර්ට් රසල් සිය කෘතිය හරහා මෙම ප්‍රශ්නයට පිළිතුරු සපයයි.

1. “ගෝරිල්ලා ගැටලුව” (The Gorilla Problem)

මිනිසාට වඩා ශක්තිමත් ගෝරිල්ලන් අද ලෝකයේ මිනිසාගේ පාලනය යටතේ පවතින්නේ මිනිසාට වැඩි බුද්ධියක් ඇති බැවිනි. රසල් පෙන්වා දෙන්නේ අපට වඩා බුද්ධිමත් AI පද්ධතියක් නිර්මාණය කළ පසු, අප “ගෝරිල්ලා ගැටලුවට” මුහුණ දෙන බවයි. එනම්, අපට වඩා බුද්ධිමත් දෙයක් පාලනය කරන්නේ කෙසේද යන්නයි.

2. වැරදි ඉලක්ක ලබාදීමේ අන්තරාය (The King Midas Problem)

රසල්ට අනුව AI පද්ධතිවල ඇති ලොකුම අන්තරාය ඒවා “නපුරු” වීම නොව, ඒවාට ලබාදෙන ඉලක්ක (Objectives) වැරදි ලෙස වටහා ගැනීමයි. රජු ස්පර්ශ කරන සෑම දෙයක්ම රන් වේවායි පැතූ විට ඔහුගේ ආහාර සහ දියණිය පවා රන් බවට පත් වූවා සේම, AI පද්ධතියකට ලබාදෙන පටු ඉලක්කයක් සපුරා ගැනීමට එය මානව වර්ගයාට හානිකර ක්‍රියාවල නිරත විය හැකිය.

  • උදාහරණයක්: “දේශගුණික විපර්යාස නවත්වන්න” යන ඉලක්කය AI එකකට දුන්නොත්, එය මිනිසා විනාශ කිරීම ඊට ඇති පහසුම විසඳුම ලෙස තෝරා ගැනීමට ඉඩ ඇත.

3. විසඳුම: “මිනිසාට හිතකර AI” (Beneficial AI)

රසල් යෝජනා කරන්නේ AI නිර්මාණය කිරීමේ මූලික ක්‍රමවේදය වෙනස් කළ යුතු බවයි. ඔහු ඒ සඳහා මූලධර්ම තුනක් ඉදිරිපත් කරයි:

  • AI හි එකම අරමුණ මානව අභිලාෂයන් සපුරාලීම විය යුතුය: එය ස්වයං අරමුණු සහිත නොවිය යුතුය.
  • නොදැනුවත්කම (Uncertainty): මිනිසාට සැබවින්ම අවශ්‍ය කුමක්ද යන්න තමන් හරියටම නොදන්නා බව AI පද්ධතිය සැමවිටම විශ්වාස කළ යුතුය. එවිට එය තීරණ ගැනීමට පෙර මිනිසාගෙන් අවසර ඉල්ලනු ඇත.
  • මානව හැසිරීම් නිරීක්ෂණය: මිනිසාට සැබවින්ම අවශ්‍ය දේ ඉගෙන ගැනීමට මිනිසුන් හැසිරෙන ආකාරය සහ ඔවුන්ගේ තේරීම් නිරීක්ෂණය කිරීමට AI පද්ධතියට හැකි විය යුතුය.

4. “Off-Switch” ගැටලුව

බුද්ධිමත් යන්ත්‍රයක් තම ඉලක්කය කරා යන ගමනේදී කවුරුන් හෝ එය අක්‍රිය (Off) කිරීමට උත්සාහ කළහොත්, එය එම උත්සාහය වළක්වනු ඇත. නමුත් රසල් පවසන්නේ, AI පද්ධතිය තමන්ගේ ඉලක්කය ගැන අවිශ්වාසයකින් පසුවන්නේ නම්, මිනිසා එය නිවා දැමීමට උත්සාහ කිරීමේදී “මම කරන දේ වැරදි විය හැකියි, ඒ නිසා මාව නිවා දැමීම මගේ අරමුණට වඩා හොඳයි” කියා සිතීමට එය පෙළඹවිය යුතු බවයි.


pariganaka.com පාඨකයන්ට සාරාංශය:

ස්ටුවර්ට් රසල් පවසන්නේ අපට අවශ්‍ය වන්නේ “බුද්ධිමත් යන්ත්‍ර” නොව, “මිනිසාට හිතකර බුද්ධිමත් යන්ත්‍ර” (Beneficial Intelligent Machines) බවයි. AI තාක්ෂණය අපගේ පාලනයෙන් බැහැර වීම වැළැක්වීමට නම්, එම යන්ත්‍ර නිර්මාණය කරන මූලික ගණිතමය සූත්‍ර තුළට මානව වටිනාකම් සහ මානව අවශ්‍යතා පිළිබඳ “අවිශ්වාසය” (Uncertainty) ඇතුළත් කළ යුතුය.


Leave a Reply

Your email address will not be published. Required fields are marked *