EBM News Tamil
Leading News Portal in Tamil

டிஜிட்டல் டைரி – 10: சாட் ஜிபிடி தவறு செய்யுமா? | Chatbots spell r in strawberry wrong and internet makes viral fest out of it


சாட் ஜிபிடி உள்ளிட்ட ஆக்கத்திறன் செயற்கை நுண்ணறிவு (ஏஐ) சேவைகள் எந்தக் கேள்விக்கும் பதிலளிக்கும் என்கிற கருத்து பரவலாக உள்ளது. அதுமட்டுமல்ல பல விஷயங்களில் ஏஐ சாட்பாட்களால் மனித ஆற்றலை விஞ்சிவிட முடியும் எனச் சொல்லப்படும் நிலையில், இவற்றின் வரம்புகளும் எல்லைகளும் அவ்வப்போது வெளிப்படுகின்றன. அண்மையில் நடந்த ஒரு நிகழ்வே இதற்கு உதாரணம்.

‘ஸ்டிராபெரி’ குழப்பம்: ‘ஸ்டிராபெரி’ (strawberry) பழத்தைக் குறிக்கும் ஆங்கில சொல்லில், ‘r’ எனும் எழுத்து இரண்டு முறை அடுத்தடுத்து இடம்பெறுவதைக் கவனித்திருக்கிறீர்களா? சாட் ஜிபிடிக்கு ‘strawberry’ எனும் ஆங்கிலச் சொல்லின் எழுத்து வரிசை (spelling) தெரியாது என்பதுதான் இணையத்தில் தற்போது பேசு பொருளாகியுள்ளது. ‘Strawberry’ எழுத்து வரிசையில் எத்தனை முறை ‘r’ எனும் எழுத்து வருகிறது எனும் கேள்விக்கு, சாட் ஜிபிடி, ‘இரண்டு முறை ‘r’ எழுத்து வருவ’தாகப் பதிலளித்துள்ளது. இது தவறு எனச் சுட்டிக்காட்டியபோது ‘மன்னிக்கவும், மூன்று முறை ‘r’ எழுத்து வருகிறது’ எனப் பதில் அளித்துள்ளது.

இது போல ‘ஜிபிடி4’, ‘கிளாட்’, ‘மெட்டா ஏஐ’ போன்ற சாட்பாட்களிடம் இந்தக் கேள்வியைக் கேட்டபோது, இரண்டு ‘r’ எழுத்து இருப்பதாகவே பதில் அளித்துள்ளன. இதற்கான விளக்கம் கேட்டபோது ‘ஜிபிடி4’ சாட்பாட், ‘strawberry’ எனும் சொல்லை ‘straw’ ‘berry’ என்று இரண்டு பகுதிகளாகப் பிரித்து ‘berry’இல் இரண்டு ‘r’ எழுத்து உள்ளதாகத் தெரிவித்துள்ளது. இச்சம்பவம் ஏஐ சாட்பாட்களின் போதாமையை உணர்த்துவதைவிட, அவை செயல்படும் விதத்தைப் புரிந்துகொள்வதன் அவசியத்தை உணர்த்துவதாகத் தொழில்நுட்ப வல்லுநர்கள் கருத்து தெரிவித்துள்ளனர்.

என்ன செய்யலாம்? – ஏஐ சாட்பாட்கள் மனிதர்களோடு உரையாடும் திறன் பெற்றிருந்தாலும், அனைத்தையும் புரிந்துகொள்ளும் ஆற்றல் அவற்றுக்குக் கிடையாது. ஏஐக்கு அளிக்கப்படும் இந்தப் பயிற்சி இயந்திரங்களுக்கான கற்பித்தலாகக் கருதப்பட்டாலும், ஏஐ சாட்பாட்களை இயக்கும் மொழி மாதிரிகள் (LLM) எனும் தொழில்நுட்பம் எதையுமே உள்வாங்கிக் கொண்டு புரிந்துகொள்வதில்லை. மாறாக, அவை சொற்களை ‘டோக்கன்’களாக மாற்றி அவற்றுக்கு இடையிலான தொடர்புகளைக் கணக்கிட்டு செயல்படுகின்றன, பதிலளிக்கின்றன.

இதனால்தான் எழுத்து வரிசை போன்ற எளிமையான கேள்விகளுக்கும் தவறான பதில்கள் அளித்து ஏஐ சாட்பாட்கள் கோட்டைவிடுகின்றன. இதுபற்றி ‘டெக்கிரஞ்ச்’ தளம் அருமையான விளக்கம் அளித்துள்ளது. அந்த இணைப்பைப் பார்க்க: https://techcrunch.com/2024/08/27/why-ai-cant-spell-strawberry/

ஓராண்டுக்கு முன்பு புகழ் பெற்ற ‘பீட்டில்ஸ்’ (Beatles) இசைக்குழுவினர் தேநீர் அருந்துவது போன்றதொரு படத்தை வரைந்து தருமாறு கேட்டபோது, சாட் ஜிபிடி அருமையான ஒரு படத்தை உருவாக்கிக் கொடுத்ததோடு, அந்தக் குழுவின் நான்கு உறுப்பினர்களோடு ஐந்தாவதாக ஒருவரையும் சேர்த்து வரைந்ததாக ராப் மேனுவல் என்பவர் தனது அனுபவத்தைப் பகிர்ந்திருந்தார். இதுதொடர்பாக சாட் ஜிபிடியிடம் தெளிவு பெற மேலும் உரையாடியபோது, ஐந்தாவது நபர் எப்படி வந்தார் என்பது பற்றிய குழப்பமே விஞ்சியதாகத் தெரிவித்துள்ளார். இதைப் பற்றி விரிவாகப் படிக்க: https://www.distractify.com/p/ai-beatle-drawing

ஆக, ஏஐக்கான உள்ளீடுகள் அளிக்கும்போது இது போன்று தவறுகளும் ஏற்படலாம் என்பதை மனதில் வைத்துக்கொள்ள வேண்டும். தற்போது ஏஐக்கான பயிற்சிகள் மேம்படுத்தப்பட்டு தவறுகளைச் சரி செய்வதற்கான பணியில் சாட்பாட்டுகளை உருவாக்கும் நிறுவனங்கள் களமிறங்கியுள்ளன.