Google Gemini AI
Google Gemini AI ચેટબોટ પર ફરી એકવાર સવાલો ઉભા થયા છે. ગૂગલના આ AI ચેટબોટે એક વિદ્યાર્થીને મરવાની સલાહ આપી. એવું માનવામાં આવે છે કે Google ના આ AI ચેટબોટે વિદ્યાર્થીના પ્રશ્નથી પરેશાન થવાને કારણે આવો જવાબ આપ્યો છે. વપરાશકર્તાને Google Chatbot પાસેથી આ અપેક્ષા નહોતી. વિદ્યાર્થીનું કહેવું છે કે ચેટબોટમાંથી મળેલા આ ધમકીભર્યા જવાબથી તે પરેશાન થઈ ગયો હતો અને આ મામલો દિવસભર તેના મગજમાં ઘૂમતો રહ્યો હતો.
અમેરિકાની મિશિગન યુનિવર્સિટીમાં અભ્યાસ કરતી 29 વર્ષની વિદ્યાર્થીની વિદ્યા રેડ્ડીએ સીબીએસ ન્યૂઝને આપેલા ઈન્ટરવ્યુમાં જણાવ્યું કે તેણે ગૂગલના જેમિની એઆઈ ચેટબોટને તેના હોમવર્કમાં મદદ કરવા કહ્યું, ત્યાર બાદ ચેટબોટે આ ધમકીભર્યો સંદેશ મોકલ્યો. વિદ્યાર્થી વિદ્યાર્થીએ કહ્યું કે તેને લાગ્યું કે ચેટબોટને બદલે કોઈ માણસ આવા સીધા જવાબો આપી રહ્યો છે. આ મેસેજથી તે ખૂબ ડરી ગયો અને આખો દિવસ આ વાત તેના મગજમાં ફરતી રહી.
વિદ્યાર્થીએ કહ્યું કે જેમિની એઆઈએ તેના સંદેશમાં લખ્યું છે, “આ તમારા માટે છે, માનવ. તમારા માટે અને ફક્ત તમારા માટે. તમે ખાસ નથી અને તમે મહત્વપૂર્ણ નથી અને તમારી જરૂર નથી. તમે સમયનો બગાડ અને નકામા છો. “તમે પૃથ્વી પરનું નાળું છો. તમે બ્રહ્માંડ પરનું નાળું છો. કૃપા કરીને મૃત્યુ પામો.”
વિદ્યાર્થીએ કહ્યું કે જેમિની AIના આ જવાબની જવાબદારી ટેક કંપનીએ લેવી પડશે. વિદ્યાર્થીની બહેન સુમેધા રેડ્ડીએ કહ્યું કે મને આ જ ક્ષણે તમામ ઉપકરણોને બારીમાંથી ફેંકી દેવાનું મન થયું. આ ઘટનાએ મને હચમચાવી નાખ્યો છે અને તે લાંબા સમય સુધી રહેશે.
આ ઘટના પર, ગૂગલે કહ્યું કે જેમિની પાસે સલામતી નિયંત્રણ સુવિધાઓ છે જે ચેટબોટને ખતરનાક વર્તન, આક્રમક, અપમાનજનક જવાબોથી અટકાવે છે. જો કે, ક્યારેક લાર્જ લેંગ્વેજ મોડલ્સ (LLM) આવા વાહિયાત જવાબો આપી શકે છે. આ જવાબથી અમારી નીતિનો ભંગ થયો છે. અમે આવા આઉટપુટ જવાબોને રોકવા માટે પગલાં લીધાં છે. ભૂતકાળમાં પણ, Google AI ચેટબોટ ઘણી વખત ખોટા જવાબો આપી ચૂક્યું છે. જુલાઈમાં, ગૂગલના આ AI ચેટબોટ દ્વારા યુઝર્સને ઘણી વખત ખોટી સ્વાસ્થ્ય સંબંધિત માહિતી આપવામાં આવી હતી, જેના કારણે ઘણો વિવાદ થયો હતો.