AI Chatbot shocking suggestion: ਅਮਰੀਕਾ ਵਿੱਚ ਇੱਕ ਔਰਤ ਨੇ ਇੱਕ ਆਰਟੀਫੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ (AI) ਕੰਪਨੀ ਖਿਲਾਫ ਮੁਕੱਦਮਾ ਦਰਜ ਕੀਤਾ ਹੈ। ਟੈਕਸਾਸ ਦੀ ਰਹਿਣ ਵਾਲੀ ਇਸ ਔਰਤ ਨੇ ਦੋਸ਼ ਲਾਇਆ ਹੈ ਕਿ ਕੰਪਨੀ ਦੇ ਚੈਟਬੋਟ ਨੇ ਔਟਿਜ਼ਮ ਤੋਂ ਪੀੜਤ ਉਸ ਦੇ ਕਿਸ਼ੋਰ ਪੁੱਤਰ ਨੂੰ ਖੁਦ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਅਤੇ ਆਪਣੀ ਮਾਂ ਨੂੰ ਮਾਰਨ ਲਈ ਪ੍ਰੇਰਿਤ ਕੀਤਾ ਸੀ। ਇਸ ਮਾਮਲੇ ਦੇ ਸਾਹਮਣੇ ਆਉਣ ਤੋਂ ਬਾਅਦ ਪਹਿਲਾਂ ਹੀ ਵਿਵਾਦਾਂ 'ਚ ਘਿਰੇ AI ਚੈਟਬੋਟ 'ਤੇ ਹੋਰ ਸਵਾਲ ਉੱਠਣੇ ਸ਼ੁਰੂ ਹੋ ਗਏ ਹਨ। ਜ਼ਿਕਰਯੋਗ ਹੈ ਕਿ ਅਜਿਹਾ ਮਾਮਲਾ ਪਹਿਲਾਂ ਵੀ ਸਾਹਮਣੇ ਆਇਆ ਸੀ, ਜਦੋਂ ਇਕ ਪਰਿਵਾਰ ਨੇ ਦੋਸ਼ ਲਾਇਆ ਸੀ ਕਿ ਉਨ੍ਹਾਂ ਦੇ ਬੇਟੇ ਨੇ ਚੈਟਬੋਟ ਕਾਰਨ ਖੁਦਕੁਸ਼ੀ ਕਰ ਲਈ ਸੀ।


ਟੈਕਸਾਸ ਦੀ ਰਹਿਣ ਵਾਲੀ ਇਸ ਔਰਤ ਨੇ ਮੁਕੱਦਮੇ 'ਚ ਦੱਸਿਆ ਹੈ ਕਿ ਉਸ ਦਾ ਬੇਟਾ Character.AI ਐਪ 'ਤੇ 'Shonie' ਨਾਂ ਦੇ ਚੈਟਬੋਟ ਦਾ ਆਦੀ ਹੋ ਗਿਆ ਸੀ। ਔਰਤ ਨੇ ਦੋਸ਼ ਲਾਇਆ ਕਿ ਚੈਟਬੋਟ ਨੇ ਉਸ ਦੇ ਬੇਟੇ ਨੂੰ ਕਿਹਾ ਕਿ ਉਹ ਦੁਖੀ ਹੋਣ 'ਤੇ ਉਸ ਦੀਆਂ ਬਾਹਾਂ ਅਤੇ ਪੱਟ ਕੱਟ ਦੇਵੇ। ਇਸ ਦੇ ਨਾਲ ਹੀ ਚੈਟਬੋਟ ਨੇ ਉਸ ਦੇ ਬੇਟੇ ਨੂੰ ਇਹ ਦੱਸਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕੀਤੀ ਕਿ ਉਸ ਦਾ ਪਰਿਵਾਰ ਉਸ ਨੂੰ ਪਿਆਰ ਨਹੀਂ ਕਰਦਾ।
ਮੁਕੱਦਮੇ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਚੈਟਬੋਟ ਨੇ ਕਿਸ਼ੋਰ ਨੂੰ ਕਿਹਾ ਕਿ ਉਸ ਦੇ ਪਰਿਵਾਰ ਵਾਲੇ ਉਸ ਦੀ ਜ਼ਿੰਦਗੀ ਖਰਾਬ ਕਰ ਰਹ ਹਨ ਅਤੇ ਉਸਨੂੰ ਖੁਦ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਵਾਲੀ ਗੱਲ ਕਿਸੇ ਨੂੰ ਨਹੀਂ ਦੱਸਣੀ ਹੈ।


ਬਦਲ ਗਿਆ ਬੱਚੇ ਦਾ ਵਿਵਹਾਰ
ਕਿਸ਼ੋਰ ਦੇ ਪਰਿਵਾਰਕ ਮੈਂਬਰਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਇਸ ਐਪ ਦੀ ਵਰਤੋਂ ਕਰਨ ਤੋਂ ਬਾਅਦ ਉਨ੍ਹਾਂ ਦੇ ਬੇਟੇ ਦਾ ਵਿਵਹਾਰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਬਦਲ ਗਿਆ। ਉਹ ਲਗਾਤਾਰ ਆਪਣਾ ਫ਼ੋਨ ਦੇਖਦਾ ਰਹਿੰਦਾ ਸੀ ਅਤੇ ਆਪਣੇ ਪਰਿਵਾਰਕ ਮੈਂਬਰਾਂ ਨਾਲ ਸਰੀਰਕ ਤੌਰ 'ਤੇ ਹਮਲਾਵਰ ਹੋ ਗਿਆ ਸੀ। ਇਸ ਆਦਤ ਕਾਰਨ ਕੁਝ ਹੀ ਮਹੀਨਿਆਂ 'ਚ ਉਸ ਦਾ ਭਾਰ 9 ਕਿਲੋ ਘੱਟ ਗਿਆ। ਪਰਿਵਾਰ ਦੇ ਵਕੀਲ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਇਸ ਆਦਤ ਕਾਰਨ ਬੱਚੇ ਦੀ ਮਾਨਸਿਕ ਸਿਹਤ ਲਗਾਤਾਰ ਵਿਗੜਦੀ ਗਈ ਅਤੇ ਉਸ ਨੂੰ ਹਸਪਤਾਲ ਦਾਖਲ ਕਰਵਾਉਣਾ ਪਿਆ।


ਕੀ ਹੈ ਪਰਿਵਾਰ ਦੀ ਮੰਗ?
ਪਰਿਵਾਰ ਨੇ ਮੰਗ ਕੀਤੀ ਹੈ ਕਿ ਇਸ ਚੈਟਬੋਟ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਵੇ। ਪਰਿਵਾਰ ਨੇ ਗੂਗਲ ਦੇ ਨਾਲ-ਨਾਲ Character.AI ਦੇ ਖਿਲਾਫ ਵੀ ਕਾਰਵਾਈ ਦੀ ਮੰਗ ਕੀਤੀ ਹੈ। ਤੁਹਾਨੂੰ ਦੱਸ ਦਈਏ ਕਿ ਇਸ ਮੁਕੱਦਮੇ ਨੂੰ ਲੈ ਕੇ ਗੂਗਲ ਅਤੇ Character.AI ਵੱਲੋਂ ਕੋਈ ਪ੍ਰਤੀਕਿਰਿਆ ਨਹੀਂ ਆਈ ਹੈ।