AI Tools: ਭਾਰਤ ਦੇ ਵਿੱਤ ਮੰਤਰਾਲੇ ਨੇ ਇੱਕ ਆਦੇਸ਼ ਜਾਰੀ ਕੀਤਾ ਹੈ ਜਿਸ ਵਿੱਚ ਅਧਿਕਾਰਤ ਸਰਕਾਰੀ ਡਿਵਾਈਸਾਂ 'ਤੇ AI ਟੂਲਸ ਅਤੇ ਐਪਲੀਕੇਸ਼ਨਾਂ, ਜਿਵੇਂ ਕਿ ChatGPT ਅਤੇ DeepSeek ਦੀ ਵਰਤੋਂ 'ਤੇ ਪਾਬੰਦੀ ਲਗਾਈ ਗਈ ਹੈ। 29 ਜਨਵਰੀ 2025 ਨੂੰ ਜਾਰੀ ਕੀਤੇ ਗਏ ਇਸ ਸਰਕੂਲਰ ਦਾ ਉਦੇਸ਼ ਸੰਵੇਦਨਸ਼ੀਲ ਸਰਕਾਰੀ ਡੇਟਾ ਨੂੰ ਸੰਭਾਵੀ ਸਾਈਬਰ ਖਤਰਿਆਂ ਤੋਂ ਬਚਾਉਣਾ ਹੈ।



ਸਰਕਾਰ ਨੇ AI ਟੂਲਸ 'ਤੇ ਪਾਬੰਦੀ ਕਿਉਂ ਲਗਾਈ?


ਇਸ ਹੁਕਮ 'ਤੇ ਸੰਯੁਕਤ ਸਕੱਤਰ ਪ੍ਰਦੀਪ ਕੁਮਾਰ ਸਿੰਘ ਨੇ ਦਸਤਖਤ ਕੀਤੇ ਹਨ ਅਤੇ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ AI-ਅਧਾਰਤ ਐਪਲੀਕੇਸ਼ਨਾਂ ਸਰਕਾਰੀ ਸਿਸਟਮ ਲਈ ਸੁਰੱਖਿਆ ਜੋਖਮ ਪੈਦਾ ਕਰ ਸਕਦੇ ਹਨ। ਇਸ ਦੇ ਮੱਦੇਨਜ਼ਰ ਮੰਤਰਾਲੇ ਨੇ ਸਾਰੇ ਕਰਮਚਾਰੀਆਂ ਨੂੰ ਸਰਕਾਰੀ ਡਿਵਾਈਸਾਂ 'ਤੇ ਅਜਿਹੇ ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਤੋਂ ਬਚਣ ਦੀ ਸਲਾਹ ਦਿੱਤੀ ਹੈ। ਇਹ ਨਿਰਦੇਸ਼ ਵਿੱਤ ਸਕੱਤਰ ਦੀ ਪ੍ਰਵਾਨਗੀ ਤੋਂ ਬਾਅਦ ਮੁੱਖ ਸਰਕਾਰੀ ਵਿਭਾਗਾਂ ਜਿਵੇਂ ਕਿ ਮਾਲੀਆ, ਆਰਥਿਕ ਮਾਮਲੇ, ਖਰਚ, ਜਨਤਕ ਉੱਦਮ, DIPAM ਅਤੇ ਵਿੱਤੀ ਸੇਵਾਵਾਂ ਨੂੰ ਭੇਜ ਦਿੱਤਾ ਗਿਆ ਹੈ।



AI ਟੂਲਸ ਨੂੰ ਸੀਮਤ ਕਰਨ ਦਾ ਵਿਸ਼ਵਵਿਆਪੀ ਰੁਝਾਨ


ਦੁਨੀਆ ਭਰ ਵਿੱਚ AI ਟੂਲਸ ਸੰਬੰਧੀ ਸੁਰੱਖਿਆ ਚਿੰਤਾਵਾਂ ਵੱਧ ਰਹੀਆਂ ਹਨ। ਬਹੁਤ ਸਾਰੀਆਂ ਸਰਕਾਰਾਂ ਅਤੇ ਨਿੱਜੀ ਕੰਪਨੀਆਂ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਦੀ ਸੁਰੱਖਿਆ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਨੂੰ ਸੀਮਤ ਕਰ ਰਹੀਆਂ ਹਨ। AI ਮਾਡਲ, ਜਿਵੇਂ ਕਿ ChatGPT, ਬਾਹਰੀ ਸਰਵਰਾਂ 'ਤੇ ਐਕਸਟਰਨਲ ਸਰਵਰ ਦੀ ਪ੍ਰਕਿਰਿਆ ਕਰਦੇ ਹਨ, ਜਿਸ ਨਾਲ ਉਹ ਡੇਟਾ ਲੀਕ ਅਤੇ ਅਣਅਧਿਕਾਰਤ ਪਹੁੰਚ ਲਈ ਕਮਜ਼ੋਰ ਹੋ ਜਾਂਦੇ ਹਨ। ਕਈ ਗਲੋਬਲ ਕੰਪਨੀਆਂ ਨੇ ਗੁਪਤ ਡੇਟਾ ਨੂੰ ਸੁਰੱਖਿਅਤ ਰੱਖਣ ਲਈ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ 'ਤੇ ਵੀ ਪਾਬੰਦੀ ਲਗਾ ਦਿੱਤੀ ਹੈ।


ਕੀ ਇਹ ਪਾਬੰਦੀ ਨਿੱਜੀ ਡਿਵਾਈਸਾਂ 'ਤੇ ਵੀ ਲਾਗੂ ਹੋਵੇਗੀ?


ਇਹ ਸਰਕਾਰੀ ਹੁਕਮ ਇਹ ਸਪੱਸ਼ਟ ਨਹੀਂ ਕਰਦਾ ਕਿ ਕਰਮਚਾਰੀ ਆਪਣੇ ਨਿੱਜੀ ਡਿਵਾਈਸਾਂ 'ਤੇ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦੇ ਹਨ ਜਾਂ ਨਹੀਂ। ਹਾਲਾਂਕਿ, ਇਹ ਕਦਮ ਦਰਸਾਉਂਦਾ ਹੈ ਕਿ ਸਰਕਾਰ AI ਪ੍ਰਤੀ ਸਾਵਧਾਨ ਰਵੱਈਆ ਅਪਣਾਉਂਦੇ ਹੋਏ ਡੇਟਾ ਸੁਰੱਖਿਅਤ ਕਰਨ ਨੂੰ ਤਰਜੀਹ ਦੇ ਰਹੀ ਹੈ।


ਇਹ ਅਜੇ ਵੀ ਅਨਿਸ਼ਚਿਤ ਹੈ ਕਿ ਕੀ ਸਰਕਾਰ ਭਵਿੱਖ ਵਿੱਚ AI ਦੀ ਵਰਤੋਂ ਲਈ ਕੋਈ ਸਪੱਸ਼ਟ ਨੀਤੀ ਬਣਾ ਸਕਦੀ ਹੈ। ਫਿਲਹਾਲ, ਵਿੱਤ ਮੰਤਰਾਲੇ ਦੇ ਕਰਮਚਾਰੀਆਂ ਨੂੰ ਆਪਣੇ ਅਧਿਕਾਰਤ ਕੰਮ ਲਈ ਰਵਾਇਤੀ ਤਰੀਕਿਆਂ 'ਤੇ ਨਿਰਭਰ ਕਰਨਾ ਪਵੇਗਾ।


ਡਾਟਾ ਲੀਕ ਹੋਣ ਦਾ ਖ਼ਤਰਾ


ਚੈਟਜੀਪੀਟੀ ਅਤੇ ਡੀਪਸੀਕ ਵਰਗੇ ਏਆਈ ਟੂਲ ਬਾਹਰੀ ਸਰਵਰਾਂ 'ਤੇ ਉਪਭੋਗਤਾ ਦੁਆਰਾ ਇਨਪੁਟ ਕੀਤੇ ਡੇਟਾ ਦੀ ਪ੍ਰਕਿਰਿਆ ਕਰਦੇ ਹਨ। ਜੇਕਰ ਸਰਕਾਰੀ ਕਰਮਚਾਰੀ ਇਨ੍ਹਾਂ ਟੂਲਸ 'ਤੇ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਦਾਖਲ ਕਰਦੇ ਹਨ, ਤਾਂ ਇਸ ਨੂੰ ਸਟੋਰ ਜਾਂ ਐਕਸੈਸ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ, ਅਤੇ ਇਸ ਦੀ ਦੁਰਵਰਤੋਂ ਦੀ ਸੰਭਾਵਨਾ ਹੋ ਸਕਦੀ ਹੈ। ਸਰਕਾਰੀ ਵਿਭਾਗ ਗੁਪਤ ਵਿੱਤੀ ਡੇਟਾ, ਨੀਤੀ ਡਰਾਫਟ ਅਤੇ ਅੰਦਰੂਨੀ ਸੰਚਾਰ ਨੂੰ ਸੰਭਾਲਦੇ ਹਨ। ਅਣਜਾਣੇ ਵਿੱਚ ਡਾਟਾ ਲੀਕ ਹੋਣ ਨਾਲ ਵੀ ਗੰਭੀਰ ਸੁਰੱਖਿਆ ਦੇ ਖਤਰੇ ਪੈਦਾ ਹੋ ਸਕਦੇ ਹਨ।


AI ਮਾਡਲ 'ਤੇ ਨਿਯੰਤਰਣ ਦੀ ਘਾਟ


ਸਰਕਾਰਾਂ ਰਵਾਇਤੀ ਸਾਫਟਵੇਅਰ ਨੂੰ ਕੰਟਰੋਲ ਕਰ ਸਕਦੀਆਂ ਹਨ, ਪਰ ਏਆਈ ਟੂਲ ਕਲਾਉਡ-ਅਧਾਰਿਤ ਹਨ ਅਤੇ ਨਿੱਜੀ ਕੰਪਨੀਆਂ ਦੀ ਮਲਕੀਅਤ ਹਨ। ਉਦਾਹਰਨ ਲਈ, ChatGPT OpenAI ਦੀ ਮਲਕੀਅਤ ਹੈ ਅਤੇ ਸਰਕਾਰ ਕੋਲ ਇਹ ਜਾਣਨ ਦਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਇਹ ਡੇਟਾ ਨੂੰ ਕਿਵੇਂ ਪ੍ਰੋਸੈਸ ਅਤੇ ਸਟੋਰ ਕਰਦਾ ਹੈ। ਇਸ ਨਾਲ ਵਿਦੇਸ਼ੀ ਦਖਲਅੰਦਾਜ਼ੀ ਅਤੇ ਸਾਈਬਰ ਹਮਲਿਆਂ ਦਾ ਖ਼ਤਰਾ ਵਧ ਸਕਦਾ ਹੈ।


ਡਾਟਾ ਸੁਰੱਖਿਆ ਕਾਨੂੰਨਾਂ ਦੀ ਪਾਲਣਾ


ਭਾਰਤ ਡਿਜੀਟਲ ਪਰਸਨਲ ਡੇਟਾ ਪ੍ਰੋਟੈਕਸ਼ਨ (DPDP) ਐਕਟ, 2023 ਵਰਗੇ ਸਖ਼ਤ ਡੇਟਾ ਗੋਪਨੀਯਤਾ ਕਾਨੂੰਨਾਂ 'ਤੇ ਕੰਮ ਕਰ ਰਿਹਾ ਹੈ। ਨਿਯਮਾਂ ਤੋਂ ਬਿਨਾਂ AI ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਡੇਟਾ ਸੁਰੱਖਿਆ ਨੀਤੀਆਂ ਦੀ ਉਲੰਘਣਾ ਕਰ ਸਕਦੀ ਹੈ। ਇਸ ਨਾਲ ਸਰਕਾਰੀ ਪ੍ਰਣਾਲੀਆਂ ਸਾਈਬਰ ਖਤਰਿਆਂ ਲਈ ਕਮਜ਼ੋਰ ਹੋ ਸਕਦੀਆਂ ਹਨ।


ਸਰਕਾਰ ਦਾ ਇਹ ਕਦਮ ਸਰਕਾਰੀ ਡੇਟਾ ਦੀ ਸੁਰੱਖਿਆ ਨੂੰ ਮਜ਼ਬੂਤ ​​ਕਰਨ ਲਈ ਚੁੱਕਿਆ ਗਿਆ ਹੈ। ਹਾਲਾਂਕਿ, ਇਹ ਸਪੱਸ਼ਟ ਨਹੀਂ ਹੈ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਏਆਈ ਟੂਲਸ ਦੀ ਵਰਤੋਂ ਲਈ ਕੋਈ ਨਿਯੰਤ੍ਰਿਤ ਨੀਤੀ ਬਣਾਈ ਜਾਵੇਗੀ ਜਾਂ ਨਹੀਂ। ਫਿਲਹਾਲ, ਵਿੱਤ ਮੰਤਰਾਲੇ ਦੇ ਅਧਿਕਾਰੀਆਂ ਨੂੰ ਸੰਵੇਦਨਸ਼ੀਲ ਡੇਟਾ ਦੀ ਸੁਰੱਖਿਆ ਨੂੰ ਯਕੀਨੀ ਬਣਾਉਣ ਲਈ ਰਵਾਇਤੀ ਤਰੀਕਿਆਂ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸਲਾਹ ਦਿੱਤੀ ਗਈ ਹੈ।