Announcement

Collapse
No announcement yet.

আমাদের ফিলিস্তিন বনাম তাদের ai (কৃত্রিম বুদ্ধিমত্তা)

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • আমাদের ফিলিস্তিন বনাম তাদের ai (কৃত্রিম বুদ্ধিমত্তা)

    দিনের শেষে আমরা যেভাবে একসঙ্গে জড়ো হতাম, পারিবারিক গল্পে ঘরভরা হাসি-আনন্দে ভরে উঠত—এসব স্মৃতি আজও আমার হৃদয়ে গভীর ছাপ ফেলে যায়। আমার বাসাটি কেমন ছিল, কীভাবে ছোট্ট ছোট্ট গাছ লাগানো ছিল, ফুলে ফুলে ঘেরা উঠোনটা কেমন করে শান্তি দিত—সবই যেন এখন কেবল স্মরণকাতরতার একটি ফ্রেমে বন্দি। উত্তর গাজায় যখন প্রতিদিনের জীবন চলছিল কিছুটা স্বাভাবিক ছন্দে, ২০২৩ সালের ১১ অক্টোবর হঠাৎ করেই আমাদের পরিবারকে সেখান থেকে সরিয়ে নেওয়া হয়। পরে আমরা জানতে পারি—আমাদের আর কোনো বাড়ি নেই।

    এক বন্ধুর বাসা থেকে রাফায় সাংবাদিকের সঙ্গে হিবার কথা হয়েছিল। আমাদের বোন হিবা সাংবাদিকদের জানালো, "আমাদের পুরোনো বাড়ির কিছু ছবি হাতে এসেছে—দেখেই আমরা স্তব্ধ হয়ে যাই। সেই পরিচিত উঠোন, সেই গাছগুলো, সেই সাজানো ফুলের টবগুলো—সব আজ ধ্বংসস্তূপে পরিণত।" হিবা নিশ্চিত না হলেও আন্দাজ করেছিল, কী কারণে তাদের বাড়ি ধ্বংস করা হয়েছে।

    তবে এটা নিশ্চিতভাবে জানা যায় যে, ৭ অক্টোবরের ঘটনার পর থেকে ইসরায়েলি অভিযানে গাজায় বড় ধরনের ধ্বংসযজ্ঞ চলছে, যার একটি বড় অংশ পরিচালিত হচ্ছে কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবস্থার মাধ্যমে

    এই প্রযুক্তিনির্ভর ধ্বংসযজ্ঞের মধ্যে হারিয়ে গেছে হাজারো পরিবারের স্বপ্ন, শৈশব, এবং স্বাভাবিক জীবনের ছন্দ। হিবার মতো আরও অনেকে আজ নিজেদের ঠিকানা হারিয়ে, স্মৃতির ভেলায় ভাসছে।

    কৃত্রিম বুদ্ধিমত্তার (AI) আশ্বাস বরাবরই দুটি বিষয়ের উপর নির্ভর করে: দ্রুততা এবং নির্ভুলতা। এর মূল প্রতিশ্রুতি হলো—মানবিক ভুলের আশঙ্কা দূর করে শত্রুকে নিখুঁতভাবে শনাক্ত ও আঘাত হানা। একে বলা হয় ‘স্মার্ট ওয়ারফেয়ার’-এর ভবিষ্যৎ। কিন্তু বাস্তবতা যেন ভিন্ন কিছু বলছে।

    ২০১৪ সালে গাজার যুদ্ধে ১,৪০০ জনেরও বেশি মানুষ নিহত হন। আর ২০২৩ সালের শুরু থেকে ২০২৪ সালের প্রথমার্ধ পর্যন্ত এই সংখ্যা বেড়ে দাঁড়ায় ৩৪,০০০-এরও বেশি। এই বিপুল প্রাণহানির পর আমরা আর এআই-এর তথাকথিত “নির্ভুলতা” নিয়ে নিশ্চিত থাকতে পারি না। বরং, প্রশ্ন উঠে—এই প্রযুক্তি আসলে কীভাবে, কার স্বার্থে ব্যবহার করা হচ্ছে?

    এই প্রশ্নের উত্তর খুঁজতে কয়েকজন AI বিশেষজ্ঞ, অনুসন্ধানী সাংবাদিক এবং নিরাপত্তা বিশ্লেষকের একত্রিত হয়েছিলেন। তাদের মতে, ইসরায়েলি প্রতিরক্ষা বাহিনীর (IDF) মধ্যে AI-এর ব্যবহার নতুন কিছু নয়। সবচেয়ে পরিচিত উদাহরণ ‘আয়রন ডোম’ (Iron Dome)—যা একটি প্রতিরক্ষামূলক ব্যবস্থা হিসেবে ক্ষেপণাস্ত্র হুমকি প্রতিহত করতে ব্যবহৃত হয়।২০২৪ সালের এপ্রিলে ইরানের ড্রোন এবং ক্ষেপণাস্ত্র হামলার সময় এই প্রযুক্তিই আংশিকভাবে ইসরায়েলকে রক্ষা করে। কিন্তু আক্রমণ এবং প্রতিরক্ষা—এই দুইয়ের ব্যবহারে প্রযুক্তির নৈতিকতা ভিন্ন মাত্রা পায়।

    AI যখন প্রতিরক্ষামূলক ব্যবস্থায় ব্যবহৃত হয়, তখন তা নিরাপত্তা নিশ্চিত করার দাবি করে। কিন্তু যখন AI ব্যবহৃত হয় আক্রমণ চালাতে—তাও “নির্ভুলভাবে”—তখন এই নির্ভুলতা কতটা মানবিক, কতটা ন্যায়সঙ্গত, তা নিয়ে প্রশ্ন তোলা জরুরি হয়ে পড়ে। বিশেষত, যখন বাস্তব চিত্রে দেখা যায় ধ্বংস হওয়া বাড়ি, নিহত শিশু, এবং স্মৃতিহীন করে দেওয়া জনপদ। AI-এর সামরিক ব্যবহার শুধু প্রতিরক্ষামূলক ব্যবস্থায় সীমাবদ্ধ নয়। এর আরেকটি উল্লেখযোগ্য উদাহরণ হচ্ছে ‘স্মার্ট শুটার’ নামে পরিচিত একটি স্বদেশী অস্ত্র প্রযুক্তি, যা ইসরায়েলি বাহিনী ব্যবহার করছে। এই প্রযুক্তিটি "Smash" নামে পরিচিত—a precision assault rifle attachment যা হ্যান্ডহেল্ড অস্ত্রের সঙ্গে যুক্ত করা হয়।

    এর মূল কার্যক্রম—উন্নত চিত্র প্রক্রিয়াকরণ অ্যালগরিদম ব্যবহার করে লক্ষ্যবস্তুকে আরও নির্ভুলভাবে শনাক্ত এবং আঘাত হানার ক্ষমতা বৃদ্ধি করা। এক কথায়, এটি "স্মার্ট টার্গেটিং" প্রযুক্তি—যা শত্রুর গতিবিধি বিশ্লেষণ করে শ্যুটারকে সহায়তা করে নিখুঁতভাবে গুলি চালাতে।

    প্রশ্ন হলো, যখন এই প্রযুক্তি ব্যবহৃত হয় জনাকীর্ণ, বেসামরিক এলাকায়—যেখানে টার্গেট আর ‘ত্রুটিপূর্ণ’ ডেটার মধ্যে ফারাক খুবই সূক্ষ্ম—তখন কী হয়? কে ঠিক করে কাকে টার্গেট ধরা হবে? AI-এর সেই "নির্ভুলতা" তখন মানবিক ভুলে পরিণত হয় কিনা, সেটাই আজ সবচেয়ে বড় উদ্বেগ।

    ‘Smash’ প্রযুক্তি হয়তো এক দিক দিয়ে যুদ্ধক্ষেত্রের দক্ষতা বাড়িয়েছে, কিন্তু বাস্তব পরিস্থিতিতে এই প্রযুক্তির ব্যবহার যখন স্কুল, হাসপাতাল বা ঘরবাড়ির কাছাকাছি হয়—তখন তা প্রশ্ন তোলে এই তথাকথিত "স্মার্টনেস" আদৌ কতটা মানবিক। ‘স্মার্ট শ্যুটার’ বা Smash নামক অস্ত্রসংযুক্ত টার্গেটিং সিস্টেম, যা গেমের ‘Call of Duty’-র অটো-লক ফিচারের মতো কাজ করে। এটি একজন সৈন্যকে সাহায্য করে লক্ষ্যবস্তুতে আরও নিখুঁতভাবে আঘাত হানতে। কিন্তু এখানেই প্রশ্ন: গেমের মত এই নিখুঁততা যদি বাস্তব জগতে অসংখ্য বেসামরিক প্রাণহানির কারণ হয়, তবে সেটা ‘স্মার্ট’ না হয়ে ‘সাবজেক্টিভ সহিংসতা’ হয়ে ওঠে না কি?

    এখানেই শেষ নয়। অধিকৃত ফিলিস্তিনি ভূখণ্ডে নজরদারি এখন আরও ‘বুদ্ধিমান’ হয়েছে। শত শত চেকপয়েন্ট পেরোনোর সময় ফিলিস্তিনিদের গতিবিধি, মুখাবয়ব, বায়োমেট্রিক ডেটা—সবকিছু রেকর্ড করা হচ্ছে, বিশাল ডেটাবেসে মেলানো হচ্ছে। এমনই এক AI পর্যবেক্ষণ ব্যবস্থার নাম The Alchemist—একটি প্ল্যাটফর্ম যা তথ্য সংগ্রহ করে এবং তা পরবর্তী স্তরে পাঠায় Fire Factory-তে।

    Fire Factory ডেটা বিশ্লেষণ করে চার ধরনের লক্ষ্যবস্তু নির্ধারণ করে:
    1. কৌশলগত লক্ষ্যবস্তু: যেমন অস্ত্র গুদাম, জঙ্গি সদর দপ্তর।
    2. ভূগর্ভস্থ লক্ষ্যবস্তু: সুড়ঙ্গ বা ভূগর্ভস্থ স্থাপনাগুলো, যা অনেক সময় বেসামরিক ঘরের নিচে থাকে।
    3. পরিবারভিত্তিক লক্ষ্যবস্তু: হামাস বা ইসলামিক জিহাদের কর্মীদের বসতবাড়ি।
    4. বেসামরিক ভবন: এমনকি বহুতল আবাসিক ভবনও, যেখানে অসংখ্য সাধারণ মানুষ থাকেন।

    এই তথাকথিত ‘লক্ষ্যবস্তুর শ্রেণিবিন্যাস’ একটি তৃতীয় স্তরে যায়—The Gospel নামক AI প্ল্যাটফর্মে। এটি একটি বিশ্লেষণী আউটপুট তৈরি করে যেখানে প্রতিটি সম্ভাব্য লক্ষ্যবস্তুর জন্য সম্ভাব্য অস্ত্র, পার্শ্বপ্রতিক্রিয়া ও বেসামরিক ক্ষয়ক্ষতির অনুমান দেওয়া হয়। একাধিক সূত্র জানিয়েছে, যুদ্ধের প্রথম পাঁচ দিনের মধ্যেই এই সিস্টেম গাজার বহু টার্গেট চিহ্নিত করেছে। এর অর্ধেকের বেশি ছিল Power Targets—যাদের উপর আঘাত হানার উদ্দেশ্য ছিল হামাসের উপর জনসাধারণের চাপ তৈরি করা।

    এই পরিস্থিতি স্পষ্ট করে দেয়, প্রযুক্তি আজ শুধু লক্ষ্য নির্ধারণ করছে না, বরং নীতিনির্ধারক শক্তির ভূমিকায় অবতীর্ণ হচ্ছে। এমনকি যেখানে ‘লক্ষ্য’ হচ্ছে একটি আবাসিক ভবন—যেখানে শিশু, বৃদ্ধ, মা—সবাই থাকেন, সেখানে প্রশ্ন ওঠে: এই ‘নির্ভুলতা’ কতটা মানবিক?

    গাজার এক সাধারণ পরিবারের বাড়ি। হয়তো উঠোনে একটি গাছ, দেয়ালে মাটির গন্ধ, ভেতরে টুকরো টুকরো স্মৃতি। সেই বাড়িটি এখন ধ্বংসস্তূপ। 972 ম্যাগাজিনের অনুসন্ধানে উঠে এসেছে যে এটি ছিল Power Targets-এর তালিকায় থাকা লক্ষ্যবস্তুর একটি—যা Gospel নামক ইসরায়েলি AI সিস্টেম দ্বারা চিহ্নিত হয়েছিল।

    কিন্তু গল্প এখানেই শেষ নয়। 972 এবং Local Call এর যৌথ অনুসন্ধানে প্রকাশিত হয়েছে আরও একটি অস্বচ্ছ এবং গোপন AI সিস্টেম—Lavender—যার কাজ আরও ভয়ঙ্কর। এটি সরাসরি মানুষকে লক্ষ্যবস্তুতে পরিণত করে।

    যুদ্ধের সূচনালগ্নে Lavender প্রায় ৩৭,০০০ ব্যক্তি—হামাস এবং ইসলামিক জিহাদের সঙ্গে সম্পর্কিত—চিহ্নিত করে, তাদের ইতিহাস, যোগাযোগ ও নজরদারির ডেটা বিশ্লেষণ করে। এআই অনুযায়ী, এই ব্যক্তিদের মধ্যে ৯০% ছিল “সঠিক” লক্ষ্যবস্তু, আর ১০% ভুল। কিন্তু এই তথাকথিত ‘সঠিকতা’-ও একরকম অনুমান ও ব্যাখ্যার খেলা।

    এমনকি, ইসরায়েল এই সময় “হামাস অপারেটিভ” সংজ্ঞাও প্রসারিত করে দেয়—পুলিশ, প্রশাসনিক কর্মকর্তা, এমনকি যারা হামাস-শাসিত সমাজে সাধারণ বেসামরিক কাজ করে থাকেন—তারাও এই শ্রেণিতে পড়ে।

    AI-চালিত সিস্টেম শুধু ব্যক্তি নয়, তার পরিবারের বাড়ি পর্যন্ত টার্গেট করে এবং IDF-কে নির্দিষ্ট অস্ত্র ব্যবহারের সুপারিশ দেয়। আর এখানেই মানবিকতা নিঃশেষ হয়ে যায় এক ভয়ঙ্কর পরিসংখ্যানে।

    সূত্র বলেছে, Lavender-এর বিশ্লেষণে যদি কোনো জুনিয়র স্তরের হামাস কর্মী টার্গেট হতো, তাহলে তার জন্য ‘সাশ্রয়ী’ কিন্তু অনির্দেশ্য বোমা ব্যবহার করা হতো—যা লক্ষ্যবস্তুতে না গিয়ে আশপাশে থাকা ১৫ থেকে ২০ জন সাধারণ মানুষকে হত্যা করতেও ‘অনুমোদিত’ ছিলআরও ভয়াবহভাবে, কিছু ক্ষেত্রে এই অনুমোদিত মৃত্যুর সংখ্যা দাঁড়াত ৩০০ পর্যন্ত।

    বর্তমান বিশ্বের প্রেক্ষাপটে, যেখানে যুদ্ধের ধ্বংসস্তূপে AI প্রযুক্তির অবাধ প্রবেশ, সেখানে মানবতা, নৈতিকতা ও ভবিষ্যতের সম্পর্ক নিয়ে প্রশ্ন উঠছে। গাজার আকাশে যে ড্রোন উড়ছে, তার পেছনে আর কোনো সৈন্যের উপস্থিতি নেই, বরং একটাই বস্তু—কোড এবং ডেটা, যা মানুষের জীবন ও মৃত্যু নির্ধারণ করছে। AI যে কেবল কল্পনা নয়, বাস্তব অস্ত্র হয়ে দাঁড়িয়েছে, তা এখন আর অস্বীকার করা সম্ভব নয়। এই প্রযুক্তি পূর্বাভাস দেয়, তবে সিদ্ধান্ত নেবার কোনো ক্ষমতা তার নেই। কিন্তু, যখন এই পূর্বাভাস একটি পরিবারের উঠোনে বোমা আকারে এসে পড়ছে, তখন তা এক ভয়ানক বাস্তবতায় পরিণত হয়। প্রশ্ন ওঠে, এই প্রযুক্তি কাদের রক্ষা করছে আর কাদের ধ্বংস করছে? একদিকে, ইসরায়েলি বাহিনী দাবি করছে যে তারা মানবিক পর্যালোচনা করে, কিন্তু বাস্তবে সেই পর্যালোচনা কেবল একটি নামমাত্র চেক, যেখানে Lavender বা অন্য AI সিস্টেমের পূর্বাভাস মানবের জীবন চিহ্নিত করতে পারে, আর তার যথার্থতা শুধুই পরিসংখ্যানের মধ্যে সীমাবদ্ধ থাকে।

    গাজার বর্তমান পরিস্থিতি একদিকে AI যুদ্ধের জন্য একটি অনিচ্ছুক পরীক্ষাগার হয়ে উঠেছে। যেখানে এমন প্রযুক্তি পরীক্ষিত হচ্ছে, যা ভবিষ্যতের যুদ্ধের জন্য রূপরেখা তৈরি করবে। কিছু আন্তর্জাতিক কাঠামো যুদ্ধে AI ব্যবহারে দায়বদ্ধতা আনার চেষ্টা করলেও, ইসরায়েল তাতে সায় দেয়নি। এর ফলে, একটি প্রযুক্তি এমন সিদ্ধান্ত নিচ্ছে, যা একজন "জঙ্গি" এবং সাধারণ মানুষের মধ্যে পার্থক্য গড়ে দেয়, আর সেখানে ভুল চিহ্নিতকরণের পরিণতি হলো একটি পুরো পরিবার ও তার অস্তিত্বের বিলুপ্তি। AI এর সিস্টেম যেমন Lavender ভুল সিদ্ধান্ত নেয়, তেমনি মানুষের জীবনের সঠিক মূল্যায়নও হারিয়ে যায়। এই প্রযুক্তি নির্ধারণ করে, কতজনের জীবন মূল্যবান এবং কতজনের জীবন অমূল্য।

    AI যুদ্ধের পরিণতি শুধু সেনাদের জন্য নয়, বরং এটি নতুনভাবে বেসামরিক ক্ষতির একটি সংজ্ঞা তৈরি করছে। Lavender সিস্টেমের মাধ্যমে, এমন এক পলিসি তৈরি হয়েছে যেখানে একজন ব্যক্তিকে মারার জন্য একটি ভবন ধ্বংস করা হয়, যেখানে বেসামরিক লোকজনের মৃত্যুও অনুমোদিত হয়। AI সিস্টেম, যেমন Gospel বা Fire Factory, একে অন্যের সঙ্গে তথ্য ভাগাভাগি করে এবং শেষে এক কিলিকেই মানবিকতা এবং নৈতিকতা থেকে অনেক দূরে চলে যায়। মানুষের কেবল কাজ হলো সেই সুপারিশের ওপর ক্লিক করা—মানবিক সিদ্ধান্ত আর তাৎপর্য একে অপরের সাথে বিরোধী হয়ে দাঁড়ায়।

    এই অনিশ্চিত ভবিষ্যতের এক অদৃশ্য প্রতীক হয়ে উঠেছে সেই নারীর কণ্ঠ, যার জীবনের বাস্তবতা হারিয়ে গেছে, আর তার জায়গা নিয়েছে কেবল ধ্বংসাবশেষ এবং ডেটার পয়েন্ট। যখন AI, মানবতা, যুদ্ধ এবং সত্য এক সংঘর্ষের মধ্যে আবদ্ধ হয়, তখন সবকিছু নিঃশেষিত হয়ে যায়। মানুষের অস্তিত্ব পরিণত হয় পরিসংখ্যানের মধ্যে, যা AI এর পরবর্তী রিপোর্টে উঠে আসে।

    আমরা আজ এমন একটি যান্ত্রিক যুগে পৌঁছেছি যেখানে প্রযুক্তির নামেই মানুষের জীবন বিলুপ্ত হচ্ছে। প্রযুক্তি নিজে নিরপেক্ষ, কিন্তু এর লক্ষ্য নির্ধারণ করে মানুষ। আজকে আমাদের উচিত এই স্বয়ংক্রিয় সহিংসতার বিরুদ্ধে প্রশ্ন তোলা, কারণ যদি না করা হয়, তাহলে ভবিষ্যতে যুদ্ধ আরও অন্ধ, নির্দয়, এবং "বুদ্ধিমান" হয়ে উঠবে। মানবতা তখন হয়তো শুধুই একটি পরিসংখ্যানের মতো AI এর রিপোর্টে হারিয়ে যাবে, আর তার অস্তিত্ব আর কোনোভাবে অতিক্রম করা সম্ভব হবে না।
    فَاَعۡرِضۡ عَنۡهُمۡ وَ انۡتَظِرۡ اِنَّهُمۡ مُّنۡتَظِرُوۡنَ

  • #2
    ভাই, কিভাবে আগামী দিনে জায়নবাদিদের এই এআই মেকানিজম থেকে উম্মাহকে হিফাজত করা যায়, এমন কিছু নিয়েও ভাবার ও লিখার অনুরোধ। যা ফোরাম পাঠকদের উপকৃত করবে।

    আল্লাহ্‌ তাআলা আপনার ইলম ও হায়াতে বারাকাহ দান করুন, আমীন
    বছর ফুরিয়ে যাবে এতো রিসোর্স আছে https://gazwah.net সাইটে

    Comment


    • #4
      Sabbir Ahmed ভাই, আসসালামু আলাইকুম ওয়া রহমাতুল্লাহ

      আমদের করণীয় পর্ব। কোন ভুল থাকলে বা পরিবর্তন পরিবর্ধন করা প্রয়োজনবোধ করলে আপনার মতামত জানাবেন।

      আলী বিন আবি তালিব (রাদি.) বলেছেন, আমি দুই ধরণের মানুষ বড়ই অহংকারী।
      এক, যে নসিহত নেই না,
      দুই, যে নসিহত দেয় না।


      আল্লাহর কাছে এমন অহংকারী হওয়া থেকে আশ্রয় প্রার্থনা করি।
      আমীন।
      فَاَعۡرِضۡ عَنۡهُمۡ وَ انۡتَظِرۡ اِنَّهُمۡ مُّنۡتَظِرُوۡنَ

      Comment


      • #5
        জাযাকাল্লাহ খাইরান ভাই
        আল্লাহ্‌ তাআলা আপনাকে ধারাবাহিক এমন উপকারি লিখা লিখে যাওয়ার তাওফিক দিন, যা আমাদের ফিকির কে উন্নত করবে, আমীন
        বছর ফুরিয়ে যাবে এতো রিসোর্স আছে https://gazwah.net সাইটে

        Comment


        • #6
          ভাই আইডি যে signature add করতে save option এ টাস করার পর
          Your signature cannot be longer than 100 characters including BB code markup.​ লেখাটি আসে এখন কি করতে হবে জানালে উপকৃত হবো

          Comment

          Working...
          X