ISC کا گائیڈ ایک جامع فریم ورک پیش کرتا ہے جو اعلیٰ سطحی اصولوں اور عملی، قابل عمل پالیسی کے درمیان فرق کو پر کرنے کے لیے ڈیزائن کیا گیا ہے۔ یہ ابھرتی ہوئی ٹیکنالوجیز کے ذریعہ پیش کردہ مواقع اور خطرات دونوں کی مشترکہ تفہیم کی فوری ضرورت کا جواب دیتا ہے۔ ہمارے تیزی سے بدلتے ڈیجیٹل دور میں پالیسی گٹھ جوڑ پر کام کرنے والوں کے لیے یہ ایک ضروری دستاویز ہے۔
یہ فریم ورک AI اور اس کے مشتقات کی صلاحیت کو ایک جامع عینک کے ذریعے تلاش کرتا ہے، جس میں معاشیات، سیاست، ماحولیات اور سلامتی جیسے بیرونی عوامل کے ساتھ انسانی اور سماجی بہبود شامل ہے۔ چیک لسٹ کے کچھ پہلو سیاق و سباق کے لحاظ سے دوسروں کے مقابلے میں زیادہ متعلقہ ہو سکتے ہیں، لیکن اگر تمام ڈومینز پر غور کیا جائے تو بہتر فیصلوں کا زیادہ امکان نظر آتا ہے، چاہے کچھ کو فوری طور پر مخصوص معاملات میں غیر متعلقہ کے طور پر پہچانا جا سکے۔ یہ چیک لسٹ کے نقطہ نظر کی موروثی قدر ہے۔
"تیز رفتار تکنیکی اختراعات اور پیچیدہ عالمی چیلنجوں سے نشان زد ایک دور میں، ممکنہ اثرات کے جامع اور کثیر جہتی تجزیہ کے لیے ISC کا فریم ورک رہنماؤں کو باخبر، ذمہ دارانہ فیصلے کرنے کا اختیار دیتا ہے۔ یہ اس بات کو یقینی بناتا ہے کہ جیسے جیسے ہم تکنیکی طور پر آگے بڑھتے ہیں، ہم ایسا اخلاقی، سماجی اور معاشی مضمرات پر غور کرتے ہوئے کرتے ہیں۔"
Peter گلک مین، آئی ایس سی کے صدر
اگرچہ یونیسکو، او ای سی ڈی، یورپی کمیشن اور اقوام متحدہ کے ذریعے اعلیٰ سطحی اصول وضع کیے گئے ہیں، اور ممکنہ حکمرانی، ضابطے، اخلاقیات اور حفاظت کے مسائل کے حوالے سے مختلف بات چیت جاری ہے، ایسے اصولوں اور ایک کے درمیان ایک بڑا فرق ہے۔ گورننس یا ریگولیٹری فریم ورک۔ ISC پالیسی سازوں کے لیے اپنی نئی گائیڈ کے ذریعے اس ضرورت کو پورا کرتا ہے۔
پالیسی سازوں کے لیے اس گائیڈ کا مقصد کسی ریگولیٹری نظام پر پابندی لگانا نہیں ہے، بلکہ ایک انکولی اور ارتقا پذیر تجزیاتی فریم ورک کی تجویز کرنا ہے جو کسی بھی تشخیص اور ریگولیٹری عمل کو تقویت دے سکتا ہے جو اسٹیک ہولڈرز بشمول حکومتوں اور کثیر جہتی نظام کے ذریعے تیار کیا جا سکتا ہے۔
"فریم ورک AI پر عالمی گفتگو میں ایک اہم قدم ہے کیونکہ یہ ایک ایسی بنیاد فراہم کرتا ہے جس سے ہم ابھی اور مستقبل دونوں کے لیے ٹیکنالوجی کے مضمرات پر اتفاق رائے پیدا کر سکتے ہیں"۔
ہیما سریدھر، سابق چیف سائنس ایڈوائزر، وزارت دفاع، نیوزی لینڈ اور اب سینئر ریسرچ Fellow، یونیورسٹی آف آکلینڈ، نیوزی لینڈ۔
اکتوبر 2023 سے، AI کی اخلاقیات اور حفاظت پر مزید غور کے ساتھ کئی اہم قومی اور کثیر جہتی اقدامات کیے گئے ہیں۔ ہمارے کچھ اہم نظاموں بشمول مالی، حکومتی، قانونی اور تعلیم کے ساتھ ساتھ علم کے مختلف نظام (بشمول سائنسی اور مقامی علم) کی سالمیت پر AI کے مضمرات بڑھتے ہوئے تشویش کا باعث ہیں۔ فریم ورک ان پہلوؤں کی مزید عکاسی کرتا ہے۔
ISC ممبران اور بین الاقوامی پالیسی ساز برادری سے آج تک موصول ہونے والے تاثرات تجزیاتی فریم ورک کے نظر ثانی شدہ ورژن میں جھلکتے ہیں، جو اب پالیسی سازوں کے لیے ایک رہنما کے طور پر جاری کیا گیا ہے۔
پالیسی سازوں کے لیے ایک گائیڈ: تیزی سے ترقی پذیر ٹیکنالوجیز بشمول AI، بڑے لینگویج ماڈلز اور اس سے آگے کا جائزہ
یہ مباحثہ کاغذ ایک ابتدائی فریم ورک کا خاکہ فراہم کرتا ہے تاکہ AI سے متعلق ہونے والے متعدد عالمی اور قومی مباحثوں سے آگاہ کیا جا سکے۔
اپنی تنظیم میں استعمال کے لیے فریم ورک ڈاؤن لوڈ کریں۔
یہاں ہم آپ کی تنظیم میں استعمال کے لیے ایک قابل تدوین ایکسل شیٹ کے طور پر فریم ورک ٹول فراہم کرتے ہیں۔ اگر آپ اوپن سورس فارمیٹ کو ترجیح دیتے ہیں تو براہ کرم رابطہ کریں۔ [ای میل محفوظ].
تعارف
تیزی سے ابھرتی ہوئی ٹیکنالوجیز جب ان کے استعمال، حکمرانی اور ممکنہ ضابطے کی بات آتی ہے تو چیلنجنگ مسائل پیش کرتی ہیں۔ مصنوعی ذہانت (AI) اور اس کے استعمال پر جاری پالیسی اور عوامی مباحث نے ان مسائل کو شدید توجہ میں لایا ہے۔ AI کے لیے وسیع اصولوں کا اعلان یونیسکو، OECD، UN اور دیگر کے ذریعے کیا گیا ہے، بشمول برطانیہ کے Bletchley Declaration، اور ٹیکنالوجی کے پہلوؤں کو ریگولیشن کرنے کے لیے ابھرتی ہوئی دائرہ اختیاری کوششیں ہو رہی ہیں، مثال کے طور پر، یورپی یونین (EU) AI ایکٹ یا حالیہ ریاستہائے متحدہ AI ایگزیکٹو آرڈر۔
اگرچہ ان اور دیگر فورمز پر، جغرافیائی سیاسی تقسیموں اور آمدنی کی تمام سطحوں پر ممالک میں AI کے استعمال پر طویل بحث کی گئی ہے، لیکن اعلیٰ سطح کے اصولوں کی ترقی اور ان کو ریگولیٹری، پالیسی، گورننس کے ذریعے عملی طور پر شامل کرنے کے درمیان ایک اونٹولوجیکل فرق باقی ہے۔ یا ذمہ داری کے نقطہ نظر. اصول سے پریکٹس تک کے راستے کی اچھی طرح وضاحت نہیں کی گئی ہے، لیکن AI کی ترقی اور اطلاق کی نوعیت اور رفتار، اس میں دلچسپی کی مختلف قسم اور ممکنہ ایپلی کیشنز کی حد کو دیکھتے ہوئے، کوئی بھی طریقہ حد سے زیادہ عام یا نسخہ نہیں ہو سکتا۔
ان وجوہات کی بناء پر، غیر سرکاری سائنسی برادری ایک خاص کردار ادا کرتی رہتی ہے۔ بین الاقوامی سائنس کونسل (ISC) - سماجی اور قدرتی علوم سے اپنی تکثیری رکنیت کے ساتھ - نے اکتوبر 2023 میں ایک مباحثہ پیپر جاری کیا جس میں ایک ابتدائی تجزیاتی فریم ورک پیش کیا گیا جس میں تیزی سے آگے بڑھنے والی ڈیجیٹل ٹیکنالوجی سے وابستہ خطرات، فوائد، خطرات اور مواقع پر غور کیا گیا۔ جب کہ اسے AI پر غور کرنے کے لیے تیار کیا گیا تھا، یہ فطری طور پر ٹیکنالوجی کا علمی ہے اور اس کا اطلاق ابھرتی ہوئی اور خلل ڈالنے والی ٹیکنالوجیز، جیسے مصنوعی حیاتیات اور کوانٹم پر کیا جا سکتا ہے۔ اس مباحثے کے کاغذ نے ماہرین تعلیم اور پالیسی سازوں سے رائے طلب کی تھی۔ زبردست فیڈ بیک نے اس طرح کے تجزیے کو ضروری بنا دیا اور AI جیسی ابھرتی ہوئی ٹیکنالوجیز سے نمٹنے کے لیے ایک قابل قدر نقطہ نظر کے طور پر کھڑا ہوا۔
فریم ورک کا مقصد تمام اسٹیک ہولڈرز بشمول حکومتوں، تجارتی مذاکرات کاروں، ریگولیٹرز، سول سوسائٹی اور صنعت کو ان ٹیکنالوجیز کے ارتقاء کے بارے میں مطلع کرنے کے لیے ایک ٹول فراہم کرنا ہے تاکہ ان کی مدد کی جا سکے کہ وہ کس طرح کے مضمرات، مثبت یا منفی، پر غور کر سکتے ہیں۔ ٹیکنالوجی خود، اور خاص طور پر اس کا خاص اطلاق۔ یہ تجزیاتی فریم ورک حکومت اور صنعت کے مفادات سے آزاد ہو کر تیار کیا گیا ہے۔ یہ اپنے نقطہ نظر میں زیادہ سے زیادہ تکثیری ہے، جس میں ٹیکنالوجی کے تمام پہلوؤں اور وسیع مشاورت اور آراء پر مبنی اس کے اثرات شامل ہیں۔
پالیسی سازوں کے لیے اس بحث کے کاغذ کا مقصد کسی ریگولیٹری نظام کو تجویز کرنا نہیں ہے، بلکہ ایک انکولی اور ارتقا پذیر تجزیاتی فریم ورک کی تجویز کرنا ہے جو کسی بھی تشخیص اور ریگولیٹری عمل کی بنیاد رکھ سکتا ہے جو اسٹیک ہولڈرز بشمول حکومتوں اور کثیر جہتی نظام کے ذریعے تیار کیا جا سکتا ہے۔
جیسا کہ فیصلہ ساز عالمی اور قومی سطح پر AI جیسی نئی ٹکنالوجی کے خطرات اور انعامات کو متوازن کرنے کے لیے مناسب پالیسی کی ترتیبات اور لیورز پر غور کرتے ہیں، تجزیاتی فریم ورک کا مقصد ایک تکمیلی ٹول کے طور پر اس بات کو یقینی بنانے کے لیے ہے کہ ممکنہ مضمرات کی مکمل عکاسی کی جائے۔
پس منظر: تجزیاتی فریم ورک کیوں؟
AI کی پیچیدگی اور مضمرات کے ساتھ ٹیکنالوجیز کا تیزی سے ابھرنا بہت سے فائدے کے دعووں کو آگے بڑھا رہا ہے۔ تاہم، یہ انفرادی سے لے کر جیوسٹریٹیجک سطح تک اہم خطرات کے خدشات کو بھی بھڑکاتا ہے۔1 آج تک کی زیادہ تر بحث کو بائنری معنوں میں سمجھا گیا ہے کیونکہ عوامی طور پر اظہار خیال اسپیکٹرم کے انتہائی سروں پر ہوتا ہے۔ AI کے حق میں یا اس کے خلاف کیے جانے والے دعوے اکثر ہائپربولک ہوتے ہیں اور – ٹیکنالوجی کی نوعیت کے پیش نظر – اس کا اندازہ لگانا مشکل ہے۔
ایک زیادہ عملی نقطہ نظر ضروری ہے جہاں ہائپربول کو کیلیبریٹڈ اور زیادہ دانے دار تشخیص کے ساتھ تبدیل کیا جاتا ہے۔ AI ٹیکنالوجی ترقی کرتی رہے گی، اور تاریخ بتاتی ہے کہ عملی طور پر ہر ٹیکنالوجی کے فائدہ مند اور نقصان دہ استعمال ہوتے ہیں۔ اس لیے سوال یہ ہے کہ: ہم اس ٹیکنالوجی سے فائدہ مند نتائج کیسے حاصل کر سکتے ہیں، جبکہ نقصان دہ نتائج کے خطرے کو کم کرتے ہوئے، جن میں سے کچھ شدت میں موجود ہو سکتے ہیں؟
مستقبل ہمیشہ غیر یقینی ہوتا ہے، لیکن نسبتاً احتیاطی نقطہ نظر کی حوصلہ افزائی کے لیے AI اور تخلیقی AI کے حوالے سے کافی معتبر اور ماہرانہ آوازیں موجود ہیں۔ اس کے علاوہ، ایک سسٹم اپروچ ضروری ہے کیونکہ AI ٹیکنالوجی کی ایک کلاس ہے جس کا وسیع استعمال اور متعدد قسم کے صارفین کے ذریعے اطلاق ہوتا ہے۔ اس کا مطلب یہ ہے کہ افراد، سماجی زندگی، شہری زندگی، سماجی زندگی اور عالمی تناظر میں کسی بھی AI کے استعمال کے مضمرات پر غور کرتے وقت مکمل سیاق و سباق پر غور کیا جانا چاہیے۔
زیادہ تر دیگر ٹیکنالوجیز کے برعکس، ڈیجیٹل اور متعلقہ ٹیکنالوجیز کے لیے، ترقی، ریلیز اور ایپلیکیشن کے درمیان کا وقت انتہائی کم ہوتا ہے، جو زیادہ تر پروڈکشن کمپنیوں یا ایجنسیوں کے مفادات سے چلتا ہے۔ اپنی فطرت کے مطابق – اور یہ کہ یہ ڈیجیٹل ریڑھ کی ہڈی پر مبنی ہے – AI میں ایسی ایپلی کیشنز ہوں گی جو تیزی سے پھیلتی ہیں، جیسا کہ پہلے ہی بڑے لینگویج ماڈلز کی ترقی کے ساتھ دیکھا جا چکا ہے۔ نتیجے کے طور پر، کچھ خصوصیات صرف رہائی کے بعد ہی ظاہر ہو سکتی ہیں، یعنی غیر متوقع نتائج کا خطرہ ہے، دونوں بدمعاش اور خیر خواہ۔
اہم سماجی اقدار کے طول و عرض، خاص طور پر مختلف خطوں اور ثقافتوں میں، اس بات پر اثر انداز ہوں گے کہ کسی بھی استعمال کو کس طرح سمجھا اور قبول کیا جاتا ہے۔ مزید برآں، جیوسٹریٹیجک مفادات پہلے سے ہی بحث پر حاوی ہیں، خودمختار اور کثیرالجہتی مفادات مسلسل ایک دوسرے کو آپس میں جوڑ رہے ہیں اور اس طرح مقابلہ اور تقسیم کو آگے بڑھا رہے ہیں۔
آج تک، ورچوئل ٹیکنالوجی کے زیادہ تر ضابطوں کو بڑی حد تک 'اصولوں' اور رضاکارانہ تعمیل کے ذریعے دیکھا گیا ہے، حالانکہ EU AI ایکٹ کے ساتھ2 اور اسی طرح ہم زیادہ قابل نفاذ لیکن کسی حد تک تنگ ضابطوں کی طرف تبدیلی دیکھ رہے ہیں۔ ایک موثر عالمی یا قومی ٹیکنالوجی گورننس اور/یا ریگولیٹری نظام کا قیام اب بھی چیلنجنگ ہے اور اس کا کوئی واضح حل نہیں ہے۔ موجد سے پروڈیوسر، صارف، حکومت اور کثیر جہتی نظام تک، سلسلہ کے ساتھ ساتھ خطرے سے آگاہ فیصلہ سازی کی متعدد پرتوں کی ضرورت ہوگی۔
اگرچہ یونیسکو، او ای سی ڈی، یورپی کمیشن اور اقوام متحدہ کے ذریعے اعلیٰ سطحی اصول وضع کیے گئے ہیں، اور ممکنہ حکمرانی، ضابطے، اخلاقیات اور حفاظت کے مسائل کے حوالے سے مختلف اعلیٰ سطحی بات چیت جاری ہے، اس طرح کے درمیان ایک بڑا فرق ہے۔ اصول اور ایک گورننس یا ریگولیٹری فریم ورک۔ اس پر توجہ دینے کی ضرورت ہے۔
نقطہ آغاز کے طور پر، ISC غور و فکر کی ایک درجہ بندی تیار کرنے پر غور کرتا ہے جس کا کوئی بھی ڈویلپر، ریگولیٹر، پالیسی ایڈوائزر، صارف یا فیصلہ ساز حوالہ دے سکتا ہے۔ ان ٹکنالوجیوں کے وسیع مضمرات کو دیکھتے ہوئے، اس طرح کی درجہ بندی کو ایک مختصر توجہ مرکوز کرنے کی بجائے مضمرات کی مجموعی پر غور کرنا چاہیے۔ فیصلہ سازی پر جیوسٹریٹیجک مفادات کے اثر و رسوخ کی وجہ سے عالمی سطح پر تقسیم بڑھ رہی ہے، اور اس ٹیکنالوجی کی عجلت کو دیکھتے ہوئے، یہ آزاد اور غیر جانبدار آوازوں کے لیے ضروری ہے کہ وہ مستقل طور پر متحد اور جامع نقطہ نظر کی حمایت کریں۔
1) ہندوستان ٹائمز۔ 2023. G20 کو تکنیکی تبدیلی پر ایک بین الاقوامی پینل قائم کرنا چاہیے۔
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) یورپی یونین مصنوعی ذہانت کا ایکٹ۔ 2023. https://artificialintelligenceact.eu
تجزیاتی فریم ورک کی ترقی
ISC ایک بنیادی عالمی غیر سرکاری تنظیم ہے جو قدرتی اور سماجی علوم کو مربوط کرتی ہے۔ اس کی عالمی اور تادیبی رسائی کا مطلب یہ ہے کہ اسے آگے کے پیچیدہ انتخاب سے آگاہ کرنے کے لیے آزاد اور عالمی سطح پر متعلقہ مشورے پیدا کرنے کے لیے اچھی طرح سے رکھا گیا ہے، خاص طور پر چونکہ اس میدان میں موجودہ آوازیں زیادہ تر صنعت سے ہیں یا بڑی تکنیکی طاقتوں کی پالیسی اور سیاسی برادریوں سے ہیں۔
وسیع بحث کے ایک عرصے کے بعد، جس میں ایک غیر سرکاری تشخیصی عمل پر غور بھی شامل تھا، ISC نے یہ نتیجہ اخذ کیا کہ اس کی سب سے مفید شراکت ایک موافقت پذیر تجزیاتی فریم ورک تیار کرنا ہو گی جسے تمام لوگوں کی طرف سے گفتگو اور فیصلہ سازی کی بنیاد کے طور پر استعمال کیا جا سکتا ہے۔ اسٹیک ہولڈرز، بشمول کسی بھی رسمی تشخیص کے عمل کے دوران جو ابھرتے ہیں۔
ابتدائی تجزیاتی فریم ورک، جسے اکتوبر 2023 میں بحث اور آراء کے لیے جاری کیا گیا تھا، ایک وسیع چیک لسٹ کی شکل اختیار کر گیا جسے سرکاری اور غیر سرکاری دونوں اداروں کے استعمال کے لیے ڈیزائن کیا گیا تھا۔ فریم ورک نے ایک وسیع عینک کے ذریعے AI اور اس کے مشتقات جیسی ٹیکنالوجی کی صلاحیت کی نشاندہی کی اور اس کی کھوج کی جس میں انسانی اور سماجی بہبود کے ساتھ ساتھ اقتصادیات، سیاست، ماحولیات اور سلامتی جیسے بیرونی عوامل شامل ہیں۔ چیک لسٹ کے کچھ پہلو سیاق و سباق کے لحاظ سے دوسروں کے مقابلے میں زیادہ متعلقہ ہو سکتے ہیں، لیکن اگر تمام ڈومینز پر غور کیا جائے تو بہتر فیصلوں کا زیادہ امکان نظر آتا ہے، چاہے کچھ کو فوری طور پر مخصوص معاملات میں غیر متعلقہ کے طور پر پہچانا جا سکے۔ یہ چیک لسٹ اپروچ کی موروثی قدر ہے۔
ابتدائی فریم ورک پچھلے کام اور سوچ سے اخذ کیا گیا تھا، بشمول بین الاقوامی نیٹ ورک فار گورنمنٹل سائنس ایڈوائسز (INGSA) کی ڈیجیٹل فلاح و بہبود پر رپورٹ اور AI سسٹمز کی درجہ بندی کے لیے OECD فریم ورک، 3 ممکنہ مواقع، خطرات اور اثرات کی مجموعی پیش کش کرنے کے لیے۔ AI کے. یہ پچھلی مصنوعات اپنے وقت اور سیاق و سباق کے پیش نظر ان کے ارادے میں زیادہ محدود تھیں۔ ایک وسیع فریم ورک کی ضرورت ہے جو مختصر اور طویل مدتی دونوں طرح کے مسائل کی مکمل رینج پیش کرے۔
اس کے اجراء کے بعد سے، مباحثے کے مقالے کو بہت سے ماہرین اور پالیسی سازوں کی جانب سے نمایاں حمایت حاصل ہوئی ہے۔ بہت سے لوگوں نے خاص طور پر ایک انکولی فریم ورک تیار کرنے کی سفارش کی توثیق کی ہے جو ٹیکنالوجی کے خطرات اور مضمرات کے بارے میں جان بوجھ کر اور فعال طور پر غور کرنے کی اجازت دیتا ہے، اور ایسا کرتے ہوئے، ہمیشہ فرد سے لے کر معاشرے اور نظاموں تک کی مجموعی جہتوں پر غور کرتا ہے۔
فیڈ بیک کے ذریعے کیا گیا ایک اہم مشاہدہ اس بات کا اعتراف تھا کہ فریم ورک میں زیر غور کئی مضمرات فطری طور پر کثیر جہتی ہیں اور متعدد زمروں میں پھیلے ہوئے ہیں۔ مثال کے طور پر، انفرادی اور جیوسٹریٹیجک لینس دونوں سے غلط معلومات پر غور کیا جا سکتا ہے۔ اس طرح، نتائج وسیع ہو جائیں گے.
فریم ورک کو جانچنے کے لیے کیس اسٹڈیز یا مثالوں کو شامل کرنے کا آپشن بھی تجویز کیا گیا۔ اس کا استعمال رہنما خطوط تیار کرنے کے لیے کیا جا سکتا ہے تاکہ یہ ظاہر کیا جا سکے کہ اسے مختلف سیاق و سباق میں عملی طور پر کیسے استعمال کیا جا سکتا ہے۔ تاہم، یہ ایک اہم اقدام ہو گا اور یہ محدود ہو سکتا ہے کہ مختلف گروہ اس فریم ورک کے استعمال کو کس طرح سمجھتے ہیں۔ یہ سب سے بہتر طریقے سے مخصوص دائرہ اختیار یا سیاق و سباق میں ماہرین کے ساتھ کام کرنے والے پالیسی ساز کرتے ہیں۔
اکتوبر 2023 سے، AI کی اخلاقیات اور حفاظت پر مزید غور کے ساتھ کئی اہم قومی اور کثیر جہتی اقدامات کیے گئے ہیں۔ ہمارے کچھ اہم نظاموں بشمول مالی، حکومتی، قانونی اور تعلیم کے ساتھ ساتھ علم کے مختلف نظام (بشمول سائنسی اور مقامی علم) کی سالمیت پر AI کے مضمرات بڑھتے ہوئے تشویش کا باعث ہیں۔ نظرثانی شدہ فریم ورک ان پہلوؤں کی مزید عکاسی کرتا ہے۔
آج تک موصول ہونے والے تاثرات تجزیاتی فریم ورک کے نظر ثانی شدہ ورژن میں جھلکتے ہیں، جو اب پالیسی سازوں کے لیے ایک رہنما کے طور پر جاری کیا گیا ہے۔
جبکہ فریم ورک کو AI اور متعلقہ ٹیکنالوجیز کے تناظر میں پیش کیا گیا ہے، یہ فوری طور پر دیگر تیزی سے ابھرتی ہوئی ٹیکنالوجیز جیسے کوانٹم اور مصنوعی حیاتیات کے حوالے سے قابل منتقلی ہے۔
3) Gluckman, P. اور Allen, K. 2018. تیزی سے ڈیجیٹل اور متعلقہ تبدیلیوں کے تناظر میں بہبود کو سمجھنا۔ INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) او ای سی ڈی۔ 2022. AI سسٹمز کی درجہ بندی کے لیے OECD فریم ورک۔ OECD ڈیجیٹل اکانومی پیپرز، نمبر 323، #۔ پیرس، او ای سی ڈی پبلشنگ۔
https://oecd.ai/en/classificatio
فریم ورک
مندرجہ ذیل جدول ایک قابل تجزیاتی فریم ورک کے طول و عرض کو پیش کرتا ہے۔ مثالیں یہ بتانے کے لیے فراہم کی گئی ہیں کہ ہر ڈومین کیوں اہمیت رکھتا ہے۔ سیاق و سباق میں، فریم ورک کو سیاق و سباق سے متعلقہ توسیع کی ضرورت ہوگی۔ پلیٹ فارم کی ترقی کے دوران پیدا ہونے والے عام مسائل اور مخصوص ایپلی کیشنز کے دوران سامنے آنے والے عام مسائل کے درمیان فرق کرنا بھی ضروری ہے۔ یہاں شامل کسی ایک غور و فکر کو ترجیح نہیں سمجھنا چاہیے اور اس طرح، سبھی کا جائزہ لینا چاہیے۔
مسائل کو وسیع پیمانے پر درج ذیل زمروں میں تقسیم کیا گیا ہے جیسا کہ ذیل میں بیان کیا گیا ہے۔
جدول ان جہتوں کی تفصیلات بتاتا ہے جن پر کسی نئی ٹیکنالوجی کا جائزہ لیتے وقت غور کرنے کی ضرورت پڑسکتی ہے۔
? INGSA. 2018. تیز رفتار ڈیجیٹل اور متعلقہ تبدیلیوں کے تناظر میں فلاح و بہبود کو سمجھنا۔
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
? نئے وضاحت کنندگان (وسیع مشاورت اور آراء اور ادب کے جائزے کے ذریعے حاصل کیا گیا ہے)
? AI سسٹمز کی درجہ بندی کے لیے OECD فریم ورک: موثر AI پالیسیوں کے لیے ایک ٹول۔
https://oecd.ai/en/classification
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| صارفین کی AI قابلیت | ممکنہ صارفین جو سسٹم کے ساتھ تعامل کریں گے کتنے قابل اور سسٹم کی خصوصیات سے آگاہ ہیں؟ انہیں صارف کی متعلقہ معلومات اور احتیاط کیسے فراہم کی جائے گی؟ |
| ? متاثرہ اسٹیک ہولڈر | بنیادی اسٹیک ہولڈرز کون ہیں جو سسٹم سے متاثر ہوں گے (افراد، کمیونٹیز، کمزور، سیکٹرل ورکرز، بچے، پالیسی ساز، پیشہ ور افراد وغیرہ)؟ |
| ? اختیاری | کیا صارفین کو سسٹم سے باہر نکلنے کا موقع فراہم کیا گیا ہے یا انہیں آؤٹ پٹ کو چیلنج کرنے یا درست کرنے کے مواقع فراہم کیے گئے ہیں؟ |
| انسانی حقوق اور جمہوری اقدار کے لیے خطرات | کیا یہ نظام بنیادی طور پر انسانی حقوق پر اثر انداز ہوتا ہے، بشمول رازداری، اظہار کی آزادی، انصاف پسندی، غیر امتیازی وغیرہ سمیت لیکن ان تک محدود نہیں؟ |
| لوگوں کی صحت پر ممکنہ اثرات | کیا نظام پر اثر انداز ہونے والے علاقوں کا تعلق صارف کی فلاح و بہبود سے ہے (ملازمت کا معیار، تعلیم، سماجی تعاملات، ذہنی صحت، شناخت، ماحول وغیرہ)؟ |
| ? انسانی لیبر کی نقل مکانی کا امکان | کیا نظام کے لیے ایسے کاموں یا افعال کو خودکار کرنے کا کوئی امکان ہے جو انسانوں کے ذریعے انجام دیا جا رہا تھا؟ اگر ایسا ہے تو، بہاو کے نتائج کیا ہیں؟ |
| ? شناخت، اقدار یا علم میں ہیرا پھیری کے لیے ممکنہ | کیا سسٹم ڈیزائن کیا گیا ہے یا ممکنہ طور پر صارف کی شناخت میں ہیرا پھیری کرنے کے قابل ہے یا اقدار کا تعین، یا غلط معلومات پھیلانا؟ |
| ? خود اظہار اور خود حقیقت پسندی کے مواقع | کیا فنکاری اور خود شک کا کوئی امکان ہے؟ کیا جھوٹے ہونے کا امکان ہے یا مہارت کے ناقابل تصدیق دعوے؟ |
| ? خود قدری کے اقدامات | کیا مثالی خود کو پیش کرنے کا دباؤ ہے؟ کیا آٹومیشن احساس کی جگہ لے سکتا ہے۔ ذاتی تکمیل کی؟ میں نظام کے ساتھ مقابلہ کرنے کے لئے دباؤ ہے؟ کام کی جگہ؟ کیا انفرادی ساکھ کو غلط معلومات سے بچانا مشکل ہے؟ |
| ? رازداری | کیا پرائیویسی کی حفاظت کے لیے مختلف ذمہ داریاں ہیں اور کوئی ہیں؟ ذاتی ڈیٹا کو کس طرح استعمال کیا جاتا ہے اس پر مفروضے کیے جا رہے ہیں؟ |
| ? خود مختاری | کیا AI نظام زیادہ انحصار پیدا کرکے انسانی خود مختاری کو متاثر کرسکتا ہے۔ آخر صارفین؟ |
| ? انسانی ترقی | کیا انسانی ترقی کے لیے کلیدی مہارتوں کے حصول پر کوئی اثر پڑتا ہے، جیسے ایگزیکٹو افعال یا باہمی مہارتیں، یا توجہ کے وقت میں تبدیلیاں جو متاثر کرتی ہیں۔ سیکھنے، شخصیت کی نشوونما، ذہنی صحت کے خدشات وغیرہ؟ |
| ? ذاتی صحت کی دیکھ بھال | کیا خود تشخیص یا ذاتی صحت کی دیکھ بھال کے حل کے دعوے ہیں؟ اگر ایسا ہے، کیا وہ ریگولیٹری معیارات کے مطابق ہیں؟ |
| ? دماغی صحت | کیا اضطراب، تنہائی یا دماغی صحت کے دیگر مسائل کا خطرہ ہے، یا کیا ٹیکنالوجی اس طرح کے اثرات کو کم کر سکتی ہے؟ |
| ? انسانی ارتقاء | کیا بڑی زبان کے ماڈلز اور مصنوعی جنرل انٹیلی جنس کو تبدیل کر سکتے ہیں؟ انسانی ارتقاء کا کورس؟ |
| ? انسانی مشین کا تعامل | کیا اس کا استعمال افراد کے لیے وقت کے ساتھ ساتھ ڈی اسکلنگ اور انحصار کا باعث بن سکتا ہے؟ ہیں۔ انسانی تعامل پر کیا اثرات ہیں؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? معاشرتی اقدار | کیا نظام بنیادی طور پر معاشرے کی نوعیت کو تبدیل کرتا ہے، ان خیالات کو معمول پر لانے کے قابل بناتا ہے جنہیں پہلے سماج مخالف سمجھا جاتا ہے، یا اس ثقافت کی سماجی اقدار کی خلاف ورزی ہوتی ہے جس میں اسے لاگو کیا جا رہا ہے؟ |
| ? سماجی تعاملات | کیا جذباتی تعلقات سمیت بامعنی انسانی رابطے پر کوئی اثر پڑتا ہے؟ |
| ? آبادی کی صحت | کیا نظام میں آبادی کی صحت کے ارادوں کو آگے بڑھانے یا کمزور کرنے کا کوئی امکان ہے؟ |
| ? ثقافتی اظہار | کیا ثقافتی تخصیص یا امتیازی سلوک میں اضافے کا امکان ہے یا اس کا ازالہ کرنا زیادہ مشکل ہے؟ کیا فیصلہ سازی کے لیے نظام پر انحصار معاشرے کے ثقافتی طور پر متعلقہ طبقاتی تعلقات کو خارج یا پسماندہ کرتا ہے؟ |
| ? عوامی تعلیم | کیا اساتذہ کے کردار یا تعلیمی اداروں پر کوئی اثر پڑتا ہے؟ کیا نظام طلباء کے درمیان ڈیجیٹل تقسیم اور عدم مساوات پر زور دیتا ہے یا اسے کم کرتا ہے؟ کیا علم یا تنقیدی تفہیم کی اندرونی قدر ترقی یافتہ ہے یا کمزور ہے؟ |
| ? مسخ شدہ حقائق | کیا سچائی کو جاننے کے لیے استعمال کیے جانے والے طریقے اب بھی لاگو ہوتے ہیں؟ کیا حقیقت کے ادراک سے سمجھوتہ کیا گیا ہے؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? صنعتی شعبہ | کس صنعتی شعبے میں نظام (فنانس، زراعت، صحت کی دیکھ بھال، تعلیم، دفاع وغیرہ) تعینات ہے؟ |
| ? بزنس ماڈل | کس کاروباری کام میں نظام کام کرتا ہے اور کس صلاحیت میں؟ نظام کہاں استعمال ہوتا ہے (نجی، عوامی، غیر منافع بخش)؟ |
| ? اہم سرگرمیوں پر اثرات | کیا نظام کے کام یا سرگرمی میں خلل ضروری خدمات یا اہم بنیادی ڈھانچے کو متاثر کرے گا؟ |
| تعیناتی کی وسعت | سسٹم کو کیسے تعینات کیا جاتا ہے (یونٹ کے اندر تنگ استعمال بمقابلہ قومی/بین الاقوامی سطح پر وسیع پیمانے پر)؟ |
| ? تکنیکی پختگی | نظام تکنیکی طور پر کتنا پختہ ہے؟ |
| ? انٹرآپریبلٹی | کیا قومی یا عالمی سطح پر ایسے سائلوز ہونے کا امکان ہے جو آزاد تجارت کو روکتے ہیں اور شراکت داروں کے ساتھ تعاون کو متاثر کرتے ہیں؟ |
| ? تکنیکی خودمختاری | کیا تکنیکی خودمختاری کے ڈرائیونگ رویوں کی خواہش، بشمول پوری AI سپلائی چین پر کنٹرول؟ |
| ? آمدنی کی دوبارہ تقسیم اور قومی مالیاتی لیور | کیا خودمختار ریاست کے بنیادی کرداروں سے سمجھوتہ کیا جا سکتا ہے (مثلاً ریزرو بینک)؟ کیا شہریوں کی توقعات اور مضمرات (سماجی، معاشی، سیاسی وغیرہ) کو پورا کرنے کی ریاست کی صلاحیت کو ترقی دی جائے گی یا کم ہو جائے گی؟ |
| ? ڈیجیٹل تقسیم (AI تقسیم) | کیا موجودہ ڈیجیٹل عدم مساوات بڑھ گئی ہے یا نئی پیدا ہوئی ہیں؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? گورننس اور عوامی خدمت | کیا گورننس میکانزم اور عالمی گورننس سسٹم مثبت یا منفی طور پر متاثر ہو سکتے ہیں؟ |
| ? نیوز میڈیا | کیا عوامی گفتگو کا پولرائزڈ اور آبادی کی سطح پر جڑ جانے کا امکان ہے؟ کیا فورتھ اسٹیٹ میں اعتماد کی سطح پر کوئی اثر پڑے گا؟ کیا روایتی صحافی اخلاقیات اور دیانتداری کے معیارات مزید متاثر ہوں گے؟ |
| ? قانون کی حکمرانی | کیا لوگوں یا تنظیموں کی شناخت کرنے کی اہلیت پر کوئی اثر پڑے گا تاکہ جوابدہ ہو (مثلاً، منفی نتائج کے لیے الگورتھم کو کس قسم کی جوابدہی تفویض کی جائے)؟ کیا خودمختاری کا نقصان ہوا ہے (ماحولیاتی، مالی، سماجی پالیسی، اخلاقیات وغیرہ)؟ |
| سیاست اور سماجی ہم آہنگی۔ | کیا زیادہ مضبوط سیاسی نظریات اور اتفاق رائے کے مواقع کم ہونے کا امکان ہے؟ کیا مزید پسماندہ گروہوں کا امکان ہے؟ کیا سیاست کے مخالف انداز کم یا زیادہ بنائے جاتے ہیں؟ |
| ? سماجی لائسنس | کیا رازداری کے خدشات، اعتماد کے مسائل اور اخلاقی خدشات ہیں جن پر اسٹیک ہولڈر کے استعمال کی قبولیت کے لیے غور کرنے کی ضرورت ہے؟ |
| ? دیسی علم | کیا مقامی معلومات اور ڈیٹا کو خراب یا غلط استعمال کیا جا سکتا ہے؟ کیا غلط بیانی، غلط معلومات اور استحصال سے بچانے کے لیے مناسب اقدامات ہیں؟ |
| ? سائنسی نظام | کیا علمی اور تحقیقی سالمیت سے سمجھوتہ کیا گیا ہے؟ کیا سائنس پر اعتماد کا نقصان ہے؟ کیا غلط استعمال، زیادہ استعمال یا زیادتی کے امکانات ہیں؟ سائنس کی مشق کا نتیجہ کیا ہے؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? صحت سے متعلق نگرانی | کیا نظام انفرادی رویے اور حیاتیاتی ڈیٹا پر تربیت یافتہ ہیں اور کیا وہ افراد یا گروہوں کے استحصال کے لیے استعمال کیے جا سکتے ہیں؟ |
| ? ڈیجیٹل مقابلہ | کیا ریاستی یا غیر ریاستی اداکار (مثلاً بڑی ٹیکنالوجی کمپنیاں) دوسرے ممالک کی آبادی اور ماحولیاتی نظام کو سمجھنے اور کنٹرول کرنے کے لیے نظام اور ڈیٹا کو استعمال کر سکتے ہیں، یا دائرہ اختیار کو کمزور کر سکتے ہیں؟ |
| ? جغرافیائی سیاسی مقابلہ | کیا یہ نظام اقتصادی، طبی اور سلامتی کے مفادات کے لیے انفرادی اور گروہی ڈیٹا کو استعمال کرنے پر قوموں کے درمیان مسابقت کو ہوا دے سکتا ہے؟ |
| ? عالمی طاقتوں میں تبدیلی | کیا دنیا کے بنیادی جیو پولیٹیکل اداکاروں کے طور پر قومی ریاستوں کی حیثیت خطرے میں ہے؟ کیا ٹکنالوجی کمپنیاں ایک بار قومی ریاستوں کے لیے مخصوص طاقت کا استعمال کرتی ہیں اور کیا وہ خود مختار، خودمختار اداکار (ابھرتی ہوئی ٹیکنو پولر ورلڈ آرڈر) بن گئی ہیں؟ |
| ? ڈس انفارمیشن | کیا یہ نظام سماجی ہم آہنگی، اعتماد اور جمہوریت پر اثر انداز ہونے والے ریاستی اور غیر ریاستی عناصر کے ذریعے غلط معلومات کی تیاری اور پھیلانے میں سہولت فراہم کرے گا؟ |
| ? دوہری استعمال کی ایپلی کیشنز | کیا فوجی استعمال کے ساتھ ساتھ سویلین استعمال دونوں کا کوئی امکان ہے؟ |
| ? عالمی نظم کا ٹکڑا | کیا سائلوز یا ریگولیشن اور تعمیل کے جھرمٹ تیار کر سکتے ہیں جو تعاون میں رکاوٹ بن سکتے ہیں، درخواست میں تضادات کا باعث بن سکتے ہیں اور تنازعہ کی گنجائش پیدا کر سکتے ہیں؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? توانائی اور وسائل کی کھپت (کاربن فوٹ پرنٹ) | کیا نظام اور ضروریات توانائی اور وسائل کی کھپت کو ایپلی کیشن کے ذریعے حاصل کردہ کارکردگی کے فوائد سے زیادہ بڑھاتے ہیں؟ |
| توانائی کا ذریعہ | نظام کے لیے توانائی کہاں سے حاصل کی جاتی ہے (قابل تجدید بمقابلہ فوسل فیول وغیرہ)؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? سمت اور مجموعہ | کیا ڈیٹا اور ان پٹ انسانوں، خودکار سینسرز یا دونوں کے ذریعے جمع کیے گئے ہیں؟ |
| ? اعداد و شمار کا ثبوت | کیا ماہرین سے ڈیٹا اور ان پٹ فراہم کیے گئے، مشاہدہ کیے گئے، مصنوعی یا اخذ کیے گئے ہیں؟ کیا پرویننس کی تصدیق کے لیے واٹر مارک تحفظات ہیں؟ |
| ? ڈیٹا کی متحرک نوعیت | کیا ڈیٹا ڈائنامک، سٹیٹک، ڈائنامک وقتاً فوقتاً اپ ڈیٹ ہوتا ہے یا ریئل ٹائم؟ |
| ? حقوق | کیا ڈیٹا ملکیتی، عوامی یا ذاتی ہے (قابل شناخت افراد سے متعلق)؟ |
| ? شناخت اور ذاتی ڈیٹا | اگر ذاتی ہے تو کیا ڈیٹا گمنام یا تخلص ہے؟ |
| ? ڈیٹا کی ساخت | کیا ڈیٹا سٹرکچرڈ، نیم اسٹرکچرڈ، کمپلیکس اسٹرکچرڈ یا غیر اسٹرکچرڈ ہے؟ |
| ? ڈیٹا کی شکل | کیا ڈیٹا اور میٹا ڈیٹا کا فارمیٹ معیاری ہے یا غیر معیاری؟ |
| ? ڈیٹا کا پیمانہ | ڈیٹاسیٹ کا پیمانہ کیا ہے؟ |
| ? ڈیٹا کی مناسبیت اور معیار | کیا ڈیٹاسیٹ مقصد کے لیے موزوں ہے؟ کیا نمونہ کا سائز کافی ہے؟ کیا یہ نمائندہ اور مکمل ہے؟ ڈیٹا کتنا شور ہے؟ کیا یہ غلطی کا شکار ہے؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? معلومات کی دستیابی | کیا سسٹم کے ماڈل کے بارے میں کوئی معلومات دستیاب ہے؟ |
| ? AI ماڈل کی قسم | کیا ماڈل علامتی ہے (انسانی تخلیق کردہ قواعد)، شماریاتی (ڈیٹا استعمال کرتا ہے) یا ہائبرڈ؟ |
| ? ماڈل سے وابستہ حقوق | کیا ماڈل اوپن سورس ہے یا ملکیتی، خود یا فریق ثالث کا انتظام ہے؟ |
| ? متعدد ماڈلز کا سنگل | کیا نظام ایک ماڈل یا کئی باہم جڑے ہوئے ماڈلز پر مشتمل ہے؟ |
| ? پیدا کرنے والا یا امتیازی | کیا ماڈل تخلیقی، امتیازی یا دونوں ہے؟ |
| ? ماڈل بلڈنگ | کیا نظام انسانی تحریری اصولوں کی بنیاد پر، ڈیٹا سے، زیر نگرانی سیکھنے یا کمک سیکھنے کے ذریعے سیکھتا ہے؟ |
| ? ماڈل ارتقاء (AI بہاؤ) | کیا ماڈل تیار ہوتا ہے اور/یا فیلڈ میں ڈیٹا کے ساتھ بات چیت کرنے سے صلاحیتیں حاصل کرتا ہے؟ |
| ? وفاقی یا مرکزی تعلیم | کیا ماڈل مرکزی طور پر تربیت یافتہ ہے یا کئی مقامی سرورز یا 'ایج' آلات میں؟ |
| ? ترقی / دیکھ بھال | کیا ماڈل یونیورسل، مرضی کے مطابق یا AI اداکار کے ڈیٹا کے مطابق ہے؟ |
| ? تعین یا امکانی | کیا ماڈل کو تعییناتی یا احتمالی انداز میں استعمال کیا جاتا ہے؟ |
| ? ماڈل شفافیت | کیا صارفین کے لیے معلومات دستیاب ہیں تاکہ وہ ماڈل آؤٹ پٹ اور حدود کو سمجھ سکیں یا رکاوٹوں کو استعمال کر سکیں؟ |
| ? کمپیوٹیشنل حد | کیا سسٹم میں کمپیوٹیشنل حدود ہیں؟ کیا صلاحیت میں اضافے یا اسکیلنگ قوانین کی پیش گوئی کرنا ممکن ہے؟ |
| ٹینڈر | اس کی مثالیں تجزیہ میں کیسے جھلک سکتی ہیں۔ |
| ? سسٹم کے ذریعہ انجام دیئے گئے کام | نظام کون سے کام انجام دیتا ہے (تسلیم، واقعہ کا پتہ لگانا، پیشن گوئی وغیرہ)؟ |
| ? کاموں اور اعمال کو یکجا کرنا | کیا نظام کئی کاموں اور اعمال کو یکجا کرتا ہے (مواد پیدا کرنے کے نظام، خود مختار نظام، کنٹرول سسٹم وغیرہ)؟ |
| ? نظام کی خودمختاری کی سطح | نظام کے اعمال کتنے خود مختار ہیں اور انسان کیا کردار ادا کرتے ہیں؟ |
| ? انسانی شمولیت کی ڈگری | کیا AI نظام کی مجموعی سرگرمی کی نگرانی اور کسی بھی صورت حال میں AI نظام کو کب اور کیسے استعمال کرنا ہے اس کا فیصلہ کرنے کی صلاحیت میں کچھ انسانی شمولیت ہے؟ |
| ? بنیادی درخواست | کیا سسٹم کا تعلق بنیادی ایپلیکیشن ایریا سے ہے جیسے انسانی زبان کی ٹیکنالوجیز، کمپیوٹر ویژن، آٹومیشن اور/یا اصلاح یا روبوٹکس؟ |
| ? تشخیص | کیا سسٹم آؤٹ پٹ کا جائزہ لینے کے لیے معیارات یا طریقے دستیاب ہیں؟ |
اس فریم ورک کو کیسے استعمال کیا جا سکتا ہے؟
اس فریم ورک کو کئی طریقوں سے استعمال کیا جا سکتا ہے، بشمول:
آگے کا راستہ
خلاصہ طور پر، تجزیاتی فریم ورک ایک ٹول کٹ کی بنیاد کے طور پر فراہم کیا گیا ہے جسے اسٹیک ہولڈرز پلیٹ فارمز میں سے کسی بھی اہم پیش رفت کو یا تو مستقل اور منظم طریقے سے استعمال کرنے کے لیے استعمال کر سکتے ہیں۔ اس فریم ورک میں پیش کردہ جہتوں کا تعلق ٹیکنالوجی کی تشخیص سے لے کر عوامی پالیسی تک، انسانی ترقی سے لے کر سماجیات تک، اور مستقبل اور ٹیکنالوجی کے مطالعے تک ہے۔ جب کہ AI کے لیے تیار کیا گیا ہے، یہ تجزیاتی فریم ورک کسی بھی دوسری ابھرتی ہوئی ٹیکنالوجی کے لیے بہت وسیع تر اطلاق رکھتا ہے۔
6 یو این اے آئی ایڈوائزری بورڈ۔ 2023. عبوری رپورٹ: گورننگ اے آئی فار ہیومینٹی۔ https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
منظوریاں
ابتدائی ڈسکشن پیپر اور اس کے ریلیز ہونے کے بعد فیڈ بیک دونوں کی ترقی میں بہت سے لوگوں سے مشورہ کیا گیا ہے اور فیڈ بیک فراہم کیا گیا ہے۔ دونوں کاغذات کا مسودہ تیار کیا گیا تھا۔ Sir Peter Gluckman گلک مین، صدر، آئی ایس سی اور ہیما سریدھر، سابق چیف سائنس ایڈوائزر، وزارت دفاع، نیوزی لینڈ اور اب سینئر ریسرچ Fellow، یونیورسٹی آف آکلینڈ، نیوزی لینڈ۔
خاص طور پر، ISC لارڈ مارٹن ریس، رائل سوسائٹی کے سابق صدر اور سینٹر فار دی اسٹڈی آف ایکسسٹینشل رسکس کے شریک بانی، یونیورسٹی آف کیمبرج؛ پروفیسر شیواجی سوندھی، فزکس کے پروفیسر، آکسفورڈ یونیورسٹی؛ پروفیسر کے وجے راگھون، حکومت ہند کے سابق پرنسپل سائنسی مشیر؛ امندیپ سنگھ گل، اقوام متحدہ کے سیکرٹری جنرل کے ایلچی برائے ٹیکنالوجی؛ Seán Ó hÉigeartaigh، ایگزیکٹو ڈائریکٹر، سینٹر فار دی اسٹڈی آف ایکسسٹینشل رسکس، یونیورسٹی آف کیمبرج؛ سر ڈیوڈ سپیگل ہالٹر، ونٹن پروفیسر آف دی پبلک انڈرسٹینڈنگ آف رسک، یونیورسٹی
کیمبرج کے؛ Amanda-June Brawner، سینئر پالیسی ایڈوائزر اور Ian Wiggins، ڈائریکٹر بین الاقوامی امور، رائل سوسائٹی، یونائیٹڈ کنگڈم؛ ڈاکٹر جیروم ڈوبیری، منیجنگ ڈائریکٹر اور ڈاکٹر میری لور سیلز، ڈائریکٹر، جنیوا گریجویٹ انسٹی ٹیوٹ؛ Chor Farn Lee, Center for Strategic Futures, Prime Minister's Office, Singapore; بیرینڈ مونس اور ڈاکٹر سائمن ہوڈسن، ڈیٹا پر کمیٹی (CoDATA)؛ پروفیسر یوکو ہرایاما، سابق ایگزیکٹو ڈائریکٹر، RIKEN؛ پروفیسر
Rémi Quirion، صدر، INGSA؛ ڈاکٹر کلیئر کریگ، آکسفورڈ یونیورسٹی اور فارسائٹ کے سابق سربراہ، گورنمنٹ آفس آف سائنس؛ پروفیسر یوشوا بینجیو، اقوام متحدہ کے سیکرٹری جنرل کے سائنسی مشاورتی بورڈ اور یونیورسٹی ڈی مونٹریال میں؛ اور بہت سے دوسرے جنہوں نے ابتدائی بحث کے مقالے پر ISC کو فیڈ بیک فراہم کیا۔
AI کے لیے نیشنل ریسرچ ایکو سسٹم کی تیاری: 2024 میں حکمت عملی اور پیش رفت
آئی ایس سی کے تھنک ٹینک، سنٹر فار سائنس فیوچرز کا یہ ورکنگ پیپر AI کو ان کے تحقیقی ماحولیاتی نظام میں ضم کرنے کے مختلف مراحل پر، بنیادی معلومات اور دنیا کے تمام ممالک سے وسائل تک رسائی فراہم کرتا ہے۔
گلوبل ساؤتھ میں مستقبل کے لیے تیار سائنس سسٹمز کی تعمیر
ابھرتی ہوئی ٹیکنالوجیز سائنس کے انعقاد کے طریقے کو نئی شکل دے رہی ہیں اور گلوبل ساؤتھ میں سائنس کے نظام کو مضبوط بنانے کی اہم صلاحیت پیش کر رہی ہیں – اگر ان کو اپنانے کی رہنمائی جامع، اچھی حمایت یافتہ، اور سیاق و سباق سے متعلق حساس طریقوں سے کی جائے۔ موجودہ تفاوت کو تقویت دینے کے بجائے یہ ٹیکنالوجیز زیادہ منصفانہ اور لچکدار سائنس کے نظاموں میں شراکت کو یقینی بنانے کے لیے کس طرح، اس حالیہ اسٹریٹجک پسپائی کا مرکزی مرکز تھا۔