۱-۶-۲-۲ کاربردهای سیستم های خبره و مسائل اخلاقی مربوط به آنها
از سیستم های خبره در بخش های زیادی از زندگی انسان، از جمله در تکنولوژی جنگی و ارتش و یا در بیمارستانها و یا برای آموزش استفاده می شود و هر کدام از این کاربردها، مستلزم بروز انواعی از مسائل اخلاقی است. مثلاً در مورد شبکه های برق، مدیران شبکه های برقی باید بین تقاضاهایی که برای نیرو از طرف صنعت و عامه مردم مطرح می شود، تعادلی برقرار کنند تا در موارد ضروری بتوانند از هر دو طرف حفاظت کنند. در طول افزایش ولتاژها و طول موج ها، آنها تصمیم می گیرند که برق چه کسی قطع شود. حال این تصمیم گیرندگان، چه انسان باشند چه نرم افزار، هنگام تصمیم گیری با ارشهایی مواجه هستند؛ از جمله ارزش حمایت از تجهیزات در مقابل آسیب ناشی از قطع برق و کم کردن صدمات وارد شده به مصرف کنندگان. اگر تجهیزات آسیب ببینند، همانطور که زمان ترمیم خدمات بیشتر می شود، آسیب ها هم زیاد می شوند. این تصمیمات گزاره های ارزشی را در بر دارند. همانطور که سیستم ها به طور فزاینده ای خودمختارتر می شوند، آن گزاره ها دیگر در اختیار کاربران انسانی نیستند. سیستم هایی که در شرایط نامطمئن نمی توانند در تصمیمات خود ارزشها را اعمال کنند، عامل بروز فاجعه هستند.
۱-۶-۲-۲-۱ سیستم های خبره جنگی
یک نمونه از این سیستم ها، وسایل نقلیه ای که از دور به کار انداخته می شوند[۲۰۴] یا همان (ROV ) ها، از قبل در ارتش گسترش یافته اند. در اکتبر ۲۰۰۷، مؤسسه قانونی “فاستر- میلر" [۲۰۵]برای آرایش نیروهای نظامی سه ماشین نظامی قابل کنترل از راه دور را که اسلحه حمل می کردند، به عراق فرستاد که از اسلحه های خاص روباتی مشاهده سیستم عمل مستقیم از راه دور[۲۰۶] ( SWORDS ) استفاده می کردند.
یک شرکت دیگر، شرکت آی روبوت[۲۰۷]، که بسته های روباتی اش به طور گسترده ای در عراق قرار گرفته اند هم جنگاور X700 را معرفی کرده است، یک روبات نظامی که می تواند اسلحه حمل کند و از نیمه دوم سال ۲۰۰۸ در دسترس بوده است. اما ابزارهای روباتی در حد ROV ها متوقف نخواهد ماند. سیستم های روباتی نیمه اتوماتیک، موشک های گشت زن، توانایی حمل بمب را دارند. همچنین ارتش از روباتهای نیمه اتوماتیکی استفاده می کند که برای در اختیار گذاشتن بمب و نظارت طراحی شده اند.کنگره ایالات متحده در سال ۲۰۰۰ سفارش داد که یک سوم از وسایل نقلیه زمینی ارتش و هواپیماهای دوربرد، با وسایل نقلیه روباتیک تعویض شوند. طبق گزارش روزنامه نیویورک تایمز[۲۰۸] در سال ۲۰۰۵، هدف پنتاگون جایگزینی سربازها با روباتهای خودمختار است.
برخی از مردم فکر می کنند که انسان ها باید ساخت روبات ها را، اگر آنها فقط برای جنگاوری استفاده می شوند، به کلی متوقف کنند. این احساس،هم می تواند شایسته باشد، و هم ممکن است با این اصل مواجه شود که چنین سیستم هایی جان سربازان و پرسنل اجرایی قانون را نجات خواهند داد. ما نمی دانیم چه کسی برنده این جدال سیاسی خواهد بود، اما می دانیم که اگر طرفداران ماشین های رزمی برنده جدال شوند، اکنون زمان آن خواهد بود که درباره محدودیت های اخلاقی موجود در آن فکر کنیم. “رولند آرکین”[۲۰۹] ، روبات شناس در مؤسسه تکنولوژی جورجیا [۲۱۰]،در سال ۲۰۰۷ سرمایه هایی را از ارتش ایالت متحده برای به توسعه نرم افزاری و سخت افزاری، دریافت کرد تا ماشین های روباتیک جنگنده را قادر سازد از استانداردهای اخلاقی جنگاوری پیروی کنند. این خطوط هدایتی نسبتاَ گسترده، برای مردم متمدن قابل احترام هستند، و از حقوق افراد غیر نظامی تا حقوق سربازان دشمن که در تلاش برای تسلیم هستند ، را در بر می گیرند. اما اطمینان حاصل کردن از اینکه روباتها از استانداردهای اخلاقی جنگاوری پیروی می کنند یا نه، یک موضوع نامشخص است.
در هر صورت احتمال بروز فاجعه انسانی با بهره گرفتن از روبات ها، آشکار است. همانطور که سیستم های روباتیک در هر سطح کوچکی از جامعه، از امور مالی گرفته تا روابط امنیت عمومی،همه گیر می شوند، پتانسیل واقعی صدمه وارد کردن هم بیشتر می شود.
۱-۶-۲-۲-۲ سیستم های خبره در بیمارستان
به احتمال زیاد رویکردهای ابتدایی به اخلاق ماشین، به شکل نرم افزار های پشتیبان در خدمت تصمیم گیرندگان قرار خواهند گرفت. اما این خطر وجود دارد که این ابزارهای پشتیبان، از کاربرانی حمایت کنند که خروجی ماشینها را جایگزین تفکر انتقادی خود می کنند.دو دانشمند اجتماعی به نام های پیتر کان[۲۱۱]و باتری فریدمن[۲۱۲] این نگرانی را درمورد ابزارهای پشتیبان تصمیم گیری[۲۱۳] (DsTs) مطرح کرده اند.
کان و فریدمن معتقدند که کارکرد DsTs ها بگونه ای است که باعث می شود انسانها از زیر بار مسئولیت اخلاقی را شانه خالی کنند و این احتمال وجود دارد که DSTها در نهایت بتوانند فرایند تصمیم گیری را کنترل کنند.
اما چرا این یک چیز بد خواهد بود؟ دیدگاه کان و فریدمن این است که آنها فکر می کنند که محاسبه مسئولانه نیازمند یک فاعل کاملاً آگاه است که نسبت به هر تصمیمی مسئول باشد.این امر در مورد برخی زمینه های مهم - مثل تصمیم گیری درباره زندگی و مرگ در بیمارستانها –لازم است.
کان و فریدمن از بکارگیری یک DsT در بخش مراقبت های ویژه (ICU) یک بیمارستان استفاده می کنند تا امور مربوط به آنها را تشریح کنند. آنها روی APACHE، یک مدل پشتیبان تصمیم گیری مبتنی بر کامپیوتر که تعیین فرآیندهای معالجه را برای بیمارانی که در ICU هستند تسهیل می کند، متمرکز می شوند. سپس نتیجه را اینگونه بیان می کنند:
“ممکن است برای کارکنان انتقادی بخش مراقبت های ویژه این موضوع یک نوع تمرین باشد که طبق توصیه های APACHE ها تا حدی اتوماتیک عمل کنند، و بطور فزاینده ای حتی برای یک پزشک با تجربه مشکل است که با خود مختاری توصیه های APACHE چالش داشته باشند ….اما در این حالت- سیستم مشورتی باز……. در واقع تبدیل به یک سیستم بسته شده است که در آن پیش بینی کامپیوتر، تصمیمات کلینیکالی را دیکته می کند”[۲۱۴]
وقتی که کان و فریدمن مقاله خود را در سال ۱۹۹۲ نوشتند، سیستم APACHE نمونه اصلی بود. آخرین نمونه ارتقاء یافته ۱۱۱- APACHE، یک پایگاه اطلاعاتی در بر دارد همراه با اطلاعاتی در مورد بیشتر از ششصد هزار بیمار در ICU.این سیستم ادعا می کند که به بیمارستانها کمک می کند تا تغییراتی را که می توانند در روند خود ایجاد کنند را معرفی کنند، مثلاً کاهش طول زمانی که بیمار در ICU می ماند - وبنابراین کاهش هزینه بیمارستان.
آیا حضور APACHE در بیمارستان منجر به کاهش خودمختاری پزشکان شده است؟ بیان پاسخی برای این سؤال بسیار سخت است. اگر پزشکانی که از سیستم پشتیبان تصمیم گیری استفاده می کنند نسبت به سایر پزشکان بتوانند کار بهتری برای بیماران خود انجام دهند، نمی توان گفت که کاهش خودمختاری پزشکان چیز بدی است. با این وجود تشخیص خطری که کان و فریدمن آن را برجسته می کنند مهم است- خطر پزشکانی که ارزیابی درمان بیمار را به عهده ماشین می گذارند.
همچنین کان و فریدمن، دورنمایی از یک سیستم APACHE را ملاحظه کردند که ممکن است روزی از آن، بدون هیچ دخالت مستقیمی توسط انسان تصمیم گیرنده برای خاموش کردن سیستم پشتیبان زندگی استفاده شود. این تفکر ممکن است هشدار دهنده باشد، اما در طول یک دهه و نیمی که از مطرح شدن این نگرانی می گذرد، ما هیچ نمونه عینی را ندیده ایم که کنترل کامل ماشینی روی تصمیم های مرگ و زندگی، دقیق تر از این شده باشد. قبل از آنکه هر شخصی چنین قدم مؤثری بردارد، نرم افزار موجود باید به سطحی ازخبرگی برسد که بتواند از میزان حساسیت اخلاقی هر چیزی که با آن روبه رو می شود، بسیار فراتر رود. APACHE فقط تصور خیلی محدودی از آنچه که بطور اخلاقی به موقعیت ICU مربوط است، دارد. از DsT که بیشتر روی اخلاق متمرکز است انتظار می رود که فقط به بقای بیمار توجه نداشته باشد، بلکه به موضوعاتی از این قبیل هم توجه کند که آیا این مطالعه با خواسته های بیمار و خانواده اش سازگار است، و یا اینکه نتیجه مورد انتظار معالجه، زندگی با کیفیتی را که برای بیمار پذیرفتنی باشد را فراهم خواهد کرد. اینها ملاحظاتی از خودمختاری و سعادت بیمار هستند که معمولاً در مکالمه کامل و باز بین یک پزشک و بیمار به بهترین شکل پاسخ داده می شوند و ممکن است به همین شکل عوامل انسانی دیگر را هم در بر بگیرند. مثل یک همسر یا یک مشاور مذهبی که بیمار از آنها برای شرکت در بحث دعوت می کند.
به طور کلی سیستم پشتیبان تصمیم گیری نباید مجاز باشد که با خطا تصمیم گیری کند. اما این نیاز به DsT های خبره تر را که حوزه گسترده تری از جزئیات مربوط به اخلاق را تبیین می کنند را مرتفع نمی کند- به عبارت دیگر DsT هایی که بیشتر شبیه AMAها هستند. سیستمی که ۹۰ درصد از تصمیماتش درست هستند فقط از یک معیار کور اخلاقی استفاده می کند- مثلاً نرخ های عینی بقا- ممکن است آن ۱۰ درصد گم شده مواردی باشد که قضاوتهای اخلاقی بیشترین اهمیت را آنجا دارند.
امروزه، عملکرد سیستم های کامپیوتری می تواند به تنهاییاز اهمیت چندانی برخوردار نباشد، اما با این وجود به طور یکجا بسیار جدی است. پیتر نورویگ[۲۱۵]، کارگردان تحقیق در گوگل[۲۱۶] متذکر می شود که :
“امروزه در ایالات متحده هر روز بین ۱۰۰ تا ۲۰۰ مرگ در اثر خطای پزشکی
وجود دارد و بسیاری از آنها توسط کامپیوترها انجام می شوند. اینها خطاهایی
هستند مثل دادن داروی اشتباه، و یا محاسبه مقدار اشتباهی از دارو.”[۲۱۷]
با عمومیت یافتن اینترنت در عصرIT و با افزایش دسترسی به اطلاعات، معمای اخلاقی دیگر، حفاظت از اسرار بیماران و حریم خصوصی آنها است. در بیمارستان ها اطلاعات شخصی مربوط به هر بیمار به صورت کامپیوتری ثبت می شود و همین امر باعث صرفه جویی در هزینه ها و سرعت انجام امور است، اما حریم خصوصی و حفظ اسرار بیمار به هنگام انتقال این اطلاعات از طریق شبکه های ارتباطی مخابراتی، در معرض خطر قرار می گیرد. این امر به خاطر آن است که ارتباطات الکترونیکی از طریق تلفن، ایمیل، ماشین های فکس و کامپیوترها می تواند در موقع انتقال اطلاعات، قطع شود و این اطلاعات توسط افراد دیگر خوانده شوند و یا تغییر پیدا کنند. هکرها به صورت بالقوه می توانند به اطلاعات دارویی در یک شبکه دسترسی داشته باشند و اشتباهات کاربران هم می تواند منجر شود به اینکه مثلاً اطلاعات پزشکی به یک آدرس اشتباه فرستاده شوند. در آگوست سال ۲۰۰۰، اعلام شد که به خاطر اشتباهات انسانی، اطلاعات محرمانه ۸۵۸ نفر از اعضای مؤسسه مراقبتهای بهداشتی کایسر[۲۱۸]، در اختیار دیگران قرار گرفت.[۲۱۹] در سال ۲۰۰۱، مرکز پزشکی دانشگاه واشنگتن [۲۲۰] اعلام کرد که “یک هکر به یکی از پایگاه های اطلاعات این دانشگاه که حاوی اطلاعات محرمانه حداقل ۵۰۰۰ بیمار است، دسترسی پیدا کرده است.”[۲۲۱] استفاده نادرست از اطلاعات محرمانه بیمار، ممکن است باعث تحقیر شخصیت او و از دست رفتن آبرویش شود. بعلاوه، از آنجایی که جمع آوری و ذخیره الکترونیکی اطلاعات مربوط به سلامت فرد، نمی تواند تضمین کننده حفظ حریم خصوصی او باشد، بیمار، روی کسانی که این تاریخچه پزشکی را می بیند و از آن سوء استفاده می کنند، هیچ قدرت قضایی ای ندارد.
۱-۶-۲-۲-۳ تله پزشکی[۲۲۲]
“تله پزشکی، پزشکان و مشاوران را قادر می کند تا بدون نیاز به سفر و از راه های دور، به مداوای بیماران بپردازند. تله پزشکی، مرزهای جغرافیایی را حذف می کند و باعث می شود که تجهیزات پزشکی و مراقبتهای ویژه با کیفیت بالا، در دسترس همه باشد، هم فقیر و هم ثروتمند. متأسفانه همانطور که دانش پزشکی به شکل الکترونیکی منتقل می شود، امکان قطع شدن اطلاعات و تغییر آنها هم وجود دارد".[۲۲۳]
۱-۶-۲-۲-۴ پزشکی سایبری[۲۲۴]
وابستگی ذاتی پزشکی سایبری به اینترنت، دسترسی بیماران به متخصصان و اطلاعات را افزایش می دهد، اما به همان صورت حریم خصوصی آنها را هم در معرض خطر بیشتری قرار می دهد. با توجه به اینکه در پزشکی سایبری، پزشکان ناشناسی هستند که وب سایت هایی را ایجاد می کنند تا بیماران ناشناس را معالجه کنند، نقل و انتقال ایمیلی، بهترین وسیله ارتباطی بین پزشکان و بیماران است. پیام های ایمیلی بیماران به پزشکان، محرمانه هستند و ممکن است بخشی از اطلاعات محرمانه بیمار باشند. با این وجود، ایمیل خیلی راحت تر از خطوط ارتباطی تلفنی زمینی قطع می شود و مسائل امنیتی ای را مطرح می کند. ایمیل ممکن است به دست افراد دیگری برسد و بیمار هم نداند. همچنین اطلاعات ایمیل ها، حتی زمانی که هارد دیسک فرد بیمار پاک می شود، در یک سرور مرکزی ذخیره می شوند و برای همیشه وجود دارند.
علاوه بر مسائل مربوط به ایمیل، لازم است که بیماران آنلاین، اطلاعات شخصی و سوابق پزشکی خود را در اختیار وب سایت قرار دهند. بنابراین، پزشکی سایبری به سادگی در مقابل حفظ حریم خصوصی آسیب پذیر است. خاصیت گمنام بودن در اینترنت، باعث می شود که بیمارن بتوانند با آرامش بیشتری درباره مسائل حساس و شرم آور مشاوره بگیرند و بیشتر به سمت پزشکی سایبری بروند. از این رو برخورد بین قابلیت در دسترس بودن و حفظ اسرار، مسائل اخلاقی ای را به وجود می آورد.
در جائیکه بین علایق اقتصادی پزشک و سلامت بیمار تنش وجود دارد، ممکن است صلاحیت پزشک مورد تردید قرار گیرد. علی رغم اینکه انجمن های پزشکی امریکا به طور متناوب اعلام می کنند که “پزشکان، مؤسس شرکت های تجاری نیستند و نباید باشند”[۲۲۵]، اما مطالعات بیشماری نشان می دهد که تعداد وب سایت های پزشکی افزایش شدیدی داشته است. گزارشاتی وجود دارد مبنی بر اینکه صفحات وب پزشکی، بیماران را به گمراهی کشانده اند. برای مثال، “یک وب سایت اطلاعات پزشکی بسیار محبوب به نام دکتر کوپ[۲۲۶] متهم است به اینکه آنقدر از تبلیغات در سایت خود استفاده کرده که تمایز بین اطلاعات پزشکی و تبلیغات، از بین رفته است.”[۲۲۷] بنابراین، در جایی که پزشکی و تجارت الکترونیک باهم ادغام می شوند و علایق اقتصادی بر سعات بیمار ارجحیت پیدا می کند، یک معمای اخلاقی واقعی به وجود می آید.
روابط مبهم بین پزشک و بیمار، محصول فعالیت پزشکی در عصر IT هستند. فاصله زیاد و غیر عادی یا مشاوره ای آنلاین که در تله پزشکی و پزشکی سایبری وجود دارند، باعث می شوند که تعریف رابطه پزشک-بیمار سخت باشد. این رابطه چه وجود داشته باشد چه نه، در برخی مواقع خودش تبدیل به یک معمای اخلاقی می شود، زیرا مستقیماً روی رابطه پزشک با بیماران، دیگر پزشکان، سیستم بهداشتی و جامعه تأثیر می گذارد. بدون دانستن وظیفه اخلاقی دکتر نسبت به بیمار، ممکن نیست بتوان تعیین کرد که آیا دکتر در معالجه بیمار، تمام توان خود را بکار گرفته است یا نه، و بنابراین، نمی توان گفت که آیا ارزش های حرفه ای در اخلاق، مثل صلاحیت داشتن، را می توان به پزشک نسبت داد یا نه.
پزشکی که از راه دور اطلاعات بیماری را بررسی می کند که هیچگاه اورا ملاقات نکرده و با او تعاملی نداشته است، می تواند ادعا کند که هرگز رابطه ای بین بیمار و پزشک وجود نداشته است. یک سؤال اساسی اخلاقی می تواند این باشد که آیا مشاور پزشکی یک وب سایت، نسبت به بیماران خود وظیفه اخلاقی دارد یا نه و آیا یک رابطه آنلاین، مستلزم یک رابطه آف لاین هم هست؟
از هوش مصنوعی در تکنولوژی بیمارستانی بسیار استفاده می شود، مثل ابزارهای اندازه گیری فشار خون. این کار هزینه ها را کم می کند، خروجی کلینیکی را افزایش می دهد، و باعث بهبود مراقبت ها می شود. همانطور که ما بطور فزاینده ای به کامپیوترها وابسته می شویم، یک معمای کلیدی اخلاقی مطرح می شود. این معما آن است که کامپیوترها چه زمانی و چگونه باید در بیمارستانها مورد استفاده قرار گیرند؟ شبیه سازی های مجازی از واقعیت با گرافیک بالا و قابلیت تغییر آناتومی، پاتولوژی و مسائل مربوط به عمل جراحی، می توانند در شبیه سازی های قبل از عمل جراحی مورد استفاده قرار گیرند. در مواردی که شبیه سازی تشخیص می دهد که بیمار برای عمل جراحی آماده نیست، جراح با یک معمای اخلاقی مواجه می شود: آیا شبیه سازی را باور کند وعمل جراحی را متوقف کند یا نه؟
یک چارچوب اخلاقی و قابل درک لازم است تا موضوعات اخلاقی را مطابق آن بررسی کرد. همانطور که رئیس جمهور سابق امریکا، بیل کلینتون، می گوید:” هیچ چیز خصوصی تر از سوابق پزشکی یا روانی فرد نیست؛ بنابراین اگر ما بخواهیم در عصر اطلاعات به آزادی معنای کاملی ببخشیم، زمانی که بیشترین تعداد کارکنان ما در جایی پشت کامپیوترها هستند، ما باید از حریم خصوصی اطلاعات مربوط به سلامت افراد دفاع کنیم.”[۲۲۸]
قوانینی مثل “قانون فدرال حمایت از حریم خصوصی”[۲۲۹] در سال ۱۹۹۴، وضع شدند تا از حریم خصوصی افراد دفاع کنند. مردم می توانند به سابقه دکترها در اینترنت دسترسی داشته باشند و این امر کمک می کند تا بیماران بتوانند صلاحیت پزشکان سایبری را بررسی کنند. یک چارچوب اخلاقی گسترده برای تعریف رابطه بین بیمار-پزشک در تله پزشکی و پزشکی سایبری مورد نیاز است، چارچوبی که در آن نقش دکتر مورد توجه قرار گرفته باشد و بیماران مطمئن باشند که معالجات باکیفیتی روی آنها انجام می شود. دکترها باید با چیزی بیشتر از یک ماشین آشنا باشند تا بتوانند اشتباهات و اطلاعات نادرست را در سیستم های کامپیوتری تشخیص دهند و مطمئن شوند که تصمیمات درستی می گیرند
۱-۶-۲-۳ سیستم های مبتنی بر بینایی کامپیوتری چه مسائل اخلاقی ای را به وجود می آورند؟
از جمله مسائلی که استفاده از سیستم های مبتنی بر بینایی کامپیوتری ممکن است ایجاد کنند، مسائل اخلاقی ای است که توسط سیستم هایی به نام AmI ایجاد می شود. این ها سیستم هایی هستند که برای مراقبت از سالمندان در منازل آنها به کار برده می شوند. مراقبت های بهداشتی از سالمندان از اهمیت اقتصادی و اجتماعی ویژه ای برخوردار است. سازمان بهداشت جهانی[۲۳۰] بیان می کند که: “بین سال های ۱۹۷۰ تا ۲۰۲۵، ۲۲۳% در جمعیت سالمندان رشد خواهیم داشت.”[۲۳۱]هر روش، تکنولوژی یا تکنیکی که کمک کند تا سالمندان بتوانند زندگی خود را اداره کنند، توانایی کمک به افراد، خانواده ها و جامعه را دارد. به همین منظور، پژوهشگران دانشگاه دی مونت فورت[۲۳۲] در حال ساخت سیستم های نظارتی ای هستند تا بتوانند اطلاعاتی را از افراد مسن در موقعیت ها و محیط های گوناگون دریافت کنند. از این اطلاعات می توان برای یادگیری رفتار این افراد و طراحی و ساخت تکنولوژی های بعدی هم استفاده کرد.
یکی از سیستم هایی که در دانشگاه دی مونت فورت روی آن کار می کنند، تکنولوژی ای است که با تکیه بر بینایی کامپیوتری به تعقیب افراد در خانه و محیط آنها می پردازد.روش های متفاوتی برای عکس برداری از این افراد وجود دارد؛ مثل دوربین های RGB، دوربین های مادون قرمز و غیره.
از جمله فواید استفاده از این تکنولوژی برای مراقبت از سالمندان می توان موارد ذیل را برشمرد:
“۱- احساس امنیت: این سیستم های پیگیری باعث می شوند که خانواده ها و یا پرستاران کاربران این سیستم ها، بویژه سالمندانی که ممکن است تنها زندگی کنند، این شانس را داشته باشند که بر سوژه خود نظارت کافی داشته باشند. سالمندان می دانند که یک نفر می تواند مراقب آنها باشد، زیرا این سیستم قادر است که حرکات آنها را پیگیری کند و بصورت بالقوه تغیرات غیر معمولی، مثل افتادن را تشخیص دهد، و همین امر باعث می شود که سالمند احساس امنیت کند.
مسائل اخلاقی در هوش مصنوعی۱