خصوصی در اینترنت، می توانند در حفظ ارزش های انسانی مثل امنیت، سلامت روانی، درک از خود، و آرامش ذهن مفید باشند. متأسفانه از حریم خصوصی و گمنامی، می توان برای تسهیل فعالیت های ناخوشایند در فضای مجازی، مثل پولشویی، تجارت مواد مخدر، تروریسم، یا شکارافراد آسیب پذیر، استفاده کرد. 194
يك موضوع مهم كه در اخلاق ماشين و اخلاق كامپيوتر مشترك است، مربوط است به روبات هاي استخراج كننده كه در وب پرسه مي زنند و بدون توجه به استانداردهاي حريم خصوصي اطلاعاتي را جستجو مي كنند. آنها به راحتی می توانند اطلاعات کامپیوترها را کپی کنند و به این ترتیب حریم خصوصی و حقوق مالکیت فکری را زیر پا بگذارند. مثلاً پروژه Internet Archive (آرشيو اينترنتي) عكس هايی را از سال 1966 از اينترنت ذخيره كرده است و از طريق ماشين “وی بک”195 خود آنها را در دسترس همه قرار داده است. در حاليكه مكانيسمي وجود دارد که بتوان آنها را از اینترنت پاک کرد، موارد زيادي وجود داشته اند كه قربانيان يا مقصران جنايات اثري را روي ماشين وی بک جا گذاشته اند، اگرچه سايت اصلي آنها پاك شده است. اكنون، ‌روباتهاي جمع آوري كننده داده كه توسط آرشيو اينترنتي مورد استفاده قرار مي گيرند صلاحيت تعيين اهميت اخلاقي موادي كه جمع آوري كرده اند را ندارند.
1-6-2-1-4 مالکیت فکری196
یکی از بحث برانگیزترین موضوعات اخلاق کامپیوتر در مورد حقوق مالکیت فکری است که مربوط است به مالکیت نرم افزاری. برخی افراد مثل “ریچارد استالمن”197، کسی که “پایگاه نرم افزاری آزاد”198 را پایه گذاری کرد، معتقدند که مالکیت نرم افزاری نباید مجاز باشد. او ادعا می کند که همه اطلاعات باید آزادانه در اختیار همه قرار گیرد و همه برنامه ها باید قابلیت کپی کردن، مطالعه، و اصلاح و تغییر توسط همه را داشته باشند.199 دیگران استدلال می کنندکه “کمپانی های نرم افزاری یا برنامه نویسان، هفته ها و ماه ها کار نمی کنند و سرمایه های هنگفتی را خرج نمی کنند، اگر نتوانند آن سرمایه را به شکل دستمزد و یا پول حاصل از فروش، به خود برگردانند.”200 صنعت نرم افزار، امروز یک بخش چند بیلیون دلاری از اقتصاد را تشکیل می دهد، و کمپانی های نرم افزاری ادعا می کنند که هر ساله به خاطر کپی های غیر قانونی، چندین بیلیون دلار از دست می دهند. بسیاری از مردم معتقدند که “نرم افزار باید دارای مالک باشد، اما “کپی کردن اتفاقی”201 از برنامه هایی که دارای مالک شخصی هستند، باید مجاز باشد.”202 صنعت نرم افزاری مدعی است که بیلیون ها دلار از فروش خود را به خاطر کپی کردن ها از دست داده است. ماکیت، یک موضوع پیچیده است، زیرا جنبه های متفاوتی از نرم افزار وجود دارند که می توانند مالک داشته باشند. سه نوع متفاوت از مالکیت وجود دارد: کپی رایت، اسرار تجاری، امتیاز انحصاری.
1-6-2-1-5 مسئولیت حرفه ای203
متخصصان کامپیوتر جایگاه خاصی در جامعه دارند. به همین علت، آنها می توانند تآثیر مهمی روی جهان داشته باشند، از جمله روی بسیاری از چیزهایی که برای مردم ارزشمند هستند. از این رو آنها وظیفه دارند تا قدرت مسئولیت پذیری را هم امتحان کنند. متخصصان کامپیوتر با سایر مردم، روابط حرفه ای گوناگونی دارند. این روابط مسائل گوناگونی را به وجود می آورند و گاهی اوقات این مسائل با یکدیگر متناقض می شوند. بنابراین یک متخصص کامپیوتر مسئول، سعی می کند تا از این تناقضات دوری کند.

1-6-2-2 کاربردهای سیستم های خبره و مسائل اخلاقی مربوط به آنها
از سیستم های خبره در بخش های زیادی از زندگی انسان، از جمله در تکنولوژی جنگی و ارتش و یا در بیمارستانها و یا برای آموزش استفاده می شود و هر کدام از این کاربردها، مستلزم بروز انواعی از مسائل اخلاقی است. مثلاً در مورد شبکه های برق، مديران شبكه هاي برقي بايد بين تقاضاهايي كه براي نيرو از طرف صنعت و عامه مردم مطرح مي شود، ‌تعادلي برقرار كنند تا در موارد ضروری بتوانند از هر دو طرف حفاظت کنند. در طول افزايش ولتاژها و طول موج ها، آنها تصميم مي گيرند كه برق چه كسي قطع شود. حال این تصمیم گيرندگان، چه انسان باشند چه نرم افزار،‌ هنگام تصمیم گیری با ارشهایی مواجه هستند؛ از جمله ارزش حمايت از تجهيزات در مقابل آسيب ناشی از قطع برق و کم کردن صدمات وارد شده به مصرف کنندگان. اگر تجهيزات آسيب ببينند، همانطور كه زمان ترميم خدمات بیشتر می شود، آسيب ها هم زياد مي شوند. اين تصميمات گزاره هاي ارزشي را در بر دارند. همانطور كه سيستم ها به طور فزاينده اي خودمختارتر مي شوند، ‌آن گزاره ها ديگر در اختيار كاربران انساني نيستند. سيستم هايي كه در شرایط نامطمئن نمی توانند در تصمیمات خود ارزشها را اعمال کنند، عامل بروز فاجعه هستند.
1-6-2-2-1 سیستمهای خبره جنگی
یک نمونه از این سیستم ها، وسايل نقليه اي كه از دور به كار انداخته مي شوند204 یا همان (ROV ) ها، از قبل در ارتش گسترش يافته اند. در اكتبر 2007، مؤسسه قانوني “فاستر- میلر” 205براي آرايش نيروهاي نظامي سه ماشين نظامي قابل كنترل از راه دور را كه اسلحه حمل مي كردند، ‌به عراق فرستاد كه از اسلحه هاي خاص روباتي مشاهده سيستم عمل مستقيم از راه دور206 ( SWORDS ) استفاده مي كردند.
يك شركت ديگر، شركت آی روبوت207، كه بسته هاي روباتي اش به طور گسترده اي در عراق قرار گرفته اند هم جنگاور X700 را معرفي كرده است، يك روبات نظامي كه مي تواند اسلحه حمل كند و از نيمه دوم سال 2008 در دسترس بوده است. اما ابزارهاي روباتي در حد ROV ها متوقف نخواهد ماند. سيستم هاي روباتي نیمه اتوماتیک، موشك هاي گشت زن، توانایی حمل بمب را دارند. همچنين ارتش از روباتهاي نیمه اتوماتیکی استفاده مي كند كه براي در اختيار گذاشتن بمب و نظارت طراحي شده اند.كنگره ايالات متحده در سال 2000 سفارش داد كه يك سوم از وسايل نقليه زميني ارتش و هواپيماهاي دوربرد، با وسايل نقليه روباتيك تعويض شوند. طبق گزارش روزنامه نیویورک تایمز208 در سال 2005، هدف پنتاگون جايگزيني سربازها با روباتهاي خودمختار است.
برخي از مردم فكر مي كنند كه انسان ها بايد ساخت روبات ها را، اگر آنها فقط براي جنگاوري استفاده مي شوند، به كلي متوقف كنند. اين احساس،هم می تواند شايسته باشد، و هم ممكن است با اين اصل مواجه شود كه چنين سيستم هايي جان سربازان و پرسنل اجرايي قانون را نجات خواهند داد. ما نمي دانيم چه كسي برنده اين جدال سياسي خواهد بود، اما مي دانيم كه اگر طرفداران ماشين هاي رزمي برنده جدال شوند، اكنون زمان آن خواهد بود كه درباره محدوديت هاي اخلاقي موجود در آن فكر كنيم. “‌رولند آرکین”209 ،‌ روبات شناس در مؤسسه تكنولوژي جورجیا 210،در سال 2007 سرمايه هايي را از ارتش ايالت متحده برای به توسعه نرم افزاري و سخت افزاري، دریافت کرد تا ماشين هاي روباتيك جنگنده را قادر سازد از استانداردهاي اخلاقي جنگاوري پيروي كنند. اين خطوط هدايتي نسبتاَ‌ گسترده، براي مردم متمدن قابل احترام هستند، ‌و از حقوق افراد غير نظامي تا حقوق سربازان دشمن كه در تلاش براي تسليم هستند ، را در بر می گیرند. اما اطمينان حاصل كردن از اينكه روباتها از استانداردهاي اخلاقي جنگاوري پيروي مي كنند یا نه، يك موضوع نامشخص است.
در هر صورت احتمال بروز فاجعه انساني با استفاده از روبات ها، ‌آشكار است. همانطور كه سيستم هاي روباتيك در هر سطح كوچكي از جامعه، از امور مالي گرفته تا روابط امنيت عمومي،‌همه گیر می شوند، پتانسيل واقعي صدمه وارد كردن هم بیشتر مي شود.
1-6-2-2-2 سیستم های خبره در بیمارستان
به احتمال زیاد رویکردهای ابتدایی به اخلاق ماشین، به شکل نرم افزار های پشتیبان در خدمت تصمیم گیرندگان قرار خواهند گرفت. اما این خطر وجود دارد که این ابزارهای پشتیبان، از کاربرانی حمایت کنند که خروجی ماشینها را جایگزین تفکر انتقادی خود می کنند.دو دانشمند اجتماعی به نام های پیتر کان211و باتری فریدمن212 این نگرانی را درمورد ابزارهای پشتیبان تصمیم گیری213 (DsTs) مطرح کرده اند.
کان و فریدمن معتقدند که کارکرد DsTs ها بگونه ای است که باعث می شود انسانها از زیر بار مسئولیت اخلاقی را شانه خالی کنند و این احتمال وجود دارد که DSTها در نهایت بتوانند فرآیند تصمیم گیری را کنترل کنند.
اما چرا این یک چیز بد خواهد بود؟ دیدگاه کان و فریدمن این است که آنها فکر می کنند که محاسبه مسئولانه نیازمند یک فاعل کاملاً آگاه است که نسبت به هر تصمیمی مسئول باشد.این امر در مورد برخی زمینه های مهم – مثل تصمیم گیری درباره زندگی و مرگ در بیمارستانها –لازم است.
کان و فریدمن از بکارگیری یک DsT در بخش مراقبت های ویژه (ICU) یک بیمارستان استفاده می کنند تا امور مربوط به آنها را تشریح کنند. آنها روی APACHE، یک مدل پشتیبان تصمیم گیری مبتنی بر کامپیوتر که تعیین فرآیندهای معالجه را برای بیمارانی که در ICU هستند تسهیل می کند، متمرکز می شوند. سپس نتیجه را اینگونه بیان می کنند:
“ممکن است برای کارکنان انتقادی بخش مراقبت های ویژه این موضوع یک نوع تمرین باشد که طبق توصیه های APACHE ها تا حدی اتوماتیک عمل کنند، و بطور فزاینده ای حتی برای یک پزشک با تجربه مشکل است که با خود مختاری توصیه های APACHE چالش داشته باشند ….اما در این حالت- سیستم مشورتی باز……. در واقع تبدیل به یک سیستم بسته شده است که در آن پیش بینی کامپیوتر، تصمیمات کلینیکالی را دیکته می کند”214
وقتی که کان و فریدمن مقاله خود را در سال 1992 نوشتند، سیستم APACHE نمونه اصلی بود. آخرین نمونه ارتقاء یافته 111- APACHE، یک پایگاه اطلاعاتی در بر دارد همراه با اطلاعاتی در مورد بیشتر از ششصد هزار بیمار در ICU.این سیستم ادعا می کند که به بیمارستانها کمک می کند تا تغییراتی را که می توانند در روند خود ایجاد کنند را معرفی کنند، مثلاً کاهش طول زمانی که بیمار در ICU می ماند – وبنابراین کاهش هزینه بیمارستان.
آیا حضور APACHE در بیمارستان منجر به کاهش خودمختاری پزشکان شده است؟ بیان پاسخی برای این سؤال بسیار سخت است. اگر پزشکانی که از سیستم پشتیبان تصمیم گیری استفاده می کنند نسبت به سایر پزشکان بتوانند کار بهتری برای بیماران خود انجام دهند، نمی توان گفت که کاهش خودمختاری پزشکان چیز بدی است. با این وجود تشخیص خطری که کان و فریدمن آن را برجسته می کنند مهم است- خطر پزشکانی که ارزیابی درمان بیمار را به عهده ماشین می گذارند.
همچنین کان و فریدمن، دورنمایی از یک سیستم APACHE را ملاحظه کردند که ممکن است روزی از آن، بدون هیچ دخالت مستقیمی توسط انسان تصمیم گیرنده برای خاموش کردن سیستم پشتیبان زندگی استفاده شود. این تفکر ممکن است هشدار دهنده باشد، اما در طول یک دهه و نیمی که از مطرح شدن این نگرانی می گذرد، ما هیچ نمونه عینی را ندیده ایم که کنترل کامل ماشینی روی تصمیم های مرگ و

نکته مهم : در این سایت فقط تکه هایی از این پایان نامه به صورت رندم درج شده که ممکن است موقع انتقال از فایل ورد به داخل سایت عکس ها درج نشوند یا فرمول ها و نمودارها و جداول و ... به هم ریخته درج شوند ولی در سایت منبع شما می توانید فایل کامل را با فرمت ورد و منابع و پیوست ها دنلود نمایید

: سایت منبع  40y.ir