هستند تا بتوانند اطلاعاتی را از افراد مسن در موقعیت ها و محیط های گوناگون دریافت کنند. از این اطلاعات می توان برای یادگیری رفتار این افراد و طراحی و ساخت تکنولوژی های بعدی هم استفاده کرد.
یکی از سیستم هایی که در دانشگاه دی مونت فورت روی آن کار می کنند، تکنولوژی ای است که با تکیه بر بینایی کامپیوتری به تعقیب افراد در خانه و محیط آنها می پردازد.روش های متفاوتی برای عکس برداری از این افراد وجود دارد؛ مثل دوربین های RGB، دوربین های مادون قرمز و غیره.
از جمله فواید استفاده از این تکنولوژی برای مراقبت از سالمندان می توان موارد ذیل را برشمرد:
“1- احساس امنیت: این سیستم های پیگیری باعث می شوند که خانواده ها و یا پرستاران کاربران این سیستم ها، بویژه سالمندانی که ممکن است تنها زندگی کنند، این شانس را داشته باشند که بر سوژه خود نظارت کافی داشته باشند. سالمندان می دانند که یک نفر می تواند مراقب آنها باشد، زیرا این سیستم قادر است که حرکات آنها را پیگیری کند و بصورت بالقوه تغیرات غیر معمولی، مثل افتادن را تشخیص دهد، و همین امر باعث می شود که سالمند احساس امنیت کند.
2- مصونیت: دانستن این موضوع که سیستم می تواند انسان ها و اشیاء را شناسایی کند، به سالمند حس مصونیت می دهد، بویژه وقتی که مانیتورها ورود افراد ناخواسته را هشدار می دهند.
3- کاهش هزینه ها: بکار بردن چنین سیستم هایی به صورت بالقوه هزینه های مربوط به نگهداری از سالمندان، مثل هزینه استخدام پرستار و نگهبان خانه را کاهش می دهند.”233
گرچه این سیستم ها فوایدی دارند، اما مسائل اخلاقی ای را هم به وجود می آورند. از جمله مسائل اخلاقی ای که با بکار بردن این سیستم ها مطرح می شود عبارتند از:
“1-جمع آوری اطلاعات و اداره آنها: مسئله اخلاقی آن است که وقتی که سیستم اطلاعاتی را جمع آوری می کند، برای این اطلاعات چه اتفاقی می افتد و ین اطلاعات چگونه ذخیره می شوند.
2- رضایت آگاهانه: سالمندان افرادمختلفی هستند که به سطوح مختلفی از مراقبت نیاز دارند و دارای توانایی های متفاوتی هم هستند. چه مکانیسمی باید بکار گرفته شود تا رضایت آگاهانه بدست آید؟ به علاوه وقتی که توانایی های روحی فرد سالمند کاهش پیدا کرده است،باید به چه کسی اعتماد کرد تا به جای سالمند، رضایت را از او جلب کرد؟سیستم مبتنی بر بینایی کامپیوتری باید طبق مکانیسم های خاصی ساخته شود و خطوط هدایتی یا مقیاس هایی داشته باشد که باعث شوند که جنبه های حریم خصوصی، خودمختاری و اعتماد را حفظ کنند. سالمند باید رضایت دهد تا از این سیستم استفاده شود و اطلاعات جمع آوری شده با رضایت او مورد استفاده قرار کیرند.
3- حریم خصوصی: حس کنترل محیط، به انسان احساس ناتوانی را القاء می کند. اا معرفی سیستمی که می تواند حرکت انسان را پیگیری کند، ممکن است باعث شود که او احساس کند که حریم خصوصی اش را از دست داده است. همچنین ممکن است از اطلاعات جمع آوری شده به منظوری دیگر استفاده شود.بنابراین خطر از دست دادن حریم خصوصی ، منجر می شود به از دست دادن کرامت انسانی.بنابراین حریم خصوصی ، موضوعی است که باید در استفاده ار این سیستم ها مورد بررسی قرار گیرد.
4- نظارت: حضور دائمی این ابزارها در محیط کاربر، باعث می شوند که کاربر احساس کند که تحت نظارت است.”234
1-6-2-4 بازی ها چه مسائلی را به وجود می آورند؟
بازی چیست؟
طبق نظر جاسبر جول235، ” بازی ، یک سیستم مبتنی بر قاعده است که خروجی های متنوع و قابل سنجش دارد؛ وقتی که به خروجیهای گوناگون، ارزشهای مختلف نسبت داده شود، بازیکن تمام تلاش خود را بکار می گیرد تا روی خروجی تأثیرگذار باشد. بازیکن احساس می کند که با خروجی پیوند خورده است و نتایج فعالیت او، انتخابی و قابل مذاکره هستند.”236 بازیهای ویدئویی، ” بازیهایی هستند که از قدرت کامپیوتز استفاده می کنند،کامپیوتر قواعد بازی را تأیید می کند و بازی با استفاده از نمایش ویدئویی انجام می شود.”237
ارسطو، اخلاق را یک علم عملی می داند، و آن را به این صورت تعریف می کند: تمرین فضایل برای کسب زندگی بهتر. به این منظور، انسان ها باید برای تبدیل شدن به انسانی بهتر، موقعیت هایی را که در آنها حضور فعال دارند، بررسی کنند و اعمالی را انتخاب کنند.
اگر اخلاق فضیلت ارسطو را در بازی های کامپیوتری به کار بریم، به مجموعه شرایط جالبی دست پیدا می کنیم: اگر بازی، مجموعه ای شفاف از قواعد باشد که بازیکن مجبور است آنها را بپذیرد تا به اهدافی دست پیدا کند، طبق نظر ارسطو، یک بازیکن خوب کسی است که از قواعد اطاعت می کند و به شکلی قضاوت می کند تا به اهداف مورد نظر و به شرایط مناسب دست پیدا کند. اگر این موضوع درست باشد، آنگاه منش پهلوانی و ورزشکاری معنای خود را از دست می دهد. بنابراین، چیزی بیشتر از قواعد در بازی وجود دارد و از نقطه نظر اخلاقی، بازیکن خوب بودن، چیزی فراتر از اطاعت از قواعد است. بازیکنان بازی های کامپیوتری، خود، موجودات اخلاقی هستند که اعمال خود را ارزیابی می کنند. اگر بازیکن مجبور باشد که صرفاً از قواعد پیروی کند و آن جهان مجازی اعمال او را انتخاب کند، آن بازیکن صرفاً یک موجود بی اراده است. اما بازیکنان در بازی، درباره قواعد و جهان مجازی قضاوت می کنند. در واقع بازیها، سیستمی از قواعد هستند که یک جهان مجازی را منعکس می کنند که بازیکن باید این جهان را تجربه کند تا بتواند به واقعیت آن دست پیدا کند. بنابراین، بازیکن یک موجود اخلاقی است که با این قواعد و با جهان مجازی در تعامل است، و انتخاب های او به واسطه اهداف بازی تعیین می شوند، توسط قواعد محدود می شوند، و توسط ترکیبی از ارزشهای فردی، اجتماعی و فرهنگی ارزیابی می شوند.
بسیاری از بازیها به خاطر محتوای خشن خود مورد انتفاد قرار گرفته اند. از جمله بازی “دزدی بزرگ”238 از نقطه نظر اخلاقی مورد انتقاد راسانه ها و منتقدان زیادی قرار گرفت. “منتقدان روی خود بازی تمرکز نمی کنند، بلکه بیشتر روی تجربه ای تأکید دارند که بازیکن در تعاملات خود با جهان مجازی به دست می آورد.”239 بازیها، به گونه ای طراحی می شوند که اشیائی اخلاقی باشند، اما باید توجه کرد که بازیکنان آن بازی را چگونه تجربه می کنند، تا بتوان اخلاق بازیهای کامپیوتری را درک کرد.
بازی آزروث240 یک بازی جنگی است که در آن جهانی ترسیم می شود که به واسطه جنگ های بی پایان ویران شده است. آزروث یک بازی آنلاین است که با چند بازیکن، بازی می شود. طراحان این بازی قابلیت بازی دو نفره را به آن اضافه کردند. آنها یک سیستم امتیازی را هم به بازی اضافه کردند که به وسیله آن، بازیکنان می تواند بعد از کشتن بازیکنان دیگر، امتیاز کسب کنند. اما این کار باعث شد که اعمال غیر اخلاقی شایع تر شود؛ اعمالی مثل اینکه وقتی بازیکن مقابل را کشتیم، منتظر شویم تا دوباره زنده شود و در زمانی که هنوز قدرت کافی بدست نیاورده، او را دوباره بکشیم، ویا حمله به بازیکنانی که نمی توانند از خود دفاع کنند. به این ترتیب کیفیت اخلاقی بازی پایین می آید. برخی افراد سیستم امتیازی را دوست دارند و برخی نه، تا جای که خواستار ممنوعیت این سیستم شده اند.

1-6-2 آیا خطرهای تکنولوژی می توانند به درستی تشخیص داده شوند؟
ارزیابی خطر در پروژه ساخت روباتهای تصمیم گیرنده از دو جنبه اهمیت دارد. اول آنکه، خطرهایی وجود دارند که با بکارگیری چنین سیستم هایی، برای مردم بطور فردی و برای جامعه بعنوان یک کل مطرح می شوند. خطرها، بسته به نوع سیستمی که معرفی شده است، می توانند متفاوت باشند. برای مثال روباتهای خدماتی در خانه ممکن است خطر آنی فیزیکی و روانشناختی را برای آنهایی که وارد خانه می شوند داشته باشند، اما احتمال ندارد به افراد خارج از خانه صدمه ای وارد کنند. احتمال اینکه عوامل خودکار در شبکه های کامپیوتری، مثل سیستم های مالی موجب صدمه فیزیکی مستقیم شوند بسیار کم است، اما این عوامل کاملاً قادرند تا صدماتی را وارد کنند که نتایج بسیار قوی اجتماعی دارد که می تواند به نوبت به طور غیر مستقیم، سعادت فیزیکی افراد را تحت تأثیر قرار دهد. برنامه های اتوماتیکی که سهام، قرار دادها و پول رایج را در بازارهای بین المللی خرید و فروش می کنند، با هدف قرار دادن تغییرات بزرگ در سرمایه خارجی کشورهای خاص، موجب بحران های مالی شدید شده اند.
دوم آنکه، همانقدر که ابزارهای تشخیص خطرات می توانند احتمالات و نتایج انواع متنوع عمل را پیشی بینی کنند، همانقدر هم ممکن است این ابزارها توسط روباتها برای ارزیابی خطراتی بکار روند که در پاسخ هایی که به یک چالش داده می شود، وجود دارند. یعنی، تحلیل خطرها به طور بالقوه می تواند به AMA کمک کند تا بهترین نوع عمل را بر اساس اطلاعات موجود انتخاب کند. برخی از ابزارهای ویژه و تکنیکهایی که حرفه ای ها برای تشخیص خطرها از آنها استفاده می کنند از قبل کامپیوتری شده است. این برنامه ها ممکن است حتی سکوی نرم افزاری برای AMA ها تولید کنند تا آنها نتایج اعمال خود را تحلیل کنند.
1-6-3 آینده
در آینده هیچ چیزی در زندگی خالی از خطر نیست. حتی کتابداران بخاطر عوامل یا خطرهای مربط به کار، می میرند. امریکاییها و اروپائیها اغلب این توهم را دارند که می توانند خطرها را کاهش دهند تا آنجا که به صفر برسند. عموم مردم به طور ویژه با امکان وقایع فاجعه آمیز موافق هستند. در تحقیقی که در سال 1987 منتشر شد، امریکائیها در لیستی که شامل 30 نوع فعالیت یا تکنولوژی بود، از جمله سیگار کشیدن، سم های کشنده حشرات، اشعه های x و آنتی بیوتیک ها، انرژی هسته ای را بعنوان خطرناک ترین قدرت برآورد کردند. کسانی که به طور حرفه ای خطرات را ارزیابی می کنند- که اغلب از معیارهای سنجش هوش، که این معیارها روی نرخ های مرگ ومیر تأکید دارند، استفاده می کنند- در مقایسه با عموم مردم، انرژی هسته ای را ایمن تر می دانستند (در رده بیستم لیست). عمل جراحی، که حرفه ای ها آن را بعنوان خطری بزرگ برآورد کردند (5)، توسط مردم در رده دهم ارزیابی قرار گرفته است. این تفاوتها به معنای آن نیست که حرفه ای ها درست می گویند و مردم در اشتباهند. بلکه عوامل متفاوت می تواند روی تشخیص خطر تأثیر بگذارد.
“لوکینگ”241 می گوید که در پیشینه این برآوردها، سناریوی افسانه های علمی وجود دارند که معتقدند که سیستم های AI در نهایت منتج به مخلوقاتی می شوند که خواهان حذف انسانیت خواهند بود. آیا مهندسان در حال قدم گذاشتن بر سراشیبی لغزنده ای هستند که منجر به انقراض اجتناب ناپذیر گونه های انسانی می شود؟ انقراض انسانیت در دستان روباتها اجتناب ناپذیر نیست، اگر این سیستم ها بتوانند بوجود، آنگاه ممکن است محدودیت های اخلاقی مناسبی را در این سیستم ها اعمال کنیم تا امکان نابودی انسان را حذف کنیم.
موضوعات اجتماعی مطرح شده، نگرانیهای مهمی هستد که

نکته مهم : در این سایت فقط تکه هایی از این پایان نامه به صورت رندم درج شده که ممکن است موقع انتقال از فایل ورد به داخل سایت عکس ها درج نشوند یا فرمول ها و نمودارها و جداول و ... به هم ریخته درج شوند ولی در سایت منبع شما می توانید فایل کامل را با فرمت ورد و منابع و پیوست ها دنلود نمایید

: سایت منبع  40y.ir