تصاویر پزشکی خود را در اختیار هوش مصنوعی قرار ندهید!
آپلود تصاویر و اطلاعات پزشکی در چتباتهای هوش مصنوعی میتواند خطر افشای اطلاعات حساس و استفاده از آنها برای آموزش مدلهای هوش مصنوعی را به همراه داشته باشد. این یک هشدار جدی است که پیش از آپلود اطلاعات خصوصی خود، به دقت در مورد پیامدهای آن فکر کنید.
چرا آپلود اطلاعات پزشکی در چتباتها خطرناک است؟
به گزارش ایسنا، بسیاری از افراد برای دریافت پاسخ به سؤالات پزشکی خود به چتباتهای هوش مصنوعی مولد مانند «چتجیپیتی» شرکت اوپنایآی و «جمینای» شرکت گوگل مراجعه میکنند. حتی برخی کاربران، تصاویر پزشکی خود مانند امآرآی و پتاسکن را در اپلیکیشنهای هوش مصنوعی آپلود میکنند تا تفسیر نتایج را دریافت کنند. یکی از نمونههای اخیر، مدل «گروک» متعلق به شرکت ایکس (توییتر سابق) است که کاربران را تشویق به ارسال تصاویر پزشکی برای تحلیل میکند.
اما دادههای پزشکی جزو اطلاعات بسیار حساس هستند که تحت قوانین سختگیرانهای محافظت میشوند. با این حال، بسیاری از این اپلیکیشنها تحت قوانین حفظ حریم خصوصی سلامت (مانند HIPAA در آمریکا) عمل نمیکنند و هیچ تضمینی برای حفاظت از دادههای آپلودشده ارائه نمیدهند.
چالشهای امنیتی و حریم خصوصی
- استفاده از دادهها برای آموزش مدلها:
مدلهای هوش مصنوعی بر اساس دادههایی که دریافت میکنند، آموزش میبینند. این بدان معناست که اطلاعات آپلودشده ممکن است برای بهبود عملکرد مدلها استفاده شود، اما همیشه مشخص نیست این دادهها چگونه و در چه مواردی به کار گرفته میشوند. - افشای دادهها:
برخی کاربران متوجه شدهاند که سوابق پزشکی آنها در مجموعه دادههای آموزش مدلهای هوش مصنوعی ظاهر شده است. این مسئله میتواند دسترسی سازمانهای مختلف، از جمله کارفرمایان آینده یا نهادهای دولتی، به اطلاعات حساس افراد را ممکن کند. - تغییر سیاستها:
شرکتها ممکن است سیاستهای خود را تغییر دهند یا اطلاعات کاربران را به سایر شرکتهای مرتبط منتقل کنند. به عنوان مثال، در سیاستهای گروک آمده است که ایکس میتواند اطلاعات کاربران را با شرکتهای دیگر به اشتراک بگذارد، اما مشخص نیست این شرکتها چه کسانی هستند.
مثالی از ریسکها: حادثه گروک
«ایلان ماسک»، مالک پلتفرم ایکس، اخیراً کاربران را تشویق به ارسال تصاویر پزشکی به مدل گروک کرد و اعلام کرد که این مدل هنوز در مراحل اولیه توسعه قرار دارد اما به مرور زمان بهبود خواهد یافت. هدف اصلی این است که گروک بتواند با دقت بیشتری اسکنهای پزشکی را تفسیر کند. با این حال، مشخص نیست چه کسانی به دادههای گروک دسترسی دارند و این اطلاعات چگونه استفاده خواهند شد.
توصیههایی برای کاربران:
- قبل از آپلود، دوباره فکر کنید:
پیش از ارسال هرگونه اطلاعات حساس به چتباتها یا اپلیکیشنهای مبتنی بر هوش مصنوعی، خطرات احتمالی را بسنجید. - از اپلیکیشنهای معتبر استفاده کنید:
اطمینان حاصل کنید که اپلیکیشنی که استفاده میکنید، از قوانین حفظ حریم خصوصی سلامت تبعیت میکند و دادههای شما را با امنیت کامل ذخیره میکند. - آگاهی از سیاستهای حفظ حریم خصوصی:
همیشه سیاستهای حفظ حریم خصوصی و شرایط استفاده از سرویسها را به دقت مطالعه کنید. - بدانید که دادهها در اینترنت ماندگار هستند:
هر اطلاعاتی که در اینترنت به اشتراک گذاشته میشود، ممکن است برای همیشه در دسترس باقی بماند.
جمعبندی
آپلود اطلاعات پزشکی در چتباتهای هوش مصنوعی ممکن است در کوتاهمدت نتایج مفیدی ارائه دهد، اما خطرات مرتبط با امنیت و حریم خصوصی را نباید نادیده گرفت. با توجه به حساسیت بالای دادههای پزشکی، ضروری است که کاربران پیش از هرگونه اقدام، به دقت پیامدهای آن را بررسی کنند. این موضوع نه تنها به حفظ حریم خصوصی کمک میکند، بلکه از سوءاستفاده احتمالی از اطلاعات حساس جلوگیری میکند.