چالشهای مدلهای زبانی بزرگ بر امنیت فضای سایبر |
کد مقاله : 1095-CYSP2025 (R1) |
نویسندگان |
حمید محسنی *1، کاظم فولادی قلعه2 1دبیر مرکز مطالعات فضای مجازی و هوش مصنوعی دبیر کارگروه فلسفه سایبر آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران 2سرپرست آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران،تهران |
چکیده مقاله |
مدلهای زبانی بزرگ (LLMs) در سالهای اخیر بهعنوان یکی از پیشرفتهترین دستاوردهای هوش مصنوعی مورد توجه محققان و کاربران قرار گرفتهاند. این مدلها با قابلیت پردازش و تولید زبان طبیعی، تحولات گستردهای در حوزههای علمی، فناورانه و اجتماعی ایجاد کردهاند. با این حال، استفاده روزافزون از آنها چالشهای جدی را نیز در پی داشته است، بهویژه در ارتباط با امنیت فضای سایبری؛ تهدیداتی نظیر حملات سایبری به مدلها از طریق تزریق پرامپت، حملات جیلبریک و آلودهسازی دادهها، همچنین سوءاستفاده از تواناییهای تولیدی آنها در طراحی بدافزار، حملات فیشینگ و انتشار اطلاعات نادرست از مهمترین مخاطرات به شمار میروند. مقاله حاضر با رویکرد توصیفی–تحلیلی و با استفاده از منابع علمی معتبر، به بررسی ابعاد مختلف این چالشها پرداخته است. یافتهها نشان میدهند مدلهای زبانی ضمن ارائه فرصتهای بیسابقه در ارتقای کیفیت خدمات و کارایی سامانههای هوشمند، در صورت فقدان سیاستگذاری و نظارت مناسب میتوانند به تهدیدی جدی برای امنیت فردی، سازمانی و ملی بدل شوند. از این رو ضرورت دارد چارچوبهای قانونی، فنی و اخلاقی برای مدیریت استفاده از این فناوریها تدوین و اجرا شود. |
کلیدواژه ها |
مدلهای زبانی بزرگ، جی پی تی، امنیت فضای سایبر، حملات سایبری. |
وضعیت: پذیرفته شده برای ارائه شفاهی |