آنالیتیک های رفتاری

فضاهای پر جنب و جوش

علیرغم اینکه آنالیتیک های ویدئویی قانون-محور از لحاظ اقتصادی و قابلیت اعتماد از کارایی خوبی در بسیاری از کاربردهای امنیتی برخوردار بوده اند، موقعیت های زیادی وجود دارد که این آنالیتیک ها قادر به کارکرد در آنها نیستند. در مناطقی با فضای باز یا بسته که در ساعات به خصوصی از روز – به عنوان مثال در طول شب – کسی نباید در آنها حضور داشته باشد و یا در مناطقی چون برج های مخابراتی که در هیچ ساعتی از روز نباید کسی در آنجا باشد، آنالیتیک های قانون-محور قدیمی بسیار مناسب هستند. در موارد نادری که پیش می آید یک تکنسین خدماتی وارد منطقه  ی برج های مخابراتی شود، دسترسی این فرد مستلزم وارد کردن رمز عبور است؛ بدین شکل برای مدت زمان کوتاهی که فرد مجاز در آنجا حضور دارد، حالت بازبینی روی «حالت آزمایشی» یا حالت غیر فعال قرار میگیرد.

اما در فضاهای پر جنب و جوشی که صدها و یا هزاران انسان در تمامی ساعات و همه ی جاها در فعالیت هستند، نیازهای امنیتی زیادی وجود دارد. محوطه ی باز یک کالج، یک کارخانه ی فعال، یک بیمارستان یا هر نوع تاسیسات عملیاتی فعال از جمله ی چنین فضاهایی هستند. در اینگونه فضاها، امکان تعریف قوانینی وجود ندارد که به کمک آنها بتوان بین افراد مجاز، مجرمین و خلافکارن تمایز قائل شد.

مقابله با مشکل فضاهای پر جنب  جوش

با استفاده از آنالیتیک های رفتاری، یک سیستم هوش مصنوعی خودآموز و غیر قانون-محور، داده ها را از دوربین های ویدئویی جمع آوری میکند و به صورت مداوم، اشیاء و رخدادهای مشاهده شده را دسته بندی می نماید. به عنوان مثال، فردی که از یک خیابان عبور میکند، یکی از این دسته بندی ها است. یک گروهی از افراد نیز یک دسته بندی دیگر را تشکیل میدهند. یک وسیله ی نقلیه نیز یک دسته بندی جداگانه تلقی میشود؛ با ادامه پیدا کردن فرآیند یادگیری هوش مصنوعی، بین یک اتوبوس، یک ماشین کوچک و یک موتور سیکلت تفاوت در نظر گرفته میشود. با بالا رفتن میزان پیچیدگی، سیستم میتواند الگوهای رفتاری انسان ها را تشخیص بدهد. به عنوان مثال، سیستم مربوطه شاید افراد را در حالتی مشاهده کند که یکی یکی از یک درب با دسترسی کنترل شده عبور میکنند. درب باز میگردد، فرد مورد نظر کارت شناسایی هوشمند یا تگ خود را ارائه میکند، آن فرد از درب عبور میکند و درب بسته میشود. وقتی که این الگوی کاری به صورت مداوم برای سیستم تکرار میشود، پایه و اساس اینکه چه چیزی از نگاه دوربینی که به صحنه نگاه میکند نرمال است، شکل میگیرد. حال در صورتی که یک فرد مجاز درب را باز کند و شخص دوم و غیرمجازی پشت سر شخص اول، درب را پیش از بسته شدن بگیرد و وارد شود، سیستم این حرکت را به عنوان یک امر ناهنجار تلقی میکند و اخطار میدهد. این نوع آنالیز به مراتب پیچیده تر از آنالیتیک های قانون-محور است. آنالیتیک های قانون-محور اساسا برای تشخیص افراد متخلفی استفاده میشوند که پا به منطقه ای گذاشته اند که به صورت عادی طی ساعات تعریف شده کسی در آنجا حضور ندارد. اما آنالیتیک های رفتاری در جاهایی که افراد در تکاپو هستند استفاده میشوند تا چیز های غیرعادی شناسایی شوند.

رسیدن آتش به فضاهای باز همچون بلند شدن ابری از دود، یک رخداد غیرطبیعی تلقی میگردد و موجب ایجاد اخطار میشود. عبور وسایل نقلیه ای که در خلاف جهت یک مسیر یک سویه میرانند نیز به عنوان رخدادی با ویژگی های خاص خود دسته بندی میشود؛ چرا که این نوع رانندگی از الگوهای تکراری مشاهده شده از خودروهایی که به صورت درست در یک مسیر تک سویه رانندگی میکرده اند، منحرف شده است. پرت شدن یک فرد توسط یک مهاجم روی زمین نیز یک رخداد غیرطبیعی تلقی میگردد که به احتمال زیاد باعث ارسال یک اخطار میشود. این مورد، بسته به شرایط میتواندکاملا متغیر باشد. از این روی، هوش مصنوعی تعبیه شده در دوربین نظارتی یک ورزشگاه که در آن کشتی تمرین میشود، پس از مدتی یاد میگیرد که پرت شدن یک فرد توسط فرد دیگر روی زمین امری عادی است و بدین شکل دیگر نیازی به ارسال اخطار نخواهد بود.

چیزی که هوش مصنوعی “متوجه میشود

تکنولوژی هوش مصنوعی نمیداند و نمیفهمد که یک انسان یا آتش یا یک وسیله ی نقلیه چیست. این تکنولوژی فقط به دنبال ویژگی هایی چون اندازه، شکل، رنگ، بازتاب پذیری، زاویه، جهت، حرکت و خیلی موارد دیگر میگردد. پس از آن است که این تکنولوژی متوجه میشود که موارد بررسی شده، به عنوان الگوهای رفتاری عادی دسته بندی میشوند. به عنوان مثال، انسانها در پیاده روها و گاهی در خیابان ها راه میروند، اما کمتر پیش می آید که انها از گوشه های یک ساختمان بالا بروند. وسایل نقلیه در خیابان ها رانندگی میکنند، اما در پیاده روها این کار را نمیکنند. بنابراین رفتار غیرعادی فردی که از یک ساختمان بالا میرود یا وسیله ی نقلیه ای که به سمت پیاده رو منحرف میشود، باعث ارسال یک اخطار میشود.

تفاوت با طرز فکر سیستم های امنیتی قدیمی

سیستم های اخطاردهی معمولی طوری طراحی شده اند که رخدادهای واقعی مربوط به وقوع جرائم را از دست ندهند و تا جای ممکن کمترین نرخ آلارم خطا را داشته باشند. از این رو کمتر پیش می آید که آلارم های واقعی مربوط به وقوع دزدی و سرقت از چشم ها دور بمانند، با این حال این سیستم ها حتی با وجود قرار گرفتن در فضاهای بسته و کنترل شده، نرخ آلارم خطای بالایی را از خود نشان میدهند. دوربین های تشخیص حرکت موجود در فضاهای باز، برخی از رخدادهای واقعی صورت گرفته را از دست میدهند و با تعداد آلارم های خطای سرسام-آوری درگیر هستند. آنالیتیک های قانون-محورمیتوانند بیشتر رخدادهای واقعی را رصد کنند و نرخ آلارم خطای پایینی دارند، اما مشکل این نوع آنالیتیک ها این است که آنها فقط برای فضاهای خالی مناسب هستند و در فضاهای پر جنب و جوش فاقد کارایی هستند. همچنین این نوع آنالیتیک ها فقط محدود به تشخیص حضور یا عدم حضور یک فرد متجاوز هستند.

آنالیتیک های قانون-محور قادر به تشخیص و تمایز بین چیزی به پیچیدگی و حساسی وقوع جنگ و دعوا یا شکسته شدن یک فرآیند امنیتی توسط یک کارمند نیستند. اما آنالیتیک های رفتاری میتوانند چنین کاری را انجام بدهند. مکان هایی که در آنها افراد حرکت یا کار میکنند، مشکلی برای این کار ایجاد نمیکند. با این حال، تکنولوژی AI قادر است که خیلی از موارد به نظر غیر عادی، اما ذاتا بی خطر را شناسایی کند. به عنوان مثال، در صورت راه رفتن دانش آموزان محوطه ی یک دانشگاه داخل یک میدان، تکنولوژی هوش مصنوعی این امر را به عنوان امری عادی تلقی کرده و آن را یاد میگیرد. اما در صورتی که گروهی از دانش آموزان تصمیم به حمل یک برگه ی بزرگ در فضای باز بگیرند که در باد تکان تکان میخورد، مطمئنا این امر باعث تحریک یک اخطار میشود. با دریافت اخطار، مسئول بازبینی به مانیتور خود نگاه می اندازد و میبیند که رخداد صورت گرفته یک تهدید نبوده و آن را نادیده میگیرد. میزان انحراف از حد متوسطی که موجب تحریک اخطار میشود را میتوان تعیین کرد تا فقط غیرعادی ترین رخدادها گزارش شوند. این کار راهی جدید را برای تعامل بین انسانها و هوش مصنوعی ایجاد میکند که در طرز فکر صنعت آلارم قدیمی چنین چیزی وجود نداشته است. از آنجایی که تعداد آلارم های خطای زیادی گزارش میشوند که نیازمند بررسی دوباره هستند، با تعامل بین انسانها و هوش مصنوعی، گزارش آلارم خطا به یک مسئول انسانی فرستاده میشود و آن فرد پس از بررسی گزارش ارسالی، تصمیم میگیرد که نسبت به رخداد صورت گرفته واکنشی نشان داده شود یا خیر. در واقع هوش مصنوعی همچون یک فردی عمل میکند که میخواهد «با زدن به شانه ی شما» توجه شما را به چیزی جلب کند.

محدودیت های آنالیتیک های رفتاری

از آنجایی که بسیاری از چیزهای پیچیده به صورت مداوم در حال پردازش شدن هستند، نرم افزار مربوطه، تصاویر را به رزولوشن خیلی پایین یعنی  1CIF﴿اندازه استاندارد 288×352﴾ میرساند تا از نظر محاسباتی مشکلی پیش نیاید. رزولوشن  1CIFیعنی اینکه در صورت بکار گرفته شدن یک دوربین با لنز واید و قرار گرفتن یک انسان در فاصله ی شصت تا هشتاد فیتی دوربین، دوربین قادر به تشخیص یک شی به سایز انسان نخواهد بود. اشیاء بزرگتری چون وسایل نقلیه یا دود نیز در فواصل دور قابل شناسایی خواهند بود.

تعیین میزان آگاهی موقعیتی

هوش مصنوعی برای صنعت امنیت در خلاء به کار گرفته نشده و پیشرفت و توسعه ی آن فقط به خاطر مطالعات دانشگاهی و علمی نبوده است. نیازهای واقعی جهان و موضوعات اقتصادی از جمله مهم ترین مواردی بودند که این پیشرفت را رقم زدند. استفاده های غیرامنیتی از هوش مصنوعی از جمله استفاده های در حال توسعه ای هستند که موارد زیر برخی از آنها هستند:

1. کارایی عملیاتی

2. نقشه حرارتی مشتریان ﴿یعنی این که چند نفر در نقطه ی بخصوصی از یک فروشگاه/مغازه حاضر بوده اند﴾

3. حضور افراد در کلاس ها

تکنولوژی هوش مصنوعی به خوبی میتواند از مجموعه داده های بزرگی که نیازمند محاسبات همزمان در چند محل دور از هم هستند، الگو بسازد و الگوی آنها را تشخیص بدهد، اما انسانها اینگونه نیستند. این نوع آگاهی در تکنولوژی هوش مصنوعی، هیچ شباهتی به ساختار انسان-ها ندارد. تجربه  نشان داده است که انجام چند کار با هم، باعث پراکنده شدن حواس انسانها میشود. اما سیستم های هوش مصنوعی از این قابلیت برخوردار هستند و میتوانند به چنین داده هایی رسیدگی کنند. در استفاده های امنیتی از دوربین ها نیز، سیستم های هوش مصنوعی، کاربردی تر و تیزبین تر از انسانها یا ماشین های مشابه به آنها حاضر شده اند. اما در وضعیت فعلی تکنولوژی، انسانها هنوز هم برای قضاوت ظرافت های رفتاری و قصد و غرض سوژه ها یا میزان تهدید پیش رو، از تکنولوژ های موجود با فاصله ی زیاد جلوتر هستند. بنابراین در کاربردهای امنیتی، از هوش مصنوعی برای بررسی گسترده  ای استفاده میشود که انسانها قادر به انجام آن نیستند. هوش مصنوعی پس از بررسی داده ها، آنها را به نسبت ویژگی های شناسایی شده دسته بندی می نماید و سپس یک اخطار به مسئول انسانی میفرستد. مسئول انسانی نیز مسئولیت ارزیابی و رسیدگی به امور را بر عهده میگیرد.

در دنیای واقعی، از امنیت به عنوان موضوعی یاد میشود که به بحث های اقتصادی وابسته است. بنابراین، هزینه های اقدامات پیشگیرانه ی امنیتی معمولا نباید از هزینه های تخمینی وقوع خطر موردنظر بیشتر باشد. طبق تحقیقات انجام شده مشخص شده است که شرکت ها معمولا فقط 25/1 از میزان خسارت وارده در جریان یک اتفاق را برای تامین امنیت صرف میکنند. بودجه ای که باید به تامین امنیت اختصاص داده شود باید تقریبا برابر بودجه ای باشد که خسارت های وارده تحمیل میکنند، اما این بودجه خیلی کمتر از اینهاست. با این وجود، تامین امنیت یک هزینه ی کلان است و مقایسه ی هزینه های محصولات امنیتی مختلف همیشه به عنوان مهمترین بحث بین متخصصین امنیتی مطرح بوده است.

دلیل دیگری که تهدیدها و خسارت های امنیتی آینده دست کم گرفته میشوند، این است که اغلب فقط هزینه ی مستقیم یک خسارت محتمل در نظر گرفته میشود و به سلسله خسارات غیرمستقیم همراه آن هیچ توجهی نمیشود. به عنوان مثال، تخریب یکی از ماشین های تولید کالا در یک کارخانه یا یک کامیون یخچال دار باعث میشود که زمان زیادی برای جایگزینی آنها به هدر برود و در این مدت زمان خدمات به مشتریان متوقف میشود و باعث تحمیل خسارات دیگری به بیزینس افراد میشود. وقوع یک جرم خشونت آمیز در محل کار، باعث صدمه ی بزرگی به روابط عمومی یک کارفرما میشود و قابلیت اعتماد به او را به خاطر عدم موفقیت در محافظت از نیروهای کاری خود از بین میبرد.

آنالیتیک های رفتاری کاربردی فراتر از تامین امنیت دارند. این آنالیتیک ها، به خاطر قابلیت تشخیص انحرافات صورت گرفته در الگوهای استاندارد پروتکل های تعریف شده، به خوبی میتوانند اقدامات غیرایمن کارمندان را شناسایی و پیدا کنند: اقداماتی که میتوانند باعث خسارت به کارمندان و رخدادهای مربوط به تعهدات عمومی شوند. قدرت بالقوه ی تکنولوژی هوش مصنوعی در آنالیتیک های رفتاری و پیشگیری وقوع چنین رخدادهایی بسیار قابل توجه است.

منبع: ویکی پدیا

مترجم: سارا کریمی