چند هفته ای است که بیشتر جستجو ها و تحقیقم را روی بحث بهینه سازی رتبه سایت و وبلاگ در موتور جستجو مخصوصا غول موتور های جستجوگر یعنی گوگل گذاشته ام. جسته و گریخته مطالبی در رابطه با بهینه سازی رتبه ی سایت، افزایش Page Rank، سیستم های آنالیز Google برای تشخیص اهمیت سایت و حتی لینک ها و بمب های گوگلی در وبلاگستان فارسی و وبلاگ های دوستانم دیده ام اما شخصا نظرم این است که هیچ چیز به اندازه ی راهنمای گوگل برای طراحان و صاحبان وب سایت ها و وبلاگ ها نمی تواند مفید باشد. پس در این مجموعه پست ها بر آن ام که به طور کامل بحث رنک گوگل را توضیح بدهم. تمام متون و نوشته ها با ترجمه و تحقیق روی نوشته های راهنمای Google برای دارندگان سایت های اینترنتی تهیه شده است.
توضیحات تکمیلی در ادامه مطلب
در توضیح امکانات و الگوریتم های موتور جستجوی گوگل به اصطلاحاتی بر می خوریم که معنایی متفاوت از معنای لغوی خود دارند. دانستن این اصطلاحات به یک وبلاگ نویس و یا طراح وب کمک می کند که بتواند از آموزش های مستقیم سایت گوگل و همچنین تالار های گفتمان وبمستری استفاده کند. اهمیت این موضوع وقتی روشن تر می شود که به خاطر بیاوریم گوگل هر روز الگوریتم ها و فاکتور های خود را تغییر می دهد و همواره در تلاش برای راهنمایی صحیح کاربران برای دست یابی به نتیجه ی مورد جستجو است.
پنج اصطلاحی که قصد توضیح آنها را دارم PageRank، Crawling، Indexing، Hypertext-Matching و Googlebot است. این توضیح نه تنها معنی چند اصطلاح تخصصی پر کاربرد گوگلی است بلکه پیش زمینه ی ذهنی مناسبی برای آگاهی از روند تجزیه و تحلیل های گوگلی اطلاعات وب و تولید نتیجه است.
Crawling و Googlebot:
Crawl در لغت به معنای آهسته خزیدن است و در اصطلاح گوگلی Crawling به عمل پردازشی که ربات های گوگل برای مشخص کردن صفحات جدید و به روز شده به منظور اضافه کردن به لیست گوگل (index) انجام می دهند گفته می شود.
گوگل از تعداد بسیار زیادی از کامپیوتر های قدرتمند برای واکشی میلیارد ها صفحه ی روی وب استفاده می کند. برنامه ای که عمل واکشی یا Crawl را انجام می دهد Googlebot نام دارد. به Googlebot اصطلاحات دیگری مانند robot، bot، spider و روبات گوگلی نیز شناخته می شود. Googlebot از یک سری برنامه های کامپیوتری پردازش الگوریتمیک استفاده می کند که تصمیم بگیرد چه سایتی را Crawl کند و این که چند وقت یکبار و هربار چه تعداد صفحه واکشی شود.
عملیات crawl گوگل بایک لیست از ادرس ها (URL) صفحات وب شروع می شود که از عملیات Crawl پیشین و اطلاعات نقشه های سایت که توسط دارندگان سایت ها ارسال می شود ساخته شده است. ربات گوگل با بررسی هر کدام از این وبسایت ها آدرس لینک های موجود را پیدا کرده و درلیست خود برای Crawl آینده ثبت می کند. سایت های جدید به لیست اضافه می شوند و سایت های موجود هم برای بررسی به روز رسانی های فهرست گوگل در لیست ثبت می شود.
گوگل برای Crawl کردن بیشتر یک سایت پول نمی گیرد. به گفته سایت گوگل بخش موتور جستجو به طور کل از بخش تجاری گوگل جداست و تغییر در تاریخ یا تعداد Crawl کردن صفحه با پرداخت پول و امثال آن غیر ممکن است.
Indexing:
Googlebot هر یک از صفحات Crawl شده را پردازش می کند و کلمات و موقعیت قرار گرفتن هر کدام را مشخص می کند. ضمنا داده های موجود در در تگ های مختلف و ویزگی های ALT را نیز پردازش می کند. ربات گوگل می تواند بسیاری از انواع فایل ها را پردازش کند ولی در بعضی موارد نمی تواند تمام فایل ها را بپذیرد. مثلا گوگل هنوز در پردازش بعضی صفحات دینامیک و بعضی از فایل های رسانه ای (media) مشکل دارد. در واقع در مرحله ایندکس روبات گوگل صفحات crawl شده را را پردازش می کند و با بررسی محتوا و کلمات و … آن را در دسته بندی های مناسب فهرست می کند و از این پس می توانید آن را جستجو کنید.
تکنولوژی PageRank:
PageRank بازتاب دیدگاه گوگل درباره اهمیت صفحه وب شماست که با بیش از ۵۰۰ میلیون متغیر و بیش از ۲ میلیارد فرمول و ضابطه بدست می آید. صفحاتی که از نظر گوگل با اهمیت تر است PageRank بالاتری را به خود اختصاص می دهند بنابراین احتمال اینکه در راس نتایج موتور های جستجو قرار بگیرد بیشتر است.
PageRank همچنین به میزان رای حساس است. وقتی که سایتی به سایت شما لینک می دهد به منزله ی آن است که به شما رای داده است، هر چه تعداد این رای ها بیشتر باشد و PageRank رای دهندگان بالاتر باشد سایت شما هم ارزش بیشتری پیدا می کند. گوگل همواره در جستجوی راه کار های عملی برای بهبود کیفیت جستجو و نزدیک کردن نتیجه به درخواست کاربران است. گوگل گلچینی از برترین تکنولوژی های هوشمند وب را برای تشخیص درجه اهمیت سایت ها به کار می گیرد.
Hypertext-Matching Analysis:
موتور جستجوی گوگل به جای اسکن معمولی متن سایت و استفاده از کلمات موجود در meta-tag ها از یک شیوه ی هوشمند جدید استفاده میکند. قضیه از این قرار است که تکنولوژی آنالیز گوگل محتوای کامل صفحه را آنالیز کرده و بر اساس فاکتور هایی مانند فونت، زیرشاخه ها، برچسب ها، موقعیت دقیق هر کلمه و تگ های تیتر H1 و … دسته بندی می کند. حتی در بعضی موارد گوگل محتوای صفحات مجاور را نیز بررسی می کند تا اطمینان حاصل کند نتیجه ی جستجو ها بهترین و نزدیکترین نتیجه به خواست کاربر است.
با توضیح اصطلاحات و عبارات فوق تا حدودی با الگوریتم های فوق پیچیده ی گوگلی آشنا شدید. در آموزش بعدی مطالبی در خصوص روند پردازش یک جستجو از مرحله ی نوشتن یک کلمه برای جستجو تا گرفتن جواب را خواهم نوشت. همچنین مطلبی در مورد لینک ها و کلمات کلیدی تغریبا آماده است که در اولین فرصت ارسال خواهم کرد. شما می توانید با پیگیری اخبار از طریق خوراک وبلاگ یک شهروند الکترونیکی و یا پیگیری بخش گوگل مطالب آینده ی بهینه سازی در موتور های جستجو را پیگیری کنید.
منبع:وبلاگ یک شهروند الکترونیکی
نکاتی را که در این آموزش می آموزیم مربوط به بخشی از اطلاعات موجود سایت شما در موتور جستجوی گوگل است که دانستن آنها برای هر وبمستر، وبلاگ نویس، مدیر سایت و نویسنده ی حرفه ای اینترنت لازم است. اولین سوالی که به نظر می رسد این است که گوگل کدام صفحات سایت شما را می بیند؟ به کدام صفحات اهمیت بیشتری می دهد؟ کدام بخش ها را بیشتر دوست دارد و آیا از نظر الگوریتم ها و ربات گوگل آیا سایت های دیگری هستند که محتوای مشابه سایت شما داشته باشند؟
دسته ی دوم سوالات به این بخش توجه دارد که اگر جایگاه شما در هر یک از بخش های بالا خوب نیست یا درخور سایت و وبلاگ شما نیست چرا وبلاگ شما در این بخش قرار گرفته است.
دسته ی سوم سوالات هم که هدف مجموعه آموزش های بهینه سازی رتبه سایت و وبلاگ در موتور جستجو ی گوگل است، سوال در مورد راهبرد های حل این مشکلات و به دست آوردن رتبه ی بهتر و شایسته تر است.
بخش اول سوالات مطرح شده را اینجا پاسخ می دهم و بخش های بعدی را می توانید به مرور زمان در بخش گوگل پیگیری کنید.
وبلاگ شما در فهرست های گوگل
۱- کدام صفحات از سایت شما در فهرست گوگل index شده است؟
برای اینکه بدانید کدام صفحات سایت شما در سایت google ثبت شده است کافی است که از یک جستجوی ساده استفاده کنید. برای مثال وقتی می خواهید بدانید کدام صفحات از وبلاگ من در موتور جستجوی گوگل ثبت شده است کافی است در کادر جستجوی گوگل عبارت site:blog.eshahrvand.com را وارد کرده و جستجو کنید. با این کار لیستی از صفحات index شده ی شما در موتور جستجوی گوگل لیست می شود.
شما می توانید با تکمیل عبارت مورد جستجو ی خود نتایج را به فهرست صفحات موجود در یک subdomain یا دایرکتوری محدود کنید. مانند site:blog.eshahrvand.com/category/google که تنها صفحات دسته ی گوگل وبلاگ یک شهروند الکترونیکی را در لیست خود می آورد.
۲- کدام صفحات اینترنتی به شما لینک داده اند؟
دانستن این بخش از این نظر اهمیت دارد که یک طراح وب، وبمستر یا نویسنده ی وبلاگ می تواند بفهمد کدام مطالبش بیشتر نویسندگان و طراحان دیگر را به خود جذب کرده است. برای یافتن پیوند هایی به وبلاگ شما که در لیست گوگل قرار دارند می توانید از عبارت link در عبتدای آدرس دامنه خود استفاده کنید. مانند link:google.com و یا لینک به یک صفحه خاص مانند link:google.com/webmaster
3- چیزی که در حال حاضر در cache (نهانگاه) گوگل از سایت شما موجود است.
با افزودن عبارت cache به ابتدای نام دامنه می توانید چیزی را که گوگل در حال حاضر به عنوان نسخه ی ذخیره شده سایت شما در خود دارد را مشاهده کنید. مثل عبارت cache:blog.eshahrvand.com که آخرین نسخه ی ذخیره شده ی صفحه اصلی وبلاگ من را نشان می دهد. اهمیت این مطلب در آن است که مشخص می شود googlebot چگونه سایت شما را می بیند. اگر نمی خواهید سایت شما در گوگل cache شود می توانید از تگ HTML زیر استفاده کنید.
<meta name=”robots” content=”noarchive”>
4- چه صفحاتی به سایت من شباهت بیشتری دارند؟
با جستجوی عبارت related پیش از نام دامنه ی سایت خود گوگل سایت های مشابه سایت یا وبلاگ شما را لیست می کند. این کار دقیقا مانند زمانی است که شما می خواهید در یک کتاب فروشی کتابی مانند هری پاتر بیابید. به طور کلی از این اپراتور برای به دست آوردن نمونه های مشابه سایت خود و بررسی تداخل یا overlap کاری است. به عنوان مثال من عبارت related:copyscape.com را جستجو کردم.
توابع بالا به نظرم مهمترین توابع کاربردی گوگل برای یک وبمستر به منظور کشف ماهیت index گوگل از سایت یا وبلاگش می باشد. در آموزش بعدی در مورد اینکه اگر در نتایج بالا جایگاه خوبی ندارید چه باید بکنید توضیح خواهم داد.
شاید شما نتوانید بدون رایانه زندگی کنید اما آیا آن را دوست دارید؟ ممکن است نگهداری و تعمیر رایانهها دشوار باشد زیرا رایانهها به کندی شروع به کار میکنند و مستعد خرابی، پاک شدن فایلهای باارزش و عکسها هستند. همواره در برابر حملات ویروسی آسیبپذیر بوده و نیازمند ارتقای دائم هستند و درصورت مفقود شدن یا بدتر از آن به سرقت رفتن، دستگاه رایانه به همراه تمامی اطلاعات ذخیره شده در آن شامل فایلها، تماسها، پیامهای ایمیل، عکسها و ویدیوها ازدست میرود.
اما اگر رایانه دیگر چیزی بیش از مرورگر اینترنت ـ پنجره دیجیتالی به سوی وب ـ نباشد چطور؟ میتوان تمامی نرمافزارهای موجود در رایانه و کارهایی را که انجام میدهند فراموش کرد و تمامی این قابلیتها از طریق وب انجام گیرد و هیچ کدام از اطلاعاتی که اکنون در رایانه وجود دارند دیگر درون آن نخواهند بود. در عوض همه چیز برروی ابری از رایانههای متصلی قرار خواهد گرفت که همان اینترنت است. این تصور وسوسهانگیز اما دست نیافتنی شخصیتهای دنیای فنآوری از زمان ظهور وب در نیمه دهه 1990بوده است. /font>
گوگل جدیدترین شرکت فنآوری است که تلاش میکند شکاف میان رویا و واقعیت را کاهش دهد. غول جستوجوی اینترنت و تبلیغات اعلام کرده در حال کار برروی سیستم عامل جدیدی است که کاربران را به ابر متصل میکند. /font>
اما بر خلاف سیستمهای عامل قدیمی مانند ویندوز مایکروسافت که همه نوع نرمافزار سنتی را اجرا میکند سیستم عامل کروم گوگل به جز اطمینان از کار کردن خوب و سریع مرورگر وب در رایانه کاری نخواهد کرد. اینکه سیستم عامل کروم موفق میشود اهمیتی ندارد. بیشتر دنیای رایانه به سمت رایانش ابری حرکت میکند که تغییری برای سادهتر کردن نحوه دسترسی و پردازش اطلاعات دیجیتالی است. /font>
دیگر از نصبهای آزاردهنده نرمافزارها، رفتن از فهرستی به فهرست دیگر برای تنظیم برنامهها، بک آپها یا ارتقاءها خلاص میشویم. از ضمیمههای حجیم ایمیل هم دیگر خبری نخواهد بود زیرا مردم میتوانند به دیگران اجازه دسترسی به فایلهای آنلاینشان را داده و همکاری را سادهتر کنند. /font>
از رایانه رومیزی گرفته تا یک تلفن همراه، هر دستگاهی از همه جا به کاربران دسترسی فوری به فایلهای آنها و برنامهها را تا زمانی که مرورگر وب دارند، فراهم میکند. همزمان انواع جدید دستگاهها از رایانههای قابل حملی که حتی از سبکترین رایانههای امروزی سبکتر هستند گرفته تا نمایشگرهای متصل به اینترنت در اتاقهای هتل که به میهمانان دسترسی کامل به زندگی دیجیتالی میدهند، امکانپذیر خواهند بود. /font>
رایانش ابری پدیده جدیدی نیست؛ دهها سال است که افراد از سرویسهای ایمیل اینترنتی مانند هات میل استفاده میکنند و با سرویسهای اینترنتی مانند فیسبوک یا توییتر تعامل میکنند که در اینترنت از رایانههای خانه و محل کار و تلفنهای همراه قابل دسترس هستند. گوگل و شرکتهای دیگر نسخههای آنلاین پردازش ورد و برنامههای صفحه گسترده را عرضه میکنند. /font>
با این حال توان کامل این ایده به طور کامل به تحقق نپیوسته است اما همچنانکه موانع فنی برای اجرای بیشتر نرمافزارها در داخل یک مرورگر وب برطرف میشوند احتمال گامی بزرگ به جلو قوت میگیرد. /font>
در چند سال گذشته تلفنها بیشتر شبیه رایانهها شدهاند و دستگاههایی مانند آیفون اشتهای کاربران را برای سادگی و قدرت افزایش دادهاند. اکنون این قدرت و سادگی میتواند از تلفن به رایانه مهاجرت کنند. /font>
اما به این معنی نیست که دنیای رایانش رایانه قدیمی به زودی محو خواهد شد. ویندوز مایکروسافت همچنان در 90 درصد از رایانههای جهان عمل میکند. نرمافزار آفیس این شرکت توسط بیش از 450 میلیون مشترک پولی مورد استفاده است. /font>
بسیاری از شرکتها به دلیل واهمه از دست دادن کنترل قابلیتهای تجاری حیاتی برای بردن ایمیلها، اشتراکها یا نرمافزار ردیابی مشترکان به وب مقاومت کردهاند و برخی از نرمافزارها مانند بازیهای سه بعدی یا ویرایش گرافیکی مستلزم نیروی رایانشی هستند که مناسب اجرا در داخل مرورگر وب نیستند. /font>
از سوی دیگر بدون سیاستهای واضح یا قوانین سامان دهنده حریم خصوصی و مالکیت دادهها در ابر، برخی از مصرف کنندگان ممکن است برای قرار دادن زندگی دیجیتالی خود در اینترنت مقاومت کنند. /font>
با این حال برای میلیونها مصرف کننده احتمال مبادله کردن رایانه قدیمیشان با یک دستگاه ساده که از مرورگر وب برای انجام تمامی کارهای مورد نظر استفاده میکند، نزدیک است. این همان کاری است که گوگل امیدوار است با عرضه سیستم عامل کروم در سال آینده انجام دهد. /font>
منبع: ایسنا
شرکت روسی Digital Sky Technologies با پرداخت 14.77 دلار به ازای هر سهم برای سهام عمومی فیس بوک، دارایی خود را در این شرکت به 3.5 درصد و ارزش بزرگترین شبکه اجتماعی آنلاین جهان را به حدود 6.5 میلیارد دلار رساند.
/font>
این ارزش پایینتر از 10 میلیارد دلار ارزشی است که با سرمایهگذاری این شرکت روسی در ماه می برروی فیس بوک تعیین شد.
/font>
Digital Sky شرکت سرمایهگذاری روسی است که در ماه می سهام ممتاز فیس بوک را به ارزش 200 میلیون دلار خریداری و اعلام کرد 100 میلیون دلار دیگر از سهام عمومی کارمندان فیس بوک را خریداری میکند.
/font>
مارک زوکربرگ، مدیر اجرایی فیس بوک، در بیانیهای از قیمت عرضه شده از سوی این شرکت روسی که بیشتر از قیمت مورد نظر فیس بوک بود ابراز خوشنودی کرد.
/font>
مایکروسافت در سال 2007 با خرید سهام ممتاز فیس بوک، 240 میلیون دلار در آن سرمایهگذاری کرده و 1.6 درصد از این شبکه اجتماعی را کسب کرد. این قرارداد که شامل همکاری تبلیغاتی نیز بود، ارزش فیس بوک را به 15 میلیارد دلار رساند.
/font>
فیس بوک به تازگی از مرز 200 میلیون کاربر فعال در شبکه اجتماعی خود گذشته است که نسبت به 100 میلیون نفر در کمتر از یک سال قبل افزایش یافته است. گفتنی است نسخه فارسیزبان شبکه اجتماعی فیس بوک به تازگی به صورت آزمایشی راهاندازی شده است.
منبع: ایسنا/font>
حتماً گوشی مدل TG01 توشیبا را که در کنفرانس جهانی تلفن همراه بارسلونا در ماه فوریه سال جاری معرفی شد به یاد دارید.
این گوشی که به پردازنده یک گیگاهرتزی اسنپ دراگون شرکت کوآلکوم مجهز است، سریعترین گوشی تلفن همراه جهان تا به امروز محسوب میشود. پیش از این پیشبینی میشد این گوشی فقط در بازار ژاپن عرضه شود؛ ولی اکنون با ورود این گوشی به کلکسیون شرکت اورنج، اپراتور انگلیسی، این گمانهزنیها مردود به حساب میآید و به نظر میرسد توشیبا عزم خود را برای ورود قدرتمند به بازار رو به رشد تلفنهای همراه هوشمند، جزم کرده است.
از دیگر ویژگیهای بینظیر TG01 میتوان به صفحهنمایش بسیار عریض 1/4 اینچی و ضخامت تنها 9/9 میلیمتری آن اشاره کرد. این گوشی مجهز به سیستمعامل ویندوزموبایل نسخه 1/6 حرفهای است و توشیبا قول ارتقای آن را به نسخه 5/6 به هنگام عرضه این سیستمعامل به کاربران داده است.
TG01 در حال حاضر در ازای یک قرارداد دو ساله به مبلغ 15/39 پوند در ماه، به طور رایگان به کاربران بریتانیایی داده میشود.
منبع: ایتنا
تلفن هوشمند مبتنی بر سری 60 سیمبیان که یک گوشی کشویی با کیبورد است، از سوی نوکیا و AT&T در آمریکا رونمایی شد.
تلفن هوشمند Surge دارای یک دوربین 2 مگاپیکسلی، نمایشگر ال سی دی غیرلمسی 2.4 اینچی، بلوتوث استریو، حافظه قابل توسعه، رادیو GPS، پشتیبانی از اکانتهای ایمیل مایکروسافت است و 3.8 در 2.3 در 0.6 اینچ اندازه و 124.7 گرم وزن دارد.
/font>
این تلفن با سرویس از پیش نصب شده JuiceCaster عرضه میشود که به کاربران امکان میدهد پیامها، عکس و بهروزرسانی به سایتهای شبکههای اجتماعی مانند فیس بوک، توییتر و فلیکر ارسال کنند.
/font>
بهعلاوه این تلفن هوشمند مرور صفحات وب کامل با پشتیبانی از فلش عرضه میکند و به سرویسهای AT&T مانند ناوبری، آهنگ و اشتراک ویدیو دسترسی دارد؛ گوشی Surge نوکیا به همراه یک قرارداد دو ساله به قیمت 79.99 دلار به مشترکان AT&T عرضه میشود.
منبع: ایسنا
/font>
به گفته پژوهشگران در امر امنیت اطلاعات، از پریز برق می توان برای شنود آنچه مردم بر روی صفحه کلید رایانه تایپ می کنند، استفاده کرد.
پژوهشگران موسسه Inverse Path دریافتهاند که فقدان لایه های حفاظتی کافی جهت جلوگیری از انتشار اعوجاج در کابل برخی صفحه کلیدها، باعث می شود که در هنگام تایپ هر حرف، اطلاعاتی حساس از طریق این سیم نشت کند.
/font>
این پژوهشگران با تحلیل اطلاعاتی که از طریق پریز برق به دست آمد، توانستند دریابند که فرد مورد شنود قرار گرفته، چه چیزی بر روی صفحه کلید کامپیوتر خود تایپ می کند.
/font>
در این پژوهش مشخص شد اطلاعات منتقل شده از طریق سیم صفحه کلید، از 15 متری نقطه اتصال رایانه به یک پریز برق و حتی از نقاطی مانند لوله های آب نیز قابل شنود است.
/font>
آندریا باریسانی و دانیل بیانکو، از پژوهشگران موسسه Inverse Path در یک مقاله علمی به تشریح یافته های خود پرداختند و نوشتند: «هدف ما این است که نشان دهیم اطلاعات را از غیرمنتظره ترین راه ها می توان شنود کرد.»
/font>
پژوهشگران تحقیق خود را بر روی سیم هایی متمرکز کردند که صفحات کلید PS/2 را به رایانههای رومیزی متصل می کند.
/font>
این دو نفر گفتند شش سیم داخل یک کابل PS/2 معمولا نزدیک به یکدیگرند و حفاظ اعوجاجی مناسبی ندارند.« این مساله باعث می شود اطلاعاتی که از طریق سیم داده (data) به شکل تغییر ولتاژ در حال انتقال است به سیم زمین (earth) در همان کابل القاء شود.
/font>
سیم زمین نهایتا از طریق منبع تغذیه رایانه به پریز برق و از آنجا هم به کل مدارهایی که برق اتاق را تامین میکنند متصل می شود.
/font>
آنچه شرایط را برای این القای ناخواسته اطلاعات فراهم می کند سرعت پایین انتقال اطلاعات صفحه کلید است که سرعت آن به مراتب کمتر از سرعت عملکرد دیگر قطعات در رایانه است.» /font>
در این مقاله آمده: «موج مربعی سیگنال PS/2 با کیفیت خوب [به سیم زمین] منتقل می شود و می توان آن را به اطلاعات اصلی صفحه کلید تبدیل کرد.»
/font>
پژوهش این افراد نشان داد حتی اگر محلی که تلاش برای دزدی اطلاعات از آن صورت می گیرد تا 15 متر از پریز برق فاصله داشته باشد، اطلاعات بدون مشکل منتقل می شود و نتیجتا چنین روش شنود اطلاعات در اتاق هتل ها یا دفاتر کار نیز قابل استفاده است.
/font>
این دو پژوهشگر اعلام کرده اند که تحقیقات آنها در این زمانه کماکان ادامه دارد و قرار است نحوه انجام چنین حمله ای در کنفرانس مسائل امنیتی Black Hat که از روز 25 تا 30 ژوئیه در لاس وگاس برگزار می شود، به نماش گذاشته شود.
منبع: ایسنا/font>