مایکروسافت و یاهو با هدف به چالش کشیدن گوگل به توافق برای همکاری در زمینه فنآوری جستوجوی اینترنت و تبلیغات نزدیک شدهاند.
بر اساس گزارش “بلومبرگ” که به نقل از منابع آگاه صورت میگیرد، این دو شرکت که چند ماه گذشته مشغول مذاکره بودهاند ممکن است تا هفته آینده به توافق برسند. بر اساس این گزارش، در حالی که مایکروسافت و یاهو نسبت به یکسال گذشته به بستن قرارداد نزدیک شدهاند همچنان احتمال دارد مذاکرات به نتیجه نرسد.
این دو شرکت به دنبال راههایی برای رقابت با گوگل هستند که طبق جدیدترین آمار “کام اسکار” در ماه ژوئن، ۶۵ درصد از بازار جستوجوی اینترنت آمریکا را در اختیار دارد؛ یاهو با ۱۹٫۶ درصد در مکان دوم و مایکروسافت با ۸٫۴ درصد در مکان سوم قرار دارد.
با وجود این گزارش، مقامات یاهو و مایکروسافت حاضر به اظهار نظر در این زمینه نشدند.
مایکروسافت برای نخستین بار در اوایل سال ۲۰۰۸ با پیشنهاد ۴۴٫۶ میلیارد دلار برای خرید یاهو ابراز تمایل کرد و پس از رد این پیشنهاد از سوی هیات مدیره یاهو، رقم پیشنهاد خود را بالا برد اما با به توافق نرسیدن طرفین بر سر قیمت، این شرکت نرمافزاری چند ماه بعد از مذاکرات کنارهگیری کرده و از آن زمان مکررا اعلام کرد دیگر علاقهای به خرید یاهو ندارد.
منبع: winbeta
توضیحات تکمیلی در ادامه مطلب
مایکروسافت هشدار داد مجرمان اینترنتی با بهرهبرداری از یک حفره برنامهنویسی که هنوز ترمیم نشده، به کاربران نرمافزار آفیس این شرکت حمله کردهاند.
بزرگترین سازنده نرمافزاری جهان همزمان با انتشار وصلههایی برای ترمیم 9 حفره امنیتی در آسیب پذیریهای برنامههایش، این هشدار را اعلام کرد.
/font>
طبق این هشدار، آفیس اکس پی، 2003 و 2007 در برابر این حملات آسیبپذیر هستند؛ مجرمان اینترنتی برنامههای مایکروسافت را به دلیل مورد استفاده بودن گسترده هدف میگیرند تا با یکی از مجموعه کدهای مخربشان، شمار قربانیان احتمالی خود را بالا ببرند.
/font>
لازم به ذکر است که ویندوز در بیش از 90 درصد از رایانههای جهان اجرا میشود و آفیس مایکروسافت حدود 500 میلیون کاربر دارد.
/font>
هکرها با استفاده از وب سایتهای دامگذاری شدهای با کدهای مخربی که در رایانههای مجهز به نرمافزار آفیس بارگذاری میشوند، از آسیبپذیری آفیس بهره میگیرند.
/font>
رایانههای آلوده شده تحت کنترل شبکههای آلوده معروف به بوت نتی قرار میگیرند و از آنها برای اعمال مجرمانهای مانند هرزنامهپراکنی و سرقت اطلاعات شخصی استفاده میشود.
/font>
مایکروسافت شمار رایانههای مورد حمله قرار گرفته را اعلام نکرده اما کاربران میتوانند با غیرفعال کردن قابلیتهایی که کار کردن این برنامه برروی اینترنت را امکانپذیر میکنند مانع این حملات شوند. مایکروسافت به این منظور ابزاری را در وب سایت پشتیبانیاش ارسال کرده است.
/font>
منبع : ایسنا
گوگل کد یکی از بهترین مراجع طراحان وب مخصوصا کاربران پروژه های باز متن (Open Source) و آژاکس (AJAX) است. متاسفانه این سایت مانند سایر بخش های شرکت گوگل از ارائه ی خدمات به ایران خود داری می کند ولی از آن جا که یافتن چنین منبع عظیمی از کد ها به شدت مورد نیاز است کاربران با روش هایی مانند تغییر یا پنهان کردن IP از آن استفاده می کنند.
و اکنون
گوگل کد یک صفحه بر روی توییتر دارد. شما می توانید از طریق GoogleCode@ توییتر گوگل کد را تعقیب کنید. گوگل اعلام کرده که از طریق این صفجه توییتر اطلاعیه های محصولات، پست های وبلاگ گوگل کد، اخبار رویداد های جدید و جذاب تکنولوژی و مانند این ها را منتشر خواهد کرد.
با دنبال کردن توییتر Google Code می توانید به راحتی از آخرین اخبار مطلع شده و نظرات و feedback را نیز از طریق reply@ برای گوگل کد ارسال کنید.
به دنبال انجام آخرین بررسیها و انتشار لیست جدید Green500، شرکت IBM به عنوان تولیدکننده سبزترین ابرکامپیوترها در جهان شناخته شد.
به گزارش سینت، از بین 20 ابرکامپیوتر برتر این لیست که از نظر میزان مصرف انرژی بر دیگر ابرکامپیوترهای دنیا ارجحیت دارند، 18 ابرکامپیوتر توسط شرکت IBM ساخته شده است.
کارشناسان مرکز Green500.org بر پایه مطالعات جدید خود اعلام کردند، در حالی که میانگین مصرف انرژی در برترین ابرکامپیوترهای دنیا 10 درصد افزایش یافته است، میانگین توان آنها برای محاسبات مختلف 15 درصد بیشتر شده است.
معیار اصلی برای سنجش میزان مصرف انرژی، بررسی تعداد محاسبات ابرکامپیوتر در هر ثانیه بهازای مصرف هر وات انرژی است.
سبزترین ابرکامپیوتر دنیا که رتبه نخست لیست Green500 را به خود اختصاص داده، یکی از محصولات شرکت IBM با نام BladeCenter QS22 است. این ابرکامپیوتر در مرکز میانرشتهای علوم ریاضی و کامپیوتری دانشگاه وارساو لهستان واقع شده است و در ثانیه، بهازای هر وات انرژی 536 مگافلاپ محاسبه را انجام میدهد.
سریعتر ابرکامپیوتر دنیا نیز که توسط شرکت IBM ساخته شده و در آزمایشگاههای ملی لوسآلاموس آمریکا واقع شده است، رتبه چهارم این لیست را به خود اختصاص داده و توان آن در هر ثانیه بهازای مصرف هر وات انرژی 444 مگافلاپ است.
چند هفته ای است که بیشتر جستجو ها و تحقیقم را روی بحث بهینه سازی رتبه سایت و وبلاگ در موتور جستجو مخصوصا غول موتور های جستجوگر یعنی گوگل گذاشته ام. جسته و گریخته مطالبی در رابطه با بهینه سازی رتبه ی سایت، افزایش Page Rank، سیستم های آنالیز Google برای تشخیص اهمیت سایت و حتی لینک ها و بمب های گوگلی در وبلاگستان فارسی و وبلاگ های دوستانم دیده ام اما شخصا نظرم این است که هیچ چیز به اندازه ی راهنمای گوگل برای طراحان و صاحبان وب سایت ها و وبلاگ ها نمی تواند مفید باشد. پس در این مجموعه پست ها بر آن ام که به طور کامل بحث رنک گوگل را توضیح بدهم. تمام متون و نوشته ها با ترجمه و تحقیق روی نوشته های راهنمای Google برای دارندگان سایت های اینترنتی تهیه شده است.
توضیحات تکمیلی در ادامه مطلب
در توضیح امکانات و الگوریتم های موتور جستجوی گوگل به اصطلاحاتی بر می خوریم که معنایی متفاوت از معنای لغوی خود دارند. دانستن این اصطلاحات به یک وبلاگ نویس و یا طراح وب کمک می کند که بتواند از آموزش های مستقیم سایت گوگل و همچنین تالار های گفتمان وبمستری استفاده کند. اهمیت این موضوع وقتی روشن تر می شود که به خاطر بیاوریم گوگل هر روز الگوریتم ها و فاکتور های خود را تغییر می دهد و همواره در تلاش برای راهنمایی صحیح کاربران برای دست یابی به نتیجه ی مورد جستجو است.
پنج اصطلاحی که قصد توضیح آنها را دارم PageRank، Crawling، Indexing، Hypertext-Matching و Googlebot است. این توضیح نه تنها معنی چند اصطلاح تخصصی پر کاربرد گوگلی است بلکه پیش زمینه ی ذهنی مناسبی برای آگاهی از روند تجزیه و تحلیل های گوگلی اطلاعات وب و تولید نتیجه است.
Crawling و Googlebot:
Crawl در لغت به معنای آهسته خزیدن است و در اصطلاح گوگلی Crawling به عمل پردازشی که ربات های گوگل برای مشخص کردن صفحات جدید و به روز شده به منظور اضافه کردن به لیست گوگل (index) انجام می دهند گفته می شود.
گوگل از تعداد بسیار زیادی از کامپیوتر های قدرتمند برای واکشی میلیارد ها صفحه ی روی وب استفاده می کند. برنامه ای که عمل واکشی یا Crawl را انجام می دهد Googlebot نام دارد. به Googlebot اصطلاحات دیگری مانند robot، bot، spider و روبات گوگلی نیز شناخته می شود. Googlebot از یک سری برنامه های کامپیوتری پردازش الگوریتمیک استفاده می کند که تصمیم بگیرد چه سایتی را Crawl کند و این که چند وقت یکبار و هربار چه تعداد صفحه واکشی شود.
عملیات crawl گوگل بایک لیست از ادرس ها (URL) صفحات وب شروع می شود که از عملیات Crawl پیشین و اطلاعات نقشه های سایت که توسط دارندگان سایت ها ارسال می شود ساخته شده است. ربات گوگل با بررسی هر کدام از این وبسایت ها آدرس لینک های موجود را پیدا کرده و درلیست خود برای Crawl آینده ثبت می کند. سایت های جدید به لیست اضافه می شوند و سایت های موجود هم برای بررسی به روز رسانی های فهرست گوگل در لیست ثبت می شود.
گوگل برای Crawl کردن بیشتر یک سایت پول نمی گیرد. به گفته سایت گوگل بخش موتور جستجو به طور کل از بخش تجاری گوگل جداست و تغییر در تاریخ یا تعداد Crawl کردن صفحه با پرداخت پول و امثال آن غیر ممکن است.
Indexing:
Googlebot هر یک از صفحات Crawl شده را پردازش می کند و کلمات و موقعیت قرار گرفتن هر کدام را مشخص می کند. ضمنا داده های موجود در در تگ های مختلف و ویزگی های ALT را نیز پردازش می کند. ربات گوگل می تواند بسیاری از انواع فایل ها را پردازش کند ولی در بعضی موارد نمی تواند تمام فایل ها را بپذیرد. مثلا گوگل هنوز در پردازش بعضی صفحات دینامیک و بعضی از فایل های رسانه ای (media) مشکل دارد. در واقع در مرحله ایندکس روبات گوگل صفحات crawl شده را را پردازش می کند و با بررسی محتوا و کلمات و … آن را در دسته بندی های مناسب فهرست می کند و از این پس می توانید آن را جستجو کنید.
تکنولوژی PageRank:
PageRank بازتاب دیدگاه گوگل درباره اهمیت صفحه وب شماست که با بیش از ۵۰۰ میلیون متغیر و بیش از ۲ میلیارد فرمول و ضابطه بدست می آید. صفحاتی که از نظر گوگل با اهمیت تر است PageRank بالاتری را به خود اختصاص می دهند بنابراین احتمال اینکه در راس نتایج موتور های جستجو قرار بگیرد بیشتر است.
PageRank همچنین به میزان رای حساس است. وقتی که سایتی به سایت شما لینک می دهد به منزله ی آن است که به شما رای داده است، هر چه تعداد این رای ها بیشتر باشد و PageRank رای دهندگان بالاتر باشد سایت شما هم ارزش بیشتری پیدا می کند. گوگل همواره در جستجوی راه کار های عملی برای بهبود کیفیت جستجو و نزدیک کردن نتیجه به درخواست کاربران است. گوگل گلچینی از برترین تکنولوژی های هوشمند وب را برای تشخیص درجه اهمیت سایت ها به کار می گیرد.
Hypertext-Matching Analysis:
موتور جستجوی گوگل به جای اسکن معمولی متن سایت و استفاده از کلمات موجود در meta-tag ها از یک شیوه ی هوشمند جدید استفاده میکند. قضیه از این قرار است که تکنولوژی آنالیز گوگل محتوای کامل صفحه را آنالیز کرده و بر اساس فاکتور هایی مانند فونت، زیرشاخه ها، برچسب ها، موقعیت دقیق هر کلمه و تگ های تیتر H1 و … دسته بندی می کند. حتی در بعضی موارد گوگل محتوای صفحات مجاور را نیز بررسی می کند تا اطمینان حاصل کند نتیجه ی جستجو ها بهترین و نزدیکترین نتیجه به خواست کاربر است.
با توضیح اصطلاحات و عبارات فوق تا حدودی با الگوریتم های فوق پیچیده ی گوگلی آشنا شدید. در آموزش بعدی مطالبی در خصوص روند پردازش یک جستجو از مرحله ی نوشتن یک کلمه برای جستجو تا گرفتن جواب را خواهم نوشت. همچنین مطلبی در مورد لینک ها و کلمات کلیدی تغریبا آماده است که در اولین فرصت ارسال خواهم کرد. شما می توانید با پیگیری اخبار از طریق خوراک وبلاگ یک شهروند الکترونیکی و یا پیگیری بخش گوگل مطالب آینده ی بهینه سازی در موتور های جستجو را پیگیری کنید.
منبع:وبلاگ یک شهروند الکترونیکی
نکاتی را که در این آموزش می آموزیم مربوط به بخشی از اطلاعات موجود سایت شما در موتور جستجوی گوگل است که دانستن آنها برای هر وبمستر، وبلاگ نویس، مدیر سایت و نویسنده ی حرفه ای اینترنت لازم است. اولین سوالی که به نظر می رسد این است که گوگل کدام صفحات سایت شما را می بیند؟ به کدام صفحات اهمیت بیشتری می دهد؟ کدام بخش ها را بیشتر دوست دارد و آیا از نظر الگوریتم ها و ربات گوگل آیا سایت های دیگری هستند که محتوای مشابه سایت شما داشته باشند؟
دسته ی دوم سوالات به این بخش توجه دارد که اگر جایگاه شما در هر یک از بخش های بالا خوب نیست یا درخور سایت و وبلاگ شما نیست چرا وبلاگ شما در این بخش قرار گرفته است.
دسته ی سوم سوالات هم که هدف مجموعه آموزش های بهینه سازی رتبه سایت و وبلاگ در موتور جستجو ی گوگل است، سوال در مورد راهبرد های حل این مشکلات و به دست آوردن رتبه ی بهتر و شایسته تر است.
بخش اول سوالات مطرح شده را اینجا پاسخ می دهم و بخش های بعدی را می توانید به مرور زمان در بخش گوگل پیگیری کنید.
وبلاگ شما در فهرست های گوگل
۱- کدام صفحات از سایت شما در فهرست گوگل index شده است؟
برای اینکه بدانید کدام صفحات سایت شما در سایت google ثبت شده است کافی است که از یک جستجوی ساده استفاده کنید. برای مثال وقتی می خواهید بدانید کدام صفحات از وبلاگ من در موتور جستجوی گوگل ثبت شده است کافی است در کادر جستجوی گوگل عبارت site:blog.eshahrvand.com را وارد کرده و جستجو کنید. با این کار لیستی از صفحات index شده ی شما در موتور جستجوی گوگل لیست می شود.
شما می توانید با تکمیل عبارت مورد جستجو ی خود نتایج را به فهرست صفحات موجود در یک subdomain یا دایرکتوری محدود کنید. مانند site:blog.eshahrvand.com/category/google که تنها صفحات دسته ی گوگل وبلاگ یک شهروند الکترونیکی را در لیست خود می آورد.
۲- کدام صفحات اینترنتی به شما لینک داده اند؟
دانستن این بخش از این نظر اهمیت دارد که یک طراح وب، وبمستر یا نویسنده ی وبلاگ می تواند بفهمد کدام مطالبش بیشتر نویسندگان و طراحان دیگر را به خود جذب کرده است. برای یافتن پیوند هایی به وبلاگ شما که در لیست گوگل قرار دارند می توانید از عبارت link در عبتدای آدرس دامنه خود استفاده کنید. مانند link:google.com و یا لینک به یک صفحه خاص مانند link:google.com/webmaster
3- چیزی که در حال حاضر در cache (نهانگاه) گوگل از سایت شما موجود است.
با افزودن عبارت cache به ابتدای نام دامنه می توانید چیزی را که گوگل در حال حاضر به عنوان نسخه ی ذخیره شده سایت شما در خود دارد را مشاهده کنید. مثل عبارت cache:blog.eshahrvand.com که آخرین نسخه ی ذخیره شده ی صفحه اصلی وبلاگ من را نشان می دهد. اهمیت این مطلب در آن است که مشخص می شود googlebot چگونه سایت شما را می بیند. اگر نمی خواهید سایت شما در گوگل cache شود می توانید از تگ HTML زیر استفاده کنید.
<meta name=”robots” content=”noarchive”>
4- چه صفحاتی به سایت من شباهت بیشتری دارند؟
با جستجوی عبارت related پیش از نام دامنه ی سایت خود گوگل سایت های مشابه سایت یا وبلاگ شما را لیست می کند. این کار دقیقا مانند زمانی است که شما می خواهید در یک کتاب فروشی کتابی مانند هری پاتر بیابید. به طور کلی از این اپراتور برای به دست آوردن نمونه های مشابه سایت خود و بررسی تداخل یا overlap کاری است. به عنوان مثال من عبارت related:copyscape.com را جستجو کردم.
توابع بالا به نظرم مهمترین توابع کاربردی گوگل برای یک وبمستر به منظور کشف ماهیت index گوگل از سایت یا وبلاگش می باشد. در آموزش بعدی در مورد اینکه اگر در نتایج بالا جایگاه خوبی ندارید چه باید بکنید توضیح خواهم داد.