:: اخبار دنیای وب ::

جدیدترین اخبار IT -مقالات آموزشی

:: اخبار دنیای وب ::

جدیدترین اخبار IT -مقالات آموزشی

احتمال همکاری تبلیغاتی مایکروسافت و یاهو قوت گرفت

 

 مایکوسافت- یاهو 

 

 

 

مایکروسافت و یاهو با هدف به چالش کشیدن گوگل به توافق برای همکاری در زمینه فن‌آوری جست‌وجوی اینترنت و تبلیغات نزدیک شده‌اند. 

 

بر اساس گزارش “بلومبرگ” که به نقل از منابع آگاه صورت می‌گیرد، این دو شرکت که چند ماه گذشته مشغول مذاکره بوده‌اند ممکن است تا هفته آینده به توافق برسند. بر اساس این گزارش، در حالی که مایکروسافت و یاهو نسبت به یکسال گذشته به بستن قرارداد نزدیک شده‌اند همچنان احتمال دارد مذاکرات به نتیجه نرسد. 

این دو شرکت به دنبال راه‌هایی برای رقابت با گوگل هستند که طبق جدیدترین آمار “کام اسکار” در ماه ژوئن، ۶۵ درصد از بازار جست‌وجوی اینترنت آمریکا را در اختیار دارد؛ یاهو با ۱۹٫۶ درصد در مکان دوم و مایکروسافت با ۸٫۴ درصد در مکان سوم قرار دارد. 

با وجود این گزارش، مقامات یاهو و مایکروسافت حاضر به اظهار نظر در این زمینه نشدند. 

مایکروسافت برای نخستین بار در اوایل سال ۲۰۰۸ با پیشنهاد ‌۴۴٫۶ میلیارد دلار برای خرید یاهو ابراز تمایل کرد و پس از رد این پیشنهاد از سوی هیات مدیره یاهو، رقم پیشنهاد خود را بالا برد اما با به توافق نرسیدن طرفین بر سر قیمت، این شرکت نرم‌افزاری چند ماه بعد از مذاکرات کناره‌گیری کرده و از آن زمان مکررا اعلام کرد دیگر علاقه‌ای به خرید یاهو ندارد.  

 

 

منبع: winbeta

رازهای موفقیت یک شبکه بزرگ بر وب Facebook

facebook  

 

وب سایت و شبکه اجتماعی فیس‌بوک در سال 2004 توسط یکی از دانشجویان دانشگاه هاروارد به‌نام مارک زوکربرگ (Mark Zuckerberg(‌ و هم‌اتاقی‌هایش داستین موسکوویتز (Dustin Moskovitz)و کریس هیوز (Chris Hughes) راه‌اندازی شد، تا شیوه برقراری ارتباط در دانشگاه‌ها را تغییر دهد،‌اما امروز بیش از 15میلیون بازدید کاربر در ماه دارد و به‌طور متوسط 6 میلیارد صفحه از این وب‌سایت ماهانه دیده می‌شود. ارزش فعلی فیس‌بوک، حدود 750‌میلیون دلار تخمین زده می‌شود و صرف‌‌نظر از درآمد فوق‌العاده این وب‌سایت و ترافیک آن، کاملا در هدف شغلی خود موفق است.

 

توضیحات تکمیلی در ادامه مطلب 

 

ادامه مطلب ...

حمله هکرها به کاربران آفیس مایکروسافت

هکر 

 

 

مایکروسافت هشدار داد مجرمان اینترنتی با بهره‌برداری از یک حفره برنامه‌نویسی که هنوز ترمیم نشده، به کاربران نرم‌افزار آفیس این شرکت حمله کرده‌اند. 

 

 

بزرگ‌ترین سازنده نرم‌افزاری جهان همزمان با انتشار وصله‌هایی برای ترمیم 9 حفره امنیتی در آسیب پذیری‌های برنامه‌هایش، این هشدار را اعلام کرد.  

طبق این هشدار، آفیس اکس پی، 2003 و 2007 در برابر این حملات آسیب‌پذیر هستند؛ مجرمان اینترنتی برنامه‌های مایکروسافت را به دلیل مورد استفاده بودن گسترده هدف می‌گیرند تا با یکی از مجموعه کدهای مخربشان، شمار قربانیان احتمالی خود را بالا ببرند.  

لازم به ذکر است که ویندوز در بیش از 90 درصد از رایانه‌های جهان اجرا می‌شود و آفیس مایکروسافت حدود 500 میلیون کاربر دارد.  

هکرها با استفاده از وب سایت‌های دامگذاری شده‌ای با کدهای مخربی که در رایانه‌های مجهز به نرم‌افزار آفیس بارگذاری می‌شوند، از آسیب‌پذیری آفیس بهره می‌گیرند.  

رایانه‌های آلوده شده تحت کنترل شبکه‌های آلوده معروف به بوت نتی قرار می‌گیرند و از آن‌ها برای اعمال مجرمانه‌ای مانند هرزنامه‌پراکنی و سرقت اطلاعات شخصی استفاده می‌شود.  

مایکروسافت شمار رایانه‌های مورد حمله قرار گرفته را اعلام نکرده اما کاربران می‌توانند با غیرفعال کردن قابلیت‌هایی که کار کردن این برنامه برروی اینترنت را امکان‌پذیر می‌کنند مانع این حملات شوند. مایکروسافت به این منظور ابزاری را در وب سایت پشتیبانی‌اش ارسال کرده است.  

 

منبع : ایسنا 

گوگل کد هم به توییتر پیوست

 گوگل کد

    گوگل کد یکی از بهترین مراجع طراحان وب مخصوصا کاربران پروژه های باز متن (Open Source) و آژاکس (AJAX) است. متاسفانه این سایت مانند سایر بخش های شرکت گوگل از ارائه ی خدمات به ایران خود داری می کند ولی از آن جا که یافتن چنین منبع عظیمی از کد ها به شدت مورد نیاز است کاربران با روش هایی مانند تغییر یا پنهان کردن IP از آن استفاده می کنند. 

 

و اکنون 


گوگل کد یک صفحه بر روی توییتر دارد. شما می توانید از طریق GoogleCode@ توییتر گوگل کد را تعقیب کنید. گوگل اعلام کرده که از طریق این صفجه توییتر اطلاعیه های محصولات، پست های وبلاگ گوگل کد، اخبار رویداد های جدید و جذاب تکنولوژی و مانند این ها را منتشر خواهد کرد.
با دنبال کردن توییتر Google Code می توانید به راحتی از آخرین اخبار مطلع شده و نظرات و feedback را نیز از طریق reply@ برای گوگل کد ارسال کنید. 

 

 

منبع: وبلاگ یک شهروند الکترونیکی 

سبزترین ابرکامپیوترهای دنیا معرفی شدند

  IBM 

 

 

 

به دنبال انجام آخرین بررسی‌ها و انتشار لیست جدید Green500، شرکت IBM به عنوان تولیدکننده سبزترین ابرکامپیوترها در جهان شناخته شد.  

 

به گزارش سی‌نت، از بین 20 ابرکامپیوتر برتر این لیست که از نظر میزان مصرف انرژی بر دیگر ابرکامپیوترهای دنیا ارجحیت دارند، 18 ابرکامپیوتر توسط شرکت IBM ساخته شده است.  

کارشناسان مرکز Green500.org بر پایه مطالعات جدید خود اعلام کردند، در حالی که میانگین مصرف انرژی در برترین ابرکامپیوترهای دنیا 10 درصد افزایش یافته است، میانگین توان آن‌ها برای محاسبات مختلف 15 درصد بیشتر شده است.  

معیار اصلی برای سنجش میزان مصرف انرژی، بررسی تعداد محاسبات ابرکامپیوتر در هر ثانیه به‌ازای مصرف هر وات انرژی است.  

سبزترین ابرکامپیوتر دنیا که رتبه نخست لیست Green500 را به خود اختصاص داده، یکی از محصولات شرکت IBM با نام BladeCenter QS22 است. این ابرکامپیوتر در مرکز میان‌رشته‌ای علوم ریاضی و کامپیوتری دانشگاه وارساو لهستان واقع شده است و در ثانیه، به‌ازای هر وات انرژی 536 مگافلاپ محاسبه را انجام می‌دهد. 

 

سریع‌تر ابرکامپیوتر دنیا نیز که توسط شرکت IBM ساخته شده و در آزمایشگاه‌های ملی لوس‌آلاموس آمریکا واقع شده است، رتبه چهارم این لیست را به خود اختصاص داده و توان‌ آن در هر ثانیه به‌ازای مصرف هر وات انرژی 444 مگافلاپ است.  

لیست Green500 سالانه دو تا سه بار منتشر می‌شود و برترین ابرکامپیوترهای دنیا از لحاظ میزان مصرف انرژی را مورد بررسی قرار می‌دهد. لیست Top 500 نیز در هر سال دو بار منتشر می‌شود و در آن به سریع‌ترین ابرکامپیوترهای دنیا پرداخته می‌شود.  
 
 
منبع: فارس

سایت خود را مورد علاقه گوگل (Google friendly) کنید

                                    گوگل

 

 

چند هفته ای است که بیشتر جستجو ها و تحقیقم را روی بحث بهینه سازی رتبه سایت و وبلاگ در موتور جستجو مخصوصا غول موتور های جستجوگر یعنی گوگل گذاشته ام. جسته و گریخته مطالبی در رابطه با بهینه سازی رتبه ی سایت، افزایش Page Rank، سیستم های آنالیز Google برای تشخیص اهمیت سایت و حتی لینک ها و بمب های گوگلی در وبلاگستان فارسی و وبلاگ های دوستانم دیده ام اما شخصا نظرم این است که هیچ چیز به اندازه ی راهنمای گوگل برای طراحان و صاحبان وب سایت ها و وبلاگ ها نمی تواند مفید باشد. پس در این مجموعه پست ها بر آن ام که به طور کامل بحث رنک گوگل را توضیح بدهم. تمام متون و نوشته ها با ترجمه و تحقیق روی نوشته های راهنمای Google برای دارندگان سایت های اینترنتی تهیه شده است.

 

 

توضیحات تکمیلی در ادامه مطلب 

ادامه مطلب ...

اصطلاحات تخصصی موتور جستجو گوگل

                                     گوگل 

 

 

در توضیح امکانات و الگوریتم های موتور جستجوی گوگل به اصطلاحاتی بر می خوریم که معنایی متفاوت از معنای لغوی خود دارند. دانستن این اصطلاحات به یک وبلاگ نویس و یا طراح وب کمک می کند که بتواند از آموزش های مستقیم سایت گوگل و همچنین تالار های گفتمان وبمستری استفاده کند. اهمیت این موضوع وقتی روشن تر می شود که به خاطر بیاوریم  گوگل هر روز الگوریتم ها و فاکتور های خود را تغییر می دهد و همواره در تلاش برای راهنمایی صحیح کاربران برای دست یابی به نتیجه ی مورد جستجو است. 

پنج اصطلاحی که قصد توضیح آنها را دارم PageRank، Crawling، Indexing، Hypertext-Matching و Googlebot است. این توضیح نه تنها معنی چند اصطلاح تخصصی پر کاربرد گوگلی است بلکه پیش زمینه ی ذهنی مناسبی برای آگاهی از روند تجزیه و تحلیل های گوگلی اطلاعات وب و تولید نتیجه است.  

 

 

Crawling و Googlebot: 

Crawl در لغت به معنای آهسته خزیدن است و در اصطلاح گوگلی Crawling به عمل پردازشی که ربات های گوگل برای مشخص کردن صفحات جدید و به روز شده به منظور اضافه کردن به لیست گوگل (index) انجام می دهند گفته می شود.

گوگل از تعداد بسیار زیادی از کامپیوتر های قدرتمند برای واکشی میلیارد ها صفحه ی روی وب استفاده می کند. برنامه ای که عمل واکشی یا Crawl را انجام می دهد Googlebot نام دارد. به Googlebot اصطلاحات دیگری مانند robot، bot، spider و روبات گوگلی نیز شناخته می شود. Googlebot از یک سری برنامه های کامپیوتری پردازش الگوریتمیک استفاده می کند که تصمیم بگیرد چه سایتی را Crawl کند و این که چند وقت یکبار و هربار چه تعداد صفحه واکشی شود.

عملیات crawl گوگل بایک لیست از ادرس ها (URL) صفحات وب شروع می شود که از عملیات Crawl پیشین و اطلاعات نقشه های سایت که توسط دارندگان سایت ها ارسال می شود ساخته شده است. ربات گوگل با بررسی هر کدام از این وبسایت ها آدرس لینک های موجود را پیدا کرده و درلیست خود برای Crawl آینده ثبت می کند. سایت های جدید به لیست اضافه می شوند و سایت های موجود هم برای بررسی به روز رسانی های فهرست گوگل در لیست ثبت می شود.

گوگل برای Crawl کردن بیشتر یک سایت پول نمی گیرد. به گفته سایت گوگل بخش موتور جستجو به طور کل از بخش تجاری گوگل جداست و تغییر در تاریخ یا تعداد Crawl کردن صفحه با پرداخت پول و امثال آن غیر ممکن است. 

 

Indexing: 

Googlebot هر یک از صفحات Crawl شده را پردازش می کند و کلمات و موقعیت قرار گرفتن هر کدام را مشخص می کند. ضمنا داده های موجود در در تگ های مختلف و ویزگی های ALT را نیز پردازش می کند. ربات گوگل می تواند بسیاری از انواع فایل ها را پردازش کند ولی در بعضی موارد نمی تواند تمام فایل ها را بپذیرد. مثلا گوگل هنوز در پردازش بعضی صفحات دینامیک و بعضی از فایل های رسانه ای (media) مشکل دارد. در واقع در مرحله ایندکس روبات گوگل صفحات crawl شده را را پردازش می کند و با بررسی محتوا و کلمات و … آن را در دسته بندی های مناسب فهرست می کند و از این پس می توانید آن را جستجو کنید. 

 

تکنولوژی PageRank: 

 

PageRank بازتاب دیدگاه گوگل درباره اهمیت صفحه وب شماست که با بیش از ۵۰۰ میلیون متغیر و بیش از ۲ میلیارد فرمول و ضابطه بدست می آید. صفحاتی که از نظر گوگل با اهمیت تر است PageRank بالاتری را به خود اختصاص می دهند بنابراین احتمال اینکه در راس نتایج موتور های جستجو قرار بگیرد بیشتر است.

PageRank همچنین به میزان رای حساس است. وقتی که سایتی به سایت شما لینک می دهد به منزله ی آن است که به شما رای داده است، هر چه تعداد این رای ها بیشتر باشد و PageRank رای دهندگان بالاتر باشد سایت شما هم ارزش بیشتری پیدا می کند. گوگل همواره در جستجوی راه کار های عملی برای بهبود کیفیت جستجو و نزدیک کردن نتیجه به درخواست کاربران است. گوگل گلچینی از برترین تکنولوژی های هوشمند وب را برای تشخیص درجه اهمیت سایت ها به کار می گیرد. 

 

Hypertext-Matching Analysis: 

موتور جستجوی گوگل به جای اسکن معمولی متن سایت و استفاده از کلمات موجود در meta-tag ها از یک شیوه ی هوشمند جدید استفاده میکند. قضیه از این قرار است که تکنولوژی آنالیز گوگل محتوای کامل صفحه را آنالیز کرده و بر اساس فاکتور هایی مانند فونت، زیرشاخه ها، برچسب ها، موقعیت دقیق هر کلمه و تگ های تیتر H1 و … دسته بندی می کند. حتی در بعضی موارد گوگل محتوای صفحات مجاور را نیز بررسی می کند تا اطمینان حاصل کند نتیجه ی جستجو ها بهترین و نزدیکترین نتیجه به خواست کاربر است.

با توضیح اصطلاحات و عبارات فوق تا حدودی با الگوریتم های فوق پیچیده ی گوگلی آشنا شدید. در آموزش بعدی مطالبی در خصوص روند پردازش یک جستجو از مرحله ی نوشتن یک کلمه برای جستجو تا گرفتن جواب را خواهم نوشت. همچنین مطلبی در مورد لینک ها و کلمات کلیدی تغریبا آماده است که در اولین فرصت ارسال خواهم کرد. شما می توانید با پیگیری اخبار از طریق خوراک وبلاگ یک شهروند الکترونیکی و یا پیگیری بخش گوگل مطالب آینده ی بهینه سازی در موتور های جستجو را پیگیری کنید. 

 

 

منبع:وبلاگ یک شهروند الکترونیکی 

 

گوگل چه اطلاعاتی از وبلاگ شما را در فهرست خود index می کند

  

 گوگل 

 

نکاتی را که در این آموزش می آموزیم مربوط به بخشی از اطلاعات موجود سایت شما در موتور جستجوی گوگل است که دانستن آنها برای هر وبمستر، وبلاگ نویس، مدیر سایت و نویسنده ی حرفه ای اینترنت لازم است. اولین سوالی که به نظر می رسد این است که گوگل کدام صفحات سایت شما را می بیند؟ به کدام صفحات اهمیت بیشتری می دهد؟ کدام بخش ها را بیشتر دوست دارد و آیا از نظر الگوریتم ها و ربات گوگل آیا سایت های دیگری هستند که محتوای مشابه سایت شما داشته باشند؟ 

دسته ی دوم سوالات به این بخش توجه دارد که اگر جایگاه شما در هر یک از بخش های بالا خوب نیست یا درخور سایت و وبلاگ شما نیست چرا وبلاگ شما در این بخش قرار گرفته است.

دسته ی سوم سوالات هم که هدف مجموعه آموزش های بهینه سازی رتبه سایت و وبلاگ در موتور جستجو ی گوگل است، سوال در مورد راهبرد های حل این مشکلات و به دست آوردن رتبه ی بهتر و شایسته تر است. 

 

بخش اول سوالات مطرح شده را اینجا پاسخ می دهم و بخش های بعدی را می توانید به مرور زمان در بخش گوگل پیگیری کنید.  

 

وبلاگ شما در فهرست های گوگل 

 

۱- کدام صفحات از سایت شما در فهرست گوگل index شده است؟

برای اینکه بدانید کدام صفحات سایت شما در سایت google ثبت شده است کافی است که از یک جستجوی ساده استفاده کنید. برای مثال وقتی می خواهید بدانید کدام صفحات از وبلاگ من در موتور جستجوی گوگل ثبت شده است کافی است در کادر جستجوی گوگل عبارت site:blog.eshahrvand.com را وارد کرده و جستجو کنید. با این کار لیستی از صفحات index شده ی شما در موتور جستجوی گوگل لیست می شود.

شما می توانید با تکمیل عبارت مورد جستجو ی خود نتایج را به فهرست صفحات موجود در یک subdomain یا دایرکتوری محدود کنید. مانند site:blog.eshahrvand.com/category/google که تنها صفحات دسته ی گوگل وبلاگ یک شهروند الکترونیکی را در لیست خود می آورد. 

 

۲- کدام صفحات اینترنتی به شما لینک داده اند؟

دانستن این بخش از این نظر اهمیت دارد که یک طراح وب، وبمستر یا نویسنده ی وبلاگ می تواند بفهمد کدام مطالبش بیشتر نویسندگان و طراحان دیگر را به خود جذب کرده است. برای یافتن پیوند هایی به وبلاگ شما که در لیست گوگل قرار دارند می توانید از عبارت link در عبتدای آدرس دامنه  خود استفاده کنید. مانند link:google.com و یا لینک به یک صفحه خاص مانند link:google.com/webmaster 

 

3- چیزی که در حال حاضر در cache (نهانگاه) گوگل از سایت شما موجود است.

با افزودن عبارت cache به ابتدای نام دامنه می توانید چیزی را که گوگل در حال حاضر به عنوان نسخه ی ذخیره شده سایت شما در خود دارد را مشاهده کنید. مثل عبارت cache:blog.eshahrvand.com که آخرین نسخه ی ذخیره شده ی صفحه اصلی وبلاگ من را نشان می دهد. اهمیت این مطلب در آن است که مشخص می شود googlebot چگونه سایت شما را می بیند. اگر نمی خواهید سایت شما در گوگل cache شود می توانید از تگ HTML  زیر استفاده کنید.

<meta name=”robots” content=”noarchive”> 

 

4- چه صفحاتی به سایت من شباهت بیشتری دارند؟

با جستجوی عبارت related پیش از نام دامنه ی سایت خود گوگل سایت های مشابه سایت یا وبلاگ شما را لیست می کند. این کار دقیقا مانند زمانی است که شما می خواهید در یک کتاب فروشی کتابی مانند هری پاتر بیابید. به طور کلی از این اپراتور برای به دست آوردن نمونه های مشابه سایت خود و بررسی تداخل یا overlap کاری است. به عنوان مثال من عبارت related:copyscape.com را جستجو کردم.

توابع بالا به نظرم مهمترین توابع کاربردی گوگل برای یک وبمستر به منظور کشف ماهیت index گوگل از سایت یا وبلاگش می باشد. در آموزش بعدی در مورد اینکه اگر در نتایج بالا جایگاه خوبی ندارید چه باید بکنید توضیح خواهم داد.  

 

منبع: وبلاگ یک شهروند الکترونیکی