Технологии сети интернет

Автор работы: Пользователь скрыл имя, 09 Ноября 2011 в 15:25, контрольная работа

Описание

8 тем

Работа состоит из  1 файл

Темы информатика.doc

— 170.00 Кб (Скачать документ)

     Учитывая  это, весь комплекс мер по SEO-оптимизации  направлен, собственно, на продвижение  русскоязычных сайтов именно в этих двух системах – Google и Яндекс. Именно топ-позиции в выдаче этих поисковых систем дают реальное прибавление трафика на сайт. Существенные различия в структуре и алгоритмах поисковых систем обусловливают то, что разные сайты индексируются и ранжируются по-разному в Яндексе и Google. 
 

2.Какие зарубежные системы являются крупнейшими

     AltaVista Американский поисковый сервер. Постоянно обновляемые новости  от ABC News. Возможность поиска на  многих языках мира, в том числе  на русском. Эта машина хороша  для поиска ответов на тонкие, специфические или сложные вопросы. Для того чтобы не затеряться среди множества ненужных сайтов, работа этой поисковой машины регулируется с помощью логических операторов, таких как AND или NOT. AltaVista считается наиболее мощной, но трудной в управлении поисковой машиной. Охватывает десятки миллионов WWW-страниц, десятки тысяч серверов, 3-х-уровневый рубрикатор, примерно 15,5% ресурсов Интернета. Для поиска на русском языке воспользуйтесь настройкой системы через ссылки Customaze Settings -> Results Options-> Lenguage Options. Кроме языка, следует выбирать и кодировку для кириллицы. (Win1251)

     Черепаха  Новую поисковую систему выгодно  отличают скорость и полнота охвата российского сегмента Интернета.

     Excite Информационно-поисковый американский  сервер с многоуровневым рубрикатором, где значительное место отведено хобби и развлечениям. Позволяет сортировать результаты больших поисков. Это нужно тогда, когда поиск выявляет очень много сайтов. Эта машина не указывает на ссылки внутри самих Веб-страниц и часто не может интуитивно определять, какой тип информации вы ищете. Производит поиск графики, аудио- и видеоинформации. Позволяет осуществлять поиск на русском языке. Охватывает примерно 5,6% ресурсов Интернета.

     HotBot Американская поисковая система  с разнообразными опциями. В отборе позиций для многоуровневого рубрикатора чувствуется ориентация на учащуюся молодежь. Эта машина хорошо подходит для более специфического поиска и для поиска изображений и звуковых файлов. Поиск можно сузить с помощью открывающихся меню и кнопок, которые значительно ускоряют и облегчают его. Система может также находить сайты со специфическими файлами, содержащими изображения, звук, игры и т.д. Охватывает 11,3% ресурсов Интернета и занимает 3-е место по популярности.

     Lycos  Американский поисковый сервер. Специально для детей поиск, обходящий "опасные" страницы и сайты. Подключение HotBot. 2-х-уровневый рубрикатор. Прекрасно подходит для поиска изображений и звука, связанных с искомой темой. Lycos , подобно Excite , иногда выдает сайты, которые не содержат нужной информации. Это иногда бывает полезно, а иногда - нет. Охватывает 2,5% ресурсов Интернета.

     WebCrawler  Поиск по англоязычным ресурсам  по слову или фразе и по  разделам рубрикатора. Разветвленный  3-х-уровневый рубрикатор.

     3. Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины.

     Сканирование  – это процесс, в ходе которого робот Googlebot обнаруживает новые и  обновленные страницы для добавления в индекс Google.

     Робот Googlebot использует алгоритмический процесс: программы определяют, какие сайты нужно сканировать, как часто это нужно делать, а также какое количество страниц следует выбрать на каждом сайте.

     Процесс сканирования Google начинается со списка URL-адресов веб-страниц, созданного на основе предыдущих сеансов сканирования. Его дополняют данные из файлов Sitemap, предоставленных веб-мастерами. Просматривая каждый из этих сайтов, поисковый робот Googlebot находит на каждой странице ссылки и добавляет их в список страниц, подлежащих сканированию. Робот Googlebot отмечает все новые и обновленные сайты, а также неработающие ссылки. Полученная информация используется для обновления индекса Google.

     Когда пользователь вводит поисковый запрос, система находит в индексе  подходящие страницы и выдает наиболее релевантные, по нашему мнению, результаты. Релевантность определяется различными факторами, которых насчитывается более 200 

  Rambler Yandex Aport
 
I. Основные характеристики  поисоквых систем
 
Адрес www.rambler.ru www.yandex.ru www.aport.ru
 
Количество  уникальных пользователей поисковой  системы в день 19 344 13 323 6 714
 
Количество уникальных пользователей поисковой системы в месяц 137 300 94 775 55 200
 
Количество  запросов к поисковой системе  в день (среднее за неделю с 25 по 31 января) 138 983* 50 235 24 057
 
Размер  поисковой системы (на 31.01.99) 3 815 679 (DOC)  
5 143 907 (URLs)  
24 897 (SERV)
4 512 231 (DOC)  
24 772 (SERV) 
1 757 208 (DOC)  
2 999 585 (URL)  
13 264 (SERV)**
 
Количество  индексируемых в день страниц      
 

Тема 8

1. Какова глубина индексации веб-страниц в поисковой системе Яндекс и Рамблер

     Помимо  информации о том, какие домены и документы индексируются поисковыми машинами, специалистам-оптимизаторам для грамотной раскрутки сайта также необходимо знать о том, насколько глубоко поисковик погружается в сайт, насколько далеко заходит по страницам. Теоретически ограничений, связанных с проходом по страницам у поисковой машины не существует. Но, как показывает практика, поисковик не будет индексировать, к примеру, миллион страниц вашего сайта. Это связано с тем, что в очереди на индексацию у поисковой машины стоят десятки миллионов других сайтов, и этот список ежедневно пополняется. Поэтому поисковик старается за один раз охватить разумное количество страниц, не посвящая этому особо много времени. Хотя при следующем попадании на этот же сайт поисковик проиндексирует следующие страницы. В результате получается, что поисковая машина не погружается слишком глубоко в индексируемый сайт и не берет каждый раз большое количество страничек.

     Поэтому при разработке сайта необходимо разумно организовывать структуру  сайта, чтобы не было бесчисленных переходов с одной страницы на другую. Потом на третью и так далее – следует избегать цепочек из ссылок.

     Глубина индексирования, в Яндекс и  Рамблер  не ограничена.

2.В чем смысл создания бесплатных информационно-поисковых систем.

     Всем известный факт, что поисковые системы современного Интернета работают на основе ссылочного ранжирования, подразумевает успех сайта, связанный с наличием множества качественных ссылок на сайт. О качестве ссылок можно говорить долго и нудно, но основные критерии всё-таки зависят от качества донора. В свою очередь донор должен по максимуму соответствовать тематике сайта-реципиента и не должен подвергаться различным фильтрам со стороны поисковых систем, которые тем или иным способом или силой понижают вес внешних ссылок.

     Внешние входящие ссылки на сайт можно получать за счёт обмена ссылками, покупки ссылок на чужих сайтах и другими доступными методами (желательно чтобы эти методы были белыми и не противоречили правилам использования поисковых систем, иначе эффект от этих ссылок будет минимален или практически равен нулю). Также следует учитывать появление естественных ссылок, но это уже материал для другой темы.

     Итак, если ссылки не покупать и не тратить  время на поиск площадок для обмена ссылками, то вывод напрашивается сам. Нужно создавать небольшие сайты для реализации этих задач.

     Эти сайты называются Сателлитами («сателлит» - «спутник») и предназначены они  прежде всего для поддержки и  продвижения основного сайта (основных сайтов) в поисковых системах. То есть для увеличения его ссылочной массы и соответственно для поднятия его позиций в поисковой выдачи по необходимым запросам.

     Сателлитов  может быть от одного и до нескольких сотен. Возможно и больше. Всё зависит  от возможностей оптимизатора и от сложности продвижения основного сайта.

3. Какую информацию  предпочтительней  искать в поисковой  машине, а какую  в тематическом  каталоге.

     Машины  веб-поиска - это сервера с огромной базой данных URL-адресов, которые  автоматически обращаются к страницам WWW по всем этим адресам, изучают содержимое этих страниц, формируют и прописывают ключевые слова со страниц в свою базу данных (индексирует страницы).

     Более того, роботы поисковых систем переходят  по встречаемым на страницах ссылкам  и переиндексируют их. Так как  почти любая страница WWW имеет множество ссылок на другие страницы, то при подобной работе поисковая машина в конечном результате теоретически может обойти все сайты в Интернет.

     Каталог Интернет-ресурсов – это постоянно  обновляющийся и пополняющийся  иерархический каталог, содержащий множество категорий и отдельных web-серверов с кратким описанием их содержимого.Способ поиска по каталогу подразумевает «движение вниз по ступенькам», то есть движение от более общих категорий к более конкретным. Одним из преимуществ тематических каталогов является то, что пояснения к ссылкам дают создатели каталога и полностью отражают его содержание, то есть дает Вам возможность точнее определить, насколько соответствует содержание сервера цели Вашего поиска.

     На  главной странице данного сайта расположен тематический рубрикатор, с помощью которого пользователь попадает в рубрику со ссылками на интересующую его продукцию.

 
 
 

     Кроме того, некоторые тематические каталоги позволяют искать по ключевым словам. Пользователь вводит необходимое ключевое слово в строку поиска  и получает список ссылок с описаниями сайтов, которые наиболее полно соответствуют его запросу. Стоит отметить, что этот поиск происходит не в содержимом WWW-серверов, а в их кратком описании, хранящихся в каталоге. 

Информация о работе Технологии сети интернет