Контрольная работа по "Деловым ресурсам Интернет"

Автор работы: Пользователь скрыл имя, 14 Мая 2012 в 16:49, контрольная работа

Описание

Данная работа содержит подробные ответы на следующие вопросы:
Тема 1.
Назовите отличительные черты Интернет от других сетей.
Можно ли рассматривать Интернет как деловую среду
Благодаря каким системам в Интернет можно проводить транзакции.
Тема 2.
Назовите основные типы узлов в Интернет
С какой целью создавался Интернет.
Тема 3.
Каковы основные элементы информационного пространства Интернет.
Какие виды информации, представлены в Интернет.
Каковы основные подходы к оценке информации, полученной через Интернет
Тема 4.
Назовите основные этапы построения поискового запроса.
Что включает в себя понятие «информационный шум».
Назовите основные виды поискового спама
Тема 5.
В чем заключается отличие между тематическими каталогами и поисковыми машинами
Назовите ведущие информационно-поисковые машины Интернет.
Тема 6.
Какие булевы функции направлены на сужение поискового запроса, а какие на его расширение
Для поиска в каких информационных системах используется тезаурус.
Тема 7.
В чем заключаются индивидуальные отличия различных поисковых систем (машин).
Какие зарубежные системы являются крупнейшими
Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины
Тема 8.
Какова глубина индексации веб-страниц в поисковой системе Яндекс и Рамблер
В чем смысл создания бесплатных информационно-поисковых систем.
Какую информацию предпочтительней искать в поисковой машине, а какую в тематическом каталоге.

Работа состоит из  1 файл

Контрольная работа по деловым ресурсам интернет.docx

— 60.89 Кб (Скачать документ)

AltaVista (http://www.altavista.com) – одна из старейших  поисковых систем занимает одно  из первых мест по объему  документов – более 350 миллионов. AltaVista позволяет осуществлять простой  и расширенный поиск. «Help» позволяет  даже неподготовленным пользователям правильно составлять простые и сложные запросы.

3. Какими преимуществами обладает  поисковая машина перед тематическим  каталогом.     

Порталы — это целый набор  серверов, которые обеспечивают работу единой системы какого-либо Интернет-сервиса. В данном случае нас интересует служба поиска сайтов по заданным словам. Это значит, что поисковая машина должна знать, где и на каком сайте встречаются те или иные слова.

На  каждом поисковом сайте есть раздел помощи, зайдя в который можно  почитать об особенностях синтаксиса составления запросов. При помощи специальных символов можно составлять достаточно сложные запросы, в которых указывать не только нужные слова, их формы, но и слова, которые не должны присутствовать на странице.  
 Тема 6

1.Какие булевы функции направлены  на сужение поискового запроса,  а какие на его расширение     

Булева  модель, булевая, двоичная (boolean) — модель поиска, опирающаяся на операции пересечения, объединения и вычитания множеств.      

Дубликаты (duplicates) — разные документы с идентичным, с точки зрения пользователя, содержанием; приблизительные дубликаты, почти дубликаты (near duplicates), в отличие от точных дубликатов, содержат незначительные отличия.     

Единица поиска — текст, в пределах которого проверяется логическая комбинация.     

Конкорданс  — словарь, в котором в алфавитном порядке перечислены слова, употребляемые  писателем, а также указаны их адрес и частота употребления.      

Индекс  цитирования (citation index) — число упоминаний (цитирований) научной статьи, в традиционной библиографии рассчитывается за промежуток времени, например за год.     

Индексирование, индексация (indexing) — процесс составления  или приписывания индекса (указателя) — служебной структуры данных, необходимой для последующего поиска.     

Поиск похожих документов (similar document search) — задача информационного поиска, в которой в качестве запроса выступает сам документ и необходимо найти документы, максимально напоминающие данный.     

Поисковая система, информационно-поисковая система (ИПС), поисковая машина, машина поиска, поисковик, «искалка» (search engine, SE) — программа, предназначенная для поиска информации.      

Полнота, охват (recall) — доля релевантного материала, заключенного в ответе поисковой  системы, по отношению ко всему релевантному материалу в коллекции.     

Релевантность (relevance, relevancy) — соответствие документа  запросу.     

Словоизменение (inflection) — образование определенной грамматической формы слова, обычно обязательной в определенном контексте.     

Стоп-слова (stop-words) — союзы, предлоги и другие частотные слова, которые поисковая система исключила из процесса индексирования и поиска для повышения своей производительности и/или точности поиска.     

Точность (precision) — доля релевантного материала  в ответе поисковой системы.     

Хиты  — количество заходов на сайт за определенный промежуток времени.     

Хосты — количество уникальных посетителей  в единицу времени.

2. Для поиска в каких информационных системах используется тезаурус.     

Ключевые  слова, по изначальному замыслу, должны отображать наиболее существенную информацию. Понятие “существенности” информации при выборе КС является одним из основных и наиболее сложных понятий информатики. Многообразие возможных способов отбора информации по различным критериям существенности в силу субъективности принятия соответствующего решения обусловливает вариативность представления смыслового содержания текста при его индексировании.      

Целесообразность  включения КС в тезаурус обычно оценивается  по нескольким факторам,  которые  тесно взаимосвязаны между  собой:

по важности данного КС для описания содержания соответствующего документа с точки зрения информационного поиска (важность определяется, например, по роли КС в тексте);

по связям их с КС, отобранными  ранее (выбор КС, обозначающих  более широкие, узкие или ассоциативные понятия);

по их точности и приемлемости  с точки зрения терминологической  системы рассматриваемой области  знания

по решению специалистов в  данной области знания.

В качестве дополнительных источников лексики  для ИПТ используются:  тезаурусы по родственной тематике, энциклопедические, толковые и терминологические  словари и справочники, учебники и руководства, монографии, терминологические и другие стандарты, таблицы классификаций; рубрикаторы и т.п.

Тема 7

1. В чем заключаются индивидуальные отличия различных поисковых систем (машин).     

Поисковых систем существует довольно много, каждая из них наделена своими целями и  задачами, часто – коммерческими. Однако, глобальных, мирового значения поисковых систем, пользующихся большим доверием клиентов, не так уж много. По исследованиям текущего года доминирующую позицию в мире занимает система Google, получившая процентное выражение обращений к ней – около 85%. Следующая в этой категории идет более “древняя” Yahoo!, на долю которой приходится менее 7% запросов. Среди русскоязычных поисковых систем безусловным лидером является Яндекс. 

Учитывая  это, весь комплекс мер по SEO-оптимизации  направлен, собственно, на продвижение  русскоязычных сайтов именно в этих двух системах – Google и Яндекс. Именно топ-позиции в выдаче этих поисковых систем дают реальное прибавление трафика на сайт. Существенные различия в структуре и алгоритмах поисковых систем обусловливают то, что разные сайты индексируются и ранжируются по-разному в Яндексе и Google.  
 2.Какие зарубежные системы являются крупнейшими      

AltaVista Американский поисковый сервер. Постоянно обновляемые новости  от ABC News. Возможность поиска на  многих языках мира, в том числе  на русском. Эта машина хороша  для поиска ответов на тонкие, специфические или сложные вопросы. Для того чтобы не затеряться среди множества ненужных сайтов, работа этой поисковой машины регулируется с помощью логических операторов, таких как AND или NOT. AltaVista считается наиболее мощной, но трудной в управлении поисковой машиной. Охватывает десятки миллионов WWW-страниц, десятки тысяч серверов, 3-х-уровневый рубрикатор, примерно 15,5% ресурсов Интернета. Для поиска на русском языке воспользуйтесь настройкой системы через ссылки Customaze Settings -> Results Options-> Lenguage Options. Кроме языка, следует выбирать и кодировку для кириллицы. (Win1251)     

Черепаха  Новую поисковую систему выгодно  отличают скорость и полнота охвата российского сегмента Интернета.     

Excite Информационно-поисковый американский  сервер с многоуровневым рубрикатором, где значительное место отведено хобби и развлечениям. Позволяет сортировать результаты больших поисков. Это нужно тогда, когда поиск выявляет очень много сайтов. Эта машина не указывает на ссылки внутри самих Веб-страниц и часто не может интуитивно определять, какой тип информации вы ищете. Производит поиск графики, аудио- и видеоинформации. Позволяет осуществлять поиск на русском языке. Охватывает примерно 5,6% ресурсов Интернета.     

HotBot Американская поисковая система  с разнообразными опциями. В отборе позиций для многоуровневого рубрикатора чувствуется ориентация на учащуюся молодежь. Эта машина хорошо подходит для более специфического поиска и для поиска изображений и звуковых файлов. Поиск можно сузить с помощью открывающихся меню и кнопок, которые значительно ускоряют и облегчают его. Система может также находить сайты со специфическими файлами, содержащими изображения, звук, игры и т.д. Охватывает 11,3% ресурсов Интернета и занимает 3-е место по популярности.     

Lycos  Американский поисковый сервер. Специально для детей поиск, обходящий "опасные" страницы и сайты. Подключение HotBot. 2-х-уровневый рубрикатор. Прекрасно подходит для поиска изображений и звука, связанных с искомой темой. Lycos , подобно Excite , иногда выдает сайты, которые не содержат нужной информации. Это иногда бывает полезно, а иногда - нет. Охватывает 2,5% ресурсов Интернета.     

WebCrawler  Поиск по англоязычным ресурсам  по слову или фразе и по  разделам рубрикатора. Разветвленный  3-х-уровневый рубрикатор.

3. Какое максимальное количество веб-страниц может проиндексировать программа Робот (спайдер) поисковой машины.     

Сканирование  – это процесс, в ходе которого робот Googlebot обнаруживает новые и  обновленные страницы для добавления в индекс Google.     

Робот Googlebot использует алгоритмический процесс: программы определяют, какие сайты нужно сканировать, как часто это нужно делать, а также какое количество страниц следует выбрать на каждом сайте.      

Процесс сканирования Google начинается со списка URL-адресов веб-страниц, созданного на основе предыдущих сеансов сканирования. Его дополняют данные из файлов Sitemap, предоставленных веб-мастерами. Просматривая каждый из этих сайтов, поисковый робот Googlebot находит на каждой странице ссылки и добавляет их в список страниц, подлежащих сканированию. Робот Googlebot отмечает все новые и обновленные сайты, а также неработающие ссылки. Полученная информация используется для обновления индекса Google.     

Когда пользователь вводит поисковый запрос, система находит в индексе  подходящие страницы и выдает наиболее релевантные, по нашему мнению, результаты. Релевантность определяется различными факторами, которых насчитывается более 200 

 

Rambler

Yandex

Aport

 
I. Основные характеристики  поисоквых систем

 

Адрес

www.rambler.ru

www.yandex.ru

www.aport.ru

 

Количество  уникальных пользователей поисковой  системы в день

19 344

13 323

6 714

 

Количество уникальных пользователей  поисковой системы в месяц

137 300

94 775

55 200

 

Количество  запросов к поисковой системе  в день (среднее за неделю с 25 по 31 января)

138 983*

50 235

24 057

 

Размер  поисковой системы (на 31.01.99)

3 815 679 (DOC)   
5 143 907 (URLs)   
24 897 (SERV)

4 512 231 (DOC)   
24 772 (SERV) 

1 757 208 (DOC)   
2 999 585 (URL)   
13 264 (SERV)**

 

Количество  индексируемых в день страниц

     

 

Тема 8

1. Какова глубина индексации  веб-страниц в поисковой системе  Яндекс и Рамблер     

Помимо  информации о том, какие домены и документы индексируются поисковыми машинами, специалистам-оптимизаторам для грамотной раскрутки сайта также необходимо знать о том, насколько глубоко поисковик погружается в сайт, насколько далеко заходит по страницам. Теоретически ограничений, связанных с проходом по страницам у поисковой машины не существует. Но, как показывает практика, поисковик не будет индексировать, к примеру, миллион страниц вашего сайта. Это связано с тем, что в очереди на индексацию у поисковой машины стоят десятки миллионов других сайтов, и этот список ежедневно пополняется. Поэтому поисковик старается за один раз охватить разумное количество страниц, не посвящая этому особо много времени. Хотя при следующем попадании на этот же сайт поисковик проиндексирует следующие страницы. В результате получается, что поисковая машина не погружается слишком глубоко в индексируемый сайт и не берет каждый раз большое количество страничек.      

Поэтому при разработке сайта необходимо разумно организовывать структуру  сайта, чтобы не было бесчисленных переходов с одной страницы на другую. Потом на третью и так далее – следует избегать цепочек из ссылок.     

Глубина индексирования, в Яндекс и  Рамблер  не ограничена.

2.В чем смысл создания бесплатных  информационно-поисковых систем.     

Всем известный факт, что поисковые  системы современного Интернета  работают на основе ссылочного ранжирования, подразумевает успех сайта, связанный  с наличием множества качественных ссылок на сайт. О качестве ссылок можно  говорить долго и нудно, но основные критерии всё-таки зависят от качества донора. В свою очередь донор должен по максимуму соответствовать тематике сайта-реципиента и не должен подвергаться различным фильтрам со стороны поисковых  систем, которые тем или иным способом или силой понижают вес внешних  ссылок.     

Внешние входящие ссылки на сайт можно получать за счёт обмена ссылками, покупки ссылок на чужих сайтах и другими доступными методами (желательно чтобы эти методы были белыми и не противоречили правилам использования поисковых систем, иначе эффект от этих ссылок будет минимален или практически равен нулю). Также следует учитывать появление естественных ссылок, но это уже материал для другой темы.     

Итак, если ссылки не покупать и не тратить  время на поиск площадок для обмена ссылками, то вывод напрашивается сам. Нужно создавать небольшие сайты для реализации этих задач.      

Эти сайты называются Сателлитами («сателлит» - «спутник») и предназначены они  прежде всего для поддержки и  продвижения основного сайта (основных сайтов) в поисковых системах. То есть для увеличения его ссылочной массы и соответственно для поднятия его позиций в поисковой выдачи по необходимым запросам.     

Информация о работе Контрольная работа по "Деловым ресурсам Интернет"