Домашний_компьютер - Домашний компьютер №8 (122) 2006 Страница 35

Тут можно читать бесплатно Домашний_компьютер - Домашний компьютер №8 (122) 2006. Жанр: Компьютеры и Интернет / Прочая околокомпьтерная литература, год неизвестен. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте Knigogid (Книгогид) или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.

Домашний_компьютер - Домашний компьютер №8 (122) 2006 читать онлайн бесплатно

Домашний_компьютер - Домашний компьютер №8 (122) 2006 - читать книгу онлайн бесплатно, автор Домашний\_компьютер

Отправившись на веб-сайт K-Lab, Барр нашел там наиболее свежий аналитический отчет специалистов фирмы, посвященный «эволюции вредоносных программ под ОС *nix в 2005 году». Конкретно для Linux, в частности, там приведены данные о крутейшем росте числа вирусов – всего за год, с 2004 по 2005, их количество по оценкам «Лаборатории Касперского» подскочило с 4 до 91 штуки!

Если человек ни разу в жизни не видел ни одного реального Linux-вируса, а известные специалисты за год обнаружили их целых 87, то вполне естественным выглядит желание узнать поподробнее о столь неуловимых бестиях. Поэтому Барр послал в K-Lab запрос относительно какой-либо документации, подтверждающей их заявления. Для начала Барра отправили в «Энциклопедию вирусов», которая ведется на сайте Лаборатории.

Поиск вредителей для Linux в этой энциклопедии принес поражающие воображение 972 позиции. Правда, если взглянуть на всю эту жуть чуть внимательнее, то ситуация оказывается далеко не столь тревожной. Скорее даже – искусственно раздутой. Вот лишь несколько характерных особенностей, выявленных Барром в этом длиннющем списке.

Первые 256 позиций оказались вообще никак не задокументированы. Собственно вирусы в остальных позициях гипотетических угроз почти не присутствовали, а мало-мальски вразумительное описание обнаружилось лишь у 21 вируса – то есть примерно для 2% списка. Из этих 21 два оказались дубликатами. Еще один из 21 оказался вирусом Windows, а не Linux. Наконец, практически все из 21 известной «вредоносной программы» модифицируют файлы в соответствии со стандартными разрешениями, принятыми в операционных системах семейства Unix, где принципиально отличаются полномочия пользователя и администратора.

Поскольку все это даже близко не походило на «91 выявленный Linux-вирус», Джон Барр более настойчиво запросил конкретную документацию. Через несколько дней ему прислали список на 91 позицию, но в перечне этом не было абсолютно ничего, кроме голых названий. Для первого же номера данного списка в «энциклопедии» Касперского не оказалось вообще никакого упоминания. Это название удалось найти на сайте другой антивирусной компании, McAfee, однако и там не было никакой содержательной информации о вирусе. Дополнительные изыскания лишь подтвердили истину, давно известную для всей антивирусной индустрии. Единой системы классификации вирусов и прочих компьютерных вредителей здесь не существует, так что каждая компания дает им собственные имена. Таблицы соответствий для наиболее распространенных угроз по мере сил ведут лишь одиночки-энтузиасты, а в целом информация о любом новом «вредоносном коде» просто автоматически размножается без анализа и описаний, поскольку для бизнеса антивирусных компаний элементарно выгодно плодить число всевозможных угроз.

Тогда, любопытства ради, Барр решил сверить названия 21 документированного вируса в общем списке «Linux-вредителей» из 972 позиций энциклопедии и свежеполученного списка «Linux-вирусов» из 91 позиции. Таких пересечений оказалось 10. Из этих десяти два были обнаружены в 2000 году, четыре в 2001 году, три в 2002 и один в 2003… При переводе этой арифметики в обычные слова получается, что ни на один из «выявленных в 2005 году 87 Linux-вирусов» у K-Lab для въедливого запроса со стороны не обнаружилось ни документации, ни вообще хоть какого-то описания.

Подводя итог своему исследованию, Джон Барр имел, как видим, все основания констатировать, что «Лаборатория Касперского» делает крайне сильные заявления о вредоносных кодах в Linux, однако не имеет абсолютно ничего реального в подтверждение своих слов. Справедливости ради, Барр тут же делает оговорку, что подобными вещами занимается вовсе не только K-Lab, но и остальные антивирусные компании. Просто российская фирма наиболее заметна на рынке в своих энергичных попытках продвигать антивирусное ПО для Linux. А кому нужно такое ПО, если нет вирусов?

Находчивые слуги

Автор: Дмитрий Смирнов.

© 2003-2006, Издательский дом | http://www.computerra.ru/

Журнал «Домашний компьютер» | http://www.homepc.ru/

Этот материал Вы всегда сможете найти по его постоянному адресу: /2006/122/284569/

Один мой друг (он стоит двух, он ждать не привык) спрашивает у «Яндекса» так: (naked | nu) /+2 («britney spears» | «brittany spears»). Ладно, спрашивает он о другом, но синтаксис использует похожий. Однако многие сетяне (включая автора статьи) за долгие годы жизни в Интернете так и не освоили искусство сложных запросов и все еще надеются, что однажды смогут спросить поисковую машину в стиле Space Odyssey 2001 – простым человеческим языком, вслух, без нереального синтаксиса: скажи, мол, HAL-900028, где найти фот… в смысле, когда же будет концерт Бритни в Москве? И ответит искусственный разум: «This conversation can serve no purpose anymore. Goodbye». Ну а пока светлое будущее не наступило, поговорим о прошлом и настоящем поисковых технологий и систем, эдаких слуг, без помощи которых мы сегодня не можем ступить в Интернете и шагу.Эволюция краулеров

Первым механизмом, который лег в основу интернет-поисковиков, стал так называемый crawler («ползунок» по Интернету). Написал его в июне 1993 года студент Массачусетского технологического института Мэтью Грей (Matthew Gray) с целью измерения пространства Сети. Программа называлась World Wide Web Wanderer, была написана на Perl, переходила с одного сайта на другой по ссылкам (спасибо коллекциям линков) и таким образом считала сайты и связи между ними. Простой арифметикой дело не ограничилось, и в конце того же 1993 года на основе «Скитальца» была создана первая в мире поисковая машина Wandex. Но до наших дней сей пионер, увы, не дожил.

Вторая поисковая машина – Aliweb (Archie Like Indexing for the Web) – была создана в октябре того же 1993 года и, в отличие от Wandex, жива и поныне. Это была первая целенаправленно созданная поисковая система (Wandex все-таки был экспериментальной разработкой-наследником Wanderer’а). Разработчик Aliweb Мартин Костер (Martijn Koster) впоследствии участвовал в создании стандарта Robots Exclusion Standard (механизма, позволяющего дать указание поисковым машинам не индексировать/не сохранять те или иные страницы или сайты целиком и не добавлять их в каталоги). В настоящий момент идет работа по полной переделке кода Aliweb. Основатели сервиса грозятся выпустить в 2007 году его новую версию и «убрать» с рынка поисковиков всех конкурентов, начиная с Google и заканчивая MSN и Yahoo. Мы уж начали бояться, нет, правда!

Следующим после Aliweb на рынок поисковиков вышел проект с говорящим названием WebCrawler, случилось это в начале 1994-го. Он тоже стал по-своему пионером: в нем впервые был задействован полнотекстовый поиск – не только по названиям/заголовкам/ключевым словам, но и по всему тексту любой страницы. Впоследствии это стало стандартом работы поисковых машин. WebCrawler первым приобрел популярность и признание, все предыдущие проекты не были столь «всенародными».

В том же 1994 году были запущены проекты Infoseek и Lycos (первым попытавшийся сделать поиск коммерческим предприятием). А в течение последующих трех лет на рынок вышли Altavista (долгое время считавшаяся лучшей поисковой системой, а сейчас практически забытая), Excite, Dogpile, Inktomi, Ask.com и Northern Light.

Ребрендинг Дживса

Ask.com, кстати, сначала называлась Ask Jeeves – по имени Дживса, героя серии книг П. Г. Вудхауза «Дживс и Вустер», знаменитого своей бесконечной эрудицией и способностью находить ответы на любые вопросы. Эта поисковая машина первой предложила пользователям задавать вопросы простым английским языком, нормальными предложениями, начинающимися с вопросительного слова. Работало, если честно, не очень эффективно, но сам подход вызывал уважение.

Сегодня на Ask.com написано, что Дживс, десять лет служивший сетевому сообществу верой и правдой, исполнил свой долг и отправился на заслуженный отдых; что долгое время он был знаковой фигурой, виртуальным дворецким, которому нравилось находить ответы на вопросы посетителей, но – времена меняются. Сегодня, по мнению Ask.com, Интернет уже другой – он стал средой обитания реального времени, пользователям нужны моментальные ответы на все более сложные запросы. Другими словами, Дживсу сделали ребрендинг (в итоге отказавшись от модели «вопросов по-людски»), а сервис, конечно же, обещает становиться лучше и лучше, служить пользователям и стать лучшим поисковиком на свете. (Пока же мы, в надежде, что в будущем хорошая идея (над которой, кстати, давно бьются в Microsoft) будет успешно реализована, иллюстрируем статью персонажами Вудхауза, из которых Дживс (условно) будет олицетворять посковые системы будущего, а Вустер… ну, отнесемся к себе с долей критики.)

Между прочим, сейчас технология «человеческих вопросов» в некотором виде работает, в частности, на «Яндексе»: если на простые ключевые слова это поисковик выдает только соответствующие страницы, то на выражения типа «что такое то-самое-ключевое-слово» – сначала словарные определения, если таковые есть, а потом уже обычные результаты поиска.

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы
    Ничего не найдено.