Возникла такая идея... Есть, предположим, 30 сайтов, на которых есть некая страница под названием "новости". Соответственно каждого сайта. А я хочу на своем сайте сделать ленту новостей с этих сайтов. Как это осуществить? Возможные варианты: 1. самому с утра просматривать все сайты и клепать новости 2. написать админам, чтоб на мыло присылали этиже новости 3. дать админам форму для заполнения - чтоб они сами новости вписывали 4. возможно, есть скрипт, позволяющий с заданной страницы собирать новости. Вот и не понятно как поступить... Скрипт-то такой есть вообще?
www.informer.ru - 2 и 3 пункт сам понимаешь, не канают (допустим, я админ. Мне какой-то левый чувак просит каждый день заполнять форму со СВОИМИ новостямы, что бы они оказались на ЧУЖОМ сайте. Где логика?) 1 пункт - возможен, но для этого нужен специально обучнный человек. Остается пункт 4. В общем то есть.См. ссылку что я тебе дал.
<BLOCKQUOTE><font size="1" face="Verdana, Tahoma, sans-serif">quote:</font><HR>Автор Сообщения Long: <STRONG>fidukoff, посмотри парсеровскую технологию от Антонио. она специально для этих целей предназначенна. </STRONG><HR></BLOCKQUOTE>
Да, любопытно. Но по результатам беглого посмотра документации WebL показался мне куда более совершенным. Но пи случае обязательно проведу тщательное сравнение. [img]yes.gif[/img]
Long Весч судя по всему хорошая...но разобраться с ней.… мде... Я в программировании не очень скажем прямо [img]images/smiles/icon_sad.gif[/img]( эта чтука работает на ИХ сервере? Что должно стоять у меня на сервере? Какие требования? З.Ы. Кстати, ты говорил, что можешь подсказать как настроить правильно IIS для SSI [img]images/smiles/icon_smile.gif[/img] 2 Crazy - прописывание в regedit вроде не помогло [img]images/smiles/icon_sad.gif[/img]
Попробуй так: в свойства сайта: Home Directory -> Configuration -> Add (параметры по аналогии с asp, но с упомянутой в статье DLL). Увы, не могу опробовать совет, ибо нет под рукой сервера для эксперимента.
у меня мысль еще появилась [img]images/smiles/icon_smile.gif[/img]… а нет ли такой програмки, в которую забиваешь некоторое кол-во Url, и она автоматически их просматривает, сравнивает размер страниц и если они отличаются от вчерашнего (5 минут наздешнего [img]images/smiles/icon_smile.gif[/img]), то сообщает об этом - скорее всего какие-то изменения произошли. А дальше ручками просматриваешь выбранное. Может есть такое?
Нет смысла. Очень часто в HTML-код включена рандомная составляющая.
Для получения применимого на практике решения нужно все равно вначале отпарсить страницу, выделить из нее нужный контентный блок и уже его сравнивать с предыдущим состоянием.
Уровень доступа: Вы не можете начинать темы. Вы не можете отвечать на сообщения. Вы не можете редактировать свои сообщения. Вы не можете удалять свои сообщения. Вы не можете добавлять вложения.