[ Поиск ] - [ Пользователи ] - [ Календарь ]
Полная Версия: Идея сайта-агрегатора, как сделать лучше?
Kirillik
У меня идея сайта-агрегатора, который собирает информацию со сторонних сервисов (нужные новости, соц. сети, твиттер, объявления и прочее), делает всю рутину за пользователя - то есть авторизация, парсинг, отправка сообщений, и т.п. - все автоматизировано.
Теперь пользователю не надо бегать по сайтам, смотреть обновления, он заходит в личный кабинет и пожинает информацию, за него все готово, приправлено и подано на стол smile.gif

Но суть вопроса не в этом. Я затрудняюсь с архитектурой, подскажите технически работать с сторонними сервисами?
Если агрегатор будет общаться прямо с сервера, то сервисы могут забанить его по IP. А я хочу чтобы для них агрегатор выглядел как обычный клиент, ведь мы лишь автоматизируем то что человек может делать руками.

В общем варианты такие:
1. Обычное десктопное приложение. Минусы: люди будут бояться устанавливать на компьютер.
2. Плагин для браузера? Может ли плагин свободно отправлять запросы на любые хосты?
3. Flash-ролик на сайте. По-моему Flash не позволяет отправлять запросы на любые хосты.
4. JavaScript - по-моему тоже ограничения на запросы.

Хотелось бы решение, чтобы пользователю не пришлось ничего устанавливать, или установка была бы максимально простой.
Приглашаю к обсуждению. Также ищутся программисты за небольшую денежку, которые смогут реализовать прототип системы.



Спустя 21 минута, 54 секунды (21.03.2012 - 22:15) rooor написал(а):
Смысл?
Под каждый сайт надо делать отдельный парсер, rss в расчёт не берём, сколько ты их сделаешь? 10? 20?
И да - нехорошо контент воровать)

Спустя 32 минуты, 45 секунд (21.03.2012 - 22:48) inpost написал(а):
Есть API, у того же facebook, vkontakte.
"Также ищутся программисты за небольшую денежку" - надо сумму называть, а то выглядит это как филькина грамота.

А с архитектурой у тебя и вправду проблемы. Тебе надо парсить данные и копию их сохранять в своей БД, а потом выдавать человеку.

Спустя 1 час, 22 минуты, 38 секунд (22.03.2012 - 00:10) ADiel написал(а):
Будут бояться не ставить программу на компьютер, а предоставлять логины и пароли сомнительным сервисам. Я бы не стал пользоваться такой штукой, т.к. оповещения с форумов, соц сетей и прочего падают на специально отведенную для этого почту, мобильник играет мелодию, а я незамедлительно получаю информацию. Мне кажется это - лучший вариант.

Спустя 8 часов, 57 минут, 34 секунды (22.03.2012 - 09:08) redreem написал(а):
порой дело не только в сухой выжимке инфы, а еще и в атмосфере и плюшках в "левых" колонках. для сухой инфы уже есть всякие RSS, подписки и прочее. а "атмосферу" и "плюшки" агрегатором не заменишь. думаю дохлая идея.

Спустя 2 часа, 26 минут, 9 секунд (22.03.2012 - 11:34) Kirillik написал(а):
Я хочу анализировать и выдавать агрегированную информацию из разных источников. Но для этого одного парсинга RSS мало, нужно уметь авторизовываться в сервисах, парсить информацию из личных кабинетов, и выдавать в удобном виде.

Неужели нет варианта чтобы работать из под клиента? Что думаете насчет плагина для браузера? Можно ли через него делать всю работу?
Быстрый ответ:

 Графические смайлики |  Показывать подпись
Здесь расположена полная версия этой страницы.
Invision Power Board © 2001-2024 Invision Power Services, Inc.