[ Поиск ] - [ Пользователи ] - [ Календарь ]
Полная Версия: Задействовать Интернет на локальном веб сервере
Naizer
В общем ситуация такая, есть есть веб сервер, отдельная машина на предприятии, поднят apache ну в связке php, mysql разумеется. Интернет только на этой машине, где подянт сервак. Мне необходимо брать информацию из инета, публиковать на сайте таким образом, что бы потом открыв страничку, пользователь у которого естественно интернета НЕТ всё таки видел размещённую с инета информацию..

Вот пример конкретный, то что не получается:

Банально, я хочу разместить баннер погоды. Формирую онлайн код и размещаю. Естественно код не в виде php, а в виде <script></script> и в результате полльзователю после запроса данной странички, такой же код и приходит, не интерпретируясь, а если код такой же, то и ломится он естественно в интернет. Как обработать его именно на сервере???
Может в настройках apache закрыт внешний доступ... ну или какое то ещё решение есть.... пока не могу докопаться.. (((



Спустя 9 минут, 13 секунд (19.11.2010 - 09:11) Семён написал(а):
JS - выполняется на стороне пользователя, а не сервера, т.е. ставя баннер погоды на страничку, пользователь тащит погоду вовсе не с сервера, а с внешнего инета.
Как вариант - парсить сайт с погодой, сохранять результат в файл, а пользователю выводить инфу из файла.

Спустя 28 минут, 16 секунд (19.11.2010 - 09:39) Guest написал(а):
Цитата (Семён @ 19.11.2010 - 06:11)
JS - выполняется на стороне пользователя, а не сервера, т.е. ставя баннер погоды на страничку, пользователь тащит погоду вовсе не с сервера, а с внешнего инета.
Как вариант - парсить сайт с погодой, сохранять результат в файл, а пользователю выводить инфу из файла.

Да, да, да! Именно не с сервака, а с сайта! Ну вот смотри, что бы парсить погоду, мне нужно каждый раз самому запускать какой то определённый скрипт на php или ещё какая то прибулда есть? Вытащить то уже из файла не проблема. Можно это автоматизировать, дело

Спустя 1 минута, 18 секунд (19.11.2010 - 09:41) Guest написал(а):
Цитата (Семён @ 19.11.2010 - 06:11)
JS - выполняется на стороне пользователя, а не сервера, т.е. ставя баннер погоды на страничку, пользователь тащит погоду вовсе не с сервера, а с внешнего инета.
Как вариант - парсить сайт с погодой, сохранять результат в файл, а пользователю выводить инфу из файла.

Да, да, да! Именно не с сервака, а с сайта! Ну вот смотри, что бы парсить погоду, мне нужно каждый раз самому запускать какой то определённый скрипт на php или ещё какая то прибулда есть? Вытащить то уже из файла не проблема. Можно это автоматизировать?

Спустя 1 минута, 15 секунд (19.11.2010 - 09:42) Семён написал(а):
Ага теперь нада через планировщик заданий (windows) или CRON (linux) настроить чтобы твой скрипт забирал погоду и складывал данные в файл.

Спустя 15 минут, 56 секунд (19.11.2010 - 09:58) Guest написал(а):
Цитата (Семён @ 19.11.2010 - 06:42)
Ага теперь нада через планировщик заданий (windows) или CRON (linux) настроить чтобы твой скрипт забирал погоду и складывал данные в файл.

Спасибо! Теперь дело прояснилось, буду дальше сам думать =)

Спустя 2 месяца, 7 дней, 10 часов, 6 минут, 53 секунды (26.01.2011 - 20:05) Naizer написал(а):
Всем доброго времени суток =)

Возвращаюсь к своей теме, потому что всё это время работал над другим проектом, а к этому вернулся только сейчас. И возникли снова проблемы, которые в принципе я чётко могу сформулировать, т.к. два дня уже перерываю просторы инета.
В общем цель - это сделать парсинг веб страницы. Т.е. используя file_get_contents() или curl мне необходимо слить код определённой веб странички в файл, из которого я потом буду забирать то что мне необходимо. Всё казалось бы просто. Но вот какие проблемы меня ждали:
1. file_get_contents() - категорически отказывается работать с внешними соединениями
2. curl вообще не инициализируется.

Решил копать по curl. Докопался только сегодня, сделав массу настроек в конфиге, перемещению библиотек в разные дирректории и т.п. Ладно, факт в том что модуль подключил, всё заработало... но опять же ЛОКАЛЬНО! Все те же приблуды пробую дома, всё работает!
В общем что бы не вводить Вас в смятение, дело на 99% вот в чём: интернет только на машине где поднят веб сервер, далее, этот интернет приходит через прокси, не через прогу usergate, а хз откуда, в общем в серверной стоит отдельный комп-фаервол, к которому подходит оптоволокно с другого предприятия, а туда он приходит ещё через пару таких точек biggrin.gif Вот! В общем такой вот прокси )) Через браузеры инет пашет, всё путём. Но вот как заставить Apache работать через этот прокси? Что бы внешние соединения пробивались?
Может где то в кофиге прописать нужно адрес прокси и порт? У нас прокси типа 10.*.*.* с портом 3128.
Вот вычитал немного схожую проблему, там советуют колдовать с NAT. Но в эти глубины я не прогружался и понятия не имею там ли искать или нет.. может быть кто нибудь натолкнёт на правильное решение и возможно ли оно?

Спустя 17 минут, 52 секунды (26.01.2011 - 20:23) Naizer написал(а):
Вот практически такая же темка, но ответа так в результате они не добились.... sad.gif неужели и вправду нельзя обойти эту проблемку...

Спустя 36 секунд (26.01.2011 - 20:23) Naizer написал(а):
Цитата (Naizer @ 26.01.2011 - 17:23)
Вот практически такая же темка, но ответа так в результате они не добились.... sad.gif неужели и вправду нельзя обойти эту проблемку...

Спустя 6 минут, 48 секунд (26.01.2011 - 20:30) Naizer написал(а):
Так, в общем извиняюсь что немного подзасорил эту ветку, до этого вошёл как незарегестрированный и не смог почистить, вот полностью моя проблема!
Всем доброго времени суток =)

Возвращаюсь к своей теме, потому что всё это время работал над другим проектом, а к этому вернулся только сейчас. И возникли снова проблемы, которые в принципе я чётко могу сформулировать, т.к. два дня уже перерываю просторы инета.
В общем цель - это сделать парсинг веб страницы. Т.е. используя file_get_contents() или curl мне необходимо слить код определённой веб странички в файл, из которого я потом буду забирать то что мне необходимо. Всё казалось бы просто. Но вот какие проблемы меня ждали:
1. file_get_contents() - категорически отказывается работать с внешними соединениями
2. curl вообще не инициализируется.

Решил копать по curl. Докопался только сегодня, сделав массу настроек в конфиге, перемещению библиотек в разные дирректории и т.п. Ладно, факт в том что модуль подключил, всё заработало... но опять же ЛОКАЛЬНО! Все те же приблуды пробую дома, всё работает!
В общем что бы не вводить Вас в смятение, дело на 99% вот в чём: интернет только на машине где поднят веб сервер, далее, этот интернет приходит через прокси, не через прогу usergate, а хз откуда, в общем в серверной стоит отдельный комп-фаервол, к которому подходит оптоволокно с другого предприятия, а туда он приходит ещё через пару таких точек Вот! В общем такой вот прокси )) Через браузеры инет пашет, всё путём. Но вот как заставить Apache работать через этот прокси? Что бы внешние соединения пробивались?
Может где то в кофиге прописать нужно адрес прокси и порт? У нас прокси типа 10.*.*.* с портом 3128.
Вот вычитал немного схожую проблему, там советуют колдовать с NAT. Но в эти глубины я не прогружался и понятия не имею там ли искать или нет.. может быть кто нибудь натолкнёт на правильное решение и возможно ли оно?

практически та же проблема, но не решённая, прикрепляюю к материалу дела
http://forum.dklab.ru/s/denwer-4/base-1/20120/
Быстрый ответ:

 Графические смайлики |  Показывать подпись
Здесь расположена полная версия этой страницы.
Invision Power Board © 2001-2024 Invision Power Services, Inc.