как с интернет страници запрашиваемой по URL получить все ссылки и записать их в файл...
Я побывал делать так:
<?php
$text = file_get_contents( 'http://e1.ru' );
preg_match_all("#(http?|ftp)://\S+[^\s.,>)\];'\"!?]#", $text , $title );
var_dump($title);
//echo $title[1]; //результат
?>
Но как мне
1) Записать ссылки в файл
2) каждая ссылка должна быть записана с новой строки?
Не подскажите как реализовать.
Спустя 3 часа, 28 минут, 59 секунд (5.09.2012 - 06:40) Игорь_Vasinsky написал(а):
foreach
file_put_contents + FILE_APPEND
file_put_contents + FILE_APPEND
Спустя 1 день, 8 часов, 9 минут, 22 секунды (6.09.2012 - 14:49) WinNet написал(а):
А пример можно? - я просто еще не настоко хорош
Спустя 3 минуты, 13 секунд (6.09.2012 - 14:52) Игорь_Vasinsky написал(а):
ты получишь массив в $title - 2 уровня
глянешь так его
echo '<pre>' . print_r($title, 1) . '</pre>';
выберешь подмассив и
потом foreach $title[0] или $title[1]
а там пишешь с помощью file_get_contents() + приклеивай PHP_EOL (для переноса строки) c параметром FILE_APPEND
глянешь так его
echo '<pre>' . print_r($title, 1) . '</pre>';
выберешь подмассив и
потом foreach $title[0] или $title[1]
а там пишешь с помощью file_get_contents() + приклеивай PHP_EOL (для переноса строки) c параметром FILE_APPEND