Цитата (killer8080 @ 5.04.2013 - 22:02) | ||
например чтоб ускорить процесс, распараллеливание задач имеет смысл. Но архитектуру нужно пересматривать, многопроцессовые демоны нужно строить по принципу мастер-слейв. Главный процесс должен распределять задания по слейвам, и следить за их состоянием, при необходимости перезапускать форки (на случай утечки памяти например) |
Цитата (vetatto @ 5.04.2013 - 21:09) |
а вот как им сказать какой запрос делать не понимаю. |
Цитата (killer8080 @ 5.04.2013 - 23:13) | ||
используй разделяемую память, там же вроде об этом написано было. http://www.php.net/manual/ru/book.shmop.php Спустя 1 минута, 7 секунд killer8080 написал(а): про семафоры то же почитай http://www.php.net/manual/ru/intro.sem.php |
Цитата (vetatto @ 5.04.2013 - 23:09) |
Просто кол-во запросов может достигать 1000 в час и хотелось чтоб большая часть из них успела обработаться. Если часа будет мало можно увеличить до двух. Но запросы могут идти подряд штук 100 может быть 1 потом пауза может вообще без паузы. |
Цитата (vetatto @ 5.04.2013 - 23:31) |
Главным процессом создать очередь для каждого дочернего внести в него id записей БД, а дочерними получить очередб выполнять задание и удалять из очереди выполненные. А пользовательскими сигналами опрашивать состояние дочерних процессов. |