в файле прописано это //send 404 for missing pages if configured or ID has special meaning to bots if(!$INFO['exists'] && ($conf['send404'] || preg_match('/^(robots\.txt|sitemap\.xml(\.gz)?|favicon\.ico|crossdomain\.xml)$/',$ID)) && ($ACT == 'show' || (!is_array($ACT) && substr($ACT,0,7) == 'export_')) ){ header('HTTP/1.0 404 Not Found'); } файл лежит в корневом каталоге сайта. В PHP и программировании полный ноль, но ошибка 404 напрягает(
Сайт мой, но писал естественно не я. Сейчас его принимаем у разработчиков. Проблема в том, что когда вставляешь url в программу проверки битых ссылок, она выдает код ошибки 404 и отказывается работать. В корне сайта лежит файл doku.php и в нем прописаны эти строки. У меня подозрение, что в этих строках забит запрет на индексацию сайта поисковиками.
дык думать надо было у кого сайт заказывать =) видимо в качестве экономии средств заказывали у какого-нить школьника )) Сайт с нуля писался или на базе какого-нить движка ? в том пхп файле я вижу упоминание файлов robots.txt и sitemap.xml сайтмэп - описывает структуру сайта, роботс отдают поисковым серверам информацию о том какие страницы нужно индексировать, а какие нет. Я сам не программист, у меня этим другой человек занимается, но если не ошибаюсь ответ рыть тут: http://www.dokuwiki.org/ru:dokuwiki