django-robotlar

Robotlar Django, Sitemaps tamamlayıcı için dışlama uygulaması.
Şimdi İndirin

django-robotlar Sıralama ve Özet

Reklamcılık

  • Rating:
  • Lisans:
  • BSD License
  • Fiyat:
  • FREE
  • Yayıncı adı:
  • Jannis Leidel
  • yayıncı web sitesi:
  • http://github.com/jezdez/

django-robotlar Etiketler


django-robotlar Açıklama

Robotlar Django, Sitemaps tamamlayıcı için uygulama uygulaması. Django-Robotlar, Robots.txt dosyalarını, Robots dışlama protokolünü takip eden, Django SiteMap Contrib uygulamasını tamamlayan temel bir Django uygulamasıdır. Robotlar dışlama uygulaması, bir m2m ilişkisi ile birlikte bağlı iki veritabanı modelinden oluşur: * Kurallar * URLSInstalTationGet Uygulama sitesinden kaynak: http: //code.google.com/p/django-robots/ SiteMap uygulamasını yüklemek için şu adımları izleyin: 1. Install.txt dosyasındaki talimatları izleyin. Kurulu_apps ayarınıza 'robotlar' ekleyin.3. Emin olun 'django.template.loaders.app_directories.load_template_source' Şablon_Loaders ayarınızda. Varsayılan olarak orada, bu ayarı değiştirdiyseniz, bunu değiştirmeniz gerekir. Django sitenizdeki Robots.txt neslini etkinleştirmek için Framework.initalization sitelerini yüklediğinizden emin olun, bu satırı URLCONF'nize ekleyin: (R '^ robots.txt $', ('robots.urls') dahil), bu anlatır Bir robot eriştiğinde bir robots.txt oluşturmak için django /robots.txt. Ardından, lütfen gerekli tabloları oluşturmak ve yönetici arayüzünde veya shell.Rulesrule üzerinden kural nesneleri oluşturmak için lütfen senkronize edin. . Birden fazla URL düzenini, kullanıcı aracısı tarafından verilen Robot'un verilen URL'lere erişmesine izin verecek veya reddetmesini engelleyebilir veya engelleyebilirsiniz. Sürünme gecikme alanının bazı arama motorları tarafından desteklenmesi ve ardışık paletli erişim arasındaki gecikmeyi saniyeler içinde tanımlar. Paletli oranı sunucunuz için bir sorunsa, gecikmeyi sunucunuz için 5 veya 10'a kadar veya rahat bir değere kadar ayarlayabilirsiniz, ancak küçük değerlerle (0.5-1) başlamanız ve kabul edilebilir bir şekilde gerektiği gibi artması önerilir. Sunucunuz için değer. Daha büyük gecikme değerleri Ardışık tarama erişimi arasında daha fazla gecikme ekleyin ve maksimum tarama hızını web sunucunuza azaltın. Siteler çerçevesi, Django örneği başına birden fazla robots.txt dosyasını etkinleştirmek için kullanılır. Herhangi bir kural yoksa, her web robotunun her bir URL'ye erişmesine izin verir. Lütfen, mevcut web robotlarının tam listesi için web robotlarının veritabanına bir göz atın. Kullanıcı aracısı strings.urlsurl Web robotları için erişime izin vermek veya izin vermek için kullanılır. Büyük / küçük harfe duyarlı.A Eksik Sonluk Slash ayrıca, verilen paternin adıyla başlayan dosyaları, örneğin '/ admin' eşleşmeleri /admin.html de eşleşir. Binbaşı arama motorları URL'nin sonuna eşleşecek herhangi bir karakter ve bir dolar işareti ($), örneğin, '/*.jpg1' tüm JPEG dosyalarını eşleştirmek için kullanılabilir. İsteğe bağlı olarak robots.txt neslini önbelleğe alabilir. Django ayarlarınızdaki saniyeler içinde bir değerle Robots_Cache_Timeout ayarını ekleyin veya değiştirin. Varsayılan değer hiçbiri değildir (önbellek yok). Gereksinimler: · Django · Python


django-robotlar İlgili Yazılım