Jak korzystać z Robots.Txt do blokowania subdomen

Witryna internetowa to dobry sposób na promowanie swojej małej firmy, a także prezentowanie swoich produktów i unikalnych kwalifikacji. Jeśli zarządzasz dużą stroną internetową, prawdopodobnie wykorzystasz kilka subdomen, a każda poddomena ma swój własny folder na swoim hoście internetowym. Jeśli nie chcesz, aby roboty indeksujące wyszukiwarki analizowały i indeksowały określone poddomeny, możesz użyć pliku robots.txt, aby je zablokować.

1.

Kliknij przycisk Start w lewym dolnym rogu ekranu.

2.

Wpisz "Notepad" w polu wyszukiwania u dołu menu Start.

3.

Kliknij "Notatnik" w sekcji Programy u góry menu Start, aby uruchomić Notatnik. Nowy dokument jest automatycznie tworzony w Notatniku.

4.

Wstaw te dwie linie w dokumencie Notatnika, aby zablokować wszystkie roboty przed analizowaniem poddomeny:

User-agent: * Disallow: /

5.

Naciśnij "Ctrl-S", aby otworzyć okno "Zapisz jako".

6.

Wpisz "robots.txt" w polu "Nazwa pliku", wybierz folder, w którym chcesz zapisać plik i kliknij "Zapisz", aby go zapisać.

7.

Prześlij zapisany plik robots.txt do katalogu głównego każdej domeny, którą chcesz chronić przed robotami wyszukiwarki. Katalog główny jest katalogiem najwyższego poziomu.

Wskazówka

  • Możesz przesłać plik za pomocą dowolnego oprogramowania klienckiego FTP lub nawet menedżera plików w twoim hoście.

Popularne Wiadomości