Schauen Sie sich die Themenartikel So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden in der Kategorie an: Wiki bereitgestellt von der Website Artaphoamini.
Weitere Informationen zu diesem Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden finden Sie in den folgenden Artikeln: Wenn Sie einen Beitrag haben, kommentieren Sie ihn unter dem Artikel oder sehen Sie sich andere Artikel zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden im Abschnitt „Verwandte Artikel an.
WordPress ist eine der beliebtesten CMS-Lösungen, die heute von den meisten Blogs und Websites verwendet werden. Es ist eine sehr Search engine optimisation-freundliche Plattform, mit der Sie jederzeit und jeden Tag großartige Ergebnisse erzielen können. Hier sind einige schnelle Tipps zum einfachen Hinzufügen besserer robots.txt-Konfigurationen/Einstellungen zu Ihrer wp cms-basierten Website oder Ihrem Blog.
Hinzufügen von robots.txt-Einstellungen zu Ihrem WordPress-Blog/Ihrer Website
Einer der am meisten übersehenen Teile von WP-Benutzern ist, dass WordPress CMS eine nahezu perfekte Lösung in Bezug auf Suchmaschinenmetriken ist und daher keine Search engine optimisation-Optimierungsdienste erfordert. Nun, das warfare meine Denkweise, als ich zum ersten Mal auf der wp-Plattform anfing, bis ich auf die alten robots.txt-Einstellungen von mashable.com stieß, die meine persönliche Neugier weckten. perfekte WordPress robots.txt-Einstellungen. Nachdem ich bis 2013 gesucht hatte, stellte ich fest, dass es so etwas nicht gibt Perfekte robots.txt-Konfiguration für jede Website Unabhängig von der Plattform, auf der sie aufbaut, muss jede Website individuell für die Indexierung durch Suchmaschinen konfiguriert werden. Das Hinzufügen einer funktionierenden robots.txt zu einem beliebigen Blog/einer beliebigen Website, einschließlich WordPress, wird die Leistung Ihrer Website in allen wichtigen Suchmaschinen erheblich verbessern, indem den Suchmaschinen mitgeteilt wird, wie sie Ihr Blog/Ihre Website indizieren sollen. Wenn Sie mich nach meiner Meinung fragen, werde ich diese Angelegenheit als eine davon erklären Behörde WordPress Search engine optimisation-Leistungseinstellungen Sie möchten es nicht verpassen.
So fügen Sie robots.txt-Einstellungen/Konfigurationen zu einem WordPress-Blog/einer WordPress-Website hinzu:
Dies kann sehr einfach von jedem durchgeführt werden, egal ob ein neuer WordPress-Benutzer oder ein pr0-wp-Benutzer. Alles was du tun musst, ist:
- Öffnen Sie ein leeres Notizbuch
- Kopieren Sie diese einfache robots.txt-Konfiguration und fügen Sie sie ein. Denken Sie daran, dass jede Website individuell konfiguriert werden muss, je nachdem, wie sie in Suchmaschinen indexiert werden soll.
Hier sind die Kopiertextkonfigurationen für Ihren WordPress-Blog
User-agent: IRLbot Crawl-delay: 3600 User-agent: Alexibot Disallow: / User-agent: Aqua_Products Disallow: / User-agent: asterias Disallow: / User-agent: b2w/0.1 Disallow: / User-agent: BackDoorBot/1.0 Disallow: / User-agent: BlowFish/1.0 Disallow: / User-agent: Bookmark search software Disallow: / User-agent: BotALot Disallow: / User-agent: BotRightHere Disallow: / User-agent: BuiltBotTough Disallow: / User-agent: Bullseye/1.0 Disallow: / User-agent: BunnySlippers Disallow: / User-agent: CheeseBot Disallow: / User-agent: CherryPicker Disallow: / User-agent: CherryPickerElite/1.0 Disallow: / User-agent: CherryPickerSE/1.0 Disallow: / User-agent: Copernic Disallow: / User-agent: CopyRightCheck Disallow: / User-agent: cosmos Disallow: / User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0 Disallow: / User-agent: Crescent Disallow: / User-agent: DittoSpyder Disallow: / User-agent: E mailCollector Disallow: / User-agent: EmailSiphon Disallow: / User-agent: EmailWolf Disallow: / User-agent: EroCrawler Disallow: / User-agent: ExtractorPro Disallow: / User-agent: FairAd Client Disallow: / User-agent: Flaming AttackBot Disallow: / User-agent: Foobot Disallow: / User-agent: Gaisbot Disallow: / User-agent: GetRight/4.2 Disallow: / User-agent: Harvest/1.5 Disallow: / User-agent: hloader Disallow: / User-agent: httplib Disallow: / User-agent: HTTrack 3.0 Disallow: / User-agent: humanlinks Disallow: / User-agent: InfoNaviRobot Disallow: / User-agent: Iron33/1.0.2 Disallow: / User-agent: JennyBot Disallow: / User-agent: Kenjin Spider Disallow: / User-agent: Keyword Density/0.9 Disallow: / User-agent: larbin Disallow: / User-agent: LexiBot Disallow: / User-agent: libWeb/clsHTTP Disallow: / User-agent: LinkextractorPro Disallow: / User-agent: LinkScan/8.1a Unix Disallow: / User-agent: LinkWalker Disallow: / User-agent: LNSpiderman Disallow: / User-agent: lwp-trivial/1.34 Disallow: / User-agent: lwp-trivial Disallow: / User-agent: Mata Hari Disallow: / User-agent: Microsoft URL Control - 5.01.4511 Disallow: / User-agent: Microsoft URL Control - 6.00.8169 Disallow: / User-agent: Microsoft URL Control Disallow: / User-agent: MIIxpc/4.2 Disallow: / User-agent: MIIxpc Disallow: / User-agent: Mister PiX Disallow: / User-agent: moget/2.1 Disallow: / User-agent: moget Disallow: / User-agent: Mozilla/4.0 (appropriate; BullsEye; Windows 95) Disallow: / User-agent: MSIECrawler Disallow: / User-agent: NetAnts Disallow: / User-agent: NICErsPRO Disallow: / User-agent: Offline Explorer Disallow: / User-agent: Openbot Disallow: / User-agent: Openfind knowledge gatherer Disallow: / User-agent: Openfind Disallow: / User-agent: Oracle Ultra Search Disallow: / User-agent: PerMan Disallow: / User-agent: ProPowerBot/2.14 Disallow: / User-agent: ProWebWalker Disallow: / User-agent: psbot Disallow: / User-agent: Python-urllib Disallow: / User-agent: QueryN Metasearch Disallow: / User-agent: Radiation Retriever 1.1 Disallow: / User-agent: RepoMonkey Bait & Tackle/v1.01 Disallow: / User-agent: RepoMonkey Disallow: / User-agent: RMA Disallow: / User-agent: searchpreview Disallow: / User-agent: SiteSnagger Disallow: / User-agent: SpankBot Disallow: / User-agent: spanner Disallow: / User-agent: suzuran Disallow: / User-agent: Szukacz/1.4 Disallow: / User-agent: Teleport Disallow: / User-agent: TeleportPro Disallow: / User-agent: Telesoft Disallow: / User-agent: The Intraformant Disallow: / User-agent: TheNomad Disallow: / User-agent: TightTwatBot Disallow: / User-agent: toCrawl/UrlDispatcher Disallow: / User-agent: True_Robot/1.0 Disallow: / User-agent: True_Robot Disallow: / User-agent: turingos Disallow: / User-agent: TurnitinBot/1.5 Disallow: / User-agent: TurnitinBot Disallow: / User-agent: URL Control Disallow: / User-agent: URL_Spider_Pro Disallow: / User-agent: URLy Warning Disallow: / User-agent: VCI WebViewer VCI WebViewer Win32 Disallow: / User-agent: VCI Disallow: / User-agent: Web Image Collector Disallow: / User-agent: WebAuto Disallow: / User-agent: WebBandit/3.50 Disallow: / User-agent: WebBandit Disallow: / User-agent: WebSeize 2.0 Disallow: / User-agent: WebCopier v.2.2 Disallow: / User-agent: WebCopier v3.2a Disallow: / User-agent: WebCopier Disallow: / User-agent: WebEnhancer Disallow: / User-agent: WebSauger Disallow: / User-agent: Website Quester Disallow: / User-agent: Webster Pro Disallow: / User-agent: WebStripper Disallow: / User-agent: WebZip/4.0 Disallow: / User-agent: WebZIP/4.21 Disallow: / User-agent: WebZIP/5.0 Disallow: / User-agent: WebZip Disallow: / User-agent: Wget/1.5.3 Disallow: / User-agent: Wget/1.6 Disallow: / User-agent: Wget Disallow: / User-agent: wget Disallow: / User-agent: WWW-Collector-E Disallow: / User-agent: Xenu's Link Sleuth 1.1c Disallow: / User-agent: Xenu's Disallow: / User-agent: Zeus 32297 Webster Pro V2.9 Win32 Disallow: / User-agent: Zeus Link Scout Disallow: / User-agent: Zeus Disallow: / User-agent: Adsbot-Google Disallow: User-agent: Googlebot Disallow: User-agent: Mediapartners-Google Disallow: User-agent: * Disallow: /cgi-bin/ Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/cache/ Disallow: /wp-content/themes/ Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /feed/ Disallow: /feedback/ Disallow: /writer/ Disallow: /archives/ Disallow: /20* Disallow: /trackback/ Sitemap: http://myblogurl.com/index.xml
Geben Sie die URL der mobilen Website ein [ User-agent: Googlebot-Mobile
Allow: /] nach dem letzten / hier, wenn es sich von der übergeordneten Blog-URL unterscheidet. zum Beispiel [ User-agent: Googlebot-Mobile
Allow: /] hier geändert [ User-agent: Googlebot-Mobile
Allow: /?mobile] mit meinem als Beispiel.
Sie können vorhandene Zeilen entfernen;
Nicht zulassen: /archivieren/
Gesperrt von /Autor/
Nicht zulassen: /feed/
gesperrt: /20*
Nicht zulassen: /Bilder*
Wenn Sie von Suchmaschinen indexiert werden möchten, werden diese hinzugefügt Empfehlen Sie es, um doppelte Inhalte in den Suchmaschinenergebnissen zu vermeiden . Für andere, die nur möchten, dass die Themen und Inhalte ihrer Beiträge von Suchmaschinen indexiert werden, können Sie Ihrer robots.txt-Datei zusätzliche Zeilen hinzufügen, um dies zu verhindern, z
Verbot: /label/
Verbote: /class/
Nicht zulassen: /weiter/
Für andere, bei denen eine Serverlast auftritt und die daher die Geschwindigkeit oder Häufigkeit des Besuchs Ihres Blogs durch den Crawler verringern möchten, können Sie diese Zeilen ändern.
Benutzeragent: IRLbot
Crawl-Latenz: 3600
mit jedem Symbol in Sekunden. Beachten Sie, dass 3600 1 Stunde entspricht, sodass Sie die Häufigkeit mit diesem Format problemlos um Tage, Wochen, Monate usw. verringern oder erhöhen können. abhängig davon, wie oft Ihr Blog aktualisiert wird.
Hier sind die Kopiertexteinstellungen für eine WordPress-basierte CMS-Site:
User-agent: IRLbot Crawl-delay: 3600 User-agent: * Disallow: /cgi-bin/ Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/themes/ Disallow: /wp-content/cache/ Disallow: /wp-login.php Disallow: /wp-register.php Sitemap: http://mywbsiteurl.com/index.xml
wie oben beschrieben einstellen. Beachten Sie auch, dass Sie Bilder in zwei Ordner für personal und indizierte Bildseiten hochladen können und der Ordner für personal Bilder zur Liste der nicht zugelassenen Bilder hinzugefügt wird.
- Speichern Sie den Inhalt des Notizbuchs im robots.txt-Format
- Melden Sie sich bei Ihrem Control Panel an und finden Sie Ihren Dateimanager ==> Laden Sie den Inhalt Ihres Notizbuchs in das Stammverzeichnis hoch, in dem Sie WordPress installiert haben
- Schließen Sie es und genießen Sie Ihre neuen aktiven robots.txt-Einstellungen
Bitte denken Sie daran, die Sitemap: http://myblogurl.com/index.xml durch Ihren aktuellen Blog/Sitemap-Link zu ersetzen.
Wenn Sie keinen Zugriff auf das Steuerungsfeld haben und es hinzufügen möchten Robots.txt-Einstellungen auf Ihrem Blog oder Ihrer Website powered by WordPress CMS Wenn Sie ein WordPress-Plugin verwenden, können Sie dies ganz einfach tun, indem Sie das WordPress-Plugin-Repository besuchen WP Robots Txt Dies gibt Ihnen großartige Privilegien, um Ihre wp robots.txt-Konfiguration über Ihr WordPress-Admin-Panel hinzuzufügen und zu bearbeiten.
Siehe auch:
- Warum die Installation von 7 wichtigen WordPress-Plugins überspringen? und
- Fügen Sie dem standardmäßigen Mobilepress-Design eine digitale Seite hinzu
Einige Bilder zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden

Einige verwandte Schlüsselwörter, nach denen die Leute zum Thema suchen So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden
#fügen #Sie #robotstxt #WordPress #hinzu #ohne #ein #Plugin #verwenden
Weitere Informationen zu Schlüsselwörtern So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden auf Bing anzeigen
Die Anzeige von Artikeln zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden ist beendet. Wenn Sie die Informationen in diesem Artikel nützlich finden, teilen Sie sie bitte. vielen Dank.