Skip to content
Home » So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden | 10 New answer

So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden | 10 New answer

So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden

Schauen Sie sich die Themenartikel So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden in der Kategorie an: Wiki bereitgestellt von der Website Artaphoamini.

See also  Jquery Array Unique? Quick Answer

Weitere Informationen zu diesem Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden finden Sie in den folgenden Artikeln: Wenn Sie einen Beitrag haben, kommentieren Sie ihn unter dem Artikel oder sehen Sie sich andere Artikel zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden im Abschnitt „Verwandte Artikel an.

See also  Min Max Scale? Top Answer Update

See also  Keypress Enter Vb Net? The 20 Correct Answer

WordPress ist eine der beliebtesten CMS-Lösungen, die heute von den meisten Blogs und Websites verwendet werden. Es ist eine sehr Search engine optimisation-freundliche Plattform, mit der Sie jederzeit und jeden Tag großartige Ergebnisse erzielen können. Hier sind einige schnelle Tipps zum einfachen Hinzufügen besserer robots.txt-Konfigurationen/Einstellungen zu Ihrer wp cms-basierten Website oder Ihrem Blog.

Hinzufügen von robots.txt-Einstellungen zu Ihrem WordPress-Blog/Ihrer Website

Einer der am meisten übersehenen Teile von WP-Benutzern ist, dass WordPress CMS eine nahezu perfekte Lösung in Bezug auf Suchmaschinenmetriken ist und daher keine Search engine optimisation-Optimierungsdienste erfordert. Nun, das warfare meine Denkweise, als ich zum ersten Mal auf der wp-Plattform anfing, bis ich auf die alten robots.txt-Einstellungen von mashable.com stieß, die meine persönliche Neugier weckten. perfekte WordPress robots.txt-Einstellungen. Nachdem ich bis 2013 gesucht hatte, stellte ich fest, dass es so etwas nicht gibt Perfekte robots.txt-Konfiguration für jede Website Unabhängig von der Plattform, auf der sie aufbaut, muss jede Website individuell für die Indexierung durch Suchmaschinen konfiguriert werden. Das Hinzufügen einer funktionierenden robots.txt zu einem beliebigen Blog/einer beliebigen Website, einschließlich WordPress, wird die Leistung Ihrer Website in allen wichtigen Suchmaschinen erheblich verbessern, indem den Suchmaschinen mitgeteilt wird, wie sie Ihr Blog/Ihre Website indizieren sollen. Wenn Sie mich nach meiner Meinung fragen, werde ich diese Angelegenheit als eine davon erklären Behörde WordPress Search engine optimisation-Leistungseinstellungen Sie möchten es nicht verpassen.

So fügen Sie robots.txt-Einstellungen/Konfigurationen zu einem WordPress-Blog/einer WordPress-Website hinzu:

Dies kann sehr einfach von jedem durchgeführt werden, egal ob ein neuer WordPress-Benutzer oder ein pr0-wp-Benutzer. Alles was du tun musst, ist:

  • Öffnen Sie ein leeres Notizbuch
  • Kopieren Sie diese einfache robots.txt-Konfiguration und fügen Sie sie ein. Denken Sie daran, dass jede Website individuell konfiguriert werden muss, je nachdem, wie sie in Suchmaschinen indexiert werden soll.

Hier sind die Kopiertextkonfigurationen für Ihren WordPress-Blog

User-agent: IRLbot
Crawl-delay: 3600
 
User-agent: Alexibot
Disallow: /
 
User-agent: Aqua_Products
Disallow: /
 
User-agent: asterias
Disallow: /
 
User-agent: b2w/0.1
Disallow: /
 
User-agent: BackDoorBot/1.0
Disallow: /
 
User-agent: BlowFish/1.0
Disallow: /
 
User-agent: Bookmark search software
Disallow: /
 
User-agent: BotALot
Disallow: /
 
User-agent: BotRightHere
Disallow: /
 
User-agent: BuiltBotTough
Disallow: /
 
User-agent: Bullseye/1.0
Disallow: /
 
User-agent: BunnySlippers
Disallow: /
 
User-agent: CheeseBot
Disallow: /
 
User-agent: CherryPicker
Disallow: /
 
User-agent: CherryPickerElite/1.0
Disallow: /
 
User-agent: CherryPickerSE/1.0
Disallow: /
 
User-agent: Copernic
Disallow: /
 
User-agent: CopyRightCheck
Disallow: /
 
User-agent: cosmos
Disallow: /
 
User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /
 
User-agent: Crescent
Disallow: /
 
User-agent: DittoSpyder
Disallow: /
 
User-agent: E mailCollector
Disallow: /
 
User-agent: EmailSiphon
Disallow: /
 
User-agent: EmailWolf
Disallow: /
 
User-agent: EroCrawler
Disallow: /
 
User-agent: ExtractorPro
Disallow: /
 
User-agent: FairAd Client
Disallow: /
 
User-agent: Flaming AttackBot
Disallow: /
 
User-agent: Foobot
Disallow: /
 
User-agent: Gaisbot
Disallow: /
 
User-agent: GetRight/4.2
Disallow: /
 
User-agent: Harvest/1.5
Disallow: /
 
User-agent: hloader
Disallow: /
 
User-agent: httplib
Disallow: /
 
User-agent: HTTrack 3.0
Disallow: /
 
User-agent: humanlinks
Disallow: /
 
User-agent: InfoNaviRobot
Disallow: /
 
User-agent: Iron33/1.0.2
Disallow: /
 
User-agent: JennyBot
Disallow: /
 
User-agent: Kenjin Spider
Disallow: /
 
User-agent: Keyword Density/0.9
Disallow: /
 
User-agent: larbin
Disallow: /
 
User-agent: LexiBot
Disallow: /
 
User-agent: libWeb/clsHTTP
Disallow: /
 
User-agent: LinkextractorPro
Disallow: /
 
User-agent: LinkScan/8.1a Unix
Disallow: /
 
User-agent: LinkWalker
Disallow: /
 
User-agent: LNSpiderman
Disallow: /
 
User-agent: lwp-trivial/1.34
Disallow: /
 
User-agent: lwp-trivial
Disallow: /
 
User-agent: Mata Hari
Disallow: /
 
User-agent: Microsoft URL Control - 5.01.4511
Disallow: /
 
User-agent: Microsoft URL Control - 6.00.8169
Disallow: /
 
User-agent: Microsoft URL Control
Disallow: /
 
User-agent: MIIxpc/4.2
Disallow: /
 
User-agent: MIIxpc
Disallow: /
 
User-agent: Mister PiX
Disallow: /
 
User-agent: moget/2.1
Disallow: /
 
User-agent: moget
Disallow: /
 
User-agent: Mozilla/4.0 (appropriate; BullsEye; Windows 95)
Disallow: /
 
User-agent: MSIECrawler
Disallow: /
 
User-agent: NetAnts
Disallow: /
 
User-agent: NICErsPRO
Disallow: /
 
User-agent: Offline Explorer
Disallow: /
 
User-agent: Openbot
Disallow: /
 
User-agent: Openfind knowledge gatherer
Disallow: /
 
User-agent: Openfind
Disallow: /
 
User-agent: Oracle Ultra Search
Disallow: /
 
User-agent: PerMan
Disallow: /
 
User-agent: ProPowerBot/2.14
Disallow: /
 
User-agent: ProWebWalker
Disallow: /
 
User-agent: psbot
Disallow: /
 
User-agent: Python-urllib
Disallow: /
 
User-agent: QueryN Metasearch
Disallow: /
 
User-agent: Radiation Retriever 1.1
Disallow: /
 
User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /
 
User-agent: RepoMonkey
Disallow: /
 
User-agent: RMA
Disallow: /
 
User-agent: searchpreview
Disallow: /
 
User-agent: SiteSnagger
Disallow: /
 
User-agent: SpankBot
Disallow: /
 
User-agent: spanner
Disallow: /
 
User-agent: suzuran
Disallow: /
 
User-agent: Szukacz/1.4
Disallow: /
 
User-agent: Teleport
Disallow: /
 
User-agent: TeleportPro
Disallow: /
 
User-agent: Telesoft
Disallow: /
 
User-agent: The Intraformant
Disallow: /
 
User-agent: TheNomad
Disallow: /
 
User-agent: TightTwatBot
Disallow: /
 
User-agent: toCrawl/UrlDispatcher
Disallow: /
 
User-agent: True_Robot/1.0
Disallow: /
 
User-agent: True_Robot
Disallow: /
 
User-agent: turingos
Disallow: /
 
User-agent: TurnitinBot/1.5
Disallow: /
 
User-agent: TurnitinBot
Disallow: /
 
User-agent: URL Control
Disallow: /
 
User-agent: URL_Spider_Pro
Disallow: /
 
User-agent: URLy Warning
Disallow: /
 
User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /
 
User-agent: VCI
Disallow: /
 
User-agent: Web Image Collector
Disallow: /
 
User-agent: WebAuto
Disallow: /
 
User-agent: WebBandit/3.50
Disallow: /
 
User-agent: WebBandit
Disallow: /
 
User-agent: WebSeize 2.0
Disallow: /
 
User-agent: WebCopier v.2.2
Disallow: /
 
User-agent: WebCopier v3.2a
Disallow: /
 
User-agent: WebCopier
Disallow: /
 
User-agent: WebEnhancer
Disallow: /
 
User-agent: WebSauger
Disallow: /
 
User-agent: Website Quester
Disallow: /
 
User-agent: Webster Pro
Disallow: /
 
User-agent: WebStripper
Disallow: /
 
User-agent: WebZip/4.0
Disallow: /
 
User-agent: WebZIP/4.21
Disallow: /
 
User-agent: WebZIP/5.0
Disallow: /
 
User-agent: WebZip
Disallow: /
 
User-agent: Wget/1.5.3
Disallow: /
 
User-agent: Wget/1.6
Disallow: /
 
User-agent: Wget
Disallow: /
 
User-agent: wget
Disallow: /
 
User-agent: WWW-Collector-E
Disallow: /
 
User-agent: Xenu's Link Sleuth 1.1c
Disallow: /
 
User-agent: Xenu's
Disallow: /
 
User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /
 
User-agent: Zeus Link Scout
Disallow: /
 
User-agent: Zeus
Disallow: /
 
User-agent: Adsbot-Google
Disallow:
 
User-agent: Googlebot
Disallow:
 
User-agent: Mediapartners-Google
Disallow:
 
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /feed/
Disallow: /feedback/
Disallow: /writer/
Disallow: /archives/
Disallow: /20*
Disallow: /trackback/
 
Sitemap: http://myblogurl.com/index.xml

Geben Sie die URL der mobilen Website ein [ User-agent: Googlebot-Mobile
Allow: /] nach dem letzten / hier, wenn es sich von der übergeordneten Blog-URL unterscheidet. zum Beispiel [ User-agent: Googlebot-Mobile
Allow: /] hier geändert [ User-agent: Googlebot-Mobile
Allow: /?mobile] mit meinem als Beispiel.

Sie können vorhandene Zeilen entfernen;

Nicht zulassen: /archivieren/

Gesperrt von /Autor/

Nicht zulassen: /feed/

gesperrt: /20*

Nicht zulassen: /Bilder*

Wenn Sie von Suchmaschinen indexiert werden möchten, werden diese hinzugefügt Empfehlen Sie es, um doppelte Inhalte in den Suchmaschinenergebnissen zu vermeiden . Für andere, die nur möchten, dass die Themen und Inhalte ihrer Beiträge von Suchmaschinen indexiert werden, können Sie Ihrer robots.txt-Datei zusätzliche Zeilen hinzufügen, um dies zu verhindern, z

Verbot: /label/

Verbote: /class/

Nicht zulassen: /weiter/

Für andere, bei denen eine Serverlast auftritt und die daher die Geschwindigkeit oder Häufigkeit des Besuchs Ihres Blogs durch den Crawler verringern möchten, können Sie diese Zeilen ändern.

Benutzeragent: IRLbot
Crawl-Latenz: 3600

mit jedem Symbol in Sekunden. Beachten Sie, dass 3600 1 Stunde entspricht, sodass Sie die Häufigkeit mit diesem Format problemlos um Tage, Wochen, Monate usw. verringern oder erhöhen können. abhängig davon, wie oft Ihr Blog aktualisiert wird.

Hier sind die Kopiertexteinstellungen für eine WordPress-basierte CMS-Site:

User-agent: IRLbot
Crawl-delay: 3600
 
User-agent: *
 
Disallow: /cgi-bin/
 
Disallow: /wp-admin/
 
Disallow: /wp-includes/
 
Disallow: /wp-content/plugins/
 
Disallow: /wp-content/themes/
 
Disallow: /wp-content/cache/
 
Disallow: /wp-login.php
 
Disallow: /wp-register.php
 
Sitemap: http://mywbsiteurl.com/index.xml

wie oben beschrieben einstellen. Beachten Sie auch, dass Sie Bilder in zwei Ordner für personal und indizierte Bildseiten hochladen können und der Ordner für personal Bilder zur Liste der nicht zugelassenen Bilder hinzugefügt wird.

  • Speichern Sie den Inhalt des Notizbuchs im robots.txt-Format
  • Melden Sie sich bei Ihrem Control Panel an und finden Sie Ihren Dateimanager ==> Laden Sie den Inhalt Ihres Notizbuchs in das Stammverzeichnis hoch, in dem Sie WordPress installiert haben
  • Schließen Sie es und genießen Sie Ihre neuen aktiven robots.txt-Einstellungen

Bitte denken Sie daran, die Sitemap: http://myblogurl.com/index.xml durch Ihren aktuellen Blog/Sitemap-Link zu ersetzen.

Wenn Sie keinen Zugriff auf das Steuerungsfeld haben und es hinzufügen möchten Robots.txt-Einstellungen auf Ihrem Blog oder Ihrer Website powered by WordPress CMS Wenn Sie ein WordPress-Plugin verwenden, können Sie dies ganz einfach tun, indem Sie das WordPress-Plugin-Repository besuchen WP Robots Txt Dies gibt Ihnen großartige Privilegien, um Ihre wp robots.txt-Konfiguration über Ihr WordPress-Admin-Panel hinzuzufügen und zu bearbeiten.

Siehe auch:

  • Warum die Installation von 7 wichtigen WordPress-Plugins überspringen? und
  • Fügen Sie dem standardmäßigen Mobilepress-Design eine digitale Seite hinzu

Einige Bilder zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden

So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden
So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden

Einige verwandte Schlüsselwörter, nach denen die Leute zum Thema suchen So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden

#fügen #Sie #robotstxt #WordPress #hinzu #ohne #ein #Plugin #verwenden

Weitere Informationen zu Schlüsselwörtern So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden auf Bing anzeigen

Die Anzeige von Artikeln zum Thema So fügen Sie robots.txt zu WordPress hinzu, ohne ein Plugin zu verwenden ist beendet. Wenn Sie die Informationen in diesem Artikel nützlich finden, teilen Sie sie bitte. vielen Dank.

Leave a Reply

Your email address will not be published. Required fields are marked *