Säkra din WordPress mot användaragenter och bots

På senare tid har det blivit mycket WordPress-webbplatser kompromissade bara på grund av de robotar som sträcker sig över hela världen! Det finns många plugins där ute som kan skydda ditt WordPress-barn genom att blockera dessa "roguish" bots!

I den här artikeln kommer du att lära dig en enkel och användbar metod för att adept konfigurera din .htaccess-fil för att filtrera dessa robotar som kan infektera din webbplats och kan äta upp dina serverresurser. Så få din .htaccess-fil redo för redigering!


Steg 1 Förbereda koden

Koden består huvudsakligen av botnamn. Jag har lagt till de mest kända botsna här som jag kan tänka på. Om det finns någon bot saknas, ange det i kommentarerna.

Koden är ganska enkel. Gå vidare och kopiera koden nedan och klistra in den i din .htaccess-fil.

 # Bot Blocker  SetEnvIfNoCase User-Agent ^ $ keep_out SetEnvIfNoCase Användaragent (pycurl | casper | cmsworldmap | diavol | dotbot) keep_out SetEnvIfNoCase Användaragent (flicky | ia_archiver | jakarta | kmccrew) keep_out SetEnvIfNoCase Användaragent (purebot | comodo | feedfinder | planetwork) keep_out  Order Tillåt, neka Tillåt från alla neka från env = keep_out  

Steg 2 Testa koden

För att se om koden gör sitt jobb rekommenderar jag att du använder denna webbplats Bots VS Browsers. Denna webbplats är ett bra ställe att simulera dessa typer av attacker. En gång på deras hemsida behöver du bara välja vilken bot som helst från koden, som du just lagt till i .htaccess-filen och använder den som användaragent. Ange webbadressen till din webbplats och tryck på Enter. Om du ser ett "403-fel" betyder det att koden gör jobbet. Om inte koden måste ha blivit förstörd medan den kopieras till .htaccess-filen, så försök igen.


Steg 3 Lägga till fler bots

Nu är du bekant med koden och hur man testar det, vi kan lägga till fler bots till koden. Du måste ha märkt upprepningen i koden och med samma logik kan du lägga till ett dussin fler bots som ska blockeras genom att samma parametrar ställs in. Häftig va!

 SetEnvIfNoCase User-Agent (i-IS-evilBOT) keep_out

Som du kan se i koden ovan, blockerar jag nu "I-IS-evilBOT" (som jag just gjort). Annat än det är botets namn inte skiftlägeskänsligt och du kan lägga till det enligt dina önskemål. Gå till Bots VS Browsers-sidan och den här gången anger användaragenten som jag just skapat, och voila, du kommer se att denna användaragent som lagts till i .htaccess-filen, blockeras också! Du kan lägga till så många bots som du vill bli blockerad separerad med en piptecken "|"


Slutsats

Jag sa i början att det finns många plugins som kan göra samma sak och du kan undvika denna redigering. Men genom att manuellt redigera .htaccess-filen kan du effektivt blockera dåliga användaragenter och bots med bättre effektivitet och bättre prestanda på webbplatsen.!