如何查找網站首頁被(bèi)黑或被(bèi)竄改的原因?
在搜索引擎輸入搜索指令:site:abc123.com 搜索結果顯示是:很抱歉,沒(méi)有找到與“site: abc123.com” 相關的網頁;或者用站長(cháng)工具查詢,收錄那一欄顯示“0”,如果是曾經(jīng)被(bèi)收錄過(guò)的網站出現這(zhè)樣(yàng)的情況,我們就叫(jiào)做這(zhè)個網站被(bèi)K了。要隻是首頁消失,就稱爲網站首頁被(bèi)K。
到目前沒(méi)有一個全能(néng)的辦法來解決網站被(bèi)封的問題。所以我們采用排除法來對(duì)付這(zhè)個問題。查看問題出在哪裡(lǐ),制定相應的對(duì)策來解決它,讓搜索引擎重新認識,重新收錄。
一、近期網站修改記錄
SEO的每一個重要方案的上線叠代時間點,都(dōu)需要進(jìn)行記錄,作爲之後(hòu)對(duì)問題的排查和線索發(fā)現的依據,同時建立方案到效果的量化關系,與K站相關的常見幾種(zhǒng)問題:
1)、導緻錯誤鏈接的修改
2)、影響站内結構的調整
3)、過(guò)度優化的内部鏈接調整
4)、TDK頻繁調整
5)、JS等代碼實現的橋頁
6)、低質量内容大量鏡像、采集和重複
二、網站日志分析
從日志中,可以發(fā)現很多的問題,分别如下:
1)、大量5xx錯誤,尤其500錯誤,說明服務器問題,導緻無法提供穩定的抓取響應,需要運維介入解決;
2)、大量4xx錯誤,尤其404錯誤最常見,需要幹掉站内頁面(miàn)中存在的死鏈接,屏蔽掉SE爬蟲發(fā)現404頁面(miàn)的入口;
3)、大量301循環跳轉,會導緻SE爬蟲陷入抓取死循環;
4)、抓取頻率、抓取量降低,需要注意服務器響應時間和響應速度是否有下降作爲切入點;
5)、抓取停留時間變少,尤其相對(duì)曆史水平大于30%,并同時存在抓取頁面(miàn)收錄震蕩,需要改善頁面(miàn)質量。
三、robots.txt寫法是否正确
robots.txt文件用來阻止搜索引擎蜘蛛抓取某些目錄或某些文件,雖然這(zhè)個功能(néng)很有用,但是很容易出錯。如果你的robots.txt文件設置有問題,搜索引擎蜘蛛就沒(méi)辦法抓取你的網站了。正常設置和有錯的設置可能(néng)差别非常微小,要多次檢查,确保無誤。
四、關鍵詞大量疊加
不了解SEO的人們,往往把網站的标題寫得非常長(cháng)。在title标簽、keywords标簽、description标簽裡(lǐ),往往堆積著(zhe)大量的關鍵詞。也有部分好(hǎo)像了解SEO優化的人,喜歡在網頁上(一般是頁腳)毫無理由得擺放良多關鍵詞。這(zhè)是網站被(bèi)封非經(jīng)常見的一個因素。
五、群發(fā)、群建外鏈
我們知道(dào)群發(fā)外鏈被(bèi)發(fā)現的根據是,同一時間網站突然增加了大量的外鏈,這(zhè)些外鏈所在的網頁内容基本一緻,包括錨文本鏈接和文章内容。群建,除了與群發(fā)一樣(yàng)的判定尺度外,還(hái)有一點是,往往IP段一樣(yàng)。博客群建假如過(guò)多,則可能(néng)被(bèi)當做群發(fā),由于有和群發(fā)類似的特征,防患于未然。一旦被(bèi)K,沒(méi)有解決辦法。
六、外部因素
還(hái)有一些外部因素,很容易會被(bèi)忽略的,如:
1)、被(bèi)巨量刷某類關鍵詞流量,有違禁詞、動态頁等多種(zhǒng),并同時伴有外鏈存在,通常禁止掉此類頁面(miàn)抓取即可 。
2)、被(bèi)外部鏈接攻擊,通常新站會遭遇,尤其存在動态頁;
3)、中小站點被(bèi)鏡像;
4)、被(bèi)挂馬、注入賭博、成(chéng)人、違法等頁面(miàn)信息,要定期檢查網站安全性;
網站被(bèi)降權是每一個站長(cháng)不願意看見的,隻要在做網站就一定會遇到降權的事(shì)情,不管怎樣(yàng)網站是要做的,流量是需要靠百度的。總結自己以前做站的手法和多數同行交流,使自己的SEO手法得到提高。不要花大量時間去研究這(zhè)個垃圾站天天采集,天天群發(fā)外鏈他怎麼(me)能(néng)靠前,而我的站正常做站爲什麼(me)不靠前。我是否也要開(kāi)始做垃圾站? 相信一點你的客戶是賣你産品的人,而不是搜索引擎。研究怎樣(yàng)靠網站讨好(hǎo)你的訪客比去研究垃圾站如何排名靠前靠譜的多。