其他技巧

  • 基本先依據 Google PageSpeed Insights 改善。

  • 提供 next-gen 格式的圖片 JPEG 2000、JPEG XR 和 WebP 等圖片格式的壓縮效果通常優於 PNG 或 JPEG,因此能提⾼下載速度並節省使⽤者的數據⽤量。

  • 使⽤⼤⼩合適的圖片有助於節省⾏動數據⽤量並縮短載入時間。 視瀏覽器⽀援狀況採⽤不同技術,若可⽀援最新,圖片可使⽤ <picture> 等 RWD 的方式。若不⽀援最新 Html Tag,使⽤ css @media⽅式。 另外情境如果可以,使⽤ lazy loading。

  • 排除禁⽌轉譯的資源。 先載入必要之 js/css ,其他不重要的使⽤ lazy loading

  • 視情況使⽤ Cache

  • 將主要執⾏緒的⼯作降到最低

  • ⽂字壓縮

  • 避免耗⽤⼤量網路資源

  • 減少 JavaScript 執⾏時間

  • 將關鍵要求層級降⾄最低 ,優先載入必要資源

  • 降低要求數量並減少傳輸⼤⼩

  • Https (申請 SSL),Chrome79將逐步封鎖網⾴中未SSL加密之內容

  • 如果使⽤者輸入http,也要轉到 Https,同理,使⽤者不管有沒有打 www,也要可以連線。

  • 域名最好可以包含關鍵字或相關。

  • 域名最好是符合性質。例如台灣使⽤.tw,開發使⽤.dev

  • Robot.txt

    1. 允許所有搜尋引擎檢索所有內容(通常建議使⽤) User-agent: * Disallow:

    2. 拒絕所有搜尋引擎檢索所有內容(正式環境請避免使⽤) User-agent: * Disallow: /

    3. 拒絕所有搜尋引擎檢索/members/底下所有內容。 User-agent: * Disallow: /members/

    4. 拒絕Google搜圖的爬蟲檢索/images/底下所有內容。 User-agent: Googlebot-image Disallow:/images/

    5. [萬⽤字元]拒絕所有搜尋引擎檢索網站內png為副檔名的圖檔。 User-agent: * Disallow: .png$

    6. [萬⽤字元]拒絕Bing搜尋引擎檢索網站內/wp-admin⽬錄底下所有內 容及網站內開頭為test的所有檔名。 User-agent: bingbot Disallow: /wp-admin/ Disallow: ^test

    7. sitemap: http://www.XXXXXXXX.com/sitemap.xml

    8. Crawl-deslay: XX — 告訴爬蟲,再次來訪的最短時間間隔為20秒。 (百度公開表⽰不⽀援此語法)

    9. Robot.txt檔案只能放在網站的根⽬錄底下

    10. 有些東⻄要擋掉比較好

  • XML 可使⽤⼯具產⽣:XML-Sitemaps 網址數量往往超過⼀個 Sitemap 檔案可以乘載的⼤⼩? 單靠 Sitemap 製作⼯具依然會有許多網⾴沒辦法被找到? 每天都有⼤量新⾴⾯產⽣,需要時時更新Sitemap內的內容? 解決辦法:套件、模組、⾃⾏開發程式⾃⾏產⽣ sitemap Subdomain or SubFolder ?建議 SubFolder

Last updated