Robots.txt ========== http://nl.wikipedia.org/wiki/Robots_Exclusion_Protocol Voorbeeld robots.txt: User-agent: * Disallow: /analytics/ Disallow: /download/ Disallow: /gastenboek/ Disallow: /search/ Sitemap: http://webdesign.pindanet.be/sitemap.xml ______________________________________________________ Sitemap ======= http://www.sitemaps.org/nl/protocol.html Voorbeeld sitemap.xml: <?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>http://webdesign.pindanet.be/index.html</loc> <lastmod>2013-10-27</lastmod> </url> <url> <loc>http://webdesign.pindanet.be/deel1/index.html</loc> <lastmod>2013-10-05</lastmod> </url> <url> <loc>http://webdesign.pindanet.be/deel2/index.html</loc> <lastmod>2013-10-05</lastmod> </url> </urlset> ______________________________________________________ .htaccess ========= Voorbeeld .htaccess met gzip compressie: <IfModule mod_deflate.c> <FilesMatch "\.(js|css|html)$"> SetOutputFilter DEFLATE </FilesMatch> </IfModule>