Robots.txt
==========
http://nl.wikipedia.org/wiki/Robots_Exclusion_Protocol

Voorbeeld robots.txt:

User-agent: *
Disallow: /analytics/
Disallow: /download/
Disallow: /gastenboek/
Disallow: /search/

Sitemap: http://webdesign.pindanet.be/sitemap.xml
______________________________________________________
Sitemap
=======
http://www.sitemaps.org/nl/protocol.html

Voorbeeld sitemap.xml:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://webdesign.pindanet.be/index.html</loc>
<lastmod>2013-10-27</lastmod>
</url>
<url>
<loc>http://webdesign.pindanet.be/deel1/index.html</loc>
<lastmod>2013-10-05</lastmod>
</url>
<url>
<loc>http://webdesign.pindanet.be/deel2/index.html</loc>
<lastmod>2013-10-05</lastmod>
</url>
</urlset>
______________________________________________________
.htaccess
=========
Voorbeeld .htaccess met gzip compressie:

<IfModule mod_deflate.c>
<FilesMatch "\.(js|css|html)$">
SetOutputFilter DEFLATE
</FilesMatch>
</IfModule>