采集网页时发现file_get_contents 获得的网页保存到本地为乱码,响应的header 里 Content-Encoding:gzip,但在浏览器里看是正常的。
由此,可以判断网站开启了gzip而file_get_contents 获得的是压缩过的页面,而不是解压过的页面(不知是否要file_get_conttents 请求网页时带上相应的参数,直接获得没有被gzip压缩过的网页?)
之前看到过可以用读取文件的前2个字节判断文件类型。
gzip压缩过的网页(gbk编码)前2字节是 1F 8B,借此可以判断网页是否gzip压缩过。
例子:
<?php //gzip压缩网页 //file_get_contents 直接获得的网页是乱码。 header('Content-Type:text/html;charset=utf-8' ); $url = 'http://www.jb200.com'; $file = fopen($url, "rb"); //只读2字节 如果为(16进制)1f 8b (10进制)31 139则开启了gzip ; $bin = fread($file, 2); fclose($file); $strInfo = @unpack("C2chars", $bin); $typeCode = intval($strInfo['chars1'].$strInfo['chars2']); $isGzip = 0; switch ($typeCode) { case 31139: //网站开启了gzip $isGzip = 1; break; default: $isGzip = 0; } $url = $isGzip ? "compress.zlib://".$url:$url; // 三元表达式 $mierHtml = file_get_contents($url); //获得数据 $mierHtml = iconv("gbk","utf-8",$mierHtml); echo $mierHtml; ?>