http://www.linuxidc">http://www.linuxidc" />

    <i id='sjr01'><div id='sjr01'><ins id='sjr01'></ins></div></i>

    <code id='sjr01'><strong id='sjr01'></strong></code>
      <ins id='sjr01'></ins>

    1. <i id='sjr01'></i>
      <acronym id='sjr01'><em id='sjr01'></em><td id='sjr01'><div id='sjr01'></div></td></acronym><address id='sjr01'><big id='sjr01'><big id='sjr01'></big><legend id='sjr01'></legend></big></address>
    2. <tr id='sjr01'><strong id='sjr01'></strong><small id='sjr01'></small><button id='sjr01'></button><li id='sjr01'><noscript id='sjr01'><big id='sjr01'></big><dt id='sjr01'></dt></noscript></li></tr><ol id='sjr01'><table id='sjr01'><blockquote id='sjr01'><tbody id='sjr01'></tbody></blockquote></table></ol><u id='sjr01'></u><kbd id='sjr01'><kbd id='sjr01'></kbd></kbd>
        <fieldset id='sjr01'></fieldset>
          <span id='sjr01'></span>

          <dl id='sjr01'></dl>

          Linux命令介绍:curl命令

          • 时间:
          • 浏览:4
          • 来源:124软件资讯网

            Curl是Linux下一个很强盛的http下令行工具 ,其功效十分强盛  。

              1) 二话不说  ,先从这里最先吧 !

              $ curl linuxidc.com">http://www.linuxidc.com

              回车之后  ,www.linuxidc.com 的html就稀里哗啦地显示在屏幕上了 ~

              2) 嗯  ,要想把读过来页面存下来  ,是不是要这样呢 ?

              $ curl http://www.linuxidc.com > page.html

              固然可以  ,但不用这么贫苦的  !

              用curl的内置option就好  ,存下http的效果 ,用这个option: -o

              $ curl -o page.html http://www.linuxidc.com

              这样 ,你就可以看到屏幕上泛起一个下载页面进度指示 。等希望到100%  ,自然就 OK咯

              3) 什么什么  ? !会见不到 ?一定是你的proxy没有设定了 。

              使用curl的时间  ,用这个option可以指定http会见所使用的proxy服务器及其端口: -x

              $ curl -x 123.45.67.89:1080 -o page.html http://www.linuxidc.com

              4) 会见有些网站的时间比力厌恶 ,他使用cookie来记载session信息  。

              像IE/NN这样的浏览器  ,固然可以容易处置惩罚cookie信息 ,但我们的curl呢  ?…..

              我们来学习这个option: -D <— 这个是把http的response内里的cookie信息存到一个特殊的文件中去

              $ curl -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.linuxidc.com

              这样  ,当页面被存到page.html的同时  ,cookie信息也被存到了cookie0001.txt内里了

              5)那么 ,下一次会见的时间  ,怎样继续使用上次留下的cookie信息呢  ?要知道 ,许多网站都是靠监视你的cookie信息  ,来判断你是不是不按规则会见他们的网站的  。

              这次我们使用这个option来把上次的cookie信息追加到http request内里去: -b

              $ curl -x 123.45.67.89:1080 -o page1.html -D cookie0002.txt -b cookie0001.txt http://www.linuxidc.com

              这样 ,我们就可以险些模拟所有的IE操作  ,去会见网页了  !

              6)稍微等等 ~我似乎遗忘什么了 ~

              对了  !是浏览器信息

              有些厌恶的网站总要我们使用某些特定的浏览器去会见他们 ,有时间更太过的是  ,还要使用某些特定的版本 NND  ,那里有时间为了它去找这些怪异的浏览器呢 !  ?

              幸亏curl给我们提供了一个有用的option  ,可以让我们随意指定自己这次会见所宣称的自己的浏览器信息: -A

              $ curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.linuxidc.com

              这样  ,服务器端接到会见的要求  ,会以为你是一个运行在Windows 2000上的 IE6.0  ,嘿嘿嘿  ,实在也许你用的是苹果机呢 !

              而"Mozilla/4.73 [en] (X11; U; Linux 2.2; 15 i686"则可以告诉对方你是一台 PC上跑着的Linux ,用的是Netscape 4.73  ,呵呵呵

              7)另外一个服务器端常用的限制要领 ,就是检查http会见的referer  。好比你先会见首页  ,再会见内里所指定的下载页  ,这第二次会见的 referer地址就是第一次会见乐成后的页面地址  。这样  ,服务器端只要发现对下载页面某次会见的referer地址不是首页的地址  ,就可以断定那是个盗 连了 ~

              厌恶厌恶 ~我就是要盗连 ~  !  !

              幸好curl给我们提供了设定referer的option: -e

              $ curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -e "mail.linuxidc.com" -o page.html -D cookie0001.txt http://www.linuxidc.com

              这样 ,就可以骗对方的服务器  ,你是从mail.linuxidc.com点击某个链接过来的了  ,呵呵呵

              8)写着写着发现遗漏什么主要的工具了  !——- 使用curl 下载文件

              适才讲过了  ,下载页面到一个文件里  ,可以使用 -o  ,下载文件也是一样  。好比  ,

              $ curl -o 1.jpg http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG

              这里教各人一个新的option: -O 大写的O  ,这么用:

              $ curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG

              这样  ,就可以根据服务器上的文件名 ,自动存在当地了  !

              再来一个更好用的  。

              若是screen1.JPG以外另有screen2.JPG、screen3.JPG、....、screen10.JPG需要下载  ,难不成还要让我们写一个script来完成这些操作  ?

              不干 !

              在curl内里 ,这么写就可以了:

              $ curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen[1-10].JPG

              呵呵呵  ,厉害吧  ?  ! ~

              9)再来  ,我们继续解说下载  !

              $ curl -O http://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG

              这样发生的下载  ,就是

              ~zzh/001.JPG

              ~zzh/002.JPG

              ...

              12下一页