curl是一個利用URL語法在命令行方式下工作的文件傳輸工具。本文介紹了它的簡單用法。 ************************************************************************************
curl是一個利用URL語法在命令行方式下工作的文件傳輸工具。 它支持很多協議:FTP, FTPS, HTTP, HTTPS, GOPHER, TELNET, DICT, FILE 以及 LDAP。 curl同樣支持HTTPS認證,HTTP POST方法, HTTP PUT方法, FTP上傳, kerberos認證, HTTP上傳, 代理服務器, cookies, 用戶名/密碼認證, 下載文件斷點續傳, 上載文件斷點續傳, http代理服務器管道( proxy tunneling), 甚至它還支持IPv6, socks5代理服務器, 通過http代理服務器上傳文件到FTP服務器等等,功能十分強大。 Windows操作系統下的網絡螞蟻,網際快車(FlashGet)的功能它都可以做到。準確的說,curl支持文件的上傳和下載,所以是一個綜合傳輸工具,但是按照傳統,用戶習慣稱curl為下載工具。 curl是瑞典curl組織開發的,您可以訪問: http://curl.haxx.se/ 獲取它的源代碼和相關說明。 鑒于curl在Linux上的廣泛使用,IBM在AIX Linux Toolbox的光盤中包含了這個軟件,并且您可以訪問IBM網站: http://www- 1.ibm.com/servers/aix/products/aixos/linux/altlic.html 下載它。 curl的最新版本是 7.18.0,IBM網站上提供的版本為7.9.3。 在AIX下的安裝很簡單,IBM網站上下載的rpm格式的包。 在 http://curl.haxx.se/docs/ ,您可以下載到UNIX格式的man幫助,里面有詳細的curl工具的使用說明。 curl的用法為:curl [options] [URL...] 其中options是下載需要的參數,大約有80多個,curl的各個功能完全是依靠這些參數完成的。具體參數的使用,用戶可以參考curl的man幫助。下面,本文就將結合具體的例子來說明怎樣利用curl進行下載。
使用命令:curl http://curl.haxx.se 這是最簡單的使用方法。用這個命令獲得了http://curl.haxx.se指向的頁面,同樣,如果這里的URL指向的是一個文件或者一幅圖都可以直接下載到本地。如果下載的是HTML文檔,那么缺省的將不顯示文件頭部,即HTML文檔的header。要全部顯示,請加參數 -i,要只顯示頭部,用參數 -I。任何時候,可以使用 -v 命令看curl是怎樣工作的,它向服務器發送的所有命令都會顯示出來。為了斷點續傳,可以使用-r參數來指定傳輸范圍。
在WEB頁面設計中,form是很重要的元素。Form通常用來收集并向網站提交信息。提交信息的方法有兩種,GET方法和POST方法。先討論GET方法,例如在頁面中有這樣一段: <form method="GET" action="junk.cgi"> <input type=text name="birthyear"> <input type=submit name=press value="OK"> </form> 那么瀏覽器上會出現一個文本框和一個標為“OK”的按鈕。按下這個按鈕,表單就用GET方法向服務器提交文本框的數據。例如原始頁面是在 www.hotmail.com/when/birth.html看到的,然后您在文本框中輸入1905,然后按OK按鈕,那么瀏覽器的URL現在應該是:“www.hotmail.com/when/junk.cgi?birthyear=1905&press=OK” 對于這種網頁,curl可以直接處理,例如想獲取上面的網頁,只要輸入: curl "www.hotmail.com/when/junk.cgi?birthyear=1905&press=OK" 就可以了。 表單用來提交信息的第二種方法叫做POST方法,POST方法和GET方法的區別在于GET方法使用的時候,瀏覽器中會產生目標URL,而POST不會。類似GET,這里有一個網頁: <form method="POST" action="junk.cgi"> <input type=text name="birthyear"> <input type=submit name=press value="OK"> </form> 瀏覽器上也會出現一個文本框和一個標為“OK”的按鈕。按下這個按鈕,表單用POST方法向服務器提交數據。 這時的URL是看不到的,因此需要使用特殊的方法來抓取這個頁面: curl -d "birthyear=1905&press=OK" www.hotmail.com/when/junk.cgi 這個命令就可以做到。 1995年年末,RFC 1867定義了一種新的POST方法,用來上傳文件。主要用于把本地文件上傳到服務器。此時頁面是這樣寫的: <form method="POST" enctype='multipart/form-data' action="upload.cgi"> <input type=file name=upload> <input type=submit name=press value="OK"> </form> 對于這種頁面,curl的用法不同: curl -F upload=@localfilename -F press=OK URL 這個命令的實質是將本地的文件用POST上傳到服務器。有關POST還有不少用法,用戶可以自己摸索。
HTTP協議文件上傳的標準方法是使用PUT,此時curl命令使用-T參數: curl -T uploadfile www.uploadhttp.com/receive.cgi
curl可以處理各種情況的認證頁面,例如下載用戶名/密碼認證方式的頁面(在IE中通常是出現一個輸入用戶名和密碼的輸入框): curl -u name:password www.secrets.com 如果網絡是通過http代理服務器出去的,而代理服務器需要用戶名和密碼,那么輸入: curl -U proxyuser:proxypassword http://curl.haxx.se 任何需要輸入用戶名和密碼的時候,只在參數中指定用戶名而空著密碼,curl可以交互式的讓用戶輸入密碼。
有些網絡資源訪問的時候必須經過另外一個網絡地址跳轉過去,這用術語來說是:referer,引用。對于這種地址的資源,curl也可以下載: curl -e http://curl.haxx.se daniel.haxx.se
有些網絡資源首先需要判斷用戶使用的是什么瀏覽器,符合標準了才能夠下載或者瀏覽。此時curl可以把自己“偽裝”成任何其他瀏覽器: curl -A "Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)" URL 這個指令表示curl偽裝成了IE5.0,用戶平臺是Windows 2000。(對方服務器是根據這個字串來判斷客戶端的類型的,所以即使使用AIX也無所謂)。使用: curl -A "Mozilla/4.73 [en] (X11; U; Linux 2.2.15 i686)" URL 此時curl變成了Netscape,運行在PIII平臺的Linux上了。
Cookie是服務器經常使用的一種記憶客戶信息的方法。如果cookie被記錄在了文件中,那么使用命令: curl -b stored_cookies_in_file www.cookiesite.com curl可以根據舊的cookie寫出新cookie并發送到網站: curl -b cookies.txt -c newcookies.txt www.cookiesite.com
如果是通過OpenSSL加密的https協議傳輸的網頁,curl可以直接訪問: curl https://that.secure.server.com
如果是采用證書認證的http地址,證書在本地,那么curl這樣使用: curl -E mycert.pem https://that.secure.server.com
curl非常博大,用戶要想使用好這個工具,除了詳細學習參數之外,還需要深刻理解http的各種協議與URL的各個語法。這里推薦幾個讀物: RFC 2616 HTTP協議語法的定義。 RFC 2396 URL語法的定義。 RFC 2109 Cookie是怎樣工作的。 RFC 1867 HTTP如何POST,以及POST的格式。
這東西現在已經是蘋果機上內置的命令行工具之一了,可見其魅力之一斑!
1)二話不說,先從這里開始吧!
curl http://www.yahoo.com
回車之后,www.yahoo.com 的html就稀里嘩啦地顯示在屏幕上了~~~~~
2)嗯,要想把讀過來頁面存下來,是不是要這樣呢?
curl http://www.yahoo.com > page.html
當然可以,但不用這么麻煩的!
用curl的內置option就好,存下http的結果,用這個option: -o
curl -o page.html http://www.yahoo.com
這樣,你就可以看到屏幕上出現一個下載頁面進度指示。等進展到100%,自然就OK咯
3)什么什么?!訪問不到?肯定是你的proxy沒有設定了。
使用curl的時候,用這個option可以指定http訪問所使用的proxy服務器及其端口: -x
curl -x 123.45.67.89:1080 -o page.html http://www.yahoo.com
4)訪問有些網站的時候比較討厭,他使用cookie來記錄session信息。
像IE/NN這樣的瀏覽器,當然可以輕易處理cookie信息,但我們的curl呢?..
我們來學習這個option: -D <– 這個是把http的response里面的cookie信息存到一個特別的文件中去
curl -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com
這樣,當頁面被存到page.html的同時,cookie信息也被存到了cookie0001.txt里面了
5)那么,下一次訪問的時候,如何繼續使用上次留下的cookie信息呢?要知道,很多網站都是靠監視你的cookie信息,來判斷你是不是不按規矩訪問他們的網站的。
這次我們使用這個option來把上次的cookie信息追加到http request里面去: -b
curl -x 123.45.67.89:1080 -o page1.html -D cookie0002.txt -b cookie0001.txt http://www.yahoo.com
這樣,我們就可以幾乎模擬所有的IE操作,去訪問網頁了!
6)稍微等等~~~~~我好像忘記什么了~~~~~
對了!是瀏覽器信息~~~~
有些討厭的網站總要我們使用某些特定的瀏覽器去訪問他們,有時候更過分的是,還要使用某些特定的版本~~~~
NND,哪里有時間為了它去找這些怪異的瀏覽器呢???
好在curl給我們提供了一個有用的option,可以讓我們隨意指定自己這次訪問所宣稱的自己的瀏覽器信息: -A
curl -A “Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)” -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com
這樣,服務器端接到訪問的要求,會認為你是一個運行在Windows 2000上的IE6.0,嘿嘿嘿,其實也許你用的是蘋果機呢!
而”Mozilla/4.73 [en] (X11; U; Linux 2.2; 15 i686″則可以告訴對方你是一臺PC上跑著的Linux,用的是Netscape 4.73,呵呵呵
7)另外一個服務器端常用的限制方法,就是檢查http訪問的referer。比如你先訪問首頁,再訪問里面所指定的下載頁,這第二次訪問的referer地址就是第一次訪問成功后的頁面地址。這樣,服務器端只要發現對下載頁面某次訪問的referer地址不 是首頁的地址,就可以斷定那是個盜連了~~~~~
討厭討厭~~~我就是要盜連~~~~~!!
幸好curl給我們提供了設定referer的option: -e
curl -A “Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)” -x 123.45.67.89:1080 -e “mail.yahoo.com” -o page.html -D cookie0001.txt http://www.yahoo.com
這樣,就可以騙對方的服務器,你是從mail.yahoo.com點擊某個鏈接過來的了,呵呵呵
8)寫著寫著發現漏掉什么重要的東西了!—– 利用curl 下載文件
剛才講過了,下載頁面到一個文件里,可以使用 -o ,下載文件也是一樣。
比如, curl -o 1.jpg
這里教大家一個新的option: -O
大寫的O,這么用: curl -O
這樣,就可以按照服務器上的文件名,自動存在本地了!
再來一個更好用的。
如果screen1.JPG以外還有screen2.JPG、screen3.JPG、.、screen10.JPG需要下載,難不成還要讓我們寫一個script來完成這些操作?
不干!
在curl里面,這么寫就可以了:
curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen[1-10].JPG
呵呵呵,厲害吧?!~~~
9)再來,我們繼續講解下載!
curl -O http://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG
這樣產生的下載,就是
~zzh/001.JPG
~zzh/002.JPG
~zzh/201.JPG
~nick/001.JPG
~nick/002.JPG
~nick/201.JPG
夠方便的了吧?哈哈哈
咦?高興得太早了。
由于zzh/nick下的文件名都是001,002,201,下載下來的文件重名,后面的把前面的文件都給覆蓋掉了~~~
沒關系,我們還有更狠的!
curl -o #2_#1.jpg http://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG
–這是..自定義文件名的下載?
–對頭,呵呵!
#1是變量,指的是{zzh,nick}這部分,第一次取值zzh,第二次取值nick
#2代表的變量,則是第二段可變部分—[001-201],取值從001逐一加到201
這樣,自定義出來下載下來的文件名,就變成了這樣:
原來: ~zzh/001.JPG —> 下載后: 001-zzh.JPG
原來: ~nick/001.JPG —> 下載后: 001-nick.JPG
這樣一來,就不怕文件重名啦,呵呵
繼續講下載
我們平時在windows平臺上,flashget這樣的工具可以幫我們分塊并行下載,還可以斷線續傳。
curl在這些方面也不輸給誰,嘿嘿
比如我們下載screen1.JPG中,突然掉線了,我們就可以這樣開始續傳
curl -c -O
當然,你不要拿個flashget下載了一半的文件來糊弄我~~~~別的下載軟件的半截文件可不一定能用哦~~~
分塊下載,我們使用這個option就可以了: -r
舉例說明
比如我們有一個 http://cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 要下載(趙老師的電話朗誦)
我們就可以用這樣的命令:
curl -r 0-10240 -o “zhao.part1″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &
curl -r 10241-20480 -o “zhao.part1″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &
curl -r 20481-40960 -o “zhao.part1″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &
curl -r 40961- -o “zhao.part1″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3
這樣就可以分塊下載啦。
不過你需要自己把這些破碎的文件合并起來
如果你用UNIX或蘋果,用 cat zhao.part* > zhao.mp3就可以
如果用的是Windows,用copy /b 來解決吧,呵呵
上面講的都是http協議的下載,其實ftp也一樣可以用。
用法嘛,
curl -u name:passwd ftp://ip:port/path/file
或者大家熟悉的
curl ftp://name:passwd@ip/path/file
10)說完了下載,接下來自然該講上傳咯
上傳的option是 -T
比如我們向ftp傳一個文件: curl -T localfile -u name:passwd ftp://upload_site/path/
當然,向http服務器上傳文件也可以
比如 curl -T localfile http://cgi2.tky.3web.ne.jp/~zzh/abc.cgi
注意,這時候,使用的協議是HTTP的PUT method
剛才說到PUT,嘿嘿,自然讓老服想起來了其他幾種methos還沒講呢!
GET和POST都不能忘哦。
http提交一個表單,比較常用的是POST模式和GET模式
GET模式什么option都不用,只需要把變量寫在url里面就可以了
比如:
curl http://www.yahoo.com/login.cgi?user&password=12345
而POST模式的option則是 -d
比如,curl -d “user=nickwolfe&password=12345″ http://www.yahoo.com/login.cgi
就相當于向這個站點發出一次登陸申請~~~~~
到底該用GET模式還是POST模式,要看對面服務器的程序設定。
一點需要注意的是,POST模式下的文件上的文件上傳,比如
<input type=”file” name=”upload”><input type=”submit” name=”nick” value=”go”>
這樣一個HTTP表單,我們要用curl進行模擬,就該是這樣的語法:
curl -F upload=@localfile -F nick=go http://cgi2.tky.3web.ne.jp/~zzh/up_file.cgi
羅羅嗦嗦講了這么多,其實curl還有很多很多技巧和用法
比如 https的時候使用本地證書,就可以這樣
curl -E localcert.pem https://remote_server
再比如,你還可以用curl通過dict協議去查字典~~~~~
curl dict://dict.org/d:computer