<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    海上月明

    editer by sun
    posts - 162, comments - 51, trackbacks - 0, articles - 8
       :: 首頁 :: 新隨筆 ::  :: 聚合  :: 管理

    [轉]python 中文亂碼 問題深入分析

    Posted on 2009-06-25 15:59 pts 閱讀(1258) 評論(0)  編輯  收藏 所屬分類: OthersPython

    From:到現在還是不太明白python的亂碼解決之道,很應該仔細看看


    在本文中,以'哈'來解釋作示例解釋所有的問題,“哈”的各種編碼如下:

      1. UNICODE (UTF8-16),C854;

      2. UTF-8,E59388;

      3. GBK,B9FE。

    一、python中的str和unicode

    一直以來,python中的中文編碼就是一個極為頭大的問題,經常拋出編碼轉換的異常,python中的str和unicode到底是一個什么東西呢?

    在python中提到unicode,一般指的是unicode對象,例如'哈哈'的unicode對象為

    u'\u54c8\u54c8'

    而str,是一個字節數組,這個字節數組表示的是對unicode對象編碼(可以是utf-8、gbk、cp936、GB2312)后的存儲的格式。這里它僅僅是一個字節流,沒有其它的含義,如果你想使這個字節流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。

    例如:

    python 字符串和unicode

    對于unicode對象哈哈進行編碼,編碼成 一個utf-8編碼的str-s_utf8,s_utf8就是是一個字節數組,存放的就是'\xe5\x93\x88\xe5\x93\x88',但是這 僅僅是一個字節數組,如果你想將它通過print語句輸出成哈哈,那你就失望了,為什么呢?

    因為print語句它的實現是將要輸出的內容 傳送了操作系統,操作系統會根據系統的編碼對輸入的字節流進行編碼,這就解釋了為什么utf-8格式的字符串“哈哈”,輸出的是“鍝堝搱”,因為 '\xe5\x93\x88\xe5\x93\x88'用GB2312去解釋,其顯示的出來就是“鍝堝搱”。這里再強調一下,str記錄的是字節數組,只 是某種編碼的存儲格式,至于輸出到文件或是打印出來是什么格式,完全取決于其解碼的編碼將它解碼成什么樣子。

    這里再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的默認編碼(這僅是個人猜測)

    二、str和unicode對象的轉換

    str和unicode對象的轉換,通過encode和decode實現,具體使用如下:

    decode和encode演示

    將GBK'哈哈'轉換成unicode,然后再轉換成UTF8

    三、Setdefaultencoding

    setdefaultencoding

    如上圖的演示代碼所示:

    當把s(gbk字符串)直接編碼成utf-8的時候,將拋出異常,但是通過調用如下代碼:

    import sys

    reload(sys)

    sys.setdefaultencoding('gbk')

    后就可以轉換成功,為什么呢?在python中str和unicode在編碼和解碼過程中,如果將一個str直接編碼成另一種編碼,會先把str解碼成unicode,采用的編碼為默認編碼,一般默認編碼是anscii,所以在上面示例代碼中第一次轉換的時候會出錯,當設定當前默認編碼為'gbk'后,就不會出錯了。

    至于reload(sys)是因為Python2.5 初始化后會刪除 sys.setdefaultencoding 這個方法,我們需要重新載入

    四、操作不同文件的編碼格式的文件

    建立一個文件test.txt,文件格式用ANSI,內容為:

    abc中文

    用python來讀取

    # coding=gbk

    print open("Test.txt").read()

    結果:abc中文

    把文件格式改成UTF-8:

    結果:abc涓枃

    顯然,這里需要解碼:

    # coding=gbk

    import codecs

    print open("Test.txt").read().decode("utf-8")

    結果:abc中文

    上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯并存成UTF-8格式時,

    運行時報錯:

    Traceback (most recent call last):

    File "ChineseTest.py", line 3, in 

    print open("Test.txt").read().decode("utf-8")

    UnicodeEncodeError: 'gbk' codec can't encode character u'\ufeff' in position 0: illegal multibyte sequence

    原來,某些軟件,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字符(0xEF 0xBB 0xBF,即BOM)。

    因此我們在讀取時需要自己去掉這些字符,python中的codecs module定義了這個常量:

    # coding=gbk

    import codecs

    data = open("Test.txt").read()

    if data[:3] == codecs.BOM_UTF8:

    data = data[3:]

    print data.decode("utf-8")

    結果:abc中文

    五、文件的編碼格式和編碼聲明的作用

    源文件的編碼格式對字符串的聲明有什么作用呢?這個問題困擾一直困擾了我好久,現在終于有點眉目了,文件的編碼格式決定了在該源文件中聲明的字符串的編碼格式,例如:

    str = '哈哈'

    print repr(str)

    a.如果文件格式為utf-8,則str的值為:'\xe5\x93\x88\xe5\x93\x88'(哈哈的utf-8編碼)

    b.如果文件格式為gbk,則str的值為:'\xb9\xfe\xb9\xfe'(哈哈的gbk編碼)

    在第一節已經說過,python中的字符串, 只是一個字節數組,所以當把a情況的str輸出到gbk編碼的控制臺時,就將顯示為亂碼:鍝堝搱;而當把b情況下的str輸出utf-8編碼的控制臺時, 也將顯示亂碼的問題,是什么也沒有,也許'\xb9\xfe\xb9\xfe'用utf-8解碼顯示,就是空白吧。>_<

    說完文件格式,現在來談談編碼聲明的作用吧,每個文件在最上面的地方,都會用# coding=gbk 類似的語句聲明一下編碼,但是這個聲明到底有什么用呢?到止前為止,我覺得它的作用也就是三個:

    1. 聲明源文件中將出現非ascii編碼,通常也就是中文;
    2. 在高級的IDE中,IDE會將你的文件格式保存成你指定編碼格式。
    3. 決定源碼中類似于u'哈'這類聲明的將‘哈’解碼成unicode所用的編碼格式,也是一個比較容易讓人迷惑的地方,看示例:
    #coding:gbk

    ss = u'哈哈'

    print repr(ss)

    print 'ss:%s' % ss

    將這個些代碼保存成一個utf-8文本,運行,你認為會輸出什么呢?大家第一感覺肯定輸出的肯定是:

    u'\u54c8\u54c8'

    ss:哈哈

    但是實際上輸出是:

    u'\u935d\u581d\u6431'

    ss:鍝堝搱

    為什么會這樣,這時候,就是編碼聲明在作怪了,在運行ss = u'哈哈'的時候,整個過程可以分為以下幾步:

    1) 獲取'哈哈'的編碼:由文件編碼格式確定,為'\xe5\x93\x88\xe5\x93\x88'(哈哈的utf-8編碼形式)

    2) 轉成 unicode編碼的時候,在這個轉換的過程中,對于'\xe5\x93\x88\xe5\x93\x88'的解碼,不是用utf-8解碼,而是用聲明編 碼處指定的編碼GBK,將'\xe5\x93\x88\xe5\x93\x88'按GBK解碼,得到就是''鍝堝搱'',這三個字的unicode編碼就 是u'\u935d\u581d\u6431',至止可以解釋為什么print repr(ss)輸出的是u'\u935d\u581d\u6431' 了。

    好了,這里有點繞,我們來分析下一個示例:

    #-*- coding:utf-8 -*-

    ss = u'哈哈'

    print repr(ss)

    print 'ss:%s' % ss

    將這個示例這次保存成GBK編碼形式,運行結果,竟然是:

    UnicodeDecodeError: 'utf8' codec can't decode byte 0xb9 in position 0: unexpected code byte

    這里為什么會有utf8解碼錯誤呢?想想上個 示例也明白了,轉換第一步,因為文件編碼是GBK,得到的是'哈哈'編碼是GBK的編碼'\xb9\xfe\xb9\xfe',當進行第二步,轉換成 unicode的時候,會用UTF8對'\xb9\xfe\xb9\xfe'進行解碼,而大家查utf-8的編碼表會發現,utf8編碼表(關于UTF- 8解釋可參見字符編碼筆記:ASCII、UTF-8、UNICODE)中根本不存在,所以會報上述錯誤。

    主站蜘蛛池模板: 理论秋霞在线看免费| 美女视频黄频a免费| 中文字幕在线免费观看| 亚洲va中文字幕无码久久不卡| 国产精品免费αv视频| 久久久久久久亚洲精品| 国产日韩久久免费影院 | 免费一级做a爰片久久毛片潮| 在线观看视频免费国语| 亚洲精品无码高潮喷水A片软| 成年人性生活免费视频| 亚洲av永久中文无码精品综合| 国产嫩草影院精品免费网址| 日韩精品亚洲专区在线影视| 亚洲人成人网站在线观看| 国产精品福利片免费看| 亚洲国产人成在线观看69网站 | 亚洲人成无码网站久久99热国产| yellow视频免费在线观看| 国产亚洲成av人片在线观看| 日本xxxx色视频在线观看免费| 久久久久久久亚洲Av无码 | 亚洲一区综合在线播放| 国产又大又粗又长免费视频 | 好吊妞在线新免费视频| 亚洲av无码专区首页| 久久精品国产亚洲Aⅴ蜜臀色欲| 免费日本一区二区| 亚洲va在线va天堂成人| 国产精品视_精品国产免费 | ZZIJZZIJ亚洲日本少妇JIZJIZ| 国产真人无码作爱免费视频| 亚洲精品亚洲人成在线观看麻豆| 成人免费a级毛片无码网站入口 | 免费人成大片在线观看播放电影| 中文字幕精品亚洲无线码一区| 2021精品国产品免费观看| 国产精品观看在线亚洲人成网| 亚洲爆乳精品无码一区二区三区| 免费在线观看的网站| www.xxxx.com日本免费|