<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    paulwong

    #

    GitHub無法訪問的辦法

    瀏覽器打開https://www.ipaddress.com/website/www.github.com/, 輸入www.github.com, 得到相應的ip, 本地clone以ip的方式, 但如果要訪問頁面, 需改本地的hosts文件:

    # /etc/hosts
    140.82.112.4    www.github.com




    posted @ 2025-01-05 12:08 paulwong 閱讀(80) | 評論 (0)編輯 收藏

    linux刪除多余的舊內核

    linux每次升級后都會留下多余的內核, 一鍵刪除的方法(Centos):@import url(http://www.tkk7.com/CuteSoft_Client/CuteEditor/Load.ashx?type=style&file=SyntaxHighlighter.css);@import url(/css/cuteeditor.css);

    dnf remove $(dnf repoquery --installonly --latest-limit=-2)


    posted @ 2025-01-05 12:01 paulwong 閱讀(31) | 評論 (0)編輯 收藏

    AI入門

    數據分析:從一堆已知的數據中進行分類,總結得出統計數據,如最大 值,最小值,平均值,總和等。
    只能對已知數據進行操作,無法預測出新的數據的特征,于是就有了機器學習。

     

    機器學習:給出一堆已知的,有特征欄位的和結果欄位的數據,選定一個算法,如線性回歸,邏輯回歸等,其實就是一條公式,進行學習,其實就是運行一堆函數,比較結果,得出規律,也就是確定了公式中參數的值。當輸入新的數據時,就能預測出所需的結果,其實就是把輸入數據代入公式,算出結果。
    機器學習只能做比較簡單的任務,如預測下個月的銷售數據,判斷文字內容是正面還是反面(分類),對于復雜的任務,如對話,其實就是針對輸入文字預測靠譜的輸出文字(回答),于是就有了深度學習。

     

    深度學習:給出一堆數據,只需兩個本欄位,如問題,答案等,選定一個算法,其實就是神經網絡的類型,如卷積神經網絡(CNN),循環神經網絡(RNN),TRANSFORMER神經網絡等,進行學習,其實就是運行一堆函數,比較結果,得出規律,也就是確定了公式中參數的值。

    posted @ 2024-10-19 22:37 paulwong 閱讀(96) | 評論 (0)編輯 收藏

    國內網絡環境安裝docker+container toolkit

    操作系統為centos 9.

    先安裝驅動程序

    https://www.nvidia.cn/drivers/lookup/ 中查找對應的驅動程序下載到本地,再運行
    #切換成文字界面
    sudo systemctl set-default multi-user.target
    sudo reboot

    sh NVIDIA
    -Linux-x86_64-550.107.02.run

    #切換成圖形界面
    sudo systemctl set-default graphical.target
    sudo reboot

    安裝docker:

    yum remove docker \
                      docker-client \
                      docker-client-latest \
                      docker-common \
                      docker-latest \
                      docker-latest-logrotate \
                      docker-logrotate \
                      docker-engine

    yum install -y yum-utils
    yum-config-manager --add-repo https://mirrors.tuna.tsinghua.edu.cn/docker-ce/linux/centos/docker-ce.repo
    sed -i 's+https://download.docker.com+https://mirrors.tuna.tsinghua.edu.cn/docker-ce+' /etc/yum.repos.d/docker-ce.repo

    yum install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

    sudo nvidia-ctk runtime configure --runtime=docker

    改鏡像地址:

    [paul@paul-pc ~]$ cat /etc/docker/daemon.json
    {  
        
    "registry-mirrors"[
            "http://xxx.xxx.xxx"
        ]
    ,
        
    "runtimes": {
            
    "nvidia": {
                
    "args"[],
                
    "path""nvidia-container-runtime"
            }
        }
    }

    安裝container-took-kit:

    https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Rocky&target_version=9&target_type=runfile_local 中找到對應的container-took-kit,下載到本地,再運行
    sh cuda_12.6.0_560.28.03_linux.run

    驗證:

    sudo docker run --rm -it --gpus all ubuntu  nvidia-smi
    +-----------------------------------------------------------------------------------------+
    | NVIDIA-SMI 550.107.02             Driver Version: 550.107.02     CUDA Version: 12.4     |
    |-----------------------------------------+------------------------+----------------------+
    | GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
    | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
    |                                         |                        |               MIG M. |
    |=========================================+========================+======================|
    |   0  NVIDIA GeForce RTX 2080 Ti     Off |   00000000:01:00.0  On |                  N/A |
    | 62%   36C    P8              4W /  260W |     256MiB /  22528MiB |      1%      Default |
    |                                         |                        |                  N/A |
    +-----------------------------------------+------------------------+----------------------+
    |   1  NVIDIA GeForce RTX 2080 Ti     Off |   00000000:02:00.0 Off |                  N/A |
    | 64%   35C    P8              5W /  260W |       9MiB /  22528MiB |      0%      Default |
    |                                         |                        |                  N/A |
    +-----------------------------------------+------------------------+----------------------+
                                                                                             
    +-----------------------------------------------------------------------------------------+
    | Processes:                                                                              |
    |  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
    |        ID   ID                                                               Usage      |
    |=========================================================================================|
    |    0   N/A  N/A      2657      G   /usr/libexec/Xorg                              99MiB |
    |    0   N/A  N/A      2735      G   /usr/bin/gnome-shell                           38MiB |
    |    0   N/A  N/A      3502      G   /usr/lib64/firefox/firefox                    111MiB |
    |    1   N/A  N/A      2657      G   /usr/libexec/Xorg                               4MiB |
    +-----------------------------------------------------------------------------------------+
    參考地址:
    https://mirrors.tuna.tsinghua.edu.cn/help/docker-ce/

    posted @ 2024-08-15 10:49 paulwong 閱讀(136) | 評論 (0)編輯 收藏

    python界面庫

    python服務器腳本,生成html,無需寫js,css,適合AI項目
    https://cheat-sheet.streamlit.app

    生成文字的代碼:
    st.text('Fixed width text')
    st.markdown('_Markdown_'# see #*
    st.caption('Balloons. Hundreds of them')
    st.latex(r''' e^{i\pi} + 1 = 0 ''')
    st.write('Most objects'# df, err, func, keras!
    st.write(['st''is <', 3]) # see *
    st.title('My title')
    st.header('My header')
    st.subheader('My sub')
    st.code('for i in range(8): foo()')

    # * optional kwarg unsafe_allow_html = True

    生成form控件:
    st.button('Hit me')
    st.data_editor('Edit data', data)
    st.checkbox('Check me out')
    st.radio('Pick one:', ['nose','ear'])
    st.selectbox('Select', [1,2,3])
    st.multiselect('Multiselect', [1,2,3])
    st.slider('Slide me', min_value=0, max_value=10)
    st.select_slider('Slide to select', options=[1,'2'])
    st.text_input('Enter some text')
    st.number_input('Enter a number')
    st.text_area('Area for textual entry')
    st.date_input('Date input')
    st.time_input('Time entry')
    st.file_uploader('File uploader')
    st.download_button('On the dl', data)
    st.camera_input("一二三,茄子!")
    st.color_picker('Pick a color')

    用表格顯示數據:
    st.dataframe(my_dataframe)
    st.table(data.iloc[0:10])
    st.json({'foo':'bar','fu':'ba'})
    st.metric(label="Temp", value="273 K", delta="1.2 K")


    顯示加載進度條與狀態:
    # Show a spinner during a process
    >>> with st.spinner(text='In progress'):
    >>>   time.sleep(3)
    >>>   st.success('Done')

    # Show and update progress bar
    >>> bar = st.progress(50)
    >>> time.sleep(3)
    >>> bar.progress(100)

    st.balloons()
    st.snow()
    st.toast('Mr Stay-Puft')
    st.error('Error message')
    st.warning('Warning message')
    st.info('Info message')
    st.success('Success message')
    st.exception(e)


    posted @ 2024-08-12 15:19 paulwong 閱讀(90) | 評論 (0)編輯 收藏

    通過SSH的方式PUSH代碼到GIT

    這幾天要PUSH代碼到GITHUB,發現之前用的密碼方式被取消了,需改成SSH KEY的方式。

    1.生成SSH-KEY

    ssh-keygen
    #會產生 
    ~/.ssh/id_rsa 和 ~/.ssh/id_rsa_pub 文件
    #如果是從別的地方拷貝過來的id_rsa,需chmod 400 ~/.ssh/id_rsa更改屬性

    2.在github上新建倉庫

    https://github.com/paulwong888/python-ai

    3.導入公鑰到github

    打開你的SSH公鑰文件,通常位于~/.ssh/id_rsa.pub。復制公鑰內容,然后登錄到你的GitHub賬戶,進入Settings > SSH and GPG keys,點擊"New SSH key"按鈕,粘貼你的公鑰,然后點擊"Add SSH key"。

    4.克隆倉庫

    git config --global user.name "John Doe"
    git config --global user.email johndoe@example.com
    git clone git@github.com:paulwong888/python-ai

    5.導入project到eclipse

    上步克隆時已經在本地新建了一個本地倉庫,Import->Git->Project from Git->Existing local repository,選擇python-ai/.git文件夾
    之后的操作和用密碼的方式是一樣的。

    如果是vs code的操作,可參考:https://juejin.cn/post/6993612656410099719

    posted @ 2024-07-24 12:31 paulwong 閱讀(131) | 評論 (0)編輯 收藏

    微調llama3大模型(2) - 使用ollama搭建chatbot

    上篇已經合并出了訓練好的大模型,現在要搭建起一套CHATBOT,使得這套大模型能有一個WEBUI用起來。

    1.設置環境變量,ollama的模型保存路徑,/etc/profile

    export OLLAMA_MODELS=/root/autodl-tmp/models/ollama

    2.克隆ollama代碼

    curl -fsSL https://ollama.com/install.sh | sh

    3.啟動ollama

    ollama serve

    4.建立ollama鏡像的配置文件,Modelfile

    # set the base model
    FROM /root/.ollama/llamafactory-export/saves/llama3-8b/lora/docker-commnad-nlp/export

    # set custom parameter values
    PARAMETER temperature 
    1
    PARAMETER num_keep 
    24
    PARAMETER stop <|start_header_id|>
    PARAMETER stop <|end_header_id|>
    PARAMETER stop <|eot_id|>
    PARAMETER stop <|reserved_special_token

    # set the model template
    TEMPLATE 
    """
    {{ if .System }}<|start_header_id|>system<|end_header_id|>
    {{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>
    {{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>
    {{ .Response }}<|eot_id|>
    """

    # set the system message
    SYSTEM You are llama3 from Meta
    , customized and hosted @ Paul Wong (http://paulwong88.tpddns.cn).

    # set Chinese lora support
    #ADAPTER /root/.ollama/models/lora/ggml-adapter-model.bin
    建立鏡像命令,create-ollama-image-docker-command-nlp.sh
    BIN_PATH=$(cd `dirname $0`; pwd)
    cd $BIN_PATH/
    pwd
    ollama create llama3-docker-commnad-nlp:paul -f Modelfile

    5.運行大模型

    llama3-docker-commnad-nlp:paul

    posted @ 2024-07-08 19:48 paulwong 閱讀(119) | 評論 (0)編輯 收藏

    微調llama3大模型(1) - 使用Llama Factory微調llama3大模型

    對于象META的開源大模型,如llama3,由于都是用通用數據進行預訓練,對想使用其模型的公司來說,可能會不適用,因為這大模型對公司的數據不熟悉,因此引入微調(Fine-Tunning)。
    通過喂給大模型大量數據,1萬條起步,使得大模型也能對公司的數據熟悉,進而用于各種對話場景。

    1.克隆并安裝LLAMA FACTORY庫,install-llamafactory.sh

    BIN_PATH=$(cd `dirname $0`; pwd)
    cd $BIN_PATH/../
    pwd
    git clone --depth 
    1 https://github.com/hiyouga/LLaMA-Factory.git
    cd LLaMA-Factory
    pip install -e 
    ".[torch,metrics,bitsandbytes,modelscope]"

    2.設置環境變量

    export USE_MODELSCOPE_HUB=1 #使用modelscop模型庫,非huggingface的
    export CUDA_VISIBLE_DEVICES
    =0 #設置使用GPU
    export HF_ENDPOINT
    =https://hf-mirror.com #設置huggingface的替代地址
    export MODELSCOPE_CACHE
    =/root/autodl-tmp/models/modelscope #設置modelscope中的大模型保存路徑
    export LLAMAFACTORY_HOME=/root/autodl-tmp/LLaMA-Factory

    3.準備數據

    #在data/dataset_info.json中加入此數據

    "docker_command_NL": {
        
    "hf_hub_url""MattCoddity/dockerNLcommands"
      }
    ,
    在data目錄中加入訓練數據,MattCoddity/dockerNLcommands.json
    數據格式為:
    [
      {
        
    "input""Give me a list of containers that have the Ubuntu image as their ancestor.",
        
    "instruction""translate this sentence in docker command",
        
    "output""docker ps --filter 'ancestor=ubuntu'"
      }
    ,

    ]

    4.訓練大模型

    訓練的參數文件:llama3_lora_sft_docker_command.yaml
    ### model
    #md model id
    model_name_or_path: LLM-Research/Meta-Llama-
    3-8B-Instruct
    #huggingface model id
    #model_name_or_path: meta-llama/Meta-Llama-
    3-8B-Instruct

    ### method
    stage: sft
    do_train: true
    finetuning_type: lora
    lora_target: all

    ### dataset
    dataset: docker_command_NL
    template: llama3
    cutoff_len: 
    1024
    max_samples: 
    1000
    overwrite_cache: true
    preprocessing_num_workers: 
    16

    ### output
    output_dir: /root/autodl-tmp/my-test/saves/llama3-8b/lora/sft/docker-commnad-nlp/sft
    logging_steps: 
    10
    save_steps: 
    500
    plot_loss: true
    overwrite_output_dir: true

    ### train
    per_device_train_batch_size: 
    4
    gradient_accumulation_steps: 
    8
    learning_rate: 
    1.0e-4
    num_train_epochs: 
    3.0
    lr_scheduler_type: cosine
    warmup_ratio: 
    0.1
    bf16: true
    ddp_timeout: 
    180000000

    ### eval
    val_size: 
    0.1
    per_device_eval_batch_size: 
    1
    eval_strategy: steps
    eval_steps: 
    500
    訓練命令:lora-train-docker-command.sh
    BIN_PATH=$(cd `dirname $0`; pwd)
    cd $BIN_PATH/
    pwd
    cd $LLAMAFACTORY_HOME
    pwd
    llamafactory-cli train $BIN_PATH/conf/llama3_lora_sft_docker_command.yaml
    執行此命令即可開始訓練大模型。

    5.合并大模型

    合并用的參數文件,llama3_lora_export_docker_command.yaml
    ### model
    #md model id
    model_name_or_path: LLM-Research/Meta-Llama-
    3-8B-Instruct
    #huggingface model id
    #model_name_or_path: meta-llama/Meta-Llama-
    3-8B-Instruct

    adapter_name_or_path: /root/autodl-tmp/my-test/saves/llama3-8b/lora/docker-commnad-nlp/sft
    template: llama3
    export_dir: /root/autodl-tmp/my-test/saves/llama3-8b/lora/docker-commnad-nlp/export
    finetuning_type: lora
    export_size: 
    2
    export_device: gpu
    export_legacy_format: False
    合并命令,lora-export-docker-command.sh
    BIN_PATH=$(cd `dirname $0`; pwd)
    cd $BIN_PATH/
    pwd
    llamafactory-cli export conf/llama3_lora_export_docker_command.yaml

    posted @ 2024-07-08 18:44 paulwong 閱讀(128) | 評論 (0)編輯 收藏

    STABLE DIFFUSION(1) - CONTROLNET

    CONTROLNET是STABLE DIFFUSION中的一個插件,允許用戶指定某張圖片上的特征,然后將這些特征應用到新生成的圖片上。
    特征可以是圖片上某人物的姿勢,景深等。
    其中一些實用的CONTROL TYPE:
    1,LINER
    STABLE DIFFUSION實現過程,其實就是先生成樣圖的線稿圖,然后再上色。
    2,TITLE
    STABLE DIFFUSION會根據提供圖片的骨架,再生成新的內容
    3,SCRIBBLE
    通常用于產品工業設計,先畫出線稿,STABLE DIFFUSION會根據線稿,再根據提示詞內容生成圖片

    posted @ 2024-06-30 00:38 paulwong 閱讀(44) | 評論 (0)編輯 收藏

    STABLE DIFFUSION(3) - 面部修復和高清修復

    通常面部修復和高清修復要一起搭配使用才好使。

    posted @ 2024-06-30 00:04 paulwong 閱讀(84) | 評論 (0)編輯 收藏

    僅列出標題
    共115頁: 上一頁 1 2 3 4 5 6 7 8 9 下一頁 Last 
    主站蜘蛛池模板: 久久综合亚洲色HEZYO社区 | 国产亚洲精品免费视频播放| 国产在线19禁免费观看国产| 亚洲人成人网毛片在线播放| 无码少妇一区二区浪潮免费| 亚洲伦理中文字幕| 毛片高清视频在线看免费观看| 亚洲AV一二三区成人影片| 亚洲精品动漫免费二区| 一本天堂ⅴ无码亚洲道久久| 免费黄色大片网站| 美女视频黄.免费网址| 亚洲人成电影网站国产精品| 青柠影视在线观看免费高清| 久久亚洲免费视频| 永久看日本大片免费35分钟| 亚洲高清视频在线| 国产91久久久久久久免费| 久久国产一片免费观看| 亚洲av无码无在线观看红杏| 91九色视频无限观看免费| 亚洲日韩精品无码专区加勒比| 国产国产成年年人免费看片| 国产成人无码精品久久久久免费| 亚洲国产高清在线| 天天摸天天碰成人免费视频| 美女免费精品高清毛片在线视| 亚洲中久无码永久在线观看同| 久久aⅴ免费观看| 亚洲а∨天堂久久精品9966| 全黄a免费一级毛片人人爱| 人妻免费一区二区三区最新| 亚洲制服丝袜在线播放| 四虎永久在线免费观看| 国产成人免费视频| 亚洲sm另类一区二区三区| 狠狠亚洲婷婷综合色香五月排名| 1000部羞羞禁止免费观看视频| 妇女自拍偷自拍亚洲精品| 亚洲国产a∨无码中文777| 成人免费福利电影|