[ChatGPT] 如何利用Meta開源的Llama2模型,打造屬於自己的ChatGPT

  • 大數學堂
  • July 23, 2023, 12:10 p.m.
[ChatGPT] 如何利用Meta開源的Llama2模型,打造屬於自己的ChatGPT

ChatGPT是一個強大的語言模型,不僅可以寫信、摘要文章、翻譯,還能協助寫程式。然而,與ChatGPT對話時也引發了擔憂,擔心機密或敏感資料可能因此外流。所幸,Meta公司推出了開源的Llama2模型,可以在本地部署並在離線環境下使用。這個模型減少了與外部服務的數據傳輸,提高了安全性。本課程介紹了在Colab上使用Llama2模型的示範,包括下載、使用transformers套件載入模型以及生成對話結果。

開始上課

[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

  • 大數學堂
  • July 31, 2023, 9 p.m.
[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

LLaMA-Efficient-Tuning 是一個簡易的大型語言模型微調框架,能夠進行PEFT並支援訓練多種大型語言模型,如LlaMA2、BLOOM、Falcon 和 Baichuan。微調步驟包括安裝 LLaMA-Efficient-Tuning、調整 dataset_info.json 加入自己的資料集描述、導入自己的監督式微調資料集、以及使用內建指令進行監督式微調和預測生成。有了Llama2,再搭配自己的資料集,相信在不久的將來,大家都可以使用LLaMA-Efficient-Tuning快速有效地微調Llama2模型以適應特定需求。

開始上課