[AI人工智慧] 快速玩轉AI:使用LM Studio在個人電腦上部署Google新開源大型語言模型Gemma

  • 大數學堂
  • Feb. 25, 2024, 5 p.m.
[AI人工智慧] 快速玩轉AI:使用LM Studio在個人電腦上部署Google新開源大型語言模型Gemma

Google最近發布了新的開源大型語言模型Gemma,似乎是為了與Meta的Llama2與OpenAI展開競爭。Google 此次提供了2B和7B兩種模型,目的在應用於較低配置的運行環境上離線使用,彰顯了Google想在邊緣AI領域獨佔鰲頭的野心。以下我們將一起探討如何在個人電腦上快速利用LM Studio 部署Gemma 2B,讓大家親身體驗這款先進語言模型的卓越性能吧!

開始上課

[AI人工智慧] 如何用OpenAI API 快速搭建一個類似 NotebookLM 的 Podcast 功能 ?

  • 大數學堂
  • Sept. 17, 2024, 4:30 p.m.
[AI人工智慧] 如何用OpenAI API 快速搭建一個類似 NotebookLM 的 Podcast 功能 ?

今天我們要探索一個超酷的主題:如何打造你自己的中文Podcast!🎙️ 最近,NotebookLM推出了一個令人興奮的新功能——將筆記轉換成Podcast。聽起來很棒,對吧?但是,它目前只支持英文,而且操作不太直觀。別擔心!我們有更好的解決方案。 😉 在本教程中,我們將利用OpenAI的強大API,向你展示如何輕鬆創建引人入勝的中文Podcast。

開始上課

[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

  • 大數學堂
  • July 31, 2023, 9 p.m.
[ChatGPT] 個人化Llama2 !如何在Colab中運用自己的資料集微調 Llama2 模型

LLaMA-Efficient-Tuning 是一個簡易的大型語言模型微調框架,能夠進行PEFT並支援訓練多種大型語言模型,如LlaMA2、BLOOM、Falcon 和 Baichuan。微調步驟包括安裝 LLaMA-Efficient-Tuning、調整 dataset_info.json 加入自己的資料集描述、導入自己的監督式微調資料集、以及使用內建指令進行監督式微調和預測生成。有了Llama2,再搭配自己的資料集,相信在不久的將來,大家都可以使用LLaMA-Efficient-Tuning快速有效地微調Llama2模型以適應特定需求。

開始上課