Opera成為第一個提供本地法學(xué)碩士訪問權(quán)限的網(wǎng)絡(luò)瀏覽器
Opera是流行的網(wǎng)絡(luò)瀏覽器之一,它宣布能夠下載和使用本地LLM(大語言模型)。這項新功能目前正在向OperaOne的開發(fā)人員推出。因此,運行開發(fā)者版本的用戶現(xiàn)在可以選擇和使用50多個系列的150多個型號。
開發(fā)者流中的OperaOne用戶正在獲得重大升級。最新更新允許用戶在本地下載和使用LLM。目前,可供選擇的模型有50多個系列,有超過150種不同的模型可供用戶下載并在計算機上運行。
一些著名的模型包括Google的Gem、Meta的LLaMA、MistralAI的Mixtral和LMSYS的Vicuna。這項新功能是作為AI功能下降計劃的一部分推出的。也就是說,用戶運行OperaOne開發(fā)者版本來測試更新。
即便如此,Opera仍然成為第一個允許用戶下載和使用本地LLM的網(wǎng)絡(luò)瀏覽器。對于那些想知道的人來說,在本地運行這些模型通??梢蕴峁┩耆刂?、減少延遲,最重要的是,可以提供更好的隱私。但您的計算機確實需要滿足一些要求。
例如,網(wǎng)絡(luò)瀏覽器公司表示,本地LLM的每個變體都需要超過2GB的存儲空間。至于運行模型,Opera表示它使用Olla開源框架。這也意味著瀏覽器中當(dāng)前可用的所有模型都是Olla庫的子集。好的方面是Opera計劃包含其他來源的模型。
并非所有用戶都會從此更新中受益。然而,對于那些想要在自己的機器上本地測試不同的法學(xué)碩士的人來說,這是個好消息。如果您不想下載模型,可以使用名為Aria的內(nèi)置AI助手。自去年5月以來,它已在瀏覽器的常規(guī)版本中推出。
標簽: