购物中心用于大型语言模型(LLM)来运行数据的NLP进程。此软件包可用于R和Python。版本0.2.0分别发布给Cran和Pypi。
在R中,您可以使用以下方式安装最新版本
在伯森(Bethon),有:
此版本扩展了您可以使用的LLM提供商的数量 mall
。同样,在Python中,通过链椎骨运行NLP操作的选项,在R中为“并行”请求提供了支持。
宣布此包装的新作弊纸也非常令人兴奋。它可以打印(PDF)和HTML格式!
更多LLM服务提供商
此版本中最突出的事情是能够使用OpenAI,Gemini和Anthropic等外部LLM提供商。而不是为每个提供商编写集成,而是 mall
专门的集成软件包用于作为调解人。
在p中, mall
使用 ellmer
与各种LLM提供商集成的软件包。要达到新功能,请首先创建聊天连接,然后通过此连接 llm_use()
。以下是交货和OpenAI使用的一个示例:
install.packages("ellmer")
library(mall)
library(ellmer)
chat <- chat_openai()
#> Using model = "gpt-4.1".
llm_use(chat, .cache = "_my_cache")
#>
#> ── mall session object
#> Backend: ellmerLLM session: model:gpt-4.1R session: cache_folder:_my_cache
在伯森, mall
使用 chatlas
作为与LLM的集成点。 chatlas
它还与许多LLM提供商集成在一起。首先,使用 chatlas
聊天类别,然后将其传递到Polars数据框架
工作:
pip install chatlas
import mall
from chatlas import ChatOpenAI
chat = ChatOpenAI()
data = mall.MallData
reviews = data.reviews
reviews.llm.use(chat)
#> {'backend': 'chatlas', 'chat':
#> , '_cache': '_mall_cache'}
沟通 mall
对于LLM外部提供商,他们提供了成本研究。大多数服务提供商都会收到其应用程序编程接口的使用,因此有可能成为一张大桌子,带有长文本,一个昂贵的过程。
并行请求(P)
一项新功能 ellmer
0.3.0可以并行访问多个索赔,而不是序列。这使得处理桌子更快,甚至更便宜。如果提供商支持此功能, ellmer
能够从中受益
parallel_chat()
工作。双子座和Openai支持该功能。
在新版本的 mall
,与 ellmer
它是专门编写的,以利用并行聊天。为了减少每个索赔的规模,重写了NLP指令的内部部分。此外,已重写临时存储系统以支持双订单。
NLP操作没有表
自初始版本以来 mall
RS执行NLP操作的能力已经提供了链向量,换句话说,无需时间表。从新版本开始, mall
它还可以在Peton版本中提供此作业本身。
mall
可以解决A中的向量 list
目标。供新准备 LLMVec
带有Ollama模型的类对象或 chatlas
Chat
对象,然后访问与Porars扩展相同的NLP功能。
# Initialize a Chat object
from chatlas import ChatOllama
chat = ChatOllama(model = "llama3.2")
# Pass it to a new LLMVec
from mall import LLMVec
llm = LLMVec(chat)
访问新的llmvec对象上的作业,然后传递要解决的文本。
llm.sentiment(["I am happy", "I am sad"])
#> ['positive', 'negative']
llm.translate(["Este es el mejor dia!"], "english")
#> ['This is the best day!']
有关更多信息,请访问参考页面:llmvec
新作弊纸
现已可以使用新的Poitit官方备忘录:使用R/Python中的LLMS进行自然处理。它的平均优势是页面的一侧是针对R版本的,另一侧是从页面到Python版本。

网页版本也可以在此处的官方作弊网站上找到。它利用了TAB功能,使您可以在R和Python的解释和示例之间进行选择。
