1
Moyyyyyyyyyyye 263 天前
大批量铺开之后成本如何 hold 住呀👀
|
2
yadongxie OP @Moyyyyyyyyyyye 背后是开源模型 Mixtral 8x7b ,比 OpenAI 要便宜非常多
|
3
Moyyyyyyyyyyye 263 天前
@yadongxie 牛
|
4
skyqiao 263 天前
沉迷 arc 很久了,不能用太可惜了
|
5
imwangpan 263 天前
谢谢分享。简单使用了一下,感觉不错。
|
6
kyoka2k 263 天前
这个原理是什么呀,我尝试自己本地部署的一些服务上的一些网页,好像就没有效果。是需要把 url 发给远程去访问吗?
|
7
kyoka2k 263 天前
奥,好像是个别不太行
|
8
yadongxie OP |
9
Foryou920 263 天前
这个好,感谢分享
后续有计划通过 API 支持 GPT/Claude 这类商用 LLM 吗? |
10
wyman222 262 天前
大赞,提个建议除了 youtube ,还能支持个 bilibili 就最好了,最近用 bilibli 学习的不少,身边也不少人都在用 bili
|
12
Vanderick 261 天前
名字的灵感是:Embeddings from Language Models (ELMo)吗
|
13
ColoThor 146 天前
能适配火狐吗
|