site stats
厉害,webllm借助WebGPU让Llama2在浏览器运行,70B的模型,在苹果M芯片64G内存下有6 tokens/s的速度(看截图底部)如果你要构建自己的基于浏览器的离线模型,可以使用-ai/web-llm 这个npm包。测试地址:
发布时间:
1
数据加载中
Markdown支持
评论加载中...
您可能感兴趣的: 更多