稳了,可以确定国行版 iPhone 能顺利用上 Apple Intelligence
原因可参考视频里这段关于 RAG 和私有云最清新脱俗的讲解,再加上后面 gpt-4o 的用户体验——Apple Intelligence 不是端到端的,而是先用本地客户端的模型(Edge AI)理解用户的输入(解析成固定格式的结构化数据),判断属于哪种类型的任务,然后结合在本地客户端 RAG 得到的信息重新构建提示词,分发给不同的对应模型,优先级是 Edge AI > 私有云上的自有模型 > chatgpt 4o 等第三方模型(当然也包括国产大模型,对于这些非端到端多模态、不完全依赖大模型自身知识的任务,国产大模型的实用性是不存在问题的,豆包目前的语音问答就是依赖网络搜索,最近旅行场景下做了一些测试,效果挺好的,结合国内网络环境中的工程优化,体验经常比 chatgpt 4o 更好)