发布会现场,清程极智联合20余家大模型API服务商,共同启动《智能、可持续大模型 API 服务生态计划》。该计划未来将围绕模型服务能力评估、评测方法论建设、行业交流与成果发布等方向持续推进,推动模型 API ...
清程极智联合创始人、产品副总裁师天麾透露,在可用性方面,AI Ping的服务路由功能可以将API服务调用成功率提升到99.99%以上,在性价比方面,开发者使用服务路由功能,相比于直接调用模型,API的平均成本可以降低37%、延迟降低超20%、吞吐量提升超90%。
总的来说,AI Ping平台的推出为人工智能行业注入了新的活力,也为企业带来了更大的发展机遇。在未来,随着技术的不断进步与应用场景的不断扩展,清程极智必将继续引领AI基础设施的创新与发展,为推动整个行业的智能化进程贡献更多的力量。 返回搜狐,查看更多 ...
环球网科技 on MSN
大模型应用迈入规模化运营新阶段 清程AI Ping构建API服务新生态
来自政府部门、科研机构、云服务平台、大模型服务商及应用企业的多方代表,围绕大模型 API 服务的评测体系、工程化使用与生态协同展开深入交流。
中证报中证网讯(记者 孟培嘉)清程极智1月29日发布AI Ping平台。据介绍,AI Ping聚焦大模型服务使用环节,围绕模型服务评测、统一接入与智能路由等核心能力,构建起覆盖“评测—接入—路由—优化”的完整链路。平台以真实业务场景为导向,对不同厂商、不同模型API的延迟、稳定性、吞吐与性价比等关键指标进行长期、持续观测。目前,AI ...
1月29日,清程极智在北京举办“Ping The Future:智能跃迁,路由新境”产品发布会,正式推出AI Ping平台。该平台定位于大模型API服务的评测、统一接入与智能路由,旨在应对当前大模型应用从“可用”向“稳定、高效、规模化运行”演进过程中面临的核心挑战。
2026 年 1 月 27 日,权威 AI 性能测试平台 AI Ping 发布最新测试数据显示:蓝耘元生代 MaaS 平台 DeepSeek-v3.2 模型以 217.48 tokens/s 的吞吐表现和 0.38s 的超低延迟,在参评的诸多模型服务商中登顶榜首,较第二名实现近两倍领先;GLM-4.7 模型同样以 179.44 tokens/s 吞吐的成绩稳居第一。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果