CacheFly 首席技术官兼创始人Matt Levine 指出,随着流媒体传输的“最后一英里”变得越来越可预测,致力于提升直播活动传输可靠性的流媒体专业人士的关注点正转向“中间一英里”。
在2026年流媒体连接大会(Streaming Media Connect 2026)上,Levine 与 YouTube OTT 直播工程负责人 Sean McCarthy 共同探讨了构成中间环节的工作流与架构要素,以及如何最有效地应对从源到边缘的中间环节变化,并设计可扩展的工作流程。此次对话由 SVTA 领域专家 Bhavesh Upadhyaya 主持。

视频地址:https://youtu.be/sD2c1piuQ7c
中间里程差异
Upadhyaya 指出,尽管端到端工作流的某些方面已得到解决,但在内容摄取过程中仍会出现一些问题。他询问 Levine,他认为问题源于何处,以及 CacheFly 的客户正在寻求哪些解决方案。
Levine 回答道:“我不想过分强调大规模交付的便捷性和简易性,但我发现自己越来越频繁地强调CDN的概念。”能否更好地交付对象……或许并非如今最常见的问题。因此,我们发现自己投入最多精力的工作,尤其是在直播活动中,是确保中间环节/第一环节的可靠性和弹性,确保流能够顺利进入所有边缘节点的内存。他指出,虽然最终用户体验相对可预测,但中间环节却变化很大。因此,直播活动的顺利和糟糕情况往往更多地体现在从画面到达摄像机镜头到最终到达 CDN 边缘的整个工作流程中。”
这时,CacheFly及其客户便会着重关注弹性,“无论是更积极的连接方式,例如主动备份,还是建立交叉连接来处理事件,然后通过传输进行备份。” Levine 分享道,CacheFly的一些客户“正在接受测试,进行并行获取,在从源服务器获取数据方面,先成功者胜出。” 该公司“开始将缓存未命中视为首要任务,并像如今将RAM中的对象视为首要任务一样来处理它。”
规模之争
Upadhyaya邀请 McCarthy 分享他的看法,并表示他“也一直在研究类似的事情,将其作为行业标准,例如流媒体的摄取和接入等等”。
McCarthy 证实:“我认为这绝对很重要,就像 Levine 说的那样,优化最远端缓存占用空间,并尽可能快地从内存中传输数据。”他认为这是“与实时源站优化相关的连接”。
McCarthy 继续说道,YouTube 也意识到了这一点,但 YouTube 拥有并运营着自己的分发网络,因此“它的架构与将源站连接到多个 CDN 供应商的情况略有不同。我们不一定面临连接多个 CDN 供应商的问题,但我们确实面临着另一个难题,那就是如何将内容导入到我们的实时源站。所以这是一个内容获取方面的挑战。”
McCarthy 解释说,从历史上看,YouTube 的做法是“与其顶级付费广播客户合作,从他们的数据中心到我们的数据中心建立光纤连接,或者在他们的数据中心进行托管,以便交叉连接并尽快将这些数据上传到我们的网络,并拥有专用光纤——这种方案可靠、有弹性等等,而且速度很快,但对于大量内容合作伙伴来说,这种方式无法扩展。”
McCarthy 的观点正如他所描述的那样:“如果我们整个行业已经投入如此多的精力来创建互联网原生格式,无论是SRT 格式还是其他格式。”或者……通过 QUIC 进行媒体传播在具备一定弹性的情况下,它比多播UDP更容易操作。“在这样的环境下,我们如何才能充分利用软件网络协议的优势,真正实现普及应用,从而更好地扩展我们的内容摄取平台?”他补充说,性能是关键所在。“所以我们仍然需要与内容合作伙伴逐一沟通,验证性能,并验证将他们从这些传统的点对点光纤系统迁移过来的技术。”
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/jishu/yinshipin/65545.html