向6G的转型,早已不是遥远的理论课题;由于蜂窝通信标准必须持续迭代的基本需求,这场转型已经是板上钉钉的商业现实。5G的渗透率目前已经突破75%,并有望在几年内达到95%。一个明显趋势是,尽管移动流量呈爆炸式增长,人们依然重视通话质量和数据吞吐量的持续改善。

然而,无线生态系统预计,由于AI内容的加速增长、卫星通信 (SATCOM) 与蜂窝网络深度融合,以及物理AI的兴起,即便是当前的扩容速度也很快就会捉襟见肘。面对数据通信需求呈指数级增长的态势,6G就是业界为此制定的应对之策。
2030年倒计时:为何2026年是关键的起跑线
要理解这种紧迫性,就必须审视蜂窝通信技术每十年一代的演进周期。从历史经验看,从制定一个标准到把它的各项需求融入一个能实际运转的体系,差不多要花五年。虽然业内预期6G会在2030年左右开始商业部署,但从节点倒推的时间表显示,留给产品开发者的时间其实非常紧张。最迟到2029年,硬件必须准备好进行合规性测试,这也就意味着,各项组件技术必须在2028年完成最终定型。
因此,底层嵌入式系统必须在2027年搭建完毕,这就要求架构的定义工作必须早在2026年就启动。举个行业实例,高通公司CEO最近在骁龙峰会上透露,支持6G的设备最早可能在2028年出现并用于试验,这使得2028年奥运会成为理想的技术展示舞台。
解锁“黄金频段”:FR3与频谱的商业价值
除了架构上的转变,6G还引入了频率范围3(FR3)频谱,横跨7.125 GHz到24.25 GHz。FR3常被称为“6G黄金频段”,它在低频段的广阔覆盖范围和毫米波的海量容量之间实现了完美平衡。
这一频谱有望成为一个主要的业务增长驱动力,实现提高10倍的数据速率目标(最高可达200 Gbps),并支持“大规模MIMO演进”,从而应对2030年前预计4倍的流量增长(据GSMA Intelligence报告,这一数字将超过5.4 ZB)。
可持续网络
可持续性是6G的核心支柱之一,网络运营商都在设法降低运营成本,因为约25%的运营支出来自电力消耗。6G从“始终在线”的理念转向“智能在线”,力求提高30-50%的电力使用效率。关键技术包括:
增强型深度休眠模式:当没有活跃用户时,使基站几乎不耗电,同时减少周期性信令(目前的5G标准强制要求高频次的周期性信令,这在实际中会让大量射频和功放组件始终处于激活状态)。
AI驱动的波束成形:利用AI将信号精确地引导到用户,避免传统的粗放式广播所带来的能量损耗。
AI驱动的资源管理:在高层协议中运用AI,实现对无线资源的高效管理。
AI原生革命:将智能引入空中接口
6G的重要转变之一,就是朝着AI原生的空中接口迈进。不同于5G那种固定不变的数学模型,6G使用深度学习来动态调整信号处理模块。这实现了“自适应波形”,能够根据周围环境的变化实时调整调制方式。
这也推动了通感一体技术(ISAC),即通过射频反射提供精确的空间感知,使网络可以根据用户的移动主动调整波束成形。
协同挑战:管理双向AI
这一转变引出了一个棘手的问题:发射端(基站)和接收端(设备)如何协同各自的智能。与传统算法不同,AI组件必须通过AI生命周期管理(LCM)机制来实现同步。业界正在权衡两类方案:单端模型(仅在设备端进行优化)与双端架构(这类架构对于CSI压缩等关键任务不可或缺)。
在双端架构下,设备充当神经编码器,基站则充当解码器;二者必须在一定程度上形成成对的协同关系。协同的程度仍在研究之中,因为当前可选的方案非常有限。这些方案的示例包括完全匹配的神经网络配对,或者在神经网络架构层面保持独立、但用同样的数据集进行训练。
这在协议层面提出了关键问题:网络应该使用基于模型ID的选择(激活预加载模型),还是模型传输(通过空中接口推送新的神经权重),亦或是直接进行权重传输?
可编程智能:为何DSP是首选路径
鉴于3GPP标准尚未定型,通过可编程能力换取设计灵活性,这一需求以往任何时候都更加迫切。基于硬连线逻辑开发6G风险很高,因为规范调整可能导致硅片失效。正因如此,数字信号处理器(DSP)成为更受青睐的架构。现代DSP非常适合AI原生物理层:它们拥有矩阵运算所需的海量MAC单元,同时在神经网络所需的向量处理上也表现出极高的效率。
主流的技术厂商还提供了专用的AI指令集架构(ISA),用于加速神经网络的激活函数运算。一个由AI原生DSP驱动的全可编程调制解调器是一种“稳妥的赌注”,它让开发者既能适应6G标准逐渐定型的过程,又能保持引领市场所需的性能。