面试简答

一、通信原理

1.1 绪论

1.1.1 为什么带宽可以衡量一个模拟通信系统的有效性?

在模拟通信系统中,有效性一般是衡量系统对频带的使用效率, 而带宽的大小直接决定了:在一个给定的总频率空间中,如果一个信号占用的带宽越少,那能够容纳的信道数量就越多。这就意味着系统的资源转换效率就越高,因此带宽可以成为衡量一个模拟通信系统有效性的核心标尺。

  • 模拟通信系统中有效性和可靠性是一对矛盾体吗?

在大多数情况下都是一对矛盾体,就比如AM和FM,后者的频率带宽远大于前者,但是却有非常好的抗噪声能力。FM巧妙地运用巨大的频率空间来换取了极强的抗噪声能力,使其可靠性远高于AM。

  • 为什么在数字通信系统中,衡量有效性的核心指标变成了传输速率(如比特率)而不是单纯看带宽?

虽然物理的底座依旧是带宽,但是由于在数字系统中信息被抽象成为离散的状态,我们可以使用不同的调制方法,往单位赫兹这一绝对带宽中塞入不同数量的数字比特。因此比特率更能够衡量数字通信系统的有效性。

  • 单边带(SSB)调制既然带宽减半、有效性极高,为什么早期的商业广播不全用它?

虽然SSB有效性很高,但是其硬件实现代价非常高昂——其在发送端需要极其陡峭的滤波器进行切割,在接收端需要复杂的相干解调和载波同步。早期的商业广播为了让所有人都能买得起廉价的收音机,用浪费大量频谱带宽的代价来换取硬件成本的机制压缩。

1.1.2 什么是基带传输,什么是频带传输?

基带传输就是将未经调制的模拟信号或者数字信号直接送到线路中进行传输。适合小范围的数据传输。
频带传输就是将信号经过调制后,将低频的基带信号“搭载”在高频的载波上。合适远距离的天线传输。

  • 为什么基带信号不能直接用天线发射到空气中进行无线通信?

根据电磁辐射原理,为了让天线高效地发送电磁波,天线的物理尺寸必须和信号的波长处于同一数量级(一般为1/4波长)。基带信号的频率极低,波长极长,难以实现。

  • 家里用的千兆以太网网线(网线直连计算机)属于基带还是频带传输?

属于典型的基带传输,是根据原始电路进行信号传输的。因为这种有线信道具有优秀低通并且环境封闭,工程师可以在极短的传输距离内用原始的电压跳变来暴力拉满数据的吞吐率。

1.1.3 简要说说通信系统模型,并对比数字通信系统的优缺点。

一般模型:信源–发送设备–信道–接收设备–信宿
模拟通信:模拟信源–调制器–信道–解调器–信宿
数字通信:信源–信源编码–加密–信道编码–数字调制–信道–数字解调–信道译码–解密–信源译码–信宿

数字通信系统的优点:抗干扰能力强,便于使用现代数字信号处理技术对数字信息进行处理变换存储,传输差错控制,易于集成,易于加密处理
数字通信系统的缺点:需要较大带宽,对同步要求高且系统设备复杂

  • 在数字通信模型中,模数转换(A/D)和数模转换(D/A)具体发生在哪一个模块中?

主要发生在信源编码和信源译码模块中。

  • 为什么说数字通信系统比模拟通信系统更容易实现保密通信?

模拟通信系统的保密只能用简单的频段倒置或者隐蔽,一旦信号被截获,很容易被相同的物理线路破解。而数字系统是用抽象的0和1来传输信息,工程师可以在信道译码前加入复杂的密码学算法,即使信号被截获,也很难被破解。

  • 既然数字通信优点这么多,模拟通信系统在今天已经被彻底淘汰了吗?

并没有,只是退居到了对成本和功耗极度敏感,及对通信质量要求不高的地方。如老式的AM/FM广播,部分简易的航空语音通信系统以及极其廉价的模拟对讲机

1.1.4 通信原理考虑的主要问题是什么?

信息如何被携带:信源与调制——寻找能够高效携带信息的信号形式。
信号如何传输:有效性——寻找适合于特定信号,并且能够充分利用信道资源的信号波形。(多径信道用OFDM,深空信道用MFSK)
传输如何抗干扰:可靠性——采取有效抑制噪声与其他干扰以保障传输质量的措施。(信道编码、扩频技术)
硬件如何实现:可行性——采用可行且尽量简单的方法。(OFDM中,对于矩阵乘法不用LFSR,而是用FFT)
成本如何控制:经济性——考虑系统的成本。

1.1.5 数字通信系统和模拟通信系统的区别是什么?

模拟通信系统是使用连续变化的模拟信号来传输信息的系统。
数字通信系统是使用离散的数字信号0和1来传输信息的系统。

数字通信系统与模拟通信系统相对比,有着许多突出的优点,如下所述:
(1) 数字信号状态有限,容易再生。因而,利用反复转发可以避免噪声积累,保持高的完好度。在长距离传输中,借助中继再生使得信号质量不受距离的限制。
(2) 数字信号易于分辨,即使在强噪声下,仍可能出现低误码率的传输。
(3) 数字电路成本低,可大规模集成,而且稳定性好,易于调试。
(4) 数字信号易于进行差错控制,可以实施更多的传输可靠性措施。
(5) 数字信号易于压缩与加密处理。
(6) 不同种类的信源数据,如语音、图片、文字、软件等,易于形成统一的传输序列,共用数字通信系统。
(7) 便于计算机与网络通信。

不过,数字通信也有下面的缺点:
(1) 一般而言,传输数字信号比传输模拟信号需要更多的带宽。
(2) 数字通信系统需要更复杂的同步系统。

1.1.6 简要介绍一下数字通信系统的结构

image-20260308212915011

1.2 基础知识

1.2.1 为什么通信必须用随机过程来描述?

从信息论的底层逻辑来说,通信的本质就是在传输“未知”的消息,而确定的信号是不能携带任何信息的。所以,为了承载有效的信息,在通信过程中,发送端发出的信号序列对于接收端而言,必须是随机的、不可预测的。

  • 即然信号是随机的,那我们如何预测它的带宽

虽然瞬时波形不可以预测,但是平稳随机过程的自相关函数是确定的。我们可以通过维纳辛钦定理,将自相关函数通过傅立叶变换得到功率谱密度,功率谱在频率上占用的范围就定义了该信号的统计带宽。

  • 什么是平稳随机过程,它在通信中有何意义?

平稳随机过程指的是其统计特性(如均值、自相关)不随着时间起点变化而变化。它简化了数学模型,使得我们能够使用一套不随着时间漂移的固定参数来描述整个通信系统的平均性能。

  • 各态历经性在描述信号时起到什么作用?

它保证了我们在观察一段足够长的单次实验的时间平均能够代替无数次实验的统计平均。这就意味着工程师只需要测量一个样本的长时间平均性,就能够推断出通信系统整体的统计规律。

1.2.2 为什么平稳性在通信中至关重要?

平稳性决定了研究通信随机过程中是否可以分析。因为在现实中,虽然信号的瞬时值随机波动,但是如果该过程满足平稳性,即其统计特性不随着时间起点的不同而发生变化,那我们就可以从宏观上提取到该信号的一套恒定规律。
平稳性决定了我们是否可以使用维纳辛钦定理,通过计算自相关函数,再通过傅立叶变换得到功率谱密度,我们可以根据功率谱密度来设计发射机的带宽、接收机的滤波参数、信道的分配策略。
平稳性是各态历经性的先决条件,有了平稳性,我们可以通过捕捉一段时间的波形从而观测到该信号在所有情况下的可能的集合,这样我们就可以通过对单个样本计算其时间平均来代替复杂的统计平均。

  • 宽平稳和严平稳有什么区别?

严平稳要求所有的阶的统计特性都不随时间移动,但是宽平稳只要求均值为常数并且自相关函数只和时间间隔有关。通信工程中,信号只需要满足宽平稳就能进行大部分的功率谱和信噪比分析

  • 如果信号是非平稳的,应该如何分析?

常规方法不能使用,可以使用时频分析,例如短时傅里叶变换(STFT)或小波变换,来观察信号的统计特性是如何随时间演变的。

  • 为什么随机过程“均值为常数”对电路非常重要?

均值在物理上对应直流电流。如果均值常数是已知的,那么工程师就可以使用隔直电容准确去除直流偏移,或者利用该分量进行自动增益控制AGC,从而保证后续放大电路不进入饱和区。

1.2.3 现在无线通信的实际应用情况中,几乎不存在AWGN信道,那么我们研究通信系统在 AWGN信道下的性能的意义是什么呢?

AWGN是通信系统中不可或缺的理想参考坐标系。通过研究在AWGN信道下的可靠性,工程师可以确定一个通信系统在理想情况下的最好表现,从而我们可以量化评估在加入复杂信道干扰后,系统性能究竟产生多少的功率代价。在这部分基础打牢后,我们后续在此基础上,对于复杂的环境,只需要加入其他余量或者补偿算法,而不需要将整个底层推翻架构重新设计。

  • 为什么热噪声被建模为“白”噪声?

在通信关注的频率范围内,热噪声的功率谱密度是平坦的,类似白光的光学频谱特性。意味着它在所有频段上都有相同的破坏力,使得信噪比计算不依赖于具体的中心频率。

  • 除了AWGN,移动通信中的复杂信道有哪些?

瑞丽衰落模型:模拟没有直射路径的密集城区环境,如城市。
莱斯衰落模型:模拟存在强直射路径(LOS)的开阔环境。
二者均比 AWGN 更贴近真实的无线电波传播特性。

  • 在 AWGN 分析中,为什么 Eb/N0E_b/N_0 比 SNR 更常用?

因为 Eb/N0E_b/N_0(每比特能量与噪声功率谱密度之比)是一个归一化指标,它消除了带宽和传输速率的影响。这使得我们可以公平地比较不同速率、不同带宽效率的系统在抗噪声性能上的优劣。

1.2.4 为什么要研究预包络和复包络?

数学分析:研究预包络和复包络是为了将高频带通信号转化为低频基带等效模型。通过引入希尔伯特变换得到预包络,将信号的负频率部分消除,而复包络进一步移除了载波频率的影响。这种转换使得原本震荡剧烈的带通系统的分析,简化成了对低频复包络的线性处理,极大地降低了系统仿真和理论推导的维度。

硬件分析:研究复包络能够让我们清晰地观察到信号在传输过程中产生的幅度畸变和相位偏移,从而为载波同步、均衡器设计以及相位补偿提供最直观的物理参数;

系统评估:预包络和复包络提供了一种与载频无关的分析手段,通过这种分析方法,我们可以定义统一的等效低通特性来描述放大器的非线性失真、信道的衰落特性以及滤波器的群时延。这不仅提高了计算效率,也使得不同频段、不同带宽的通信协议可以在同一个复基带框架下进行公平的性能对比。

  • 希尔伯特变换在构造预包络时起到什么作用?

希尔伯特变换本质上是一个 90° 移相器。通过它,我们可以产生一个单边光谱的解析信号(即预包络)。这样做的物理意义在于消除了频谱的对称冗余,使得信号在复平面上的旋转方向变得唯一且可追踪。

  • 为什么复包络通常被认为是“低通”信号?

复包络是通过将预包络的频谱向左平移 fcf_c(载频)得到的。这一操作将能量中心从高频搬移到了零频率附近。因此,复包络不再包含高频载波的快速振荡,只保留了信息调制的缓慢变化趋势,符合低通信号的特征。

  • 带通信号的功率谱密度实际上就是其复包络功率谱密度的频移版本。研究复包络的功率谱可以让我们避开高频载波,直接观察调制脉冲的形状和旁瓣特性。

1.2.5 为什么非要将信号写成同相分量与正交分量相加的形式?

数学分析:在复基带理论中,一个复信号 m(t)m(t) 包含了幅度与相位。通过欧拉公式展开,这个复信号可以完美地拆解为两个相互正交的实分量:同相分量 I(t)I(t) 对应实部,正交分量 Q(t)Q(t) 对应虚部。这种表示法允许我们利用相位相差 90° 的两个正交载波在同一频段内同时传输两路独立的信息,而不会产生相互干扰,这正是 QAM 或 PSK 等现代高效调制技术的底层物理架构。

硬件分析:I/Q 分解极大降低了发射机与接收机的复杂度。如果直接调节载波的振幅和相位(极坐标方式),硬件需要极高性能的压控振荡器和线性放大器,这在高速切换时非常难以精确控制。而采用 I/Q 分解(直角坐标方式),我们只需要两个简单的乘法器和加法器,分别控制两路基带信号的幅度,再与正交载波相乘相加。种架构对电路的线性度要求相对较低。

系统分析:I/Q 形式是观察信号矢量演变的最直观工具。在复平面(星座图)上,I 分量决定了点的横坐标,Q 分量决定了纵坐标。通过这种分解,我们可以独立地分析信道对信号造成的幅度衰减与相位旋转。

  • 为什么 I 路和 Q 路信号相加后不会产生干扰?

这是因为 cos(ωt)\cos(\omega t)sin(ωt)\sin(\omega t) 在一个周期内是相互正交的。在接收端,当我们用本地 cos(ωt)\cos(\omega t) 进行相干解调时,Q 路信号由于与本地载波正交,积分后的均值为零,从而被完美消除,保证了 I 路信息的独立提取。

  • I/Q 不平衡(I/Q Imbalance)会对通信造成什么影响?

如果 I/Q 两路的增益不一致或相位差不是严格的 90°,就会导致星座图发生偏移或扭曲。物理上,这表现为两路信息产生了串扰,增加了误码率,通常需要通过数字信号处理算法在接收端进行专门的补偿。

1.2.6 如何理解这句话:经过严格的理论推导,对带通信号在高频段进行处理,等同于将信号和系统的冲激响应都用复包络表示出来,然后在低频段进行相同的处理?

从线性时不变系统(LTI)的卷积特性来看,经过数学推导,带通信号和带通系统的卷积,严格等于在去除载波后,两者的复包络在时域进行的卷积。

从信号分析的角度来看,这种映射本质上是利用了信号能量的局域性特征。由于带通信号的带宽远小于其载波频率,信号的有效信息完全由其复包络的幅度与相位演变决定,而非载波本身的快速振荡。将系统映射到复基带,实际上是剔除了载波这一无信息的“背景背景”,将复杂的带通干涉问题转化为简单的复数向量运算。

从正交调制与解调(I/Q 架构)的硬件实现来看,接收机通过下变频器将高频信号搬移至零频,在低频段进行的信号处理,正是在对复包络执行“相同的处理”。这种理论与实践的高度统一,使得工程师可以在低频数字电路中完成所有复杂的数学运算,而其结果在物理上等同于对高频电磁波进行了精确的操控,

  • 为什么在等效基带模型中,系统冲激响应的复包络要乘以 1/2?

在频域中,带通系统的频谱由正负两个对称谱点组成。当我们通过希尔伯特变换构造预包络并移动到零频时,为了保持能量守恒或增益一致,通常需要引入一个 1/2 的修正因子(取决于预包络的具体定义),以确保基带模型的输出功率与实际带通系统的输出功率匹配。

  • 复基带等效模型在处理非线性系统时还成立吗?

不完全成立。等效模型主要建立在线性叠加原理之上。如果系统存在严重的非线性(如功率放大器的饱和失真),简单的复包络卷积就不再适用。此时需要引入更复杂的Volterra级数或基于复包络的非线性映射模型来描述信号产生的谐波和交调干扰。

1.2.7 随机信号的自相关函数的傅立叶变换是什么,这个关系叫什么?

是该信号的功率谱密度PSD。随机信号的自相关函数及其功率谱是傅立叶变换和逆变换的关系,这就意味着,自相关函数描述了随机信号在时域上信号的值随时间推移的内在关联程度,而它的傅立叶变换则直接在频域上揭示了该信号的平均功率是如何随频率分布的。

这个定理叫做维纳辛钦定理。真正的随机信号在时间上是无限延展的,这就意味它的能量无限,不满足傅立叶变换的狄利克雷条件,而维纳辛钦定理巧妙地将视角从“研究信号的波形”转换为“波形的自相关函数”,因为随机信号的自相关函数的波形是随着时间迅速衰减并且可积的,从而在数学上完美跨越了随机信号无法直接进行频谱分析的理论鸿沟。

  • 自相关函数在时域上的衰减速度,反映了信号频域上的什么特征?

自相关函数的衰减速度与信号的频谱宽度成反比。如果自相关函数衰减极快(例如一个极其尖锐的冲击),说明信号只与极短时间内的自己相关,其内部变化极其剧烈且毫无规律,这在频域上对应着极宽的功率谱(如白噪声的平坦频谱);反之,如果衰减极其缓慢,说明信号变化平缓、可预测性强,其能量就会极其狭窄地集中在低频区域。

  • 维纳-辛钦定理是否适用于所有类型的随机信号?

仅适用于广义平稳(Wide-Sense Stationary, WSS)随机过程**。这意味着该随机信号的统计特性不能随时间剧烈突变:其均值必须是一个常数,且其自相关函数只能与时间差(延迟量 τ\tau)有关,而绝对不能与起始观察时间有关。对于非平稳随机信号,这一定理将不再适用,工程师必须转向更为复杂的时频分析工具(如小波变换)。

  • 在实际的通信接收机芯片中,我们是如何利用这一定理来估算信道噪声的?

我们永远无法获得无限长的时间样本来计算真正的数学期望,DSP(数字信号处理器)通常会先对有限长度的接收噪声样本进行采样,利用“时间平均”来近似“统计平均”,暴力估算出一个离散的自相关序列,然后再对这个序列执行快速傅里叶变换(FFT)。这种基于维纳-辛钦定理的间接算法,是现代通信设备评估信道质量和实时抗干扰的最核心底层逻辑。

1.2.8 高斯白噪声是什么?是功率信号还是能量信号?

高斯白噪声(Gaussian White Noise)是通信系统中最经典且最恶劣的理想噪声模型。
“高斯”一词严格界定了它的时域概率统计特性,意味着这种噪声在任意时刻的瞬时幅度值完全服从正态分布(高斯分布),即大多数时候噪声幅度在均值附近波动,但也有极小概率出现极其极端的电平尖峰。
而“白”一词则精确描述了它的频域能量分布形态,意味着它的功率谱密度在整个无限宽的频率轴上是一个常数。就像包含了所有可见光谱的白光一样,它包含了从零频到无穷高频的所有频率分量,且各个频率分量的能量完全绝对相等。

高斯白噪声是一个绝对的功率信号,而绝非能量信号。
由于高斯白噪声在时间上是无始无终、永远持续存在的,且其功率谱密度在无穷宽的频带上积分等于无穷大,它的总物理能量必然趋于无穷;但是,当我们在任何一段受限的物理带宽或有限的时间窗口内去测量它时,其平均功率总是表现为一个稳定的常数。
因此,在工程与数学分析中,我们常用功率谱密度和平均功率来衡量它。

  • 现实物理世界中存在真正的高斯白噪声吗?

是不存在的。因为要在从零到无穷大的所有频率上保持同等的能量,意味着这种信号的总发射功率必须是无穷大,这显然违背了宇宙的能量守恒定律。在实际工程中,只要一种内部热噪声的平坦频谱带宽远远大于我们通信系统的接收机物理带宽,我们就将其在系统内部极其合理地近似视为白噪声。

  • 什么是带限白噪声(Band-limited White Noise),它有什么物理意义?

理论上的无限宽带高斯白噪声穿过接收机前端的实际物理滤波器(如低通或带通滤波器)后,其频谱中超出系统带宽的高频部分会被强行切除。此时进入解调器的噪声被称为带限白噪声,它的总功率不再是致命的无穷大,而是变成了一个与滤波器带宽成正比的有限确定值,这正是通信系统能够计算出有限信噪比并正常工作的前提条件。

  • 为什么我们在理论推导和系统设计中,极其偏爱用高斯分布来模拟信道噪声?

源于概率论中极其伟大的中心极限定理。在真实的通信接收机中,天线感知到的总背景噪声往往是宇宙微波辐射、电路内部亿万个自由电子的无规则热运动以及无数杂乱空间电磁波的无穷叠加。中心极限定理严格证明了,大量极其微小且相互独立的随机物理事件之和,无论其各自原先是什么奇奇怪怪的分布,最终叠加后的宏观表象必然无限逼近于高斯分布,这赋予了高斯噪声模型无可捍卫的物理真实性。

1.2.9 什么是维纳-辛钦定理?它的存在有何意义?

维纳辛钦定理指的是:对于一个宽平稳的随机过程,它的自相关函数和功率谱密度是一对傅立叶变换。

通过这个定理,我们对于随机信号的分析,可以不再聚焦于其信号随时变化的瞬时波形,而是分析其稳定的统计平均,而宽平稳信号又允许我们通过计算其自相关函数,以时间平均等效统计平均,从而将时域上的统计相关性,完美映射到频域上的功率分布规律。

1.2.10 如何理解能量信号与功率信号、能量谱密度和功率谱密度;确知信号与随机信号、频谱密度和功率谱密度?

能量信号就是能量有限信号。如一个简单脉冲、指数衰减信号。
功率信号就是能量无限,功率有限信号。如周期正弦波、白噪声。
能量谱密度是描述能量信号在不同频率下的能量分布,是能量信号的频谱的平方。
功率谱密度是描述功率信号在不同频率下的功率分布,是确定性功率信号的频谱的平方,或者描述一个随机信号的功率分布。

确知信号是其取值在任何时间内是确定的,可以用带有t的函数来表示。
随机信号无法用具体函数表示,只能通过其统计特性来描述(均值、方差、自相关)。
频谱密度是确知信号的傅立叶变化,包含幅度和相位信息,它能够还原波形的细节。
功率谱密度只能描述功率的统计分布,丢失了相位信息,而是关注于能量在频率上的分布。

1.2.11 能量谱密度、功率谱密度与频谱有什么关系?

频谱适用于能量信号和确定性功率信号,即确知信号。
能量谱密度是频谱的平方,表示其能量在频率上的分布。

功率谱密度适用于随机功率信号,即随机信号。表示其功率在频率上的分布。

1.2.12 δ\delta 脉冲在频谱、能量谱、功率谱上分别代表什么意思?频谱上的 δ\delta 与 功率谱上的 δ\delta 有什么关系?

频谱中的 δ\delta:代表“固定的振幅”。在确定性功率信号(如正弦波或周期信号)中,存在一个频率为 fcf_c 的完美简谐振荡。δ\delta 脉冲的面积(前面的系数)直接代表了该频率分量的幅度。

功率谱 (PSD) 中的 δ\delta:代表“集中的平均功率”。这个永不停歇的周期性振荡,持续不断地向外辐射着实实在在的能量。由于它无限长,我们只能计算它在单位时间内的平均功耗。δ\delta 脉冲的面积直接代表了该频率分量所携带的平均功率。

严格意义上,真正的能量信号的能量谱中,是不可能出现 δ\delta 脉冲的。能量谱是用来分析能量有限的信号。δ\delta 脉冲代表能量无限集中在某一个频率点上。如果一个信号在频域有 δ\delta(意味着它包含永不停歇的正弦波),那么它在时域一定延伸到无限长,它的总能量必定是无穷大!从数学上看,能量谱 G(f)=S(f)2G(f) = |S(f)|^2。如果 S(f)S(f) 里有 δ(f)\delta(f),那么 G(f)G(f) 就会出现 δ2(f)\delta^2(f),这在分布函数理论中是未定义、无意义的。

无论是频谱上的 δ\delta 还是功率谱上的 δ\delta ,它们的出现都代表着:该频率上存在一个永不停歇、波形完美的简谐振动。 它的能量没有被“稀释”在频带里,而是“凝聚”在一个点上。因此对于真实的数字通信信号(包含随机的 0 和 1):我们无法求出它的确定性频谱 S(f)S(f)(因为波形随机,它没有连续的幅度谱);但它的功率谱 P(f)P(f) 依然存在。在这个 P(f)P(f) 中,不仅可能会有代表确定性载波的 δ\delta 脉冲(离散谱),还会存在代表随机信息的连续谱(鼓包)。

1.2.13 如何理解随机信号的各态历经性?

随机信号的任何一个样本函数的时间平均等于它的统计平均。物理层面上,这意味着只要观测时间足够长,该信号的每个样本函数都会遍历信号的各个状态,因此我们只需从任何一个样本函数中就能计算出其统计平均值。

具体分为两类:
一是均值各态历经性,即 E[X(t)]=X(t)E[X(t)] = \overline{X(t)};代表了信号的“能量平衡点”,它保证了“局部样本的中心”就是“全局系统的中心”。
二是自相关函数各态历经性,即 RX(τ)=X(t+τ)X(t)R_X(\tau) = \overline{X(t+\tau)X(t)}。代表了信号的“波动节奏”与“功率分布”,保证了“局部样本的指纹”就是“全局系统的基因”。
如果两者同时满足,则称该信号具有(广义)各态历经性。

1.2.14 自相关函数的存在意义是什么?

它是将“不可预测的随机波形”转化为“可进行频域分析的确定性规律”的唯一桥梁。可以这么理解,它是随机过程理论与经典频域分析之间的翻译官。

首先,现实信号的各态历经性保证了我们可以通过观察单一波形的时间平均来获取它的自相关函数;
其次,自相关函数滤除了波形的随机性,提取了稳定的时间关联规律;
最后,借由维纳-辛钦定理,我们将这个稳定的时间规律映射到频域,最终求得了指导工程实践的功率谱密度。

1.2.15 如何理解傅立叶变换与信号的频谱密度?

傅立叶变换是一种将信号从时域表示转换为频域表示的重要工具。
通过傅立叶变换,可以把复杂的时域信号分解为不同频率正弦信号的叠加,从而得到信号的频谱。
频谱反映了信号在各个频率上的分布情况,而频谱密度则表示信号在不同频率处所包含的能量或功率的分布特性。

1.2.16 频谱密度分为能量谱密度与功率谱密度,如何理解二者?

对于能量有限的信号(能量信号),通常用能量谱密度(Energy Spectral Density)来描述信号能量在频域中的分布,它等于信号傅立叶变换幅度的平方。
对于功率有限但持续时间无限的信号(功率信号),则使用功率谱密度(Power Spectral Density)来描述信号功率在频率上的分布。功率谱密度反映了信号在不同频率成分上的平均功率。

1.2.17 什么是带宽?

带宽是通信系统中的重要参数,它决定了信号传输所需要的信道频率资源,并影响系统的数据传输能力。

1.2.18 什么是随机信号?

随机信号是指随时间变化且其取值具有随机性的信号,通常用随机过程来描述。可以理解为:在每一个时刻,信号的取值是一个随机变量,而所有可能的时间函数组成了一个随机过程。在通信系统中,噪声信号、随机信息序列等都属于随机信号。

随机信号的基本特性通常通过统计量来描述,而不是通过确定的时间函数。常用的统计特性包括均值(数学期望)、方差以及自相关函数。均值表示信号的平均水平,方差反映信号波动的强弱,自相关函数则描述信号在不同时间之间的相关程度,是分析信号结构和系统性能的重要工具。

1.2.19 如何研究两个随机信号之间的关联?

当研究两个随机信号之间的关系时,需要考虑它们的联合特性。常见的描述方法是互相关函数,它表示两个信号在不同时间间隔下的相关程度。
在通信系统中,互相关函数常用于分析系统输入与输出之间的关系,以及信号与噪声之间的影响。

1.2.20 什么是高斯信号?

高斯信号是指在任意时刻其信号取值服从高斯分布(正态分布)的随机信号。如果一个随机过程在各个时刻的概率分布都是高斯分布,并且任意多个时刻的联合概率分布也服从高斯分布,则称为高斯随机过程。

1.2.21 确知信号和随机信号通过LTI系统时有什么区别?

区别来自于确知信号和随机信号的分析特性,前者可以使用频谱分析,而后者只能使用频谱密度分析。

确知信号:可以理解为系统通过其幅频特性和相频特性,对输入信号的各个频率分量进行加权,从而重塑了信号的波形。而在频域中,输出信号的频谱 Y(f)Y(f) 等于输入信号的频谱 X(f)X(f) 与系统频率响应 H(f)H(f) 的乘积。在时域中,输出信号 y(t)y(t) 等于输入信号 x(t)x(t) 与系统单位冲激响应 h(t)h(t) 的卷积。

随机信号:系统通过滤除或削弱特定频段的能量,改变了随机信号的功率分布和自相关特性。输出的功率谱密度 Py(f)P_y(f) 等于输入的功率谱密度 Px(f)P_x(f) 乘以系统幅频特性模的平方,即 Py(f)=Px(f)H(f)2P_y(f) = P_x(f) \cdot |H(f)|^2。随机信号(平稳随机过程)而言,由于无法写出确定的时间解析式,我们转而研究其统计特性的变化,但是值得注意的是:平稳随机过程通过 LTI 系统后,输出过程依然是平稳的;如果输入是高斯平稳随机过程,由于线性变换不改变概率分布的类型,输出信号依然严格服从高斯分布,只是其均值和功率(方差)发生了改变

1.2.22 希尔伯特变换与解析信号?

从时域上看,确知信号 s(t)s(t) 的希尔伯特变换 s^(t)\hat{s}(t) 相当于信号与 1/(πt)1/(\pi t) 进行卷积;从频域上看,其频率响应 H(f)=jsgn(f)H(f) = -j \text{sgn}(f),这表明它在正频率处提供 j-j(即 90-90^\circ)的相移,而在负频率处提供 +j+j(即 +90+90^\circ)的相移。

利用希尔伯特变换,我们可以构造出解析信号(Analytic Signal),其定义为复信号 z(t)=s(t)+js^(t)z(t) = s(t) + j\hat{s}(t)。解析信号最显著的物理特征是其频谱只包含正频率分量,且正频率部分的幅度是原实信号的两倍。

信号的解析信号就是该信号的预包络。

1.2.23 复包络的研究意义是什么?

复包络(Complex Envelope)的研究意义在于它提供了一种等效基带分析法,将高频带通信号转化为低频基带信号进行处理。直接研究带通信号存在巨大的工程和计算障碍,因为带通信号的频谱集中在极高的载波频率 fcf_c 附近,这意味着信号的瞬时变化极快,若直接进行数字化处理或计算机仿真,必须遵循奈奎斯特采样定理,以高于 2(fc+B)2(f_c + B) 的频率进行采样,这会导致数据量爆炸且对硬件性能要求极高。

通过引入复包络 s~(t)\tilde{s}(t),我们实际上是剔除了毫无信息量的高频载波分量,仅保留了真正承载消息的振幅 a(t)a(t) 和相位 ϕ(t)\phi(t)。复包络是一个低通信号,其带宽仅为原信号带宽 BB 的一半(对于单边带宽而言),这使得我们可以用极低的采样率和运算量来精确描述高频系统的动态特性。

此外,复包络将信号分解为同相分量 sI(t)s_I(t) 和正交分量 sQ(t)s_Q(t),这种正交表示法不仅简化了线性系统的数学推导(将带通系统的卷积简化为基带复数运算),更直接对应了现代调制解调器中 I/Q 调制器的物理结构。

1.2.24 带通高斯白噪声有何研究意义?

在通信系统的抗噪声性能分析中,带通高斯白噪声(Bandpass Gaussian White Noise)具有极高的研究意义。由于实际的接收机前端通常包含一个带通滤波器(BPF),宽带的高斯白噪声在进入解调器之前,其频谱会被限制在载波频率 fcf_c 附近的有限带宽 BB 内。

研究带通噪声,本质上是研究噪声在经过系统选择性过滤后,如何与有用信号相互作用并影响最终的判决准确性。

通过将带通高斯噪声分解为同相分量 nc(t)n_c(t) 和正交分量 ns(t)n_s(t),我们可以利用低频等效模型来简化复杂的带通分析。这种分解揭示了一个核心数学特性:若原带通噪声是平稳高斯过程,则其两个正交分量也是平稳高斯过程,且在同一时刻互不相关、统计独立。这一结论极大地简化了计算输出信噪比和误码率的过程,使得我们能够分别分析噪声对信号振幅(包络)和相位造成的随机扰动。

此外,研究带通噪声的包络分布具有直接的工程指导价值。当信号中仅存在噪声时,其包络服从瑞利分布;而当存在确定性载波信号时,包络转变为莱斯分布。这种分布规律的切换是设计包络检波器(如非相干解调)和评估衰落信道性能的理论根基。简而言之,带通高斯噪声是连接“理想噪声模型”与“实际接收机表现”的关键环节,它决定了系统在真实物理带宽限制下的性能上限。

1.3 模拟通信系统

1.3.1 为什么AM需要包络检波?

从系统复杂度和成本来看:AM 信号(标准调幅)引入大载波分量的核心目的就是为了实现包络检波。
包络检波器本质上是由二极管、电阻和电容组成的低通滤波器,它不需要在接收端提取一个与发射端频率和相位完全一致的相干载波。
这种非相干解调方式极大地简化了早期广播接收机的电路结构,使得普通用户只需极其廉价的元器件就能还原声音信号。

从物理波形的直观表示来看,包络检波的前提是信号的复包络必须始终大于零,即调制指数小于 1。
在这种条件下,调幅信号的幅度起伏完全跟随基带信号的变化,信号的“外壳”或者说“包络”就直接承载了所有的音频信息。
二极管的非线性导通特性配合电容的充放电过程,能够像“扫描仪”一样提取出这条随时间变化的振幅曲线,从而绕过了复杂的乘法运算和载波同步环节。

从频谱效率与功率折中的逻辑来看,包络检波虽然以浪费发射功率(大载波不携带信息)为代价,但换取了解调的鲁棒性。
相干解调技术,载波同步环路(如锁相环)极易失锁或产生相位抖动。
包络检波作为一种非相干解调技术,对相位变化不敏感,只要信号电平足够高,就能稳定地恢复出原始基带波形。
这种“发射端多花钱,接收端省大钱”的策略,是 AM 广播能够大规模普及的关键。

  • 如果 AM 信号的调制指数大于 1(过调幅),包络检波会发生什么?

当发生过调幅时,信号的包络会进入负值区域,但包络检波器只能提取幅度的绝对值,这会导致波形在过零点附近发生严重的相位反转畸变,还原出来的音频信号会产生极其刺耳的失真。

  • 为什么 DSB-SC(抑制载波双边带)不能使用包络检波?

DSB-SC 去掉了大载波,其时域波形在基带信号过零时会发生 180° 的相位跳变,导致其“包络”不再直接对应基带波形的形状。因此,DSB-SC 必须使用包含本地载波的相干解调才能恢复出原始信号。

1.3.2 既然有了SSB,为什么还要用VSB?

从设计的工程可行性来看,VSB(残留边带调制)的出现是为了解决 SSB(单边带调制)的一些技术瓶颈。
SSB 要求滤波器在载频附近具有极其陡峭的截止特性,以便在完全滤除一个边带的同时不损伤另一个边带的低频部分。然而,物理可实现的滤波器往往存在过渡带,如果强行使用 SSB 传输包含大量低频细节的信号(如电视图像信号),这些靠近载频的有用成分会被滤波器严重切除,导致严重的波形失真。

从频谱效率与复杂度的折中来看,VSB 采取了一种“非对称”的妥协方案,它允许其中一个边带被大部分滤除,但保留一小部分残留,并配合另一边带的对应部分。
通过设计一种具有互补特性的残留边带滤波器,VSB 能够保证在接收端解调后,两路边带在载波附近的能量能够完美叠加。
这种方式虽然比 SSB 稍微多占用了一点带宽,但它极大地缓解了对滤波器“陡峭度”的要求,使得在低成本设备中传输宽带且含低频丰富信号成为可能。

VSB实际可用于模拟电视广播。

  • VSB 接收端进行相干解调时,对滤波器的互补特性有什么要求?

为了保证解调后没有幅度失真,VSB 滤波器的幅度谱必须在载频附近满足奇对称性。这意味着在载频处,滤波器的增益应为 0.5,且其上升沿与下降沿的变化规律互补,从而使残留边带的能量与另一边带对应的缺失能量加权求和后等于常数。

  • 为什么 VSB 在现代数字电视(如 ATSC 标准)中依然被提及?

虽然现代数字通信多采用 OFDM,但经典的 ATSC 早期数字电视标准采用了 8-VSB 调制。这是因为它在单载波条件下具有很高的频谱利用率,并且在特定的广播信道环境下,其峰值平均功率比(PAPR)相对较低,有利于大功率发射机的效率提升。

1.3.3 在角度调制中,调制指数有什么意义(调相指数、调频指数)?

从频域分布的底层逻辑来看,调制指数是决定角度调制信号带宽的核心参数。
与幅度调制不同,角度调制的频谱并不是基带信号频谱的简单线性平移,而是通过贝塞尔函数展开后的无限带宽分布。
调制指数的大小直接决定了能量在各个谐波分量上的分配比例。当调制指数较小时,信号呈现窄带特性,能量主要集中在载频及其相邻的一对边带上;而当调制指数增大时,有效带宽会随之显著扩张。
根据卡森公式,带宽与调制指数成正相关,这意味着我们通过牺牲更多的频率空间,换取了比幅度调制更优异的抗噪声性能。

从相位角度来看,调相指数(mpm_p)反映了载波相位偏移的最大瞬时偏移量,而调频指数(mfm_f)则描述了载波频率偏移量相对于基带信号频率的比值。

从工程设计与抗干扰能力的折中来看,调制指数是有效性与可靠性之间的平衡杆。
增大调制指数可以提高系统的解调信噪比改善增益,因为在解调过程中,有用信号的功率增益与调制指数的平方成正比,而噪声的影响保持相对恒定。
然而,这种性能的提升是以占用巨大的频谱资源为代价的。在实际的无线电广播或专业移动通信中,工程师必须根据信道的带宽限制和预期的覆盖质量,精确设定最大频偏与调制指数,以确保在不干扰相邻频道的前提下,利用非线性调制的特性压制信道背景噪声。

  • 为什么窄带调频(NBFM)的频谱看起来和普通 AM 很像?

当调制指数远小于 1 时,贝塞尔函数的高阶项可以忽略不计。此时信号在频域上只保留了主载波和一对边带。尽管它们在相位关系上与 AM 不同(PM/FM 的两个边带相位是奇对称的),但在占用带宽上与 AM 完全一致。

  • 在 FM 中,如果基带信号频率 fmf_m 减小而幅度不变,调制指数和带宽会如何变化?

在调频(FM)中,最大频偏 Δf\Delta f 仅取决于基带幅度。如果 fmf_m 减小,调频指数 mf=Δf/fmm_f = \Delta f / f_m 会增大。虽然单看频偏没变,但由于指数增大,能量会向更高阶的边带扩散,导致卡森带宽保持基本稳定或略有微调。

1.3.4 什么是卡森规则,有何用(注意说明频偏比)?

卡森规则(Carson’s Rule)提供了一个估算角度调制(调频 FM 或调相 PM)信号有效带宽的实用工程公式。
由于角度调制的频谱理论上延伸至无穷远,直接计算其所有能量分布在工程上既不现实也无必要。卡森规则指出,信号绝大部分功率(约 98% 以上)集中在带宽 B2(Δf+fm)B \approx 2(\Delta f + f_m) 之内,其中 Δf\Delta f 为最大频偏,fmf_m 为基带信号的最高频率。

卡森规则深刻揭示了频偏比(或称调制指数 β\beta)对带宽占用的控制作用。我们将最大频偏 Δf\Delta f 与基带最高频率 fmf_m 的比值定义为频偏比 β=Δf/fm\beta = \Delta f / f_m,此时带宽可以写成:B2fm(1+β)B \approx 2f_m(1 + \beta)
当频偏比极小时,卡森带宽近似等于 2fm2f_m,此时信号呈现窄带(NBFM)特性,频谱占用与普通调幅(AM)相似;而当频偏比很大时,带宽则主要由 2Δf2\Delta f 决定,呈现宽带(WBFM)特性。
通过调整频偏比,工程师可以在频谱有效性(节省带宽)与传输可靠性(利用宽带增益压制噪声)之间找到最佳的平衡点。

在实际工程应用中,卡森规则告诉我们,角度调制系统可以通过牺牲带宽来换取信噪比(SNR)的极大改善,这种“带宽换增益”的倍数关系正是由频偏比直接决定的。

  • 如果实际带宽小于卡森规则计算出的带宽会发生什么?

如果接收端的带通滤波器带宽窄于卡森带宽,会导致信号的高次边带分量被滤除。这在物理上表现为非线性失真(幅度失真和相位失真),反映在解调后的音频或数据上就是谐波分量增加、保真度下降或误码率上升。

  • 卡森规则在窄带调频(NBFM)和宽带调频(WBFM)中表现有何不同?

在窄带调频中,频偏比 β\beta 远小于 1,卡森带宽退化为 2fm2f_m,侧重于节省频谱。
在宽带调频中,频偏比 β\beta 远大于 1,卡森带宽近似为 2Δf2\Delta f,侧重于利用宽带特性提高抗噪声性能,这正是 FM 广播音质优于 AM 广播的物理根源。

1.3.5 解调增益、系统增益分别有什么用?

解调增益(也称为调制增益 GG)衡量的是解调过程本身对信号质量的提升能力。它定义为解调器输出信噪比与输入信噪比的比值。
对于调频(FM)等非线性调制系统,解调增益通常远大于 1,这意味着系统通过牺牲带宽换取了信噪比的改善;而对于传统的 AM 信号,解调增益则相对固定且较小。
研究解调增益能帮助工程师判断特定调制方式在抑制信道噪声方面的内在效率,从而在设计阶段决定是采用复杂的宽带调制还是简单的窄带调制。

系统增益则描述了整个通信链路对信号功率的动态调控能力。它涵盖了从发射机天线增益、传播路径损耗到接收机低噪声放大器(LNA)增益的完整物理过程。系统增益的作用在于确保到达判决器前的信号电平足以压制背景热噪声,维持必要的链路预算。如果系统增益不足,即便解调器的解调增益再高,也会因为输入端的“物料”信噪比过低而导致通信中断。因此,系统增益是决定通信距离和覆盖范围的核心工程参数。

解调增益侧重于算法与调制维度的优化,旨在从已有的信号中榨取更高的保真度;
而系统增益则侧重于硬件与功率维度的支撑,旨在为信号提供足够强的物理场强。
在实际应用中,如果信道环境极度恶劣,工程师通常会通过增加天线增益(提高系统增益)和采用宽带调频或扩频技术(提高解调增益)相结合的手段,来确保在低信噪比环境下依然能实现稳定可靠的数据传输。

  • 为什么 AM 信号的解调增益通常被认为表现平平?

在标准 AM 相干解调中,解调增益最大仅为 1。这是因为 AM 是线性调制,它没有利用额外的频率空间来换取噪声抑制。更糟糕的是,如果是包络检波,在大信噪比时增益接近 1,但在低信噪比时会产生门限效应,导致解调质量剧烈恶化。

  • 调频(FM)系统的解调增益与什么参数密切相关?

调频系统的解调增益与调制指数(或频偏比)的平方成正比。这意味着通过适度增大频率偏移(占用更多带宽),我们可以获得指数级增长的抗噪声能力,这正是 FM 广播能够提供“高保真”音质的数学基础。

1.3.6 简要介绍一下常见的模拟传输的产生和调制,以及抗噪能力对比(AM、DSB、SSB、VSB、FM、PM)

幅度调制家族(AM、DSB、SSB、VSB)的核心思想是让高频载波的幅度随基带信号的规律变化。
标准调幅(AM)通过在基带信号上叠加一个极大的直流分量后再与载波相乘,使得包络直接反映信号形状,从而允许极其廉价的包络检波器进行解调,但付出了极大的载波功率浪费。
为了提高功率效率,双边带抑波调制(DSB)去除了直流分量,直接将纯信号与载波相乘,虽然节省了发射功率,但必须使用复杂的相干解调。
进一步地,为了压榨宝贵的频谱资源,单边带调制(SSB)利用极其陡峭的带通滤波器或相移法,强行滤除掉 DSB 中冗余的一个边带,将物理带宽极限压缩了一半。
而残留边带调制(VSB)则是针对包含极低频分量的电视图像信号所做出的工程妥协,它允许残留一小部分无用边带,以换取滤波器设计的平缓与低频波形的完整。

角度调制(FM、PM)彻底抛弃了脆弱的幅度信息,转而将基带信号隐匿在载波的频率或相位变化中。
调频(FM)让载波的瞬时频率偏移与基带信号的幅度成绝对正比,通常通过压控振荡器(VCO)或者倍频器直接产生,或者利用阿姆斯特朗法进行间接相位积分调制。
而调相(PM)则是让载波的瞬时相位偏离量与信号幅度成线性关系。这两种调制方式在物理本质上是相通的,它们不再像调幅那样只是简单地平移频谱,而是通过极其复杂的贝塞尔函数展开,激发出无穷无尽的边带分量,从而以极其野蛮的方式极大地扩展了信号所占用的绝对物理带宽。
由于角度调制的包络是恒定的,所以不怕非线性失真,并且可以采用非相干解调。

更重要的是,宽带调频系统能够通过牺牲巨大的频谱带宽来换取指数级增长的输出信噪比(即宽带增益),这是模拟通信中“以带宽换取可靠性”的最巅峰工程杰作,尽管它在极低信噪比下依然无法逃脱门限效应的物理诅咒。

  • 为什么我们在模拟语音广播中常用 FM 而不用 PM?

虽然 FM 和 PM 极为相似,但在模拟语音信号中,能量大多集中在低频,高频分量极其微弱。
如果使用 PM,其产生的频偏与调制信号频率成正比,会导致低频部分的调制指数极小、抗噪能力极差。
而 FM 的频偏仅与信号幅度有关,因此在传输具有明显低频特征的自然语音时,FM 能够提供比 PM 更加均匀且优异的整体信噪比表现。

  • 既然 SSB 带宽最窄、效率最高,为什么早期的模拟电视图像信号要采用 VSB 而不是 SSB?

模拟电视的视频基带信号包含了极其丰富且至关重要的极低频甚至直流分量(决定了屏幕的背景绝对亮度)。如果要使用 SSB,由于物理世界中根本不存在具有绝对垂直截止特性的理想滤波器,强行滤波必然会严重切伤低频信号,导致图像发生极其严重的拖尾与畸变。VSB 通过一种极其精妙的互补滚降滤波器,允许残留部分边带,完美解决了低频信号无失真传输与频带压缩之间的工程死结。

1.3.7 门限效应是什么?可能出现在什么场景(具体的模拟、数字系统)?有什么解决方法?

门限效应是通信接收机在极端恶劣信噪比下发生的一种灾难性性能崩塌现象。
在正常物理环境下,接收机输出信号的质量通常会随着输入信号的减弱而呈线性缓慢下降;
但是,当输入信噪比(SNR)跌破某一个特定的临界值(即门限值)时,原本作为背景的杂乱高斯噪声会瞬间在幅度或相位上彻底压倒并“捕获”有用信号,导致接收机的输出信噪比发生断崖式的垂直暴跌,使得原本勉强维系的通信链路瞬间被彻底撕裂。

在模拟通信中,它最经典地爆发于常规调幅(AM)的包络检波器和宽带调频(FM)的非相干鉴频器中。
在数字通信系统中,虽然语境略有不同,但在使用包络检波的非相干频移键控(如 2FSK)中,或者在逼近香农极限的现代前向纠错编码(FEC)网络中,当信道质量跌破编码算法的纠错极限时,误码率(BER)曲线也会呈现出极其相似的、从完美无缺瞬间跌入深渊的“瀑布效应(Cliff Effect)”。

最彻底的物理根除方法是全面放弃非线性体制,改用需要复杂载波同步的“相干解调(同步检波)”,因为纯线性的乘法运算在数学上绝对免疫门限效应,哪怕信号被噪声彻底淹没也能实现线性的能量提取。
如果为了系统成本非要坚守 FM 等非线性体制,工程师则会采用极其精妙的门限扩展技术(Threshold Extension),例如引入锁相环(PLL)调频解调器或频率负反馈(FMFB)电路。
而在现代数字通信中,则是通过部署极其强悍的纠错编码并配合严格的链路预算管理,来确保接收端永远平稳地运行在致命的悬崖之上。

  • 为什么相干解调(同步检波)在数学上能够绝对免疫门限效应?

相干解调本质上是一种纯线性的频谱搬移操作。它仅仅是将接收到的信号和加性噪声与本地载波相乘,然后一起通过低通滤波器。在这个过程中,信号和噪声只是被按照同样的比例平移并滤除带外分量,绝不会发生非线性的交叉互调与包络混合,因此输出信噪比始终与输入信噪比保持严格的线性正比关系,不存在任何断崖式崩溃的可能。

  • 锁相环(PLL)是如何在 FM 接收机中实现“门限扩展”的?

传统的鉴频器面对的是整个中频带宽内汹涌的宽带噪声。而锁相环(PLL)极其聪明,它充当了一个中心频率能够实时跟随有用信号瞬时频率移动的“极窄带动态跟踪滤波器”。由于它的瞬时带宽极窄,绝大部分宽带噪声在进入鉴频器之前就被死死挡在了门外,从而在物理上强行降低了触发门限效应所需的最小输入信噪比。

  • 现代数字电视(如看高清直播)遇到信号差时直接卡死黑屏,这也是门限效应吗?

这是数字通信中极其典型的“瀑布效应(Cliff Effect)”,在宏观表现上与门限效应同理。现代数字电视采用了极其强悍的 LDPC 或 Turbo 等纠错码,当输入信噪比高于门限时,极其暴力的纠错算法能把所有误码瞬间抹平,画面完美无瑕;
但一旦物理信噪比跌破了编码定理规定的极限门限,纠错矩阵就会发生雪崩式的连环计算错误,导致解码器瞬间崩溃,画面便由极其清晰直接变为彻底黑屏或马赛克卡死,中间没有任何平滑过渡的余地。

1.3.8 为什么需要调制?

调制(Modulation)是指按调制信号(基带信号)的规律去改变载波(高频信号)的某个参数的过程。
之所以不能直接发送低频基带信号,主要有三个原因:
首先是天线尺寸的限制,电磁波的有效发射需要天线尺寸与波长 λ\lambda 匹配,低频信号波长过长,天线无法实现;
其次是多路复用的需要,通过将不同用户的信号搬移到不同的高频段,可以在同一信道中互不干扰地传输;
最后是改善抗噪声性能,某些调制方式(如宽带 FM)可以通过牺牲带宽来换取更高的信噪比。

1.3.9 模拟调制分别有什么?

幅度调制(线性调制):包括 AM(普通调幅)、DSB(双边带)、SSB(单边带)和 VSB(残留边带)。
其核心特征是已调信号的频谱是基带频谱的线性搬移,且包络通常与调制信号成线性关系。

角度调制(非线性调制):包括 FM(调频)和 PM(调相)。
其核心特征是载波的幅度保持不变,而将信息隐藏在频率或相位的变化中。由于频谱会产生无限多个新的分量,它被称为非线性调制。

1.3.10 模拟通信系统中,有什么解调方法?

解调是调制的逆过程,目的是从高频载波中还原出原始消息。
相干解调要求接收端提供一个与载波同频同相的本地相干载波,通过乘法器和低通滤波器还原信号,性能较好但电路复杂;
非相干解调(如包络检波)则不需要本地载波,直接通过二极管电路提取信号包络,电路简单但抗噪声性能较差,且存在“门限效应”。

1.3.11 当调制信号频率 fmf_m 提高时,FM 和 PM 的带宽如何变化?

对于 PM:βp\beta_p 不变,由于卡森公式 B=2(β+1)fmB = 2(\beta + 1)f_m,带宽随 fmf_m 的增加而线性增加。
对于 FM:当 fmf_m 提高时,βf\beta_f 会相应减小。
这使得 FM 的带宽随 fmf_m 增加的变化趋势比 PM 平缓得多。

这种特性决定了 FM 在抗信道衰落和频率偏移方面具有比 PM 更优越的稳定性。

1.3.12 如何理解解调增益与系统增益?

二者均描述了信号在经过解调器处理后,其信噪比(SNR)发生的质变过程。

解调增益(GG)定义为解调器输出端的信噪比 So/NoS_o/N_o 与输入端信噪比 Si/NiS_i/N_i 的比值,即 G=So/NoSi/NiG = \frac{S_o/N_o}{S_i/N_i}
它的物理意义非常直观:它衡量了解调器本身在抑制噪声、提取有用信号方面的“功力”。

系统增益更侧重于端到端的比较。它通常是将已调系统的输出信噪比,与基带直接传输(即不调制,直接发送 m(t)m(t))在相同功率、相同噪声背景下的信噪比进行对比。
这种对比方式回答了一个根本问题:我们费时费力搞的这套调制体制,究竟比“裸传”强多少?

二者的联系与区别主要体现在参考基准上。联系在于它们都反映了系统抗干扰的优劣。
区别在于:
解调增益 GG 是解调器前后的自我对比,关注的是解调算法的效率;
而系统增益是跨体制的横向对比,关注的是调制方式本身的优越性。

1.3.13 比较一下各类模拟通信系统(比较AM、DSB-SC、SSB、VSB、FM、PM,是否线性调制、传输带宽(有效性),系统增益(可靠性)、实现难以程度)

有效性(带宽)排序:BFM(或 BPM)>BDSB_SC(或 BAM)>BSSB(或 BVSB)B_{FM}(\text{或 } B_{PM}) > B_{DSB\_SC}(\text{或 } B_{AM}) > B_{SSB}(\text{或 } B_{VSB})

可靠性(抗噪)排序:在门限以上时,FM(或 PM)>DSB_SC(或 SSB,VSB)>AMFM(\text{或 } PM) > DSB\_SC(\text{或 } SSB, VSB) > AM

调制方式 线性与否 传输带宽 (有效性) 系统增益 GSYSG_{SYS} (可靠性) 实现难易程度
AM 线性 2B2B m2(t)1+m2(t)=ηAM\frac{\overline{m^2(t)}}{1+\overline{m^2(t)}} = \eta_{AM}(调制效率) 最简单
DSB-SC 线性 2B2B 11 复杂
SSB 线性 BB (最窄) 11 最复杂
VSB 线性 B\approx B 11 复杂
FM 非线性 2(βFM+1)B2(\beta_{FM}+1)B 1.5βFM21.5\beta_{FM}^2 (最高) 简单
PM 非线性 2(βPM+1)B2(\beta_{PM}+1)B 0.5βPM20.5\beta_{PM}^2

1.3.14 你知道什么复用技术?

复用技术存在的意义在于提高信道的利用率,通过特定的分割手段,使多路彼此独立的信号在同一物理信道中传输而互不干扰。

频分复用(FDM):频谱的切片
频分复用是将信道的总带宽划分为若干个互不重叠的频段,每路信号占用其中一个子频段进行传输。
为了防止相邻信道之间的相互干扰,各子频段之间通常需要预留保护频带。
FDM 广泛应用于模拟通信,其核心优势在于技术成熟,能够实现多路信号的同时传输。
例如模拟电话通过多级调制,将 12 个话路合并为一个基群;接着将 5 个基群合并为一个超群(包含 60 个话路);再将 10 个超群合并为一个主群(包含 600 个话路)。这种层级结构使得单根同轴电缆或微波链路能够支撑数千对用户同时通话。

时分复用(TDM):时间的轮转
时分复用则是将传输时间划分为互不重叠的时间片(时隙),每路信号在预定的时隙内独占整个信道带宽。
TDM 的因果逻辑源于信号的抽样理论,只要抽样频率足够快,我们就可以在两个抽样脉冲之间插入其他信号的抽样值。
它与数字通信天然兼容,是目前现代通信网络(如 PCM 系统)的基础。

码分复用(CDM):数学正交的魔法
码分复用(通常指 CDMA)既不分频率也不分时间,所有用户在同一时间、同一频率上发送信号。
它存在的物理依据是正交码序列。
每个用户被分配一个唯一的、彼此正交的地址码(码型),接收端通过相关的数学运算,能够从混合的乱码信号中精准地“滤”出属于自己的那一部分信息。
这种方式具有极强的抗干扰能力和保密性,曾是 3G 移动通信的核心。

1.4 数字基带传输通信系统

1.4.1 什么是数字基带系统?

数字基带系统是指不经过载波调制,直接在传输路径上传送数字信号电平的通信系统。
它通常由信息序列、基带脉冲成形波形、信道以及接收端的滤波器和判决器组成。
在这种系统中,二进制比特流(0 和 1)被映射为特定的电平形状(如矩形波、升余弦波),并直接在具有低通特性的有线信道(如双绞线、光纤或电路板走线)中传输。
它是所有复杂通信系统的底层核心,因为即使是无线带通系统,其本质也是将基带信号搬移到高频段。

数字基带系统的设计核心在于解决码间串扰(ISI)与噪声抑制的平衡。
由于信道带宽有限,发送出的尖锐脉冲在经过信道后会发生展宽,导致前后码元的波形相互重叠。
为了在判决时刻获得清晰的信号,我们需要遵循奈奎斯特第一准则,通过精细设计基带脉冲的形状(如采用升余弦滚动因子),使得在抽样点处除了当前码元外,其他码元的贡献恰好为零。
这种在时域上的精确“对齐”是数字基带系统实现可靠传输的数学基础。

数字基带系统广泛存在于短距离、高带宽的局域通信中。
例如,电脑内部 CPU 与内存之间的数据交换、以太网线中的电信号传输,以及 USB 接口的数据通信,本质上都是数字基带系统。
在这些场景中,由于传输距离较短或信道条件受控,我们不需要昂贵的射频调制解调器,而是通过线路编码(如曼彻斯特编码或 HDB3 码)来解决直流分量偏移和定时信息提取的问题,从而以极低的成本实现极高的数据吞吐率。

  • 既然基带信号可以直接传输,为什么无线通信还要进行调制?

无线通信需要通过天线发射电磁波,而天线的尺寸必须与信号波长相匹配。基带信号通常频率较低(波长极长),如果直接发射,需要公里量级的超大天线。
通过调制将其搬移到高频段,可以使用厘米级的便携天线,并实现多用户频分复用。

  • 为什么数字基带系统通常需要进行线路编码?

原始的 0/1 序列可能出现长串的连 0 或连 1,这会导致信号中出现直流分量(无法通过变压器耦合)且缺乏跳变沿,导致接收端无法提取位同步时钟。
线路编码通过引入特定的跳变规律,确保了信号的均值为零并富含时钟信息。

1.4.2 为什么要进行码型变换(NRZ、RZ、单极性、双极性、差分)?

码型变换的首要任务是适配传输介质。
原始的单极性非归零码(NRZ)包含大量的直流分量,而许多实际信道(如电缆中的变压器耦合电路)是不允许直流通过的。
通过将单极性码转换为双极性码,信号的正负电平在统计上可以相互抵消,从而实现均值为零的直流平衡。这不仅保护了电路设备,还避免了基带信号在传输过程中产生严重的电平基准漂移,确保了判决门限的稳定性。

此外,码型变换通过增加电平跳变来提供定时信息。
长串的连“0”或连“1”在 NRZ 码中表现为恒定的电平,这会导致接收端无法辨别码元的起始位置,进而造成位同步丢失。
归零码(RZ)通过在每个码元周期内强制回零,或者差分码通过电平的相对跳变来表示信息,确保了信号中蕴含丰富的“边沿特征”。这些特征像节拍器一样,让接收机能够实时锁定时钟频率,保证数据抽样的精确度。

而且,不同的码型决定了信号功率谱的分布形态。
NRZ 码带宽较窄,频谱效率高,但缺乏自同步能力;
RZ 码虽然占用带宽翻倍,却换取了极强的同步性能。
单极性码实现简单但抗噪能力弱,而双极性码在相同发射功率下具有更大的判决距离,从而显著提升了系统的抗加性噪声性能。
工程师根据信道的带宽限制、噪声水平以及硬件成本,在这些特性之间进行精确权衡,选择最能平衡有效性与可靠性的线路编码方案。

  • 为什么差分码(相对码)能解决相位模糊问题?

在相干解调中,载波同步可能会产生 180° 的相位倒置(“反相”现象)。如果使用绝对码,所有的 0 会变成 1,1 变成 0;而差分码只关注电平是否跳变,不依赖电平的绝对极性,因此能完美绕过相位模糊导致的误码。

  • HDB3 码这种复杂的码型变换解决了什么痛点?

HDB3 码在保持双极性(AMI 码)特性的基础上,强制打破了长连零的静默状态。它通过插入特定的取代脉冲,保证了即使在极端数据下也能提供充足的跳变沿,同时不引入直流分量,是 PDH 数字通信系统中的标准接口码型。

1.4.3 脉冲调制的目的是什么?

脉冲调制的首要目的是将连续的模拟信号转换为离散的脉冲序列,以便在数字信道或时分复用(TDM)系统中传输。
原始模拟信号在时间上是连续的,占据了整个通信链路的资源。通过脉冲调制(如 PAM),我们只在特定的离散瞬间对信号进行取样。这种处理方式使得不同的信号源可以利用脉冲之间的时间间隙进行交织传输,从而在不增加频率带宽的前提下,极大地提高了物理信道的利用率,实现了多路信号的并行通信。

脉冲调制(尤其是 PCM)是为了实现信号的彻底数字化与再生。
在传统的模拟传输中,噪声会随着传输距离的增加而不断累积,且无法与有用信号分离。通过将信号调制为二进制脉冲,我们改变了信息的携带方式:接收端不再关注波形的精细幅度,而只判断“有脉冲”或“无脉冲”。这种判定机制允许中继站在噪声淹没信号之前进行整形再生,彻底消除累积噪声,从而实现了远距离、高保真的信息传递。

脉冲调制为信息提供了灵活的处理平台。
一旦信号被调制成脉冲形式,它就可以被计算机轻松地进行压缩、存储和复杂的算法处理。通过脉冲调制,我们可以方便地引入纠错编码来提升链路的可靠性,或者利用数字加密技术确保通信的安全性。这种从“模拟波动”到“离散脉冲”的跨越,是现代移动通信、互联网以及各类智能设备能够高效运作的技术前提。

  • PAM、PWM 和 PPM 这三种基本脉冲调制有什么区别?

这三者分别改变脉冲的不同参数:PAM(脉冲幅度调制)改变脉冲的高度,PWM(脉冲宽度调制)改变脉冲的持续时间,而 PPM(脉冲位置调制)则改变脉冲相对于基准时刻的偏移量。
其中 PAM 是数字化的基础,而后两者在电机控制和光学通信中应用广泛。

  • 为什么说脉冲编码调制(PCM)比单纯的 PAM 更高级?

PAM 虽然在时间上离散,但其幅度依然是连续的(模拟的),抗噪声能力有限。
PCM 在 PAM 的基础上增加了量化和编码,将幅度也变成了离散的数字,从而使信号获得了数字通信特有的强抗干扰性和纠错能力。

  • 脉冲调制后的信号带宽会发生什么变化?

脉冲调制显著扩大了信号所需的带宽。
根据采样定理和脉冲波形的特性,脉冲越窄,其在频域占据的带宽就越宽。
这体现了通信中典型的“带宽换取可靠性”或“带宽换取时间复用能力”的折中思想。

1.4.4 脉冲幅度调制如何实现?

脉冲幅度调制(PAM)本质上是模拟信号与周期性脉冲序列的乘法运算。
在电路层面,这通常通过一个由时钟信号控制的电子开关(抽样门)来完成。当开关导通时,输出端直接跟踪模拟输入信号的瞬时电平;当开关断开时,输出端保持为零或维持前一时刻的电平。
这种操作在时域上将连续信号切割成了等间隔的离散脉冲,使得每一个脉冲的顶点幅度都严格正比于该时刻模拟信号的抽样值。

PAM 的实现过程可以看作是信号在时域的理想抽样或自然抽样。
根据卷积定理,信号在时域与冲激脉冲序列相乘,等效于其频谱在频域进行周期性的搬移与叠加。为了确保采样后的信号能够无失真地还原,必须遵循奈奎斯特采样定理,即采样频率必须大于信号最高频率的两倍。
在这个过程中,脉冲波形的形状(如矩形脉冲的宽度)决定了输出信号能量的集中程度,而抽样的精度则直接影响了后续量化和编码的质量。

  • 自然抽样和平顶抽样有什么区别?

自然抽样的脉冲顶部保留了原信号的变化曲线,而平顶抽样的脉冲顶部是水平的。
工程中多采用平顶抽样,因为它更易于数字化处理,但平顶抽样会引入孔径失真(频谱被一个 Sinc 函数加权),通常需要在接收端进行补偿。

  • PAM 信号可以直接进行无线远距离传输吗?

理论上可以,但实际效果极差。
因为 PAM 的信息承载在脉冲幅度上,而无线信道的衰落和噪声会直接改变脉冲的高度,导致极其严重的失真。因此,PAM 通常只作为中间处理步骤,或者在极短距离的有线系统中使用。

1.4.5 我们知道在数字基带传输中有普通接收系统(使用低通滤波器)和最佳接收系统(匹配滤波器)。在普通接收系统中,对于基带信号我们使用简单低通滤波+抽样判决,对于AM、ASK等幅度调制信号我们使用包络检波器;对于FM、FSK等频率调制信号用过零检测器。我们为什么要普通接收系统?普通接收系统在低信噪比下会出现什么问题?你能举一些实际系统中使用普通接收机的例子?在现在通信系统中,普通接收机还有存在的必要吗?

普通接收系统提供了一种极其高效且廉价的解决方案。与需要复杂载波恢复、精确时钟同步以及数字信号处理器(DSP)来计算相关性的最佳接收机(匹配滤波器)不同,普通接收系统依赖于最基础的模拟元器件,因此它的电路实现的门槛与系统的整体功耗都很低。
在在信号本身足够强烈的场景下,工程师宁愿牺牲几分贝的理论信噪比,也要换取这种结构上的极简主义,这使得通信设备的大规模廉价量产成为可能。

普通接收系统在低信噪比(SNR)环境下会面临灾难性的性能崩溃。因为包络检波和过零检测等操作本质上都是非线性处理,当环境噪声的功率逐渐逼近或超过有用信号时,会触发著名的门限效应(Threshold Effect)。
此外,简单的低通滤波器无法像匹配滤波器那样针对特定脉冲形状进行最优的能量收集,从而不可避免地引入严重的码间串扰(ISI)

但是,普通接收机曾经并依然统治着许多对成本和功耗极度敏感的领域。
最经典的例子莫过于传统的 AM/FM 广播收音机,数以亿计的廉价消费电子产品仅靠几个晶体管和包络/鉴频电路,就能从强发射塔的信号中还原出清晰的语音。
此外,像日常使用的红外遥控器、简单的 RFID 标签以及早期的无线门铃,均采用最基础的 ASK(幅移键控)配合包络检波来解码指令。在这些系统中,电池寿命和几毛钱的芯片成本是第一考量,而复杂的相干解调根本没有用武之地。

从现代通信架构的演进与物联网需求来看,普通接收系统在当今时代依然具有不可替代的必要性。
尽管 5G 手机和 Wi-Fi 路由器为了榨干频谱效率,必须使用复杂的匹配滤波、I/Q 解调和 OFDM 技术,但在海量物联网(IoT)与超低功耗边缘节点的竞争中,简单往往意味着胜利。
例如,在无线传感器网络的唤醒接收器(Wake-Up Receiver, WuRx)或近场通信(NFC)中,设备常年处于微瓦级的休眠监听状态。在这种严苛的功耗约束下,这种无需锁相环、无需高速 ADC 的普通非相干接收架构,成为了在物联网“电磁丛林”中生存的唯一法则。

  • 为什么匹配滤波器在理论上被称为“最佳”?

匹配滤波器的冲激响应是输入信号波形的镜像反转。
这种特定的数学结构能够在加性高斯白噪声(AWGN)背景下,最大限度地收集信号能量并压制带宽外的噪声,从而使得抽样判决那一瞬间的输出信噪比达到理论上的最大值,将系统的误码率降到物理极限。

  • 门限效应具体是如何破坏普通接收系统通信的?

门限效应通常发生在非相干解调过程中。
当输入信噪比低于某个特定阈值时,噪声的随机包络起伏会频繁地超过有用信号的包络。
此时检波器的输出不再是信号的线性反映,而是被高斯噪声主导,导致解调后的音频产生极其刺耳的“咔哒”声,或者在数字判决时产生不可逆转的大规模错码。

  • 既然匹配滤波器这么好,为什么以前的系统不普及使用它?

在纯模拟电路时代,要用硬件电容电感去制造一个冲激响应与特定脉冲波形“完美匹配”的滤波器不仅成本极高,而且极易受温度和器件老化影响。只有到了现代数字通信时代,匹配滤波器才被转化为数字基带处理器(DSP)中的一组 FIR 软件系数,从而以极低的边际成本在所有现代通信协议中得到了全面普及。

1.4.6 什么是码间串扰?解释一下奈奎斯特第一准则。

码间串扰(ISI)是由于信道带宽受限导致脉冲波形在时域上发生严重展宽,进而使得前后相邻码元在抽样判决时刻发生相互重叠与干扰的物理现象。
在理想的无限带宽信道中,发送的矩形脉冲能够完美保持其陡峭的边缘;但在现实中,无论是电缆还是无线频谱,都像是一个低通滤波器,它会切除信号的高频突变部分,导致到达接收端的脉冲变成了一个个拖着长长“尾巴”的平缓波形。

奈奎斯特第一准则指出,为了在抽样时刻完全消除码间串扰,基带系统的总冲激响应必须在所有非零的整数倍抽样点上精确为零,这在频域上严格等效于其折叠频谱必须是一个平坦的常数。
奈奎斯特并没有试图消除整个脉冲的拖尾,而是极其聪明地利用了抽样判决的离散性:只要保证在对当前码元进行抽样的那一瞬间,其他所有前后码元的拖尾刚好穿过零点(即幅度为零),那么串扰在判决时刻就不复存在。

要完美满足奈奎斯特第一准则,理论上需要使用具有矩形频谱的理想低通滤波器,它在时域对应一个无限延伸的辛格(Sinc)函数。
然而,这种系统在物理上是完全不可实现的,且对定时抖动极其敏感。因此,现代通信系统广泛采用了升余弦滚降滤波器。它通过引入一个滚降因子(α\alpha),稍微牺牲了一部分频谱效率(扩展了绝对带宽),却换取了时域尾部振荡的快速衰减。使得在实际过程中也能完美满足奈奎斯特的无码间串扰条件

  • 奈奎斯特速率是什么意思?

在理想低通信道(带宽为 WW)中,能实现无码间串扰的最大理论传输速率被称为奈奎斯特速率,其值为 2W2W 波特(Baud)。这意味着在没有 ISI 的前提下,每赫兹的物理带宽每秒最多只能传输两个独立的符号。

  • 眼图(Eye Diagram)和码间串扰有什么直观的联系?

眼图是工程师在示波器上直观评估码间串扰严重程度的最佳工具。眼图的“眼睛”张得越大、轮廓越清晰,说明码间串扰越小,判决的噪声裕量越高;如果信道带限严重导致长长的拖尾叠加,眼睛就会完全闭合,意味着严重的 ISI 已经导致系统无法提取出正确的 0 和 1。

  • 如果信道极其恶劣,连升余弦滤波器都无法消除 ISI 怎么办?

无线信道的多径效应导致响应极其恶劣且动态变化时,单纯依靠发送端的成形滤波已经无能为力。
此时必须在接收端引入自适应均衡器(Equalizer),或者直接在底层架构上放弃单载波,改用抗多径串扰的 OFDM(正交频分复用)技术,通过并行的低速子载波强行化解 ISI 危机。

1.4.7 为什么要用信道估计和信道均衡?为什么之前的匹配滤波器、奈奎斯特准则和升余弦滚降滤波器还是不够,还是需要信道估计和信道均衡?

在实际的无线通信或长距离有线传输中,信道本身就是一个极其复杂且动态变化的滤波器。
匹配滤波器和升余弦滚降等技术是建立在“理想信道”或“已知静态信道”假设之上的。奈奎斯特准则确实在数学上完美解决了无码间串扰(ISI)的问题,但它的前提是整个通信链路(发送侧+信道+接收侧)的等效冲激响应必须满足特定条件。
当信号经过高楼反射、移动车辆遮挡产生的多径衰落时,原本完美的升余弦波形会被信道任意扭曲、拉伸和叠加。此时,单纯依靠收发两端预设的静态滤波器根本无法抵御这种未知的、时变的信道畸变。

信道估计是接收机为了“看清”当前恶劣环境而必须进行的“探路”过程。
既然无线信道在不断变化,接收端就必须实时搞清楚此时此刻的无线电波到底经历了怎样的反射和相移。通过在发送的数据流中周期性地插入收发双方都已知的导频序列(Pilot)或训练序列,接收机可以将收到的畸变波形与本地已知的理想波形进行对比。这种对比的核心目的就是提取出信道的瞬时冲激响应(CIR)或频域响应(CFR)。

信道均衡是对抗严重码间串扰(ISI)的终极修复武器。
一旦信道估计模块给出了当前信道的“病历”,均衡器就会立刻根据这个信息构造出一个与信道特性完全相反的补偿滤波器(即信道的逆系统)。如果信道把某个频段的能量削弱了,均衡器就把它放大;如果信道因为多径效应把前一个码元的拖尾拉长了,均衡器就产生一个反向的波形去精确抵消它。
通过信道均衡,我们人为地将“恶劣信道+均衡器”的总响应重新强行拉回平坦状态,从而让信号在到达最终判决器时,能够再次满足奈奎斯特无串扰准则,真正实现复杂环境下的高可靠传输。

  • 信道均衡是在时域做还是频域做?

两者皆可。
在传统的单载波系统中(如早期电视或 2G 通信),均衡通常在时域通过抽头延迟线(如线性横向滤波器)完成;
而在现代的 OFDM 系统(如 4G/5G/Wi-Fi)中,由于引入了循环前缀,多径信道被转化为多个平坦的子信道,均衡可以直接在频域通过极其简单的单抽头复数除法(即频域均衡,FDE)高效实现。

  • 盲均衡(Blind Equalization)和普通均衡有什么区别?

普通均衡需要发送端浪费一部分带宽来传输已知的导频或训练序列供接收端计算。
而盲均衡技术不依赖任何已知的训练序列,完全凭借接收信号本身的统计特性(如恒包络特性或高阶累积量)来自适应地估算并消除信道畸变,从而最大限度地节省了宝贵的物理频谱资源。

  • 既然 OFDM 能把频率选择性信道变成平坦信道,OFDM 系统还需要均衡吗?

依然需要,但过程被大幅简化了。
OFDM 虽然消除了子载波间的码间串扰(ISI),但每个子载波经过信道后仍然会发生各自独立的幅度衰减和相位旋转。接收端必须通过信道估计得知每个子载波的具体衰落系数,然后通过频域均衡将畸变的星座图点重新“反向旋转并缩放”回标准位置,否则同样无法进行正确的数字判决。

1.4.8 能否介绍一下信道估计技术?

信道估计是接收机为了还原发送信号而必须进行的“环境建模”过程。
当电磁波穿过复杂的物理空间时,多径衰落、多普勒频移以及阴影效应会对信号的幅度和相位造成严重的随机扭曲。
如果把通信看作是解一个方程 Y=HX+NY = H \cdot X + N,其中 XX 是未知的发送数据,YY 是接收端收到的畸变波形,那么信道估计的核心任务就是通过数学手段精准求解出代表信道状态矩阵的 HH。只有搞清楚了环境对信号施加了怎样的“滤镜”(即信道冲激响应或频域响应),接收端才能在后续的均衡模块中把这个滤镜的效果“反向剥离”,从而恢复出原始的干净数据。

现代通信系统最依赖的是基于导频(Pilot)的辅助估计技术。
这就好比在运送一批贵重且未知的货物时,故意在其中夹带一些收发双方都事先约定好的“标准参照物”。接收机收到这些导频信号后,会将其与本地存储的完美版本进行对比,通过经典的最小二乘法(LS)或最小均方误差法(MMSE)推算出信道在这些特定时频位置上的畸变程度。
随后,系统利用插值算法(如线性插值或样条插值),将这些离散点上的信道状态平滑扩展到整个数据频段,从而绘制出一幅完整的信道衰落全景图,为高阶 QAM 等对幅相极其敏感的调制方式提供了解调基准。

传统的导频技术虽然稳定,但不可避免地会挤占宝贵的有效数据带宽。
为了打破这一瓶颈,学术界和工业界发展出了盲信道估计(Blind Estimation)与半盲信道估计技术。
盲估计彻底抛弃了浪费带宽的导频序列,转而直接利用接收信号的高阶统计特性(如恒包络特性或循环平稳性)来反推信道参数。虽然盲估计极大地提升了传输效率,但它面临着计算复杂度极高、收敛速度慢且存在相位模糊等致命缺陷。
因此,在目前的 5G 甚至未来的 6G 演进中,结合了少量导频与大量数据特征的半盲估计,以及基于深度学习的端到端信道预测网络,正在成为解决高速移动与海量天线(Massive MIMO)场景下信道获取难题的终极方向。

  • LS 和 MMSE 估计算法有什么本质区别?

LS(最小二乘)算法极其简单,它完全忽略了噪声的影响,直接用接收信号除以导频信号,但在低信噪比下误差极大。
MMSE(最小均方误差)算法则将信道的统计先验信息和噪声方差纳入计算,在牺牲一定计算复杂度的前提下,实现了各种噪声环境下的最优估计性能,是现代接收机的标配。

  • 在 OFDM 系统中,导频是怎么分布的?

主要有三种方式:
块状导频(Block)适用于频率选择性衰落但时间变化慢的慢衰落信道;
梳状导频(Comb)适用于快衰落但频率平坦的信道;
而散布式导频(Scattered,即钻石型分布)则是现代 4G/5G 中最常用的方案,它能够在时间和频率两个维度上同时高效地捕捉动态衰落特征。

  • Massive MIMO 系统对信道估计提出了什么新挑战?

天线数量激增导致需要估计的信道参数呈爆炸式增长,如果继续在下行链路使用传统导频,会产生严重的导频污染(Pilot Contamination)并耗尽带宽。
目前主要依靠 TDD(时分双工)模式下的信道互易性,仅通过基站接收上行导频来推导下行信道,从而巧妙避开了海量参数估计的计算灾难

1.4.9 在实际系统中,为什么大多采用非盲信道估计而非盲估计?LS和MMSE估计的主要区别是什么?什么时候用LS,什么时候用MMSE?导频插入方式(块状、梳状、离散)各有什么优缺点?信道估计和均衡是什么关系?

实际系统大多采用非盲信道估计(基于导频)而非盲估计。
盲估计虽然能够节省导频开销、提高物理频谱效率,但它需要收集海量的数据样本来统计信号的高阶特征,导致计算复杂度极高、收敛时间极长,且往往存在无法解决的绝对相位模糊问题。
相反,非盲估计通过插入收发双方已知的确知信号(导频),将复杂的非线性盲猜转化为了极其简单的线性代数求解。这种方式虽然牺牲了少量的物理带宽(通常占 5% 到 10%),但换取了极低的信号处理延迟和绝对可靠的相位基准,完美契合了现代数字通信系统对低延迟和低功耗硬件的严苛要求。

LS(最小二乘)与 MMSE(最小均方误差)估计的主要区别在于是否将环境噪声纳入数学考量。
LS 估计算法极其简单粗暴,它直接用接收到的信号除以已知导频来求取信道响应,完全无视了加性白噪声的存在,因此在低信噪比环境下误差会被严重放大,导致估计出的信道起伏剧烈。
而 MMSE 估计则巧妙地利用了信道的自相关矩阵和噪声方差,在均方误差最小的准则下对 LS 的结果进行了平滑过滤。
在实际工程选择上,当系统处于高信噪比环境或终端硬件 DSP 算力极其受限时,通常优先使用低延迟的 LS 估计;而当信道条件恶劣、噪声干扰严重,且设备具备足够算力时,则必须启用 MMSE 估计以逼近系统的理论性能极限。

导频的插入方式直接决定了系统应对复杂环境的能力。
块状导频(Block)在时间上周期性插入完整的导频符号,它在频域极其密集,非常适合频率选择性衰落严重但时间变化缓慢的室内慢衰落信道,缺点是对高速移动场景束手无策。
梳状导频(Comb)则在所有时间符号的特定子载波上连续发送,它在时域极其密集,专门用于对抗高铁等带来的多普勒快衰落,但无法精确描绘频域的深谷。
为了兼顾两者的优势,现代 4G/5G OFDM 系统广泛采用了离散状(散布式/钻石型)导频,它在时频二维网格中交错均匀散布,能够用最少的导频开销同时追踪时间与频率的二维动态衰落,是目前兼顾频谱效率与测向性能的最优解。

信道估计与信道均衡构成了密不可分的“诊断与治疗”关系。
信道估计是前置的“环境探测器”,它的唯一任务是算出当前无线电波到底经历了怎样的幅度衰减和相位旋转,最终输出一个精确的信道状态信息(CSI)矩阵。
然而,仅仅知道信道多糟糕并不能恢复数据。
信道均衡则是紧随其后的“手术刀”,它直接利用信道估计输出的 CSI 参数,构造出一个与信道畸变完全相反的逆系统滤波器。
通过将接收到的信号强制通过这个逆滤波器,均衡器在数学上强行抵消了多径效应带来的码间串扰,从而为最终的数字判决清洗出干净的星座图点。

  • 为什么高速移动场景下信道估计会变得极其困难?

高速移动会产生严重的多普勒频移,导致信道在极短的时间内发生剧烈变化(即时间选择性衰落变快)。此时,由于信道的相干时间变短,接收机必须极其频繁地插入导频才能实时“看清”环境的变化,这不仅导致导频开销急剧增加,还会严重挤占有效数据的传输带宽。

  • 插值算法在离散导频系统中扮演了什么核心角色?

离散导频只在特定的时频网格点上提供了信道的真实采样。
插值算法(如一维的线性插值或高阶的二维维纳滤波)就像是“连点成线”的画笔,它利用有限的已知导频点,通过数学推演估算出所有未发送导频的数据位置处的信道响应,这是恢复完整信道频率响应(CFR)全景图的必经环节。

  • MIMO 系统中的信道估计面临什么特殊的干扰问题?

天线数量的成倍增加导致需要估计的信道路径呈指数级爆炸。如果不同发射天线发送的导频序列之间不正交,就会在接收端产生严重的导频污染(干扰)。
因此,MIMO 系统必须设计极其复杂的正交导频序列(如利用时间、频率或码域正交),以确保接收机能够清晰区分出信号究竟来自哪一根物理天线。

1.4.10 为什么要做信道均衡?

做信道均衡的根本目的是为了消除极其致命的码间串扰(ISI)。
在真实的无线电或高速有线传输环境中,信号会经过高楼反射、山体折射或电缆的低通滤波效应,导致原本极其干净的独立脉冲在到达接收端时,被拉伸成了拖着长长尾巴的畸变波形。
当传输速率不断攀升时,这些延迟到达的多径信号会严重侵入并覆盖相邻码元的判决区间,使得接收机根本无法分辨当前时刻发送的究竟是“0”还是“1”。

信道均衡器本质上是在接收端人为构建一个与真实信道特性完全相反的“逆滤波器”。
既然自然信道像一个不受控制的滤镜,随机削弱了某些高频成分或扭曲了特定的相位,接收机就必须利用之前通过信道估计获取的“病理报告(信道状态信息)”,在数字域实时生成一副对症下药的解药。
通过让畸变信号穿过这个逆向补偿系统,均衡器在数学上强行把“恶劣信道+均衡器”的综合频率响应拉平,从而恢复信号原本的正交性与平坦度。

不做信道均衡,现代宽带通信系统将寸步难行。
在示波器上直观地看,严重的码间串扰会导致接收信号的“眼图”完全闭合,此时任何抽样判决都会产生海量的误码。
信道均衡的作用就是像一只无形的手,强行把闭合的眼图重新撑开,为后续的判决器清理出最大、最清晰的噪声裕量(判决空间)。
正是因为有了这项技术,我们的 4G/5G 网络和高速光纤才能在极其恶劣的物理环境中,依然维持着千兆级别的极限数据吞吐量。

  • 线性均衡器和非线性均衡器(如判决反馈均衡器 DFE)有什么本质区别?

线性均衡器就像一个普通的横向滤波器,它在放大高频信号以补偿信道衰减的同时,也会不可避免地放大高频背景噪声。
而非线性的判决反馈均衡器(DFE)极其巧妙,它将已经判决出的正确数字信号重新引入反馈回路,用来精确抵消它们对后续码元造成的拖尾干扰,这种做法完全不会放大信道噪声,是对抗严重多径衰落的工程利器。

  • 为什么在 OFDM 系统中,均衡变得非常简单?

在传统的单载波宽带系统中,均衡必须在时域使用极长抽头的复杂滤波器来对付 ISI。
而 OFDM 技术通过引入循环前缀(CP)和将宽带划分为多个窄带子载波,接收机只需要把每个子载波的接收值除以它对应的信道衰落系数,就能瞬间完成波形的复原。

  • 自适应均衡器(Adaptive Equalizer)是如何工作的?

自适应均衡器内部包含一套实时更新的权重系数算法(如 LMS 最小均方算法或 RLS 递归最小二乘算法)。
它能够根据信道的动态变化,通过计算本地期望信号与实际接收信号的误差,来自动调整滤波器的抽头系数。
这就使得即便你正坐在时速 300 公里的高铁上,手机里的均衡器也能死死咬住那飞速变化的无线电波,持续为你输出清晰的信号。

1.4.11 简要阐述眼图的产生过程、眼图的作用、眼图中衡量传输质量的指标。

眼图的生成机制就是极其暴力地将示波器的水平扫描周期强制锁定为与接收端码元定时时钟(位同步时钟)绝对相等的整数倍,从而将源源不断、拖着长长尾巴的畸变基带波形像折纸一样,一段一段地切开并无限重叠在同一个屏幕上。
由于这些不同组合的波形轨迹在屏幕上疯狂叠加后,其留下的视觉余辉恰好构成了一个形似人类眼睛的闭合图形,这就诞生了数字通信中最伟大的时域诊断工具——眼图。

在没有眼图之前,我们很难量化复杂的滤波器特性和恶劣信道对波形造成的综合破坏。
眼图的最核心作用是极其直观地展示出码间串扰(ISI)和加性白噪声对信号的物理侵蚀程度,并极其精准地指引接收机在“眼睛”张得最大、最清晰的那个黄金时刻按下抽样判决的快门。

在眼图中,“眼睛”张开的绝对垂直高度直接决定了系统在不发生误判的前提下,能够容忍的最极端加性噪声的判决裕量(抗噪能力)。
而水平张开的宽度则代表了系统对本地时钟相位偏移(定时抖动)的绝对容忍范围。
此外,眼皮轮廓的倾斜斜率无情地揭示了定时误差对信号幅度衰减的敏感程度:斜率越陡,说明稍微一点时钟偏移就会导致幅度雪崩;
而那些水平方向上极其散乱的过零点交汇区,则直接暴露了系统信道中存在着极其严重的多径时延或相位抖动。

  • 如果我们在示波器上看到一只“完全闭合”的眼图,这意味着什么物理灾难?

完全闭合的眼图意味着码间串扰(ISI)或高斯噪声已经极其严重地吞噬了所有的判决空间。
此时,波形的波峰和波谷已经彻底混杂在一起,接收机根本无法找到任何一个安全的抽样时刻来区分“0”和“1”,整个通信链路的误码率将直接飙升到无法挽回的极限,系统彻底瘫痪.

  • 眼图的“眼皮”线条变得极其粗糙和模糊,通常是哪种物理干扰造成的?

这是典型的加性高斯白噪声(AWGN)留下的物理痕迹。
码间串扰(ISI)通常只会让眼图内部的净空变小,但线条依然是清晰的;
而无处不在的高斯热噪声会像无数微小的锯齿一样,直接附着在每一根波形轨迹上,导致重叠后的线条变得极其毛糙、发虚,甚至完全糊成一团。

  • 在眼图中,最佳的抽样判决时刻具体应该选在什么位置?

毫无疑问,必须极其严苛地选在眼图中央“眼睛”张开度最大、垂直净空最高的那个物理纵轴上。
因为在这个瞬间,代表“1”的电平和代表“0”的电平之间的物理距离被拉得最远,系统拥有最宽广的护城河来抵御瞬间突发的电压噪声尖峰,从而实现误码率的绝对最小化。

1.4.12 什么是同步?为什么需要同步?

同步是指接收端在时间、频率或相位上与发送端保持步调一致的物理过程。
在复杂的电磁波传输中,发送端发出的载波振荡和脉冲节拍到达接收端时,往往已经经历了未知的延时和频移。
同步的核心任务就是让接收机的本地时钟、载波发生器以及数据成帧逻辑,精准地“咬合”住接收信号的节奏。
无论是高频的载波相位(载波同步)、基带的抽样时刻(符号同步/位同步),还是数据包的起始边界(帧同步),都需要通过专门的同步电路或算法来实现时间维度的绝对对齐。

在相干解调中,如果本地载波与接收信号存在微小的频率差或初始相位差,星座图上的判决点就会发生疯狂的旋转或严重的幅度衰减,导致原本正交的同相(I)和正交(Q)分量产生不可逆的串扰。
而在数字基带处理中,符号同步(位同步)决定了抽样判决的“黄金时刻”。如果抽样时钟发生偏移,接收机就会在脉冲的边缘甚至相邻脉冲的重叠处进行采样,这不仅会引入极大的码间串扰(ISI),还会使得之前精心设计的奈奎斯特滤波器和信道均衡器彻底失效。
帧同步(群同步)负责在漫无边际的比特流中寻找特定特征的“同步字”或“前导码”,从而准确划定一段有意义的数据包的起点和终点。如果帧同步失败,接收机就会将数据截断或错位,导致整个数据链路层校验崩溃,上层的音频、视频或文件传输将瞬间中断。因此,同步是搭建在混乱模拟物理世界之上,维持数字通信秩序的最基础、最不可或缺的生命线。

  • 载波同步、位同步和帧同步的先后顺序是怎样的?

在绝大多数接收机架构中,这三者有着严格的先后依赖关系。首先必须完成载波同步以剥离高频载波并恢复出基带信号;
接着在基带信号上进行位同步(符号同步),找到最佳抽样点以恢复出准确的 0 和 1 比特流;
最后在干净的比特流中寻找固定的同步字,完成帧同步以划分数据包。

  • 锁相环(PLL)在同步中扮演了什么角色?

锁相环是实现物理层同步的绝对核心电路。它通过鉴相器(比较相位差)、环路滤波器(平滑电压)和压控振荡器(VCO)的负反馈机制,能够极其敏锐地捕捉并自动追踪输入信号的频率和相位变化,确保本地载波或时钟与发送端严丝合缝地锁定在一起。

  • 异步传输(如 UART 串口通信)难道不需要同步吗?

异步传输同样需要同步,只是它的同步成本极低。它不发送全局的独立时钟信号,而是通过在每个极短的字符(通常是 8 个比特)前后强制添加起始位和停止位,让接收机在每个字符到达时进行极其短暂的“重新对齐”。
这种方式只适用于低速短距离通信,一旦速率提高,时钟漂移就会导致严重的采样错位。

1.4.13 二元PAM和多元PAM的关系?

二元 PAM 是多元 PAM 的基础。通常 MM 进制序列可以视为由二进制序列转换而来,转换时将每 KK 个比特映射为一个 MM 进制符号(即 M=2KM=2^K)。

2PAM 接收最简单,抗干扰能力强。相比之下,多元 PAM(如 256PAM)拥有极多电平,在功率受限的物理系统中,过多的电平意味着电平间距变小,极易受噪声干扰导致判决错误,对接收机的分辨率要求也更高。

发送同样长度的数据序列时,若采用相同宽度的脉冲,2PAM 需要更长的传输时间。若要求在相同时间内传完,2PAM 必须采用更窄的脉冲,而窄脉冲意味着信号占用的带宽更大。因此,多元 PAM 存在的意义在于通过牺牲可靠性来提高频带利用率。

1.4.14 描述数字基带系统传输数据的速率有两种方式,一个是符号速率,一个是比特率,两者有何联系?

它们都是用来描述系统的数据传输速率,只不过从不同的维度来衡量系统的传输能力。

符号速率是指单位时间内传输的码元(符号)个数,单位为 Baud(波特)。每一个码元代表了 MM 进制序列中的一个可能取值,它由特定的传输脉冲 gT(t)g_T(t) 承载。

比特率是指单位时间内传输的平均信息量,单位为 bit/s(比特每秒**)**。它反映了系统实际传递数据的快慢。

对于二元系统(2PAM):由于 M=2M=2log22=1\log_2 2 = 1,此时符号速率在数值上等于比特率
对于多元系统,由于每个符号代表多个比特(如 4PAM 对应 2 比特,256PAM 对应 8 比特),在传输相同比特率的数据时,多元系统的符号速率更低,频带利用率更高。

1.4.15 简要分析数字基带信号的一些常见码型的功率谱和带宽

下表针对矩形脉冲波形,对比了四种基本码型的核心物理特性:

码型名称 符号表示 是否含离散谱 第一零点带宽 BTB_T 特性与存在意义
单极性 NRZ {0,A}\{0, A\} 含直流分量 RbR_b 含有强烈的直流功率;判决门限与信号幅度有关,稳定性差。
双极性 NRZ {A,+A}\{-A, +A\} 无离散谱 RbR_b 均值为零,无直流分量;抗噪声性能好,但无法直接提取位同步时钟。
单极性 RZ {0,A}\{0, A\} 含直流及 f=Rbf=R_b 时钟分量 2Rb2R_b 可直接提取位同步时钟信号;但带宽比 NRZ 加倍,频谱效率较低。
双极性 RZ {A,+A}\{-A, +A\} 取决于对称性 2Rb2R_b 兼具无直流特性(对称时)和同步潜力,但带宽占用同样较大。

关键结论分析

  1. 带宽权衡:不归零(NRZ)码的脉冲宽度等于码元间隔 TbT_b,而归零(RZ)码的脉冲通常只占半个时隙(占空比 50%)。 根据时频对偶原理,时域脉冲窄了一半,频域的第一零点带宽就增加了一倍。
  2. 同步能力:单极性 RZ 码在频谱中会出现位于 RbR_b 处的离散线谱,这使得接收端可以直接通过窄带滤波器提取位同步时钟,而 NRZ 码通常需要经过非线性变换(如平方律处理)才能提取时钟。
  3. 功率谱与元数无关:需要注意的是,2PAM 与 MPAM 在采用相同脉冲形状时,其功率谱密度曲线的形状是完全一致的,区别仅在于多进制信号通过降低 RsR_s 来压缩了带宽的绝对值。

1.4.16 如何理解信道不理想会导致信号的脉冲展宽?

非理想信道特性 → 时域/频域扭曲 → 脉冲展宽 (Pulse Broadening) → 码间串扰 (ISI) → 误码率上升

幅频失真使得信道对不同频率成分的衰减程度不同(如带宽受限导致的低通特性),这就使得高频信息丢失,从而脉冲边缘变得圆滑,能量从中心向两侧“溢出”,导致波形在时域上变胖。

相频失真主要原因是高频分量和低频分量在信道中的传输时间不同,原本在发送端“齐头并进”的所有分量,到达接收端时因为到达时间不一,导致相位错位,脉冲能量在时间轴上被拉散(Dispersion),峰值降低,基座变宽。

1.4.17 什么是吉布斯现象?

对于包含第一类间断点(跳变点)的函数 f(t)f(t),其傅里叶级数的前 NN 项和 SN(t)S_N(t) 在跳变点附近表现出特殊的收敛特性。当 NN \to \infty 时,SN(t)S_N(t) 在任何非间断点都趋于 f(t)f(t),但在间断点 t0t_0 附近,收敛序列并不满足一致收敛。这意味着在间断点邻域内,误差的最大值并不会随 NN 的增大而趋于 0。增加谐波分量(增大带宽 NN)只能让振荡的频率变高、向跳变点“挤压”,但峰值幅度不会减小。只要频域存在“硬截断”,过冲就永远恒定在约 9%。

吉布斯现象本质上是理想低通滤波 (Ideal Low-pass Filter) 的必然副产物。
限制带宽等效于在频域将原始信号的无限频谱 X(f)X(f) 乘以一个矩形窗函数 H(f)=rect(f/2B)H(f) = \text{rect}(f/2B)。根据卷积定理,矩形窗对应的时域单位冲激响应是 h(t)=2Bsinc(2Bt)h(t) = 2B\text{sinc}(2Bt)。输出信号 y(t)=x(t)h(t)y(t) = x(t) * h(t)。当具有无限震荡拖尾的 sinc\text{sinc} 函数与信号的跳变沿进行卷积时,其侧瓣 (Side-lobes) 的能量会在跳变瞬间由于积分效应产生“累积”与“抵消”的波动,形成波形边缘的起伏振荡。

在工程上,升余弦滚降滤波器通过修改频域窗口边缘的形状,从数学层面解决了间断点带来的震荡。 通过 平滑截断,赋予高频分量一个缓和的衰减权值。这使得信号在时域合成时,各个频率分量能以更协调的方式相互抵消,从而在跳变沿实现平滑过渡。这种极快的衰减速率迅速“吸收”了卷积过程中产生的侧瓣能量,使得信号在跳变沿附近几乎不再产生过冲,从而彻底消除吉布斯现象带来的波形失真。

1.4.18 什么是部分响应系统?

在数字基带传输中,部分响应系统(Partial Response System) 是一种为了在有限带宽信道中达到理论极限传输速率(奈奎斯特速率),同时克服理想低通滤波器物理不可实现性而设计的方案。

理论上,带宽为 WW 的信道最高能以 2W2W 波特的速率进行无码间串扰(ISI)传输。但这要求系统频谱具有陡峭边缘的矩形特性(理想低通滤波器),其时域波形的拖尾衰减极慢(按 1/t1/|t| 衰减),导致系统对定时误差(抖动)极其敏感。为了使拖尾衰减加快,工程上常采用升余弦滚动降特性,但这必须以增加带宽(即降低频带利用率)为代价。

部分响应系统通过主动引入 ISI,它不再追求抽样点上绝对无串扰,而是通过编码在前后符号间有目的地引入相关的码间串扰。由于这种串扰是人为引入、规律可循的(确知的),因此可以在接收端通过解码将其消除。这种相关编码使得系统的总频响不再需要陡峭的边缘,而是呈现平滑衰减的特性,从而在物理上易于实现。

1.4.19 符号同步是什么?有何意义?

符号同步就是接收端产生一个与接收信号的码元频率完全相同、相位保持固定关系的本地定时脉冲序列(时钟信号)的过程。

该定时信号通常指向码元的中央(如 LPF 接收系统)或末端(如匹配滤波器接收系统),以确保在信号幅度最稳定、信噪比最高的时刻进行抽样判决。
如果没有准确的符号同步,抽样时刻会发生偏移(定时抖动),导致抽样值偏离信号峰值,从而增大误码率。

常见的符号同步方法有两种。
外同步法(辅助信息同步):发送端在发送数据序列的同时,额外发送专门的同步导频信号(如在信号频谱的零点处插入一个时钟分量)。实现简单但需要占用额外的信道带宽或发射功率,在窄带通信中不够经济。
自同步法(非辅助信息同步):开环自同步:利用非线性变换(如平方律、微分整流)从接收信号的功率谱中提取位于 f=Rsf=R_s 处的离散线谱,再通过窄带滤波器或锁相环获取时钟;闭环自同步(如早迟门同步):利用信号波形的对称性,通过反馈控制环路不断修正本地时钟的相位,使其锁定在“眼睛”张开最大的位置。

1.4.20 有什么常见的线路码型?

常见基本线路码型分析

根据教材提供的波形与规则,以下是几种主流线路码型的特性总结:

码型名称 编码规则简述 主要特点 应用场景
双极性 NRZ “1”和“0”分别对应正负电平。 无直流分量,抗噪性能好。 基础基带传输
AMI 码(交替信号反转码) “0”电平保持不变,“1”交替表现为正负电平。 无直流分量,且具备检错能力;但怕长连“0”。 北美电话系统接口
数字双相码 (曼彻斯特码) 用电平跳变方向表示符号(如 10 为 1,01 为 0)。 自同步能力极强,每个码元中心均有跳变;但带宽加倍 10Mbps 以太网
CMI 码(信号反转码) “1”交替为11与00,“0”固定为“01”跳变脉冲。 规律清楚,易于检错,无直流成分。 ITU-T 接口标准
Miller 码 (密勒码) 由双相码演变而来,跳变规则更复杂。 能够克服双相码的定时相位不确定性。 磁带记录系统

进阶码型:HDB3 码

HDB3 码(三阶高密度双极性码)是 AMI 码最重要的改进型:

  • 解决痛点:它保持了 AMI 码无直流、易检错的优点,同时解决了 AMI 码在遇到长连“0”时无法提供定时时钟的问题。
  • 核心原理:当出现 4 个及以上连“0”时,将第四个“0”替换为特殊的“破坏码元” VV,并根据规则插入调节码元 BB,以确保 VV 与前一个非零电平同极性,且相邻 VV 码极性交替。
  • 地位:它是 ITU-T 推荐使用的码型之一,广泛用于现代数字通信干线。

1.4.21 在选择或设计码型时,通常需要综合平衡哪些核心因素?

功率谱形状:是否包含直流分量影响信号能否通过交流耦合电路传输。

传输带宽:带宽应尽量小,以提高频带利用率。

定时信息:码型中应包含足够的定时信息,以便接收端建立同步时钟,防止长连“0”或长连“1”导致同步丢失。

检错能力:部分码型自身具备规律性特征,能够在不增加额外开销的情况下进行初步检错。

抗噪性能:不同波形的抗噪能力不同,例如双极性信号通常优于单极性信号。

1.5 基本数字频带传输系统

1.5.1 对比2ASK、2FSK、2PSK、QPSK、2DPSK(分别从发展历史、基本原理、基本公式、相干解调下误比特率公式、非相干解调下误比特率公式、误比特率之间的差距、带宽大小、理论最小带宽、最高频带利用率)

1️⃣ 发展历史、基本原理、基本公式

调制方式 发展历史 基本原理 信号公式
2ASK/BASK 早期有线和低速无线通信 通过幅度变化表示 0/1 sASK(t)=Acm(t)cos(2πfct)s_{ASK}(t) = A_c m(t) \cos(2\pi f_c t)
2FSK/BFSK 抗噪声要求高的远程通信 通过不同频率表示 0/1 sFSK(t)=Accos(2πf0/1t)s_{FSK}(t) = A_c \cos(2\pi f_{0/1} t)
2PSK/BPSK 高可靠性无线、有线通信 通过相位变化表示 0/1 sBPSK(t)=Accos(2πfct+πm(t))s_{BPSK}(t) = A_c \cos(2\pi f_c t + \pi m(t))
QPSK 提高频谱效率,卫星和移动通信 每符号承载 2 个比特 sQPSK(t)=I(t)cos(2πfct)+Q(t)sin(2πfct)s_{QPSK}(t) = I(t)\cos(2\pi f_c t) + Q(t)\sin(2\pi f_c t)
2DPSK/DQPSK 移动通信,降低载波同步难度 通过符号间相位差表示信息 sDQPSK(t)=Accos(2πfct+πdk)s_{DQPSK}(t) = A_c \cos(2\pi f_c t + \pi \sum d_k)

2️⃣ 相干/非相干解调误比特率对比

调制方式 相干解调 PbP_b 非相干解调 PbP_b 误码性能排序
2ASK/BASK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等
2FSK/BFSK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等偏好相干
2PSK/BPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优
QPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优(每比特性能与BPSK相同)
2DPSK/DQPSK Pb2Q(2EbN0)P_b \approx 2 Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) Pb=12exp(EbN0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{N_0}\Big) 相对QPSK在相干上约1 dB损失

总结误码率排序(高到低)

QPSK/BPSK(相干)>相干FSK/ASK(约3 dB损失)>非相干FSK/ASK(约3 dB再损失)\text{QPSK/BPSK(相干)} > \text{相干FSK/ASK(约3 dB损失)} > \text{非相干FSK/ASK(约3 dB再损失)}

QPSK/BPSK(相干)>DPSK/DQPSK(差分检测,约1 dB损失)\text{QPSK/BPSK(相干)} > \text{DPSK/DQPSK(差分检测,约1 dB损失)}

  • PSK与QPSK是几种方式中性能最优秀、复杂度最高的,适用于要求高的应用,尤其是QPSK,其占用的频带是最少的。

  • DPSK与DQPSK当信道质量较好时,差分检测的性能接近最佳(差别小于1dB)。这种方式接收较为简单,且没有“不确定性反相”问题,因而非常实用。

  • FSK是一种性能一般的传输方式,当信道质量较好时(EbN0\frac{E_b}{N_0}高),FSK的非相干接收性能接近最佳(差别小于1dB)。因而,非相干接收方法更为实用。其实,FSK占用频带多,其重要特点是在AWGN以外的更恶劣信道上,例如在衰落或有干扰的信道上,FSK比其他几种传输方式更为“顽强”。(信号信息存储在频率上,相对于幅度或相位更不易被衰落或幅度/相位干扰破坏)

  • 最后,非相干ASK主要适用于信道质量好,要求传输设备尽量简单的应用。


3️⃣ 带宽、最小带宽、频谱效率对比

调制方式 典型带宽 理论最小带宽 最高频率利用率 说明
2ASK/BASK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 非相干解调简单,频谱效率低
2FSK/BFSK B2/Tb+ΔfB \approx 2/T_b + \Delta f 1/Tb1/T_b 2/3 bit/s/Hz 占用带宽大,但抗噪声好
2PSK/BPSK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 相干解调,误码性能最佳
QPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s 2 bit/s/Hz 每符号 2 bit,提高频谱效率
2DPSK/DQPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s ~1.8–2 bit/s/Hz 差分检测牺牲少量误码性能,但实现更简单

核心记忆点

  1. 误码性能:QPSK/BPSK > 相干FSK/ASK > 非相干FSK/ASK > DPSK/DQPSK
  2. 频谱效率:QPSK ≈ DQPSK > BPSK/FSK > ASK
  3. 实现复杂度:非相干ASK/FSK < DPSK/DQPSK < BPSK/QPSK
  4. 选择原则
    • 低速或成本敏感 → ASK/FSK(非相干)
    • 高可靠高速 → BPSK/QPSK(相干)
    • 移动或载波漂移 → DPSK/DQPSK(差分解调)

1.5.2 简要介绍一下MASK、MFSK、MPSK、QAM。(Tips:相关历史及发明目的、公式及原理、信号功率谱和带宽、误码性能比较)

1️⃣ 发展历史与发明目的

调制方式 历史与目的
M-ASK 基于2ASK扩展到多电平,最早用于低速有线数字通信,提高比特率
M-FSK 基于2FSK扩展到多频,早期用于无线远程通信,提高频谱利用率与抗干扰能力
M-PSK 由BPSK/QPSK扩展而来,用于高频谱效率场合,每符号承载多比特
QAM 将幅度调制与相位调制结合,每符号承载更多比特,高频谱效率;广泛用于有线、光纤、无线高速通信

2️⃣ 信号公式与基本原理

调制方式 信号公式 原理说明
M-ASK sMASK(t)=Aicos(2πfct)s_{MASK}(t) = A_i \cos(2\pi f_c t)i=1,2,...,Mi = 1,2,...,M 不同幅度表示不同符号,每个符号携带 log2M\log_2 M 比特
M-FSK sMFSK(t)=Accos(2πfit)s_{MFSK}(t) = A_c \cos(2\pi f_i t)i=1,2,...,Mi = 1,2,...,M 不同载波频率表示不同符号,每符号 log2M\log_2 M 比特;频率间隔需保证可分辨
M-PSK sMPSK(t)=Accos(2πfct+2πi/M)s_{MPSK}(t) = A_c \cos(2\pi f_c t + 2\pi i/M)i=0,1,...,M1i = 0,1,...,M-1 每个符号对应 MM 个离散相位,符号承载 log2M\log_2 M 比特
QAM sQAM(t)=Iicos(2πfct)+Qisin(2πfct)s_{QAM}(t) = I_i \cos(2\pi f_c t) + Q_i \sin(2\pi f_c t)(Ii,Qi)(I_i,Q_i) 为星座点 将幅度与相位组合形成星座,每个符号承载 log2M\log_2 M 比特;可实现高频谱效率

3️⃣ 功率谱与带宽

调制方式 功率谱/带宽特征 最小带宽估算 最小带宽估算
M-ASK 基本与2ASK类似,幅度级数增加会使信号幅度分布复杂 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx1/T_s
M-FSK 每个频率间隔需分开,带宽随 MM 增加线性增长 B2/Ts+(M1)ΔfB \approx 2/T_s+(M-1)\Delta f Bmin(M+1)/2TsB_{min} \approx (M+1)/2T_sBmin(M+1)/2TsB_{min} \approx (M+1)/2T_s
M-PSK 带宽与符号率相关,与M值增加关系不大 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s
QAM 类似M-PSK,但幅度变化导致功率谱更分散 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s

4️⃣ 误码性能比较

  • 在QAM、MPSK与MASK三种方式之间,QAM的误码性能最好,MPSK次之,MASK最差。并且随着M的增加,这种差距会更大。所以在实际应用中,当M较高时,应该首先选择QAM;当M中等时(8或16),也经常见到MPSK,因为可以利用到其恒包络的优点;只有在少数特殊情况中才会使用MASK,它简单直观,能在理论分析中具有一定的研究意义
  • QAM、MPSK、MASK的误码性能随着M的增加逐渐下降,这是它们获得更高频带利用率的代价;于此恰好相反,MFSK的误码性能随着M的增加而逐渐上升,这是它牺牲频带利用率的结果。其实,它们是具有不同特性的两类方式
  • 通信系统的信道带宽、噪声程度与信号功率是三个最基本的因素。在频带资源受限、信号功率充分的情况下,可以尽量运用QAM与MPSK,借助它们实现高的频带利用率,并通过加大发送功率保障误码性能;在频带资源丰富、信号功率受限的情况下,可以尽量运用MFSK,通过充分利用带宽实现可靠通信。
  • 工程应用中必须平衡考虑各种因素,包括恒包络特性,实现复杂度,经济成本与开发时间等等。例如,常常希望信号包络平稳以便利用非线性功放的效率,这时FSK,PSK, OQPSK,/4DQPSK是不错的方案,尤其是具有连续相位的CPFSK,CPM,甚至经高斯预滤波的GFSK与GMSK,如第8章所述。有时还希望使用非相干解调以降低接收机难度,那么,FSK,DPSK,DQPSK,/4DQPSK,以及第8章讨论的MSK与GMSK等方案可选。

理解要点

  1. 理解要点

    • 误码性能:QAM > MPSK > MASK,M越大差距越大;MFSK特殊,M越大误码率越低。
    • 带宽与功率选择
      • 频带紧、功率充足 → QAM、MPSK(高频谱利用率)
      • 频带宽、功率受限 → MFSK(可靠通信)
    • 恒包络信号(MPSK、FSK、OQPSK、π/4-DQPSK) → 可用非线性功放,高效抗非线性失真
    • 非恒包络信号(QAM、MASK) → 需要线性功放,幅度敏感
    • 接收机选择:相干解调性能好但复杂,非相干解调简单实用

1.5.3 恒包络信号有何优点?

允许使用非线性功放:因为幅度恒定,信号通过非线性放大器(如功率放大器)不会产生严重失真。

抗非线性失真能力强:恒包络信号不依赖幅度信息,只靠相位或频率传输比特,经过非线性信道也能正确解调。

对信号衰落或幅度干扰更鲁棒:在衰落、干扰或多径信道下,幅度可能剧烈变化,但恒包络信号只关心相位/频率,误码率受影响较小。

简化接收机设计:恒包络信号可使用相干或非相干相位/频率检测,无需严格幅度恢复或 AGC(自动增益控制)调整。

1.5.4 简要说一说复包络在数字频带传输中的作用、等效基带系统的研究意义。

复包络的作用是将高频数字频带信号用一个低频复信号表示,把信号的幅度和相位信息都包含在低频基带中,从而可以在低频上进行分析和处理,而无需直接操作高频载波。这不仅简化了数学分析,也方便工程仿真和信号处理,例如滤波、调制和解调等操作都可以在基带完成。

等效基带系统的意义在于,它将复杂的数字频带传输系统等效为低频基带系统,通过基带模型可以直观计算功率谱、带宽和误码率,同时可以统一分析ASK、PSK、QAM等不同调制方式的性能。在工程上,这种方法可以简化设计流程、降低计算复杂度,并为优化滤波、解调和系统性能提供方便。

1.6 模拟系统数字化和PCM

1.6.1 为什么要先信源编码再信道编码,顺序能交换吗?

信源编码的核心目的是“挤水分”,即通过去除原始数据中的统计冗余来实现最大程度的压缩。无论是将庞大的视频压缩成 H.264 还是音频压缩成 MP3,信源编码都在极力让输出的比特流变得毫无规律、接近纯粹的随机状态(熵最大化)。
信道编码的核心目的是“加钢筋”,即在压缩后的纯净数据中人为地、有规律地添加冗余校验位。它通过引入这种可控的数学相关性(如卷积码、LDPC 码),让接收端能够在恶劣的噪声信道中发现并纠正错误。这“一减一加”的物理过程,决定了它们在通信架构中不可动摇的先后位置。

这两个过程的顺序绝对不能交换。
如果先进行信道编码(添加了抗干扰的规律性校验位),然后再送入信源编码器,那么信源编码器会极其敏锐地发现这些由信道编码引入的“规律与冗余”,并毫不留情地将它们当作无用数据全部压缩或剔除掉。
因此,必须先由信源编码提纯出最核心的信息骨架,再由信道编码为这个骨架穿上量身定制的防弹衣。

  • 什么是信源编码中的“熵”?

熵是信息论中衡量信息不确定度或平均信息量的数学尺度。信源编码的终极极限就是将数据的平均比特数压缩到逼近其信源的熵值。此时的数据去除了所有可预测的冗余,每一位都承载着实打实的纯粹信息。

  • 信道编码增加冗余,这难道不是降低了通信效率吗?

在表面上它确实牺牲了一部分有效的传输带宽(即编码效率总是小于 1)。但在恶劣的无线信道中,如果没有这部分抗干扰冗余,误码率会高到让所有收到的数据全部作废。
因此,信道编码本质上是用确定的带宽代价换取了恶劣环境下通信的绝对可靠性。

  • 有没有把信源和信道编码结合在一起的技术?

有,这被称为联合信源信道编码(JSCC)。
在极度受限的无线视频传输或特定的时变信道中,由于香农分离定理要求的“无限长延迟”假设无法满足,系统会打破模块壁垒,让压缩器和纠错器共享信道状态信息,在压缩率和纠错能力之间进行自适应的动态折中调配。

1.6.2 在无线通信中,如何克服多径衰落?

分集技术是对抗多径衰落最经典且有效的物理层手段。
既然单根天线接收到的多径信号可能会因为相位相反而在某处相互抵消(产生深衰落),我们就在空间上部署多根相距一定距离的接收天线,或者在不同的频率、时间片上发送相同的信号。
由于多条路径同时陷入深衰落的概率极低,接收机只需将这些承载着相同信息的独立衰落支路信号,通过最大比合并(MRC)等算法进行相加,就能极大提升接收端的信噪比,将衰落的“劣势”转化为多路备份的“优势”。

信道均衡和 RAKE 接收机是处理多径时延扩展的终极武器。
当多径传播导致相邻码元发生严重的码间串扰(ISI)时,信道均衡器通过在接收端构造一个与实际信道特性完全相反的逆滤波器,强行将展宽的脉冲重新压缩,抵消多径带来的时域重叠。
而在扩频通信中,RAKE 接收机则像一把“耙子”,利用多个相关器分别捕捉不同延迟到达的多径分量,在对齐它们的相位后进行建设性叠加,硬生生地把原本干扰视线的多径变成了增强信号能量的有用资源。

正交频分复用(OFDM)技术彻底改变了宽带通信对抗多径的规则。
传统的单载波系统在面对严重的频率选择性衰落时,均衡器的复杂度会呈指数级爆炸。
OFDM 极其巧妙地将一个宽带信道切割成了成百上千个相互正交的窄带子信道,使得原本复杂的多径畸变在每个子载波上退化成了极其简单的平坦衰落。
配合循环前缀(CP)的引入,OFDM 直接在物理层面上吸收了多径延迟的能量,不仅彻底消除了码间串扰,还让频域上的单抽头均衡变得轻而易举,成为了现代 4G/5G 和 Wi-Fi 网络的绝对基石。

  • 为什么天线分集要求天线之间必须保持一定的距离?

因为只有当空间距离大于半个波长时,两根天线经历的无线电波多径衰落才具有统计上的独立性。
如果靠得太近,它们会同时陷入同一个深衰落坑中,分集合并就失去了备份抗风险的物理意义。

  • 循环前缀(CP)是如何在 OFDM 中消除多径干扰的?

循环前缀是将 OFDM 符号尾部的一小段波形无缝复制并添加到符号头部。
只要多径传播的最大时延扩展不超过 CP 的长度,前一个符号的拖尾就只会在当前符号的 CP 区域内震荡衰减,而绝不会侵入到当前符号的有效积分数据区,从而完美隔离了符号间的串扰。

  • 宏分集和微分集有什么核心不同?

宏分集主要用于克服大尺度衰落(如大型建筑物遮挡造成的阴影效应),通常表现为终端同时与多个不同地理位置的基站建立链路;
而微分集主要克服小尺度衰落(即电磁波干涉引起的多径衰落),通常依靠单台设备上的多根物理天线阵列来实现信号的拾取与组合。

1.6.3 现代通信系统的演进(从1G到5G、关键技术演变)?

模拟语音到数字通信的跨越来看,1G 到 2G 的演进是通信史上最彻底的范式转变。
1G 采用频分多址(FDMA)技术,仅能提供极易被窃听且容量低下的模拟语音服务。
2G 引入了时分多址(TDMA)和码分多址(CDMA)技术,通过将语音信号数字化并进行信道编码,不仅极大地提升了频谱利用率和保密性,还首次让用户体验到了短信等基础数据业务,正式开启了移动通信的数字化纪元。

移动互联网的爆发与底层架构的重构来看,3G 到 4G 的演进标志着网络核心从“语音主导”向“数据主导”的全面让位。3G 时代以宽带 CDMA 技术为核心,勉强推开了移动多媒体的大门;
而 4G 则是一场彻底的物理层革命。4G 果断抛弃了复杂的扩频通信,全面拥抱正交频分复用(OFDM)与多天线(MIMO)技术,建立起全 IP 化的网络架构,用前所未有的频谱效率彻底解决了多径衰落带来的高速传输瓶颈,使得高清视频流媒体和移动支付成为了全社会的数字基础设施。

万物互联与垂直行业的深度赋能来看,5G 的诞生不仅是为了让手机上网更快,更是为了重塑整个物理世界的运行规则。
5G 引入了毫米波频段、大规模天线阵列(Massive MIMO)以及极化码(Polar Code)等尖端技术。通过**定义增强型移动宽带(eMBB)、超可靠低延迟通信(URLLC)和海量机器类通信(mMTC)**三大核心场景,5G 突破了个人通信的边界,以毫秒级的极致延迟和每平方公里百万级的海量连接能力,真正实现了从消费级互联网向工业级自动化网络的降维打击。

  • 频分多址、时分多址和码分多址的核心物理区别是什么?

它们分别对应着切分通信资源的不同维度。
FDMA 是将总带宽切成不同的频率薄片分给用户;
TDMA 是在同一频率上按极其微小的时间切片交替排队进行传输;
CDMA 则是让所有用户同时在同一大频段上通信,但给每个人分配了相互正交的独立数学密码(扩频码),接收机依靠密码的唯一性来滤除其他人的干扰。

  • 为什么 4G 时代放弃了曾经如日中天的 CDMA 技术?

数据速率需求飙升到几十兆甚至上百兆时,宽带信号的码间串扰(ISI)会变得极其严重。
CDMA 在处理这种超宽带的高速信号时,其接收端的 RAKE 接收机和信道均衡器复杂度会呈指数级爆炸,彻底击穿了终端芯片的算力与功耗极限。
而 OFDM 通过将宽带切分为大量低速的窄带子载波,极其巧妙地在频域绕开了这个算力黑洞。

  • 5G 中的网络切片(Network Slicing)技术有什么颠覆性意义?

网络切片允许运营商在同一套物理硬件基站和光纤核心网上,通过软件虚拟化技术,切割出多个逻辑上完全隔离的专属定制网络。
这意味着远程医疗设备可以独占一个确保极低延迟和超高可靠性的切片,而海量共享单车则可以使用另一个低带宽、大连接的切片,彻底实现了物理资源在不同工业需求间的完美按需分配。

1.6.4 在数字频带传输中,为什么要进行成形滤波?

成形滤波器将原始脉冲的无穷宽频谱强行裁剪并压缩到系统被严格分配的有限带宽之内,从而实现频谱资源的高效利用与合规发射。
数字基带信号(如原始的矩形脉冲)在频域上表现为无限延伸的辛格(Sinc)函数。如果将这种含有极宽频带旁瓣的能量直接调制到载波上发射,它会毫无阻挡地溢出到相邻的通信频段中,对其他用户的正常通信造成毁灭性的相邻信道干扰(ACI)。成形滤波器的首要任务就是像一把极其精准的“频域剪刀”,将无限剪切并压缩为有限。

通过让成形滤波器的冲激响应满足奈奎斯特无串扰准则,我们可以人为地控制脉冲拖尾的过零点位置,确保在接收端抽样判决的那一瞬间,所有前后相邻码元的干扰总和精确为零,完美化解了高速率传输下的自身干扰危机。
因为真实的物理信道本身就像一个低通滤波器,会不可避免地导致脉冲展宽和拖尾,那么我们干脆在发送端就主动把尖锐的脉冲“打磨”成具有特定衰减规律的圆滑波形(如升余弦波形)。

从,现代数字频带传输系统极其巧妙地将整个滤波过程“一分为二”。工程师通常将一个完整的升余弦滤波器拆解为两个平方根升余弦滤波器(RRC),分别放置在发射端(作为成形滤波器限制带外辐射)和接收端(作为匹配滤波器压制带外噪声)。
这种对称的物理架构不仅在发送侧平滑了相位突变以减轻功率放大器的非线性失真,同时在接收侧构成了针对该发送波形的最优噪声过滤屏障。当信号依次穿过这两个滤波器后,系统便在理论上同时达成了信噪比最大化与零码间串扰的巅峰境界。

  • 为什么发送端通常使用根升余弦(RRC)滤波器而不是直接用升余弦(RC)滤波器?

如果发送端直接用 RC 滤波器,虽然满足了无码间串扰条件,但接收端为了压制噪声必须再加一个匹配滤波器,这两者级联后的总响应就不再满足奈奎斯特准则了。
将 RC 拆分成两个 RRC 分别放在收发两端,既保证了接收端的最佳信噪比匹配,又保证了总体级联响应严格等效于一个 RC 滤波器,从而同时实现了抗噪与抗串扰。

  • 如果不进行成形滤波,对射频功率放大器(PA)有什么致命影响?

未成形的矩形脉冲在进行 PSK 或 QAM 调制时,会产生极其剧烈的相位和幅度突变。
当这种信号进入非线性的射频功率放大器时,会导致严重的频谱再生(Spectral Regrowth)现象,原本微弱的高频旁瓣会瞬间反弹并重新长出,不仅彻底抵消了基带处理的努力,还会导致发射机因为频谱严重超标而无法通过法规认证。

  • 成形滤波器中的滚降因子(Roll-off factor)如何决定系统的命运?

降因子 α\alpha 是带宽与抗抖动能力之间的“休战协议”。
较小的 α\alpha 极其节省物理频带,但会导致时域拖尾极长且震荡剧烈,对接收机的定时同步误差极其敏感;
较大的 α\alpha 虽然占用了更多的多余带宽,但时域尾部迅速衰减,极大地降低了系统对时钟抖动的苛刻要求。

1.6.5 什么是载波同步?为什么需要载波同步?

载波同步(也称载波恢复)是指在接收端本地产生一个与输入接收信号的射频载波在频率和相位上都极其严格同频同相的本地振荡波形的过程。

载波同步是防止信号能量在解调过程中发生灾难性衰减的生死防线。在经典的相干解调数学模型中,接收信号需要与本地载波相乘并经过低通滤波器。
如果本地载波与接收载波存在哪怕极其微小的频率偏差,解调出的基带信号就会发生持续的周期性起伏与翻转;而如果存在固定的相位差,有用信号的幅度就会不可逆地乘以该相位差的余弦值。

从现代高阶调制(如 QAM)的正交性维系来看,载波同步是防止不同信息通道发生致命串扰的最后壁垒。
现代通信系统为了极大地榨干频谱资源,广泛采用将两路完全独立的信息分别挂载在同相(I 路)和正交(Q 路)两个相差 90 度的载波上进行叠加传输。一旦接收端的载波同步发生相位偏移,这种物理上的正交性就会被彻底撕裂,导致 I 路的能量疯狂倾泻到 Q 路中,Q 路的能量也倒灌回 I 路,这种现象被称为星座图的旋转与串扰。
此时,原本清晰的星座点会糊成一团,任何先进的信道均衡或纠错编码都将无力回天。

  • 对于像 2PSK 或 DSB-SC 这种在频谱中完全把载波能量压制掉(抑制载波)的信号,接收机该怎么提取同步载波?

既然信号里没有现成的载波谱线,工程师就创造出了非线性变换法。比如利用平方环(将信号平方以强制产生两倍频的载波分量)或者使用极其精妙的科斯塔斯环(Costas Loop,同相正交双通道闭环跟踪),它们能够直接从抑制了载波的随机数据流中“无中生有”地榨取并锁定出极其纯净的同频同相参考载波。

  • 载波同步和我们前面提到的位同步(符号同步)在处理层面上有什么先后顺序?

这是接收机流水线上绝对不能颠倒的两道工序。载波同步必须冲在最前面,它的任务是把信号从几十 GHz 的射频高空安全“降落”到零频附近的基带;只有当高频的“外壳”被完美剥离后,位同步电路才能在剥离出的基带脉冲序列中,去寻找那个最佳的抽样判决时刻。

  • 既然载波同步这么复杂且容易导致串扰,我们能不能干脆不用它?

完全可以,这就是非相干解调(如包络检波、差分相干解调)存在的意义。
通过牺牲一部分理论上的信噪比性能(通常是 1 到 3 分贝的代价),我们可以彻底省去昂贵且复杂的载波同步环路电路。在蓝牙、早期收音机或廉价物联网节点中,这种“放弃精准同步换取极致成本”的折中随处可见。

1.6.6 什么是位同步?

位同步(又称符号同步或定时恢复)是指在接收端产生一个与发送端基带数据节拍完全一致的本地时钟脉冲序列的过程。

位同步是数字判决前绝对不可妥协的最后一道防线。
如果在前面千辛万苦通过了成形滤波、载波同步和信道均衡,但在这最后一步发生了微小的时钟偏移(定时相位误差),接收机的抽样点就会偏离波形的峰值,滑落到脉冲衰减的边缘,甚至直接踩进前后相邻脉冲的重叠灾区。
这种极其致命的时序错位不仅会使得信号自身的能量大幅缩水,还会将原本已经被完美压制的码间串扰(ISI)全盘释放出来,导致整个通信链路的误码率呈现雪崩式的爆发。

现代接收机大多采用极其优雅的“自同步法”。
既然发送端为了节省带宽通常不额外发送专门的时钟基准线,接收机就必须直接从杂乱无章的随机接收数据流中“无中生有”地榨取定时信息。
工程师们利用早迟门(Early-Late Gate)或非线性变换电路,极其敏锐地捕捉基带波形发生过零跳变的边缘特征。一旦捕获到这些跳变沿,内部的锁相环(PLL)就会像死咬猎物的猎犬一样,动态调整本地时钟的频率和相位,确保每一次抽样都严丝合缝地落在数据的正中央。

  • 载波同步和位同步在概念上最核心的区别是什么?

载波同步是对齐射频高频振荡的相位,目的是为了正确地把信号从高频“搬移”回低频基带;
而位同步是对齐低频数据脉冲的节拍,目的是为了在基带波形上找到最完美的抽样判决点。
前者对付的是几十 GHz 的电磁波,后者对付的是兆赫兹级的数据流。

  • 为什么长串的连“0”或连“1”会成为位同步的噩梦?

因为位同步电路极度依赖波形的电平跳变沿(过零点)来校准时钟。
如果数据流中出现长时间的电平保持不变,提取电路就会失去所有的物理参照物,导致本地锁相环因为“失去目标”而发生时钟自由漂移。这就解释了为什么前面提到的线路编码(如扰码、HDB3码)必须强制插入跳变规律。

  • 早迟门(Early-Late Gate)同步器是怎么工作的?

它极其聪明地在一个码元的中心抽样点之前(早)和之后(迟)各设置一个辅助抽样门。
如果本地时钟完全对齐,早门和迟门采样到的能量应该是完全相等的对称值;如果时钟发生偏移,两者的能量差就会产生一个误差电压,驱动压控振荡器立刻把偏离的时钟中心重新拉回波形的最高点。

1.6.7 什么是帧同步?

帧同步(又称群同步)是指在接收端连续不断的比特流中,准确找出信息块(如数据帧、字或包)起始位置的物理与逻辑过程。

帧同步极其依赖于发送端预先埋设的特殊“路标”。
工程师通常会在每一个数据帧的头部,强行插入一段收发双方事先约定好的、具有极强自相关特性的特殊比特序列(即帧同步码,如巴克码)。
接收机会在本地滑动一个与其长度相同的观察窗口,不断计算接收数据流与本地标准同步码的相关值;当两者完全对齐时,相关器会瞬间输出一个极其尖锐的峰值脉冲,这个脉冲就是宣告新一帧数据正式开始的绝对发令枪。

帧同步绝非一次性的简单匹配,而是一个包含“捕获、维持、保护”的复杂闭环生态。
由于恶劣信道中的噪声极有可能把普通数据篡改得和同步码一模一样(假同步),或者把真正的同步码破坏掉(漏同步),现代通信系统必须建立一套严密的帧同步状态机机制:只有连续多次在规定位置精准命中同步码,系统才会确认进入“同步态”;而偶尔的一次丢失只会被视为干扰,只有连续多次错失,系统才会退回“搜索态”重新寻找边界。

  • 什么是巴克码(Barker Code),为什么常被用作帧同步码?

巴克码只有在完全对齐的那一瞬间会产生巨大峰值,错开任何一位的相关值都极其微小。这种“非黑即白”的数学特性使其能够在极其嘈杂的噪声背景中被接收机瞬间识别,极大地降低了假同步的概率。

  • 假同步和漏同步分别会造成什么致命后果?

假同步是指接收机把一段恰好长得像同步码的普通用户数据当成了帧头,导致后续所有数据的切割位置全部错位,上层解码瞬间崩溃。
漏同步则是真正的帧头被噪声破坏而没被认出来,这会导致整个一帧的数据被接收机当成废弃比特直接丢弃,造成极其严重的信息断层。

  • 帧同步与我们之前讨论的位同步、载波同步是什么层级关系?

它们构成了接收机从底向上的三大物理同步阶梯。
载波同步剥离出高频射频外壳,位同步从中提取出离散物理比特,而帧同步最终将这些比特打包成高层逻辑数据帧。
底层任何一环的失锁都会导致上层同步的全面坍塌,它们环环相扣,缺一不可。

1.6.8 什么是网同步?

网同步是指在整个数字通信网络中,强制所有交换节点、传输设备和基站的时钟频率与相位保持高度一致的系统级协同过程。

现代通信网大多采用“主从同步(Master-Slave)”的集中式管理模式。网络中会设立一个极其精准的基准主时钟(Primary Reference Clock, PRC,通常是铯原子钟或北斗/GPS 授时信号),它就像整个网络的绝对“心脏”。
这颗心脏产生的精准节拍会通过层层树状结构,沿着同步数字体系(SDH)或同步以太网的光纤链路,逐级下发给各地的从节点。通过这种等级森严的传递机制,全网数以万计的基站和路由器都被强行锁定在这个唯一的绝对时间基准上,实现了微秒甚至纳秒级的整齐划一。

从移动互联网演进与 5G 极低延迟要求来看,网同步已经从传统的“频率同步”向极其苛刻的“时间/相位同步”跨越。
在 5G 时代,为了实现基站间的协同多点发送以及精准的 TDD 时分双工切换,相邻基站之间的相位误差必须被严格限制在极其微小的范围之内。
此时,传统的单纯频率同步已经远远不够,工程师们引入了 IEEE 1588v2 精确时间协议(PTP),让带有精确时间戳的数据包在全网飞速穿梭,实时计算并动态补偿每一段物理光纤的传输延迟,硬生生地在原本异步的 IP 网络上劈开了一条绝对同步的时间长廊。

  • 主从同步体系中,如果主时钟的传递链路突然断了怎么办?

节点时钟会立即切入保持模式(Holdover mode)。此时它不再依赖外部输入,而是依靠本地内置的高质量恒温晶振或铷原子钟,凭借之前锁定时“记住”的主时钟频率特征,在数小时甚至数天内继续独立维持极高精度的运转,直到备用的同步链路重新接通。

  • 准同步(Plesiochronous)和严格的网同步有什么本质区别?

准同步(如早期的 PDH 体系)并不强求全网锁定在同一个主时钟上,而是允许各节点使用极其精确但相互独立的本地时钟。因为频率非常接近但并非绝对一致,所以设备必须通过极其复杂的“码速调整(塞入无用比特)”来强行吸收时钟差带来的滑动,这极大地限制了组网的灵活性。

  • 网同步与我们之前探讨的载波同步、位同步、帧同步是什么宏观与微观的关系?

载波、位、帧同步是单条点对点链路内部的微观收发协同,解决的是“怎么把这根线上的信号解出来”;而网同步是跨越多节点的宏观全网时间基座,解决的是“怎么让上万台设备像一个人一样思考”。没有网同步,跨节点的长途数据接力就会在路由器内部发生严重的滑动丢包,单条链路的同步做得再完美也无济于事。

1.6.9 平定抽样导致了孔径失真,为什么?

平顶抽样本质上是把瞬间的抽样值在时间上“拉宽”了(数学上相当于与一个矩形脉冲进行卷积)。

时间域的矩形脉冲卷积,等价于在频率域乘以一个 Sa(x)Sa(x) (Sinc 函数)。由于 Sinc 函数是向高频不断衰减的,这导致恢复出来的基带信号高频部分被削弱了,波形发生畸变,这就是孔径失真(或孔径效应)。

在接收端的低通滤波器之后,级联一个频域均衡器(孔径均衡器)。它的频率响应正好与 Sinc 函数相反(高频放大,低频衰减),从而把衰减掉的高频成分“补偿”回来。

1.6.10 简要说一下PCM的基本原理、PCM的编码规则、PCM传输系统的信噪比

PCM(脉冲编码调制)的基本原理是将时间与幅度连续的模拟信号,通过抽样、量化、编码三大核心步骤,转换为二进制数字流。
它的本质并非凭空创造信息,而是利用奈奎斯特准则在时间轴上抓取离散点,再利用量化器在幅度轴上进行离散化映射。
通过这种不可逆的转化,PCM 彻底抛弃了脆弱的模拟波形,将信息寄托在坚不可摧的“0”和“1”脉冲逻辑上,从而获得了数字通信无与伦比的抗干扰特权。

在具体落地的编码规则上,以中国和欧洲广泛采用的 A 律 13 折线为例,它展现了极高的工程计算智慧。为了避免硬件处理复杂的对数函数,工程师将其精简为极其高效的8位折叠二进制码(c1c2c8c_1 c_2 \dots c_8)。第 1 位是极性码,第 2 到第 4 位是段落码(共 8 种组合),最后 4 位是段内码

在 PCM 系统的接收端,信号质量受制于两股完全不同的“破坏力量”:一是发送端 A/D 转换时强行四舍五入产生的量化噪声;二是物理信道干扰导致接收端 0/1 判决错误的信道误码噪声。

PCM 系统的终极护城河在这里体现得淋漓尽致——它具有极其显著的门限效应(Threshold Effect)。只要物理线路的信噪比高于某个“门限值”(确保误码率极低),接收端的再生中继器就能无视线路干扰,完美重新生成纯净的脉冲。
此时,信道噪声被彻底隔离,系统最终的输出信噪比将达到饱和,仅仅取决于固有的量化噪声。这意味着,只要网络规划跨过了这个门限,PCM 信号无论经过多少次中继、传输多远,其通话音质都绝不会像模拟通信那样发生噪声积累和劣化。这就是 PCM 能够彻底淘汰模拟传输的底层物理本质。

1.7 信号空间分析与多元数字传输

1.7.1 星座图到底是什么?星座图有什么作用?

星座图(Constellation Diagram)是数字调制信号在二维复平面上的直观“全息投影”。
在现代通信中,为了提高频带利用率,我们不仅改变载波的幅度,还改变它的相位。星座图就是建立一个以同相分量(I 路,In-phase)为横轴,正交分量(Q 路,Quadrature)为纵轴的直角坐标系。
在这个平面上,每一个亮点(星座点)都代表一个特定的数字符号(Symbol)。
点到坐标原点的几何距离代表着该符号的瞬时载波幅度,而点与横轴正方向的夹角则代表着该符号的瞬时载波相位。

从工程应用与信道诊断的角度来看,星座图是通信工程师用来给底层链路“看病”的最强可视化显微镜。
在理想的无噪声信道中,接收到的信号在星座图上应该是极其锐利、清晰的单点。然而,当信号穿过恶劣的物理信道后,各种干扰会在星座图上留下极其明显的病理特征。例如,加性高斯白噪声会让原本清晰的单点扩散成一团毛茸茸的“星云”;相位噪声会让星座点沿着同心圆轨迹发生弧形拖尾或旋转;而放大器的非线性失真则会让星座图最外围的点向内塌陷。工程师只需观察星座图的扭曲形态,就能瞬间定位系统硬件或信道的具体缺陷。

从接收端信号解调的逻辑来看,星座图为数字判决提供了最直观的“几何领地划分”法则。
接收机收到一个带有噪声的畸变信号后,会在星座图上标出一个实际落点。
解调的本质,就是在这个二维地图上寻找距离该实际落点最近的理想星座点,并将其判定为发送端原本想发送的数据(即最大似然判决)。因此,相邻星座点之间的欧氏距离直接决定了系统的抗干扰能力:点与点之间离得越远,容错的“护城河”就越宽,越不容易发生将一个点误判为另一个点的错误。

  • 星座图和眼图在使用场景上有什么核心区别?

眼图是时域分析工具,它将连续的基带波形折叠叠加,主要用来观察码间串扰(ISI)和定时抖动,核心是判断“抽样时刻准不准”。

而星座图是调制域(I/Q域)分析工具,它在最佳抽样时刻抓取一个瞬时离散点,主要用来观察幅相畸变和噪声分布形态,核心是判断“信号的二维位置对不对”。

  • 5G 和 Wi-Fi 路由器在信号变差时自动降速,这在星座图上是如何体现的?

这利用了自适应调制编码(AMC)技术。
信号极好时,系统使用高阶调制(如 256-QAM),星座点极其密集,虽然每个符号携带比特多(网速快),但极易被噪声推过判决边界。
当信号变差时,系统会主动退化到低阶调制(如 QPSK),星座图上只剩下 4 个距离极远的点,虽然网速下降,但极宽的判决边界保住了通信的稳定不断流。

1.8 现代数字调制技术

1.8.1 简要介绍一下MSK和GMSK?

传统的 2FSK 或 PSK 在码元切换时,相位往往发生突变。这种突变在频域上会导致极其严重的频谱泄露(旁瓣极高),不仅浪费带宽,还会严重干扰相邻信道。
为了解决这一痛点,最小频移键控(MSK)应运而生。它的底层逻辑是:在保持频率承载信息的前提下,强制要求信号的相位在任何时刻都必须是连续的(CPFSK)。同时,它选用了能让两个载频保持绝对正交的**最小调制指数 h=0.5h=0.5
它的核心优越性不仅在于频谱极其紧凑,更在于它具有
恒包络特性**。这意味着手机发射机的射频放大器可以一直工作在最高效的非线性饱和区而绝不会导致信号失真,极大地延长了移动设备的电池寿命
然而,工程师对频谱的贪婪是无止境的。为了进一步压榨带外泄露,在 MSK 调制之前强行加入了一个高斯低通滤波器,这就是GMSK(高斯最小频移键控)。它把原始矩形脉冲的尖锐跳变全部“盘圆润”了,使得相位变化更加平滑,频谱集中度达到了极其恐怖的地步,这也使得它直接成为了第二代移动通信(GSM)的绝对物理层标准

  • 连续相位 FSK(CPFSK)是如何诞生的?

从傅里叶变换的本质来看,时域上的任何突变,必定会在频域上激发出极其丰富的高频分量。而传统的 2FSK 调制存在一个极其致命的物理缺陷:在两个码元交接的瞬间,波形的相位往往会发生剧烈的突变。

为了彻底攻克这个瓶颈,工程师提出了连续相位频移键控(CPFSK)。
它的核心逻辑是改变调制硬件:不再切换两个独立的振荡器,而是用基带信号去控制单个压控振荡器(VCO)的频率。因为始终是同一个物理器件在连续积分振荡,这就从物理机制上保证了无论码元如何切换,射频波形的相位在任何时刻都是绝对连续的。这种相位的平滑过渡,直接换来了频谱旁瓣的迅速收敛。

  • MSK和CPFSK的关系?

为了保证接收端能完美区分 0 和 1(抗噪声性能最优),这两个频率的波形必须在数学上做到“严格正交”(即在一个码元周期 TbT_b 内积分乘积为零)。
同时,为了尽可能压缩带宽,我们希望这两个频率的间隔越小越好。
经过推导,工程师发现:当频率间隔 Δf\Delta f 刚好等于码元速率的一半(Δf=1/2Tb\Delta f = 1/2T_b),也就是调制指数 h=0.5h = 0.5 时,刚好能同时满足“正交”和“绝对相位连续”这两个严苛条件。

这里的“最小(Minimum)”就是指能在相干正交条件下实现的最小频率间隔。

  • MSK有何优点?

MSK信号功率谱的主瓣宽度是QPSK的1.5倍,是BPSK的0.75倍,且MSK信号功率谱的旁瓣比QPSK或BPSK的衰落快得多,对邻近频道的干扰就少得多。

抗噪性能强悍: 凭借严格的正交特性,MSK 可以采用相干解调,其误码率性能完全媲美最高效的 2PSK / QPSK,绝不因为节省带宽而牺牲可靠性。

论基带数据怎么变,MSK 波形的包络(幅度)始终保持绝对恒定。这意味着在手机发射端,我们可以肆无忌惮地使用效率极高、极其省电的非线性饱和功率放大器(如丙类功放),而完全不用担心波形畸变。

1.8.2 简要介绍一下OFDM

当通信迈入 4G/5G 和 Wi-Fi 时代,我们需要极高的传输速率。如果用传统的单载波传输,码元时间 TsT_s 会变得极短。在复杂的城市环境中,电磁波经过大楼反射形成多径效应,到达接收端的延迟时间甚至会远远超过码元本身的时间,导致极其毁灭性的码间干扰(ISI)
OFDM 的出现是一次极其绝妙的降维打击。它的核心思想是**“化整为零”:将一路极高速的串行数据,转化为成百上千路极低速的并行数据,然后分别调制到不同的子载波上。因为速率降下来了,每个码元的持续时间被极大拉长,瞬间就从物理机制上免疫了多径造成的时延扩展**。
更伟大的工程巧思在于“正交(Orthogonal)”:传统的频分复用(FDM)为了防止干扰,各频带之间必须留有白白浪费的保护频带;而 OFDM 通过巧妙的傅里叶数学设计,让所有子载波的频谱在频域上相互重叠,但在彼此的最高点处其他子载波的能量正好严格为零(积分正交)。这不仅彻底消除了子载波间的干扰(ICI),还将频带利用率直接逼近了奈奎斯特理论极限。配合上“循环前缀(CP)”,OFDM 完美统治了现代所有的高速宽带网络。

  • 如何理解OFDM中的正交?

传统的多载波频分复用(FDM)为了防止子载波互相串扰,必须在中间留出空白的“保护频带”,这极大地浪费了频谱。

正交频分复用(OFDM)的伟大之处在于它打破了这个隔离界限。它通过精密的数学设计,让所有子载波的频谱在频域上极其紧密地相互重叠。
虽然频谱重叠,但因为相邻子载波的频率间隔刚好等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这在数学上保证了它们是绝对正交的。
在接收端对某一个子载波的顶点进行抽样判决时,其他所有子载波的频谱值在这个频点上刚好严格为零。这不仅彻底消除了子载波间干扰(ICI),更将频带利用率直接逼近了奈奎斯特极限。

  • FFT的到来对OFDM有何影响?

如果一个 OFDM 系统有 10241024 个子载波,难道要在手机里塞进 10241024 个独立的射频振荡器和混频器吗?这在成本和体积上绝对是不可能完成的任务。

工程师惊奇地发现,OFDM 基带信号的生成公式,在数学形式上竟然与“离散反傅里叶变换(IDFT)”分毫不差!
这意味着,我们彻底抛弃了庞大昂贵的模拟射频阵列,直接在数字基带芯片里用一段极其高效的 IFFT(快速傅里叶逆变换)算法代码,瞬间就能计算出所有子载波叠加后的时域波形。
在接收端,只需跑一次 FFT 算法,就能把频域数据完美解调出来。

  • 保护间隔(GI)与循环前缀(CP)分别有什么用?

虽然多载波拉长了码元,但多径效应产生的拖尾依然会轻微污染相邻码元的边缘。

GI:最直观的做法是在两个 OFDM 符号之间插入一段空白时间。但这会引发新灾难:空白破坏了子载波在 FFT 积分窗口内的周期性,导致原有的正交性彻底崩溃,产生严重的 ICI。

CP:不插入空白,而是把当前 OFDM 符号时域波形的“最后面一小段尾巴”复制下来,强行粘贴到符号的“最前面”作为前缀。
对接收端的 FFT 窗口来说,前缀的加入伪造出了一种“信号是无限周期循环”的数学错觉。这不仅完美吸收了多径拖尾(只要时延不超过 CP 长度),更在数学上将无线信道的“线性卷积”强行转化为了“圆周卷积”。这使得接收端只需要使用极其极其简单的单抽头频域均衡器(One-tap Equalizer),就能完美抵消信道带来的畸变。

1.8.3 简要介绍一下扩频技术和CMDA

扩频技术的初衷根本不是为了提高速率,而是军方为了解决“抗恶意干扰与防窃听”的痛点。
它的基本原理反其道而行之:根据香农定理,带宽和信噪比可以互换。扩频系统故意用一个高速的伪随机噪声码(PN码)去乘以原本低速的有用数据。在频域上,这等价于把原本集中的信号能量,瞬间摊薄扩展到极宽的频带上
它的优越性极其震撼:扩展后,信号的功率谱密度甚至会淹没在环境的自然底噪中,敌方根本发现不了你在通信(极强隐蔽性);而接收端只要用
完全相同的 PN 码进行解扩
,就能把宽带信号瞬间“浓缩”回原来的有用数据,同时把敌方发射的窄带大功率干扰信号“打散”成无害的底噪。这就是**白噪化抗干扰机制
当这种技术下放到民用,就诞生了
码分多址(CDMA)。既然每个人的 PN 码都像是一把独一无二的钥匙,且数学上相互正交,那么所有用户就可以在同一时间、使用完全相同的物理频带进行通信而互不干扰**(就像在一个大厅里,你在听汉语,他在听英语,彼此听不懂的语言自动被大脑过滤为背景底噪)。CDMA 彻底打破了时间和频率的硬性划分,成为了 3G 网络的灵魂,也奠定了现代 GPS 导航系统的核心基石。

  • 什么是直接序列扩频(DSSS)?

用一个速率极高(例如 10 Mcps10\text{ Mcps})的伪随机码(PN码)去乘以速率很低(例如 10 kbps10\text{ kbps})的有用数据。

在时域上,每一个低速的数据比特被瞬间切碎成了成千上万个极短的“码片(Chip)”。在频域上,这等价于将原本窄带的信号能量瞬间摊薄扩展到极宽的频带上。扩频后,信号的功率谱密度甚至远低于自然界的背景底噪。敌方根本不知道这里有信号存在(极强的隐蔽性)。

接收端只要用一模一样的 PN 码再乘一次,就能把宽带信号瞬间“浓缩(解扩)”回原始数据;而敌方发射的窄带大功率干扰信号,在经过这个乘法器时,反而会被“打散”成对我们毫无威胁的宽带底噪。

  • CDMA和扩频技术有何关系?

给每个用户分配一把独一无二且互相正交的 PN 码钥匙就是 CDMA。

所有用户可以在完全相同的时间、占用完全相同的物理频带进行发送(打破了 TDM 和 FDM 的界限)。在基站端,所有人的信号混杂在一起如同海啸。但基站只要拿出特定的 PN 码去“解扩”,就能把特定用户的信号“捞”出来,而其他所有用户的信号由于码字不正交,在积分器中全部互相抵消,仅仅表现为轻微的背景噪声。这造就了 3G 时代极其恐怖的系统容量和“软切换”能力。

  • 什么是跳频扩频(FHSS)

与 DSSS 把能量摊薄不同,跳频(FHSS)采用的是频率上的游击战术。
载波频率不是固定的,而是根据伪随机码的指令,在极宽的频带内进行极其快速的伪随机跳变(例如每秒跳频 1600 次的蓝牙技术)。

信号在任何一个瞬间仍然是窄带的,但它的频率位置飘忽不定。敌方如果释放窄带干扰,由于不知道你的跳频图样,最多只能在极小概率下“碰巧”干扰到你一两个瞬间(Hit and Run),大部分时间你都在其他干净的频点上安全通信。结合纠错编码,这种瞬间的数据丢失可以被完美修复,极大地提升了系统的抗窄带干扰和抗多径衰落能力。

1.9 多址技术

1.9.1 为什么OFDM的需要正交?

“切分成子带”是为了对抗多径造成的畸变;而“正交重叠”则是为了把切分后本应浪费的频谱效率,硬生生地重新推向理论极限。没有正交,多载波技术在工程成本和频谱效率上将毫无实用价值。

如果按照传统频分复用(FDM)的物理逻辑,为了防止这 NN 个子频道互相串扰(载波间干扰 ICI),必须在它们之间留出宽阔的保护频带。当子载波数量高达成百上千个时,保护频带占用的空间甚至会超过有效信号,导致系统根本无法提供宽带级别的高速率。

工程师抛弃了物理上的距离隔离,转而利用数学特性。只要让相邻子载波的频率间隔严格等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这些子载波在积分周期内就达到了绝对的正交状态。凭借正交特性,我们完全不需要留任何保护频带,直接让所有子载波的频谱极其紧密地相互重叠! 尽管宏观上频谱交织在一起,但在接收端对某一个子载波的最高点(中心频点)进行抽样时,其他所有子载波的波形在这个频点上的影响刚好严格为零。

1.9.3 既然正交之后都不需要保护频带了,为什么还要有GI和CP呢?

在频域上切得再细、正交得再完美,只要电磁波还在城市空间中传输,多径效应产生的“物理回声”就永远存在.

符号 A 在撞击高楼大厦后,产生了长长的“迟到回声”。这些回声在时间轴上往后拖延,必然会一头撞进紧接着发送的【符号 B】的接收窗口里。这就导致了严重的码间干扰(ISI)。了防止符号 A 的回声污染符号 B,我们必须在时间轴上,两个符号之间强行拉开一段距离(留出一段持续时间为 TgT_g 的空白停顿)。只要 TgT_g 大于最大多径时延 τmax\tau_{max},符号 A 的回声就会全部掉进这个空白地带,绝不会伤到符号 B。

收端在做 FFT(快速傅里叶变换)解调时,要求截取的窗口内,子载波必须是完美的连续周期波形。如果前面有一段死寂的空白,加上多径的干扰,截取窗口一旦发生微小偏移,把空白截进去了,波形的周期性就会被瞬间撕裂!周期性一毁,正交性立刻荡然无存,各个子载波之间会发生惨烈的互相串扰(ICI)。工程师做出了一个神级操作:我不留静音空白了,我把【符号 B】最后面的那一段波形“复制”下来,强行“粘贴”到【符号 B】的最前面,填满那段 GI 的时间! 这就是循环前缀(CP, Cyclic Prefix)。

物理当炮灰(消除 ISI): 它依然占据了那段隔离时间,成功挡住了符号 A 的回声。这部分前缀就算被前一个符号的回声污染了也没关系,因为它本来就是多余的复制品,接收端可以直接扔掉它。

数学造幻觉(消除 ICI): 因为前面粘贴的是自己尾巴的波形,所以无论接收端的 FFT 窗口怎么在多径干扰下轻微滑动,只要不出这个前缀的范围,截取到的永远是一个完整且首尾相连的周期循环波形。这就在数学上死死保住了正交性,彻底消灭了载波间串扰(ICI)

1.10 信息论基础

1.10.1 如何理解香农三大定理?

香农的三大定理在逻辑上构成了一个极其严密的闭环,它们分别回答了通信系统设计中最核心的三个极限问题:无损压缩的底线在哪里?传输速度的天花板在哪里?有损压缩的妥协边界在哪里?

香农第一定理:无失真信源编码定理(无损压缩的绝对极限)。
引出:一段包含大量废话的数据,在保证一字不差还原的前提下,最少能压缩到多小?
香农指出,信息的本质是“不确定性”,而量化这种不确定性的标尺就是信源熵 H(X)H(X)。数据中能被预判的规律(冗余)都不算真正的信息。
无论你发明多么绝妙的无损编码算法(如哈夫曼编码),你压缩后每个符号的平均码长 LL永远不可能小于该信源的熵 H(X)H(X)

LH(X)=p(x)log2p(x)L \ge H(X) = -\sum p(x) \log_2 p(x)

工程意义: 它指导我们在发送端拼命地“挤水分”,剥离掉所有自然冗余,让数据体积无限逼近 H(X)H(X) 的绝对底线。这是目前所有无损压缩软件(如 ZIP、FLAC)的理论尽头。

香农第二定理:有噪信道编码定理(无差错传输的速度极限)。
引出:把压缩好的数据送上充满噪声的物理信道,为了不被噪声摧毁,我们要穿上纠错编码的“防弹衣”(增加人为冗余)。那么,系统在保证绝对可靠(误码率趋于零)的情况下,最高能跑多快?
香农引入了信道容量 CC 的概念,它是一个物理信道在特定带宽和信噪比下,所能承载的最大互信息量。对于最经典的高斯白噪声信道,其容量公式为:

C=Blog2(1+SN)C = B \log_2\left(1 + \frac{S}{N}\right)

如果你的信息传输速率 RR 满足 RCR \le C,那么理论上必定存在一种纠错编码方法,能实现无差错传输;一旦你贪得无厌,让 R>CR > C,那么无论用什么科技,误码率都会雪崩。
工程意义: 它是全人类通信工程的“光速”。从 3G 的 Turbo 码到 5G 的 Polar 码,几代通信人前赴后继,就是为了在复杂的恶劣信道中,通过极度复杂的数学纠错算法,让实际传输速率无限逼近这个神圣的 CC

香农第三定理:速率-失真定理(有损压缩的哲学妥协)
引入:当面临极其绝望的物理困境——信源熵极大(如 4K 原画),而信道容量极小(如荒野中的极弱信号),也就是 H(X)>CH(X) > C 时,完美传输被彻底宣判死刑,我们该如何断臂求生?
既然无法完美,我们就主动抛弃那些人眼看不清、人耳听不到的边缘细节。我们定义一个系统能够容忍的最大平均失真度 DD。在此前提下,寻求能维持该清晰度的最低比特率底线,这就是速率-失真函数 R(D)R(D)

R(D)=minp(yx):DˉDI(X;Y)R(D) = \min_{p(y|x): \bar{D} \le D} I(X;Y)

只要你设计的压缩码率 RR 满足 R>R(D)R > R(D),就必定存在一种编码方式,能让接收端的失真度控制在 DD 以内;若 R<R(D)R < R(D),则绝对无法保证失真度不越界。
工程意义: 这是现代多媒体通信的灵魂。MP3、JPEG、H.265 等所有有损压缩技术,都是在 R(D)R(D) 曲线的指导下,在“极小的文件体积”和“勉强能接受的画质/音质瑕疵”之间,寻找那道最完美的平衡木。

整体逻辑:
我们先用第一定理榨干水分(求极限 H(X)H(X));如果数据还是太大塞不进信道,我们就用第三定理割肉妥协(求极限 R(D)R(D));最后,我们遵从第二定理的最高法则,给精简后的数据穿上纠错装甲,确保它在不超过物理信道容量 CC 的极限下,安全抵达彼岸。

1.11 差错编码

二、信息论

2.1 信息的基本概念

2.1.1 一个消息的信息量取决于什么?

在信息论中,一个消息的信息量大小取决于它的意外程度(即自信息量),核心思想是越意外,信息量越大。这意味着发生概率越小的事件,一旦发生,其提供的信息量就越大。

信息论研究的信息没有真假对错之分,也没有价值高低之别,它纯粹是从统计学角度来度量不确定性的消除程度。

2.2 信息量、信息熵、条件熵

2.2.1 什么是信息量?它有什么意义?

从直觉上理解,信息量反映了消息的“意外程度”:一个极小概率发生的事件(如日食)一旦发生,带给观察者的冲击和新信息远大于一个高概率的常规事件。
因此,信息量的大小完全由事件发生的先验概率决定,概率越小,该事件包含的信息量就越大。

在通信系统的量化分析中,自信息量是构成信息熵(平均信息量)的基石。
自信息量在物理上度量了某一特定随机事件发生时所提供的信息量,或者说它量化了该事件发生前所具有的不确定性大小。
它通过数学手段将抽象的“不确定性”转化为可以累加的数值,使得我们可以用统一的“比特”单位来衡量不同性质、不同来源的数据。这种量化处理不仅剥离了主观的语义干扰,更揭示了信息的统计属性本质,为后续研究信源压缩极限和信道传输效率提供了最基本的度量标准。

  • 为什么自信息量的公式要采用对数形式?

采用对数形式的核心原因是为了满足信息的可加性。对于两个相互独立的事件,其联合概率是各自概率的乘积,而我们直观上认为总信息量应该是两者的代数和。对数运算能够将概率的乘法逻辑完美转换为信息量的加法逻辑,从而使信息成为一种像质量或能量一样可以度量、累加且具有物理意义的资源。

  • 在数学定义上,为什么信息量要采用概率的负对数形式来进行计算?

采用负对数形式主要是为了在数学上完美契合人类对信息的物理直觉。
首先是满足信息的可加性,当两个相互独立的事件同时发生时,它们的联合概率是各自概率的乘积,而取对数恰好能够将这种概率的乘法运算转化为信息量的加法运算,确保总信息量等于各自独立信息量的总和。
其次是为了保证信息的非负性,因为任何事件发生的概率必定在0到1之间,直接取对数会得到负值,在公式前加上负号就确保了计算得出的信息量始终是一个有物理意义的非负实数。

2.2.2 什么是信息熵?它有什么意义?

信息熵是量化离散信源整体不确定性的核心指标,它不仅代表了信源平均每个符号所含有的信息量,更是数据压缩领域的“终极界限”。
从统计学角度看,熵是自信息量 I(xi)I(x_i) 的数学期望,代表了信源每发出一个符号所提供的平均信息。信息熵的数学定义由香农在 1948 年提出,用于量化一个离散随机变量的不确定性,其公式为

H(X)=P(xi)logbP(xi)H(X) = -\sum P(x_i) \log_b P(x_i)

在实际工程中,它直击了一个最根本的物理问题,即一段数据在不丢失任何信息的前提下,最小到底能被压缩到多大。
任何无损压缩后的平均码长都绝对不可能低于该信源的信息熵,这就为工程师们指明了优化方向。
既然极限已经确定,所有无损压缩策略的终极目标就是通过巧妙的编码手段,让平均码字长度无限逼近这个理论极值。

  • 当信源的概率分布发生什么变化时,信息熵会达到最大值?

当信源中所有可能发生的符号或事件呈现等概率分布时,信息熵达到最大值。
因为在这种情况下,接收者对信源发出的下一个符号完全没有任何先验倾向或预测能力,也就是系统的整体不确定性达到了顶点。
在通信工程应用中,为了实现最高效的信息传输,我们往往希望编码后的信道符号能够尽可能接近等概率分布,从而让每个传输符号都能携带最大的信息量。

  • 信息熵与自信息量在物理概念上有什么根本的区别与联系?

自信息量衡量的是单个特定事件发生时所消除的不确定性,它描述的是微观的、具有随机性的个体事件;
而信息熵衡量的是整个信源所有可能事件的平均不确定性,在数学上它是自信息量的数学期望。
两者的核心联系在于,只有先计算出各个独立符号的自信息量,才能通过概率加权求和的宏观统计方式得出整个系统的熵。

  • 在现代人工智能与机器学习中,信息熵的概念是如何被应用和延伸的?

在机器学习中,信息熵被广泛延伸为交叉熵,主要用于衡量模型预测的概率分布与真实标签分布之间的差异程度。
在分类任务的深度学习训练中,模型优化的核心逻辑就是通过梯度下降等算法不断最小化交叉熵损失函数,使得模型逐渐消除预测过程中的不确定性,最终让预测结果无限逼近客观真实的分布状态。

2.2.3 什么是条件熵?它有何研究意义?

条件熵 H(YX)H(Y|X) 表示的是,在已知随机变量 XX 的条件下,随机变量 YY 平均还剩下多少不确定性。
其核心计算公式为:

H(YX)=xXp(x)H(YX=x)=xXyYp(x,y)logp(yx)H(Y|X) = \sum_{x \in X} p(x) H(Y|X=x) = -\sum_{x \in X} \sum_{y \in Y} p(x, y) \log p(y|x)

条件熵 \leq 无条件熵:即 H(YX)H(Y)H(Y|X) \leq H(Y)。这是信息论中极具哲学意义的结论:知道一些信息,绝不会增加你对另一个事物的不确定性。信息只会减少不确定性,或者在完全无关时保持不变,但绝不会增加。
当且仅当 XXYY 相互独立时,等号成立,意味着观察 XX 对消除 YY 的不确定性没有任何帮助。
需要注意 H(YX)H(Y|X) 通常不等于 H(XY)H(X|Y),这反映了信息影响的单向性。

条件熵在实际工程中的意义非常广泛。
它能衡量一个变量对于消除另一个变量不确定性的具体贡献。
在构建模型(如决策树)时,通过计算条件熵来评估特征的重要性,条件熵下降越快,说明该特征的分类能力越强。
在有噪信道中,接收端收到 YY 后关于发送端 XX 的条件熵 H(XY)H(X|Y) 被称为信道疑义度,它直接量化了噪声造成的平均信息丢失量。
在语言模型中,给定前文预测后文的条件熵越低,说明语言规律性越强,预测越准确。

2.2.4 信息论对人工智能有什么帮助?

信息论为人工智能提供了底层的数学框架,它不仅定义了数据的价值,还为模型的优化指明了方向。

信息量(自信息)主要用于衡量事件的稀缺性。
一个极低概率发生的样本(如异常交易、罕见故障)具有极高的信息量,这指导了模型中的异常检测算法。
同时,注意力机制(Attention)本质上也是在输入序列中寻找那些“信息量最大”的特征进行聚焦。

信息熵在 AI 中被视为预测不确定性的度量。
在训练过程中,如果模型对某个样本的预测概率分布非常平坦(熵很高),说明模型对此样本非常“困惑”。
主动学习(Active Learning)就是利用这一特性,专门挑选熵较大的样本让人工标注,从而实现最高效的模型进化。

条件熵 H(YX)H(Y|X) 则定义了监督学习的理论天花板。
在已知特征 XX 的情况下,标签 YY 剩下的不确定性就是模型无论如何也无法消除的误差。
在特征选择(如决策树)中,我们追求的是最大化信息增益,其本质就是尽可能大地降低条件熵,选出对分类贡献最大的特征。

交叉熵(Cross-Entropy)是信息论与 AI 结合最紧密的地方。
在分类任务中,我们通常使用交叉熵作为损失函数。其逻辑非常简单:交叉熵衡量了“模型预测的分布”与“真实标签分布”之间的差异程度。
训练模型的过程,本质上就是通过最小化交叉熵损失,让模型学会如何消除不确定性,使预测结果无限逼近真实分布。

H(P,Q)=iP(xi)logQ(xi)H(P, Q) = -\sum_{i} P(x_i) \log Q(x_i)

其中 PP 是真实分布,QQ 是预测分布。相比传统的均方误差,交叉熵在分类问题中具有更快的收敛速度和更明确的概率学解释(等价于极大似然估计)。

2.3 香农三大定理

2.3.1 什么是香农第一定理?

香农第一定律是无失真信源编码定理,代表着数据压缩的极限。

H(X)=P(xi)logbP(xi)H(X) = -\sum P(x_i) \log_b P(x_i)

香农第一定律(无失真信源编码定理) 解决了通信中的有效性问题,它回答了:我们能把数据压缩到什么程度,同时还能保证 100% 还原?

H(X)H(X) 代表了信源平均每个符号所含的信息量。
若使用二进制编码,平均每个符号所需的比特数至少为 H(X)H(X)
如果强行让平均码长小于熵,必然会产生失真,无法实现无失真译码。
编码的最优状态是让码符号尽可能服从等概率分布,此时每个码符号携带的信息量达到最大,从而实现最少码字传输最大信息。

2.3.2 什么是香农第二定理?

香农第二定律是有噪信道编码定理。

C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})

香农第二定律(有噪信道编码定理) 解决了通信中关于可靠性的核心问题:在有噪声的信道里,我们能否实现无差错(或误码率任意小)的传输?以及传输速率的上限是多少?

信道容量 CC 是信道的一个固有参数,它表示在这个信道上能够可靠传输的最大信息速率。关于信道容量的直观理解如下:
如果信道完全没有噪声,容量就是每个符号能携带的最大信息量。
如果信道噪声很大,容量就会随之变小。
如果传输速率超过了容量,那么无论采用何种纠错编码,错误都无法避免。

只要信息传输速率 RCR \leq C,就一定存在一种编码方式,使得误码率可以达到任意小。这证明了在噪声环境下实现高可靠通信的数学可能性。
信道容量 CC 划定了一个不可逾越的理论极限速率。
公式揭示了带宽 BB 和信噪比 S/NS/N 之间的制约关系。在保持容量 CC 不变的前提下,可以通过增加带宽来降低对信噪比的要求(例如扩频通信),或者通过提高信号功率来弥补带宽的不足。

2.3.3 什么是香农第三定理?

香农第三定律是保真度准则下的信源编码定理,即率失真理论

率失真函数 R(D)R(D) 的数学定义是在满足平均失真限制条件 DD 的情况下,信源与重建信源之间互信息的最小值。 其通用的定义公式为:

R(D)=minp(x^x):x,x^p(x)p(x^x)d(x,x^)DI(X;X^)R(D) = \min_{p(\hat{x}|x): \sum_{x, \hat{x}} p(x)p(\hat{x}|x)d(x, \hat{x}) \le D} I(X; \hat{X})

香农第三定律(率失真理论) 解决了通信中关于有损压缩的极限问题:如果允许一定程度的失真(例如牺牲人眼不敏感的图像细节),描述信源所需的最小比特率可以降到多低?

只要编码速率 R>R(D)R > R(D),当码长足够大时,总能找到一种编码方案使得平均失真不超过允许值。
如果编码速率 R<R(D)R < R(D),无论采用何种编码,平均失真必然大于允许值。这意味着 R(D)R(D) 是在给定失真约束下的最低理论码率。

R(D)R(D) 函数是所有有损压缩算法(如 JPEG、MP3、H.264)无法逾越的下限,为这些工程标准提供了性能基准。
R(D)R(D) 的递减性质反映了工程中的基本折衷:想要更高的压缩比(更小的 RR),就必须接受更大的失真 DD;想要更高的保真度,就必须花费更多的比特。

与第一定律的关系:。香农第一定律实际上是第三定律在 D=0D=0 时的特例。当不允许任何失真时,R(0)R(0) 就等于信源熵 H(X)H(X)。因此,第三定律统一了无损和有损压缩的理论。

2.3.4 什么是信道容量?

信道容量是指在给定的通信信道中,能够实现可靠传输的最大信息速率。
在信息论的严谨定义下,它代表了一个物理信道在受到特定噪声干扰时,所能承载的极限数据吞吐能力。
只要发送端的信息传输速率小于或等于这个容量值,理论上就一定存在某种信道编码方式,能够使接收端的误码率任意小并趋近于零;反之,一旦传输速率超过了信道容量,无论系统采用多么复杂的纠错技术,传输错误都将变得不可避免且无法纠正。

这一概念由香农第二定律确立,彻底打破了早期通信界认为“有噪信道绝对无法实现无差错传输”的悲观迷思。
它不仅证明了在恶劣物理环境下实现高可靠通信的数学可能性,更清晰地揭示了带宽与信噪比之间相互制约又可以相互转换的物理关系,为现代所有无线通信系统(从最初的蜂窝网络到如今的5G/6G)的底层物理层设计划定了不可逾越的天花板。

  • 对于高斯白噪声(AWGN)信道,信道容量的具体计算公式是什么?当系统带宽趋于无穷大时,信道容量也会趋于无穷大吗?

计算公式为著名的香农公式 C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})
这是一个经典的面试陷阱,当带宽 BB 趋于无穷大时,信道容量绝对不会趋于无穷大。因为白噪声功率 N=n0BN = n_0 Bn0n_0 为噪声单边功率谱密度)也会随着带宽的增加而同步增加,从而导致信噪比持续下降。
根据极限运算法则,信道容量最终会收敛于一个有限的物理极限值(约 1.44Sn01.44 \frac{S}{n_0})。

  • 信道容量公式揭示了带宽和信噪比之间怎样的互换关系?在实际工程中有什么典型应用?

公式表明,为了保持一个系统恒定的信道容量,我们可以通过大幅增加信号的传输带宽来降低系统对信号功率(信噪比)的苛刻要求,或者反过来通过提高发射功率来弥补可用带宽资源的不足。
在工程实践中,扩频通信(如 CDMA 或 GPS 技术)就是这一理论的最经典应用,它故意利用极宽的频带来换取信号在极低信噪比(甚至被噪声淹没)环境下的可靠传输。

  • 对于离散无记忆信道(DMC),信道容量在严谨的数学上是如何通过互信息来定义的?

对于离散无记忆信道,信道容量被严格定义为在所有可能的信源输入概率分布下,系统输入与输出之间互信息的最大值,数学表达为 C=maxp(x)I(X;Y)C = \max_{p(x)} I(X;Y)
这深刻地说明了信道容量是信道本身的固有物理属性,它完全由信道的干扰特性(转移概率矩阵)决定。
而求解这个最大化互信息的过程,本质上就是通信工程师在寻找最匹配当前信道特性的最优信源概率分布的过程。

2.4 信源编码

2.4.1 信源编码有什么用?它的动机和目的是什么?

信源编码的核心目的就是通过巧妙的数学建模和算法,尽可能地榨干这些无用的冗余水分,将原始数据压缩到极其精简的形态,从而在极其有限的信道资源内塞入更多的高价值信息。
在现实的物理世界中,无论是人类的语言、文字,还是数字化的图像和视频,原始信源都不可避免地携带着极其庞大的统计冗余。如果不加处理地直接将这些原始数据推入信道,不仅会造成极其严重的物理带宽浪费,更会使得现代海量多媒体数据的实时传输变得毫无可能。因此,

信源编码的最根本动机是为了极大地提高通信系统传输和存储信息的有效性

为了实现这一终极目的,信源编码器在系统发送端扮演着数据“收纳大师”的角色。
它的底层工作逻辑是根据信源发出的各种符号的统计概率分布特性,对它们进行重新映射和资源分配。
对于发生概率极高的常见符号,系统会吝啬地为其分配最短的比特码字;而对于罕见的低频符号,则分配较长的码字,以此在宏观统计上实现平均码字长度的全局最短化。
这种以概率驱动的资源再分配,不仅在无失真条件下将压缩效率逼近了香农划定的信息熵极限,更在限失真条件下,通过果断丢弃人类视觉或听觉不敏感的次要细节,成功换取了成百上千倍的极致压缩比。

  • 无失真信源编码的理论压缩极限是由什么决定的?

是由香农第一定律(无失真信源编码定理)决定的。它在数学上严格证明了,无论采用多么精妙的无损压缩算法,编码后的平均码字长度都绝对不可能低于信源本身的信息熵。
这就意味着,信息熵就是一段数据在不丢失任何细节的前提下,所能被压缩到的绝对物理底线。

  • 既然无失真编码能完美保留所有信息,为什么现代通信系统还必须依赖限失真(有损)编码技术?

因为现实中图像和视频等多媒体信源的数据量极其庞大且信息熵极高,仅仅依靠去除统计冗余的无损压缩,其压缩比往往只能达到2到3倍左右,根本无法满足现有网络带宽的吞吐需求。
限失真编码通过香农第三定律(率失真理论)的指导,允许在接收端产生一定的物理失真,利用人类感官的掩蔽效应大幅度去除感知冗余,从而顺利换取了几十甚至上百倍的高效压缩比。

  • 信源编码在具体执行数据压缩时,主要致力于消除哪两种不同性质的冗余?

第一种是统计冗余,它是由于信源符号之间存在时间或空间上的相关性,以及概率分布不均匀所造成的,工程上主要通过霍夫曼编码或算术编码等无损技术来消除;
第二种是感知冗余(或视觉/听觉冗余),它是指那些超出了人类生理感知分辨极限的次要细节,工程上主要通过变换编码(如DCT)或预测编码等有损技术来进行不可逆的剔除,以此彻底突破信息熵的压缩瓶颈。

2.4.2 信源编码有什么核心技术?它们具体是什么做的?

信源编码的核心技术根据是否允许信息丢失,被严格划分为无失真编码和限失真编码两大阵营。

无失真编码的核心思想是通过概率模型完全消除数据内部的统计冗余,工程上主要依靠对信源符号进行概率统计,通过算法为出现频率极高的常见符号分配极短的码字,同时为罕见的低频符号分配较长的码字,从而在宏观上实现平均码字长度的全局最短化。

在具体的无失真算法实现中,霍夫曼编码(Huffman Coding)是变长编码的最经典代表,它通过构建自底向上的最优二叉树,实现了在整数码长约束下的极高压缩效率。
而为了追求更极致的性能,更为先进的算术编码(Arithmetic Coding)则彻底打破了必须使用整数比特的数学限制。它不再针对单个符号进行孤立翻译,而是将整个庞大的消息序列映射到0与1之间的一个连续实数区间内,从而能够以更高的计算复杂度和算力代价,无限逼近香农定义的最优数据压缩物理极限。

当面对多媒体等海量连续数据时,单靠无损压缩已无能为力,此时限失真编码则通过主动抛弃人类视觉或听觉根本无法察觉的次要细节,成功换取了成百上千倍的极限压缩比。
这其中的核心技术是变换编码(例如DCT离散余弦变换),它在数学上将空间域内高度相关的像素点转换到频率域,把信号能量极度集中在极少数的低频分量上,以便于系统对高频噪声进行大尺度的粗糙量化或直接舍弃。
此外,结合利用相邻帧强相关性只传输差值的预测编码,以及像MP3那样利用心理声学模型对不同频率分配不同比特的子带编码,共同构筑了现代视频和音频压缩的底层基石。

  • 霍夫曼编码在什么极端的信源概率分布条件下,其压缩效率会变得极其低下?

当信源中所有符号的出现概率完全相等(即呈现等概率分布)时,霍夫曼编码的变长优势将彻底失效。
此时系统无法通过“高频短码、低频长码”的策略来压榨空间,它只能被动退化为普通的等长编码,无法消除任何统计冗余,压缩比直接降为1。

  • 算术编码相比于霍夫曼编码,在数学原理上最根本的突破点和代价分别是什么?

最根本的突破点在于它不再对单个离散符号进行独立的整数比特映射。
算术编码将整个待传输序列视为一个整体并映射为一个极小的连续实数区间,这使得它能够精准处理非整数位的概率信息,在压缩效率上更进一步逼近了理论上的熵极限。

但其代价是极高的计算复杂度和对硬件算力的严苛要求,且极易受到信道误码的干扰导致误差无限扩散。

  • 在JPEG图像压缩标准中,变换编码和量化技术具体是如何配合来剔除冗余数据的?

在JPEG中,变换编码首先采用离散余弦变换(DCT)将图像切分并把空间上的像素数值转换到频率域。
由于人类视觉系统对图像的低频平缓区域高度敏感,而对高频细节极其迟钝,编码器紧接着就会在频域内利用量化表对高频系数进行大尺度的除法舍入甚至直接抹零,从而在几乎不影响视觉主观观感的前提下,不可逆地剔除了海量的感知冗余数据。

2.4.3 你知道哪些无失真编码技术?(answer:香农-范诺编码、霍夫曼编码、算术编码。)

香农-范诺编码是信息论发展初期最早提出的变长前缀编码方法之一,奠定了无损数据压缩的理论基础。
香农-范诺编码是一种自顶向下的信源编码方法。 首先将信源符号按照出现概率从大到小进行排序。然后,将这些符号分为概率总和尽可能接近的两组,给第一组的符号分配“0”,给第二组分配“1”。对划分出的子组递归重复这一过程,直到每个子组只剩下一个符号为止。虽然这种方法能产生有效的前缀码,但它由于采用局部最优的贪心策略,并不总是能达到最佳的整体编码效率。
在早期的数据压缩协议中曾被广泛使用,例如早期的ZIP压缩算法。不过由于其效率通常不如霍夫曼编码,如今它主要作为信息论面试和教学中的基础概念出现,帮助我们理解变长编码的思想演进。

霍夫曼编码是对单个符号进行独立编码时理论上最优的方法。
霍夫曼编码是一种自底向上的编码方法。 首先将所有信源符号按概率从小到大排列,每个符号视为一个叶子节点。接着,选取概率最小的两个节点,将它们合并为一个新节点,新节点的概率为两者之和。将新节点重新放入序列中排序,重复上述合并过程,直到最后只剩下一个根节点,从而形成一棵霍夫曼树。从根节点到叶子节点的路径(如左侧为0,右侧为1)即为该符号的编码。其平均码长 LL 和信源熵 H(X)H(X) 的关系满足以下公式: $$H(X) \le L < H(X) + 1$$ 。
霍夫曼编码至今仍是应用最广泛的数据压缩技术之一。它被大量应用于JPEG图像压缩、MP3音频压缩以及GZIP文件压缩的核心算法(如Deflate算法,结合了LZ77和霍夫曼编码)中。

随着现代硬件计算能力的提升,算术编码在要求极高压缩比的场景中逐渐占据了主导地位。
与霍夫曼编码将每个符号映射为特定位数的二进制串不同,算术编码将整个输入消息编码为一个介于0和1之间的小数。 它首先将区间 [0,1)[0, 1) 根据每个符号的出现概率划分为多个子区间。读取第一个符号时,选择对应的子区间;读取下一个符号时,再按照概率比例对当前子区间进行进一步划分。随着消息的变长,代表该消息的区间会变得越来越小。最后,只需输出这个最终区间内的一个小数,即可代表整条消息。这种方法彻底打破了“每个符号至少需要1个比特”的限制。
由于其逼近香农极限的极高压缩率,算术编码主要用于高级的音视频和图像压缩标准中。例如H.264和HEVC视频编码标准中使用的CABAC(基于上下文的自适应二进制算术编码),以及JPEG 2000图像压缩格式。

2.4.4 你知道哪些限失真编码技术?(预测编码、变换编码、矢量量化、子带编码)

预测编码 (Predictive Coding)

发展历史
预测编码的思想最早可以追溯到20世纪50年代。1952年,C. C. Cutler 申请了差分脉冲编码调制(DPCM)的专利。这项技术的诞生主要是为了在早期的数字通信系统中,有效降低传输语音和视频信号所需的带宽,这也是信息与通信工程领域中最早投入实用的限失真压缩技术之一。

实现原理
预测编码不直接传输信号本身的绝对数值,而是利用信号在时间或空间上的高度相关性,通过过去的信号样本来“预测”当前样本的值。传输端只对实际值与预测值之间的差值(即预测误差或残差)进行量化和编码。由于相邻样本往往变化平缓,残差信号的能量通常远小于原始信号,因此可以用更少的比特进行传输。 经典的线性预测方程和误差方程可以表示为:

x^n=i=1kaixni\hat{x}_n = \sum_{i=1}^{k} a_i x_{n-i}

en=xnx^ne_n = x_n - \hat{x}_n

现实例子
在现代数字通信中无处不在。例如音频领域的ADPCM(自适应差分脉冲编码调制),以及H.264、HEVC等现代视频编码标准中极其核心的“帧内预测”和“帧间预测”(运动补偿)技术,其本质都属于预测编码的延伸。

变换编码 (Transform Coding)

发展历史
变换编码在20世纪60年代末至70年代初开始兴起。1974年,Nasir Ahmed 等人提出了离散余弦变换(DCT),这是多媒体数据压缩历史上的一个里程碑。DCT 成功克服了理论最优的 KLT 变换计算复杂度过高的缺点,使得图像和视频的实时压缩成为可能。

实现原理
变换编码是一种通过正交变换将空间域或时间域的信号映射到频域的技术。这种数学变换本身不丢失信息,但它具有“能量集中”的特性。 变换后,信号的绝大部分能量会集中在少数低频系数上,而代表细节的高频系数能量极小。接着,利用人眼或人耳对高频细节不敏感的生理特性,对高频系数进行粗量化甚至直接丢弃,从而实现高比例的限失真压缩。

现实例子
这是我们日常生活中接触最多的压缩技术。最经典的例子是 JPEG 图像压缩格式(核心步骤就是8x8分块的DCT变换),以及 MP3 音频格式(使用了改进的离散余弦变换 MDCT)。

矢量量化 (Vector Quantization, VQ)

发展历史
矢量量化技术在20世纪70年代末至80年代初迅速发展,作为标量量化的高维推广。1980年,Linde、Buz 和 Gray 提出了著名的 LBG 算法,解决了如何基于训练序列设计最优码书的问题,极大地推动了矢量量化的实际应用。

实现原理
矢量量化不再对单个样本点进行量化,而是将若干个相邻的样本(如一个图像块或一段语音采样)组合成一个高维的“矢量”。 编码端预先通过机器学习训练出一个包含若干典型矢量的“码书”(Codebook)。编码时,计算输入矢量与码书中所有典型矢量的失真距离,找到最匹配的一个,并只传输该匹配矢量的“索引号”。解码端接收到索引后,直接查表输出对应的典型矢量即可完成重建。

现实例子
早期的低码率语音编码(如用于军用或早期蜂窝网络的CELP算法)大量使用了矢量量化的思想来压缩声带激励信号。在计算机图形学中,许多早期的游戏贴图压缩格式(如某些调色板技术)也是矢量量化的一种简化形式。

子带编码 (Subband Coding)

发展历史
子带编码最早在20世纪70年代中期被提出并用于语音编码。到了80年代和90年代,随着多速率数字信号处理理论和小波变换(Wavelet Transform)的发展,子带编码迎来了黄金时期,被广泛应用于高质量音频和图像压缩领域。

实现原理
子带编码通过一组带通滤波器(滤波器组),将宽带输入信号的频谱划分为多个互不重叠的频带(子带)。 由于信号的能量在不同频带上的分布是不均匀的,且人类的视觉和听觉系统对不同频率的敏感度不同,系统可以对这些子带进行独立的下采样,并分配不同的量化比特数。例如,对包含主要能量和关键信息的低频子带分配较多比特精细量化,对高频子带分配极少比特或不分配比特。

现实例子
MP3格式就是利用多相滤波器组将音频信号分为32个子带进行编码的经典案例。在图像领域,JPEG 2000 标准摒弃了DCT,采用了基于离散小波变换(DWT)的子带编码技术,从而彻底消除了传统JPEG的“马赛克”块效应。

2.4.5 如何评价一个信源编码器的优劣?

衡量一个信源编码器优劣的标准主要从有效性、复杂度和质量三个维度进行评估

压缩比(Compression Ratio)是衡量有效性最直观的指标。压缩比越高,代表压缩效果越好,节省的存储空间或传输带宽就越多。

编码/解码速度(Codec Speed)决定了算法在实际应用中的可行性。
例如,霍夫曼编码速度极快,非常适合视频会议等实时通信场景;而算术编码虽然压缩比更高,但计算量大,通常更适合对时间不敏感的文件存储。

失真度(Distortion):对于限失真编码而言,这是权衡质量的关键指标。
客观角度上常用的是峰值信噪比(PSNR)。PSNR 值越高,代表失真越小,重建的图像质量越好。
主观评价上常用平均意见分(MOS)。通过人类观察者打分(1-5 分),这是最符合人类感知的评价方式,因为数学指标 PSNR 有时并不能完全反映人眼的真实感受。

2.5 信道编码

2.5.1 为什么需要信道编码?

信道编码根本目的就是为了在极其恶劣的物理环境中,为脆弱的数字信息披上一层抵御噪声干扰的数学铠甲,从而保障端到端数据传输的绝对可靠性。
在真实的物理世界中,没有任何一条通信信道是绝对理想和纯净的。数字信号在物理信道中传输时,不可避免地会受到热噪声、多径衰落以及各种复杂电磁干扰的无情破坏,导致接收端产生致命的比特误码。如果不对这些错误进行干预,微小的误码在解压缩后会被无限放大,造成通话断断续续、视频出现严重马赛克,甚至导致核心业务数据的完全崩溃。

信道编码的核心本质就是以牺牲一部分宝贵的通信带宽和有效传输速率为代价,换取整个通信系统可靠性的巨大提升。
信道编码在发送端采取了与信源编码截然相反的策略:做加法。
它通过一套严密的数学算法,在原始信息序列中人为地附加一定比例的监督码元(冗余位),使得原本毫无关联的各个比特之间建立起强关联的代数约束规则。当信号在传输过程中被噪声污染发生突变时,接收端的译码器就能敏锐地察觉到这种预设数学约束的破坏,进而利用冗余信息不仅发现错误,甚至直接定位并自动纠正错误,从而在物理限制的框架内死死守住通信质量的底线。

2.5.2 尝试简单说说信道编码的历史?

  • 第一代:分组码时代(1940s-1950s)
    1949 年汉明码的诞生标志着纠错编码理论的开端。汉明码是一种线性分组码,主要通过增加监督位来实现单比特纠错,奠定了信道编码的数学基础。

  • 第二代:卷积码时代(1955-1990s)
    1955 年由 Elias 提出。卷积码与分组码的根本区别在于:它充分利用了各个信息块之间的相关性(具有记忆性)。1967 年 Viterbi 译码算法的提出是关键转折点,它使得卷积码在 GSM、3G 以及卫星通信等系统中得到了极广泛的应用。

  • 第三代:逼近香农极限的时代(1993年至今)
    这一阶段的编码技术使通信效率达到了理论上的巅峰:

    1. Turbo 码的革命:1993 年提出,通过迭代译码的方法,首次使信道编码效率接近香农极限,震撼了通信界。
    2. LDPC 码(低密度奇偶校验码):虽然早在 1962 年提出,但直到 90 年代末才被重新发现。其校验矩阵具有稀疏性,这一特性使得译码复杂度较低且纠错性能极其优异,是目前 5G 数据信道的核心标准。
    3. Polar 码(极化码):2009 年由 Arikan 提出,它是第一种被理论证明可以达到二进制输入对称信道容量的编码方案,被选为 5G 控制信道的编码标准。

三、移动通信

3.1 移动通信的绪论

3.1.1 简要说说移动通信的发展历史。

早期奠基:从理论到实用的漫长探索

  1. 1864年:英国物理学家麦克斯韦从理论上证明了电磁波的存在,并建立了统一的电磁理论,为无线通信奠定了科学的基石。
  2. 1897年:这是公认的人类移动通信元年。意大利发明家M.G.马可尼在英国的布里斯托尔湾,成功地在一艘拖船与固定站之间进行了无线通信试验,证明了移动中通信的可行性,从此揭开了世界移动通信历史的序幕。
  3. 1928年:美国警用车辆的车载无线电系统投入使用。这是移动通信的首次大规模专业应用,虽然设备笨重、通信质量有限,但它标志着移动通信从实验室走向了实用场景。
  4. 1946年:美国贝尔实验室在圣路易斯建立了世界上第一个公用汽车电话网,并于6月17日正式开通服务。这标志着移动通信开始从专用领域向公众开放,是商业化的开端。
  5. 1960年代:随着晶体管和半导体技术的发展,移动通信系统实现了无线频道的自动选择,并能自动接续到公用电话网。这大大简化了用户的操作,提高了通信效率,为第一代蜂窝移动通信系统的诞生做好了最后的技术准备。

代际演进:从模拟到智能的飞跃

  1. 1980年代 (1G):模拟蜂窝通信时代。以美国的AMPS和欧洲的TACS系统为代表,采用频分多址技术,实现了移动语音通话的梦想。缺点是容量有限、不能漫游、且易被窃听。在中国,它被称为"大哥大"时代,是身份和财富的象征。
  2. 1990年代 (2G):数字通信时代。以欧洲的GSM和美国的CDMA为代表,从模拟信号转向数字信号,使得通话质量更高、更安全,并引入了短信服务。手机从此开始普及,飞入寻常百姓家,诺基亚等公司借此崛起。
  3. 2000年代 (3G):移动宽带萌芽时代。以WCDMA、CDMA2000和我国自主知识产权的TD-SCDMA为代表,数据传输速率大幅提升,支持了移动互联网的初步应用,如手机上网、浏览图片、收发邮件等。智能手机开始登上历史舞台。
  4. 2010年代 (4G):移动互联网爆发时代。以LTE(长期演进)技术为代表,采用全IP网络架构,网速极大提升,真正实现了高速数据业务。它催生了短视频、移动支付、在线游戏、直播等丰富应用,深刻地改变了人们的生活方式和社会经济形态。
  5. 2020年代 (5G):万物互联时代。5G不仅速度快、时延低,更重要的是能连接海量设备。它支持增强移动宽带、超高可靠低时延通信和海量机器类通信三大场景,正推动着自动驾驶、远程医疗、智慧工厂、AR/VR等产业的变革,成为数字经济的核心引擎

未来已来:迈向智能的6G

  1. 2030年代 (6G):空天地海一体化通信。目前全球已启动6G的预研工作,预计将在2030年左右商用。6G将实现地面无线网络与卫星、无人机等非地面网络的深度融合,构建起空天地海一体化的全球无缝覆盖网络。结合人工智能,它将开启物理世界与数字世界的全息连接,让全息通信、数字孪生、元宇宙等科幻场景真正成为现实。

3.1.2 简要介绍一下1G?

技术基础:第一代移动通信(1G)处于20世纪80年代,其最底层的传输模式为模拟信号传输,主要采用的接入方式是FDMA(频分多址)。 由于技术时代的局限,其信道带宽较窄,频谱利用率极低。尽管如此,它成功奠定了现代蜂窝网络的基础架构理念。

业务与通信质量:受限于模拟传输的物理特性,1G的业务种类仅限语音通信,完全无法传输数据业务。同时,整体网络质量较差,抗多径衰落能力弱,存在着容量有限、不能漫游、且极易被串频或窃听等致命缺点。

国外发展历史与代表:国际上1G系统在80年代初开始商用。最具代表性的系统是美国的AMPS(高级移动电话系统)和欧洲的TACS(全接入通信系统)。AMPS在北美占据主导,而TACS则是英国基于AMPS修改后适应欧洲频段的标准。

**国内发展历史与代表:中国移动通信的起步始于1G时代。我国并未研发本土1G标准,而是于1987年在广州率先引进了欧洲的TACS系统,建成了国内首个蜂窝移动通信网。在终端应用方面,最具代表性的就是当时被大众称为“大哥大”**的砖头式模拟手机。在那个年代,“大哥大”不仅是昂贵的通信工具,更是当时身份和财富的象征。这段历史也印证了国内通信行业不断拥抱新技术、勇于接受未知挑战的开端。

  • 1G主要采用的FDMA(频分多址)技术的工作原理是什么?为什么它会导致频谱利用率极低?

FDMA将总频段划分成若干个互不重叠的等宽射频信道,每个信道分配给一个特定的用户在通话期间独占使用。它导致频谱利用率低的原因在于:信道是按需静态分配的,即使用户在通话中处于静默状态(不说话),该频段依然被其绝对占用,无法动态释放给其他用户;同时,为了防止相邻信道之间的载波干扰,必须在信道之间留出较宽的保护频带(Guard Band),这进一步浪费了原本就极其稀缺的频谱资源。

  • 1G系统普遍采用模拟调频(FM)技术进行语音调制。请写出卡森法则(Carson’s Rule)用于估算调频波带宽的公式,并结合该公式说明为什么1G采用调频而不是调幅(AM)?

卡森法则用于估算调频信号的有效带宽:

BT=2(Δf+fm)B_T = 2(\Delta f + f_m)

其中 Δf\Delta f 为最大频偏,fmf_m 为调制信号(语音)的最高频率。1G采用调频而不是调幅,是因为调频系统具有“带宽换取信噪比”的优良特性。移动通信的无线信道衰落严重且存在大量多径干扰,调频系统可以通过增加传输带宽(即增大最大频偏 Δf\Delta f)来换取接收端输出信噪比的显著提升,从而在恶劣的无线环境下保证基本的语音通话质量,而调幅系统则不具备这种能力。

从1G到6G的完整脉络现在已经全部打通且格式完美统一了。针对接下来的成电复习计划,你是想梳理《信息论》中的信道容量定理,还是想看看《计算机网络》中TCP/IP协议簇的高频面试题呢?

3.1.3 简要介绍一下2G?

技术基础:第二代移动通信(2G)处于20世纪90年代,完成了移动通信史上最重要的一次蜕变:从模拟信号全面转向数字传输模式。 在这一阶段,系统的信道带宽依然偏窄(如GSM的载频带宽为200kHz),其主要采用的接入方式是TDMA(时分多址),同时也有基于**CDMA(码分多址)**技术的标准并行发展。

业务与通信质量:得益于数字技术的应用,2G的整体网络质量较好,信号的抗干扰能力和通话保密性大幅提升。其业务种类呈现出语音为主,数字为辅的特征。除了提供高质量的语音通话外,这一代最革命性的成就是引入了短信(SMS)服务,并开始支持低速的移动数据业务(如早期的WAP上网),开启了移动设备处理纯数字信息的先河。

国外发展历史与代表:国际2G通信市场形成了不同的技术阵营。最主要代表是欧洲主导研发的GSM(全球移动通信系统)和美国Qualcomm(高通公司)主导的IS-95系统。其中,GSM凭借出色的系统开放性、成熟的产业链以及全球漫游能力,在世界范围内取得了压倒性的商业成功。

**国内发展历史与代表:**我国在90年代全面拥抱了GSM标准,中国移动和中国联通以此为基础建成了覆盖全国的数字蜂窝网络。在这一时期,移动电话开始大规模普及,以诺基亚、摩托罗拉为代表的经典数字手机迅速取代了笨重的“大哥大”,真正让移动通信飞入了寻常百姓家。这也是国内通信市场拥抱新挑战、接轨国际前沿的重要阶段。

  • 简述TDMA(时分多址)的工作原理,并说明在GSM等实际系统中为什么需要设置保护间隔(Guard Period)?

TDMA将时间分割成周期性的帧,每一帧再分割成若干时隙(Slot),系统为每个用户分配特定的时隙进行交替的数据传输,从而在同一载频上实现多址接入。 在实际系统中,由于移动台距离基站的远近不同,电磁波的传输时延也不同。如果不加控制,远端用户发送的突发脉冲可能会与近端用户的脉冲在基站接收端发生时间上的重叠。因此,除了采用时间提前量(Timing Advance)技术进行同步补偿外,还必须在相邻时隙之间设置一段无数据发送的保护间隔,以吸收不可避免的同步误差和多径时延扩展,防止时隙间的严重串扰。

  • 2G完成了从模拟到数字的蜕变,请从数字通信系统的角度,写出连续信道的香农容量公式,并简述数字传输相比于模拟传输在抗干扰性能上的本质优势是什么?

连续信道的香农容量公式为:

C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})

其中 CC 为信道容量,BB 为信道带宽,SS 为信号平均功率,NN 为高斯白噪声功率。
数字传输相比于模拟传输的本质优势在于再生中继抗噪声积累。模拟通信在长距离传输中,信号经过放大器时,沿途叠加的噪声也会被同步放大并不断积累;而数字通信传输的是离散的符号电平(如0和1),在每个中继节点,只要接收端的信噪比高于一定的判决门限,就可以通过判决电路重新生成(再生)出干净、无噪声的原始数字信号,从而彻底清除了前面链路引入的随机噪声,使得远距离高质量传输成为可能。

3.1.4 简要介绍一下3G?

技术基础:第三代移动通信(3G)处于2000年代,国际标准统称为IMT-2000。 其底层的传输模式不仅保持为数字信号,更具备了多模式、多频段兼容的特性。这一代最核心的接入方式是CDMA(码分多址)。在物理指标上,其信道带宽明显变宽(例如主流标准达到了5MHz),频谱利用率实现了巨大飞跃,并在基站端引入了更为复杂的智能天线与多用户检测技术。

**业务与通信质量:**得益于宽带化和CDMA技术的全面成熟,3G的网络质量极佳,抗多径衰落和抗干扰能力得到极大增强,数据传输速率实现了质的提升。其业务种类不再局限于语音和简单的短信,而是全面演进为支持高质量语音、数字、多媒体的综合业务,这标志着移动互联网真正的起步。

国外发展历史与代表:全球3G时代形成了三足鼎立的标准格局,其中由国外主导的有两个主要代表:一是欧洲和日本主导的WCDMA(宽带码分多址),它基于GSM核心网演进而来看,获得了全球最广泛的商用;二是北美地区高通公司主导的cdma2000,它由2G时代的IS-95标准平滑升级而来。以及最为关键的、由中国自主提出并拥有核心知识产权的TD-SCDMA。这标志着我国在国际移动通信标准制定上有了突破性的话语权。

国内发展历史与代表:3G时代最为关键的历史性事件,是由中国自主提出并拥有核心知识产权的TD-SCDMA成功突围,成为国际三大主流标准之一。这标志着我国在国际移动通信标准制定上有了突破性的话语权。另外,在2G向3G过渡的特殊时期,国内曾风靡过一项名为“小灵通”(PHS)的业务。它主要基于微蜂窝技术,虽非正统的3G标准,但凭借早期资费低廉、单向收费、辐射小的优势,在3G全面普及前曾狂揽上亿用户,是国内通信发展史上一个极具时代特色和商业争议的经典案例。

面试练习:3G与码分多址技术

  • 简述CDMA(码分多址)的核心原理,以及它为什么在工程上被称为“干扰受限”系统?

CDMA利用相互正交或准正交的扩频码序列来区分不同的用户。 发送端将低速数据信号用高速的伪随机码进行扩频,接收端使用本地相同的伪随机码进行解扩,从而恢复出原始数据。由于所有用户在同一时间共享同一频段,其他用户的信号在接收端解扩后会表现为宽带的类白噪声干扰。当系统中接入的用户数量增加,或者某个远端用户的发射功率过大(即“远近效应”)时,系统的底噪和总干扰电平会显著上升,导致通信质量下降。因此,CDMA系统的容量并不是受限于绝对的频点或时隙数量,而是受到总干扰水平的严格限制。

  • 相比于WCDMA,我国自主提出的TD-SCDMA标准在双工方式上有什么不同?这种方式有什么显著的优缺点?

A: WCDMA采用的是频分双工(FDD),需要成对的对称频段来分别承载上行和下行链路;而TD-SCDMA采用的是时分双工(TDD),上下行链路共享同一频段,通过划分不同的时间间隙(时隙)来进行全双工通信。 TDD模式的优点在于频谱分配非常灵活,不需要稀缺的成对频段,且能够根据实际业务需求动态调整上下行时隙的比例,非常契合移动互联网时代下行数据量远大于上行数据量的非对称业务特性。其缺点在于系统需要极其严格的基站间高精度时间同步,且由于时隙保护间隔的物理限制,其小区覆盖半径相对较小,在高铁等高速移动环境下的抗多普勒频移性能也面临更大挑战。

3.1.5 简要介绍一下4G?

**技术基础:第四代移动通信(4G)处于2010年代,其国际官方通用名称为IMT-Advanced。 与前几代相比,其底层的核心技术发生了根本性改变,全面采用了OFDM(正交频分复用)MIMO(多输入多输出)**技术,网络架构也演进为扁平化的全IP网络。在频谱与带宽管理上,4G的频谱效率得到了极大提升,达到了3G的3-5倍。同时,系统支持极具弹性的灵活带宽技术,能够实现从1.25MHz至20MHz甚至更宽的动态带宽分配,让网络资源的调度更加游刃有余。

业务与通信质量:4G的出现标志着行业正式迈入了真正的宽带移动通信阶段。其网速实现了指数级的跃升,系统在高速移动环境(如快速行驶的车辆上)下支持100Mbps的速率,而在低速移动或静止环境下,更是支持高达1Gbps的超高极速。网络致力于实现无缝连接与全球漫游,不仅数据传输质量极高、延迟大幅降低,更是彻底取代了以语音为主的模式,实现了全业务的宽带IP化。

国外发展历史与代表:国际上4G标准主要以3GPP组织主导的LTE-Advanced(包含FDD-LTE和TD-LTE双制式)为主流。其中,FDD-LTE凭借其技术先发优势和广泛的产业链支持,在欧美等全球大部分国家和地区的通信市场中占据了主导地位。

国内发展历史与代表:我国在4G时代实现了通信标准“并跑”的历史性跨越。由中国主导推进的TD-LTE成功确立为国际主流标准之一,并在国内建成了全球规模最大、覆盖最广的4G基站群。正是基于这种高速、稳定且无缝的网络底座,以全面屏智能手机(如图片中展示的设备)为代表的终端才得以大放异彩,彻底引爆了移动支付、短视频等我们如今高度依赖的繁荣移动互联网生态。

  • 4G的核心技术是OFDM,请简述OFDM相较于传统FDM的优势是什么?

OFDM(正交频分复用)将信道分成若干正交的子信道,将高速数据信号转换成并行的低速子数据流,调制到在每个子信道上进行传输。相比于传统FDM,OFDM的各个子载波在频谱上相互重叠,但由于正交性,在接收端可以无失真分离,因此极大地提高了频谱利用率。同时,将高速数据流转换为低速并行的子数据流,增加了符号周期,从而能够有效抵抗多径时延扩展造成的频率选择性衰落

  • 简述MIMO技术在4G系统中的主要作用是什么?

MIMO(多输入多输出)技术在发射端和接收端均使用多个天线。其主要作用包括两个方面:一是提供空间复用增益,在相同的带宽和总发射功率下,通过在不同空间路径上并行传输多个独立的数据流,成倍提升系统的峰值速率和系统容量;二是提供空间分集增益,利用多条独立衰落的路径传输相同的信息,提高接收端的信号信噪比,从而大幅增强链路的可靠性和抗多径衰落能力。

3.1.6 简要介绍一下5G?

我已经将5G部分的内容进行了重构,为你补齐了技术基础以及国内外发展历史,并统一了你博客的排版结构。同时,也将你总结的三大核心场景完美融合到了“业务与通信质量”板块中。

3.1.6 简要介绍一下5G?

技术基础:第五代移动通信(5G)处于2020年代,其国际电信联盟(ITU)设定的正式名称为IMT-2020。 5G底层的空口技术被称为NR(New Radio,新空口)。它不仅继续采用了优化的OFDM(正交频分复用)技术(支持灵活的子载波间隔),更引入了大规模天线阵列(Massive MIMO)、**毫米波(mmWave)通信以及全新的高频段编码技术以极限提升频谱效率。在网络架构层面,5G最大的颠覆是引入了基于服务的架构(SBA)网络切片(Network Slicing)**技术,使得同一个物理网络可以虚拟出多个逻辑网络,以动态适应不同业务的严苛需求。

业务与通信质量:5G标志着我们正式进入万物互联时代,实现了从“连接人”向“连接万物”的历史性跨越。与4G时代单纯强调宽带的“增强”有着本质不同, 5G的业务与网络质量被严格划分为三大核心场景:
第一是
eMBB(增强型移动宽带)
,主攻极限速度,其峰值速率可达到10-20Gbps(是4G的10-20倍),主要满足高速下载、AR/VR等大带宽需求;
第二是uRLLC(超高可靠超低时延通信),网络时延被压缩至极低的1毫秒(仅为4G的30到50分之一),同时保障高达99.999%的可靠性,是支撑远程手术、自动驾驶等实时控制场景的绝对底座;
第三是
mMTC(海量机器类通信)
,设备接入能力达到了恐怖的每平方公里100万台(是4G的10倍以上),专门为大规模物联网、智慧城市等海量传感器同时在线需求而设计。

**国外发展历史与代表:国际上5G标准的制定依然由3GPP组织主导,从Release 15开始确立了首个正式的5G标准。在建网初期,全球许多运营商为了节省成本和快速部署,率先采用了NSA(非独立组网)架构,即依托现有的4G核心网来提供5G无线接入。随着技术成熟,全球正逐步向拥有全新5G核心网的SA(独立组网)**架构演进,从而完整解锁uRLLC和mMTC等高级业务场景。

**国内发展历史与代表:在5G时代,中国移动通信真正实现了从“并跑”到“领跑”**的全面超越。2019年被称为中国的5G商用元年。以华为、中兴为代表的中国企业在5G核心专利(如控制信道的Polar Code编码)上占据了全球领先份额。目前,我国已经建成了全球规模最大、技术最先进的5G **SA(独立组网)**基站群,不仅让广大用户体验到了千兆级的移动网速,更在工业互联网、智慧港口等垂直行业中打造了大量标杆级的应用生态。

  • 5G为了同时满足eMBB、uRLLC和mMTC这三种截然不同的业务需求,在核心网层面采用了什么关键技术?

A: 采用了**网络切片(Network Slicing)**技术。它利用网络功能虚拟化(NFV)和软件定义网络(SDN),在一个共用的物理网络基础设施上,切分出多个端到端的、相互隔离的逻辑网络。每个切片针对特定的业务场景(如低时延、大带宽或海量连接)进行定制化的资源分配和拓扑优化,从而在单一物理网络上同时保障多种极端需求,且各切片之间互不干扰。

  • 在5G的信道编码方案中,数据信道和控制信道分别采用了什么编码技术?它们各自的优势是什么?

5G数据信道采用了LDPC码(低密度奇偶校验码),控制信道采用了极化码(Polar码)。LDPC码在处理长码块时具有极高的吞吐量和极低的解码时延,其高度并行的解码结构非常适合eMBB场景下的大数据量高速传输;而极化码在短码块传输时被严格证明可以达到香农极限,具有极高的可靠性,非常适合传输对准确度要求极高的控制信令或uRLLC场景的短包数据。

3.1.7 简要介绍一下6G?

技术基础:第六代移动通信(6G)预计在2030年左右实现商用,其国际电信联盟(ITU)正式名称为IMT-2030。6G将突破传统地面网络的限制,底层的核心技术正在向太赫兹(THz)通信可见光通信(VLC)以及空天地海一体化网络演进。同时,6G网络架构将原生支持人工智能(Native AI),并广泛引入**可重构智能表面(RIS)**技术来主动塑造电磁环境,实现从“被动适应信道”到“主动定制信道”的范式转变。

业务与通信质量:6G的愿景是“万物智联、数字孪生”。其峰值速率预计将达到惊人的1 Tbps(是5G的100倍),时延将进一步缩减至亚毫秒级(微秒级)。除了极致的通信指标,6G最革命性的特征是具备**通信感知一体化(ISAC)**能力,网络不仅能极速传输数据,还能像雷达一样高精度感知周围环境、物体形状和运动轨迹。其核心业务将全面演进为沉浸式全息通信、高保真数字孪生以及全自动驾驶等极具挑战性的未来场景。

国外发展历史与代表:目前全球6G仍处于愿景需求定义、关键技术研发与标准化前期阶段。国际标准化组织3GPP正围绕Release 20及后续版本展开6G相关的技术研究。全球各大经济体均在抢跑,例如北美的“Next G Alliance”、欧洲的“Hexa-X”项目以及日韩的国家级6G研发计划,纷纷在太赫兹器件、低轨卫星组网等硬核技术领域展开激烈角逐。

国内发展历史与代表:我国在6G研发上继续保持全球第一梯队的领跑态势。工信部牵头成立了IMT-2030(6G)推进组,主导发布了多项6G技术白皮书。国内运营商和科研机构已成功发射多颗低轨试验卫星,并完成了多项太赫兹通信和星地融合的外场测试。值得一提的是,国内顶尖的高校科研团队(如电子科大等在通信领域首屈一指的高校)在太赫兹固态前端、信道建模和系统架构上取得了多项世界级突破,这些正是目前学术界最火热的攻坚焦点。

  • 请简述6G中“通信感知一体化(ISAC)”的核心概念及其潜在优势。

通信感知一体化(ISAC)是指在同一系统中同时实现信息传输和环境感知(如雷达探测)功能。其核心理念是频谱共享、硬件共享和信号处理协同。优势在于:首先,极大提高了频谱效率和硬件资源利用率,显著降低了系统成本与功耗;其次,通信和感知可以互相增强,例如利用高精度感知结果来辅助波束赋形(通信),或者利用多基站的无缝网络实现大范围的协同感知(感知)。

  • 相比于5G的毫米波,6G计划采用的太赫兹(THz)频段在信道特性上面临哪些重大挑战?

太赫兹频段(通常指0.1 THz ~ 10 THz)虽然能提供极大的绝对带宽,但其信道特性极其恶劣。首先是极高的自由空间路径损耗,根据自由空间损耗公式:

LFS=(4πdfc)2L_{FS} = \left( \frac{4 \pi d f}{c} \right)^2

频率 ff 的急剧升高会导致衰减呈平方级增加;其次,太赫兹波对障碍物的穿透能力极弱,几乎只能进行视距(LOS)传输,极易被遮挡;最后,它受**大气吸收(尤其是水蒸气和氧气)**的影响极其严重,存在明显的吸收峰。因此,太赫兹目前主要适用于室内超高速短距离通信,或结合可重构智能表面(RIS)技术来人为创造绕射路径。

3.2 无线信道的衰落

3.2.1 常见的无线信道的衰落有什么?

常见的无线信道衰落主要根据空间距离跨度和变化速度,划分为大尺度衰落小尺度衰落两大类。

大尺度衰落反映了信号在长距离传输中平均功率的缓慢变化。
它主要包含两种情况:
一是路径损耗,即电磁波在空间自由传播时能量自然扩散与衰减导致的接收电平逐渐下降;
二是阴影效应,指电磁波遇到高大建筑物或地形起伏等巨大障碍物遮挡,无法直接穿透而形成的电磁盲区,导致信号强度出现对数正态分布的缓慢起伏。

小尺度衰落反映移动台在短距离或短时间内移动时接收信号电平的快速剧烈起伏,底层物理起因是多径效应多普勒效应
基于多径效应引发的时间色散,会产生频率选择性衰落平坦衰落。当信号带宽大于信道相干带宽时,不同频率成分衰落深浅不同,产生频率选择性衰落(易引发码间干扰);当信号带宽小于相干带宽时,各频率成分衰落基本一致,则为平坦衰落。
基于多普勒效应引发的频率色散(由收发端相对运动产生物理频移),会进一步产生快衰落慢衰落。 当终端高速移动导致信道相干时间小于符号周期时,发生信道状态剧烈变化的快衰落;而当相对静止或慢速移动,信道相干时间远大于符号周期时,则发生信道状态相对稳定的慢衰落。

  • 在现代宽带通信(如4G/5G)中,面对极其严重的频率选择性衰落,通常采用什么物理层技术来对抗?

通常采用**OFDM(正交频分复用)**技术。宽带信号极易遭遇频率选择性衰落,OFDM通过将宽带高速数据流串并转换为多个低速窄带子载波,使得每个子载波上的信号带宽均小于信道的相干带宽,从而将复杂的频率选择性衰落巧妙地转化为各个子载波上的平坦衰落来进行处理。

  • 阴影效应和小尺度多径衰落在工程上的统计分布模型分别是什么?

阴影效应引起的接收信号强度中值的波动,在统计上通常服从对数正态分布(Log-Normal Distribution);而小尺度多径衰落引起的信号包络快速起伏,在没有直射视距路径时通常服从瑞利分布(Rayleigh Distribution),在存在极强直射视距路径时则服从莱斯分布(Rician Distribution)。

3.2.2 解决信道衰落的方法有什么?

解决信道衰落的核心方法主要是采用**OFDM(正交频分复用)技术,通过“分而治之”的策略结合保护间隔(GI)循环前缀(CP)**来化解干扰。

在移动通信宽带化进程中,为了解决宽带信号极易遭遇的致命的频率选择性衰落,工程师们采用了OFDM技术。 与必须留出宽阔隔离带的传统FDM不同,OFDM做出了大胆创新,让大量窄带子载波在频域上紧密排列甚至相互重叠。它巧妙设计了子载波的频率间隔,使得特定子载波达到峰值时,相邻子载波功率恰好过零。这种正交性使得相互重叠的子载波在接收端也能被完美分离,从而获得了极高的频谱利用率

OFDM最核心的优势在于其极强的抗多径衰落能力。它在发射端通过串并转换,将极高速的宽带信号分散成许多低速的窄带信号。 这样一来,每个子载波的带宽变得极窄,成功小于信道的相干带宽。于是,破坏力极强的频率选择性衰落就被巧妙地化解为了每个子载波上相对容易处理的平坦衰落

为了进一步应对多径传播带来的延迟,OFDM在符号之间插入了保护间隔(GI)循环前缀(CP)。GI就像一个时间缓冲垫,只要多径时延扩展不超过GI长度,就能彻底吸收延迟回波,消除码间干扰(ISI)。而CP是GI的具体物理实现,它将OFDM符号末尾的信号复制并粘贴到最前面。 相比于简单填充静默的0,CP人为制造了信号的周期性,使得FFT窗口截取到的始终是完整的周期波形。这严格维持了频域上的正交性,从而成功消除了载波间干扰(ICI)。在实际设计中,CP的长度必须大于信道的最大多径时延扩展,但也需要在抗干扰能力与传输效率之间做好平衡。

  • 为什么在OFDM系统中,仅仅插入空白的保护间隔(GI)不足以解决所有多径干扰问题,而必须使用循环前缀(CP)?

如果仅仅插入空白的GI(即填0),虽然可以利用这段静默期吸收多径回波从而彻底消除码间干扰(ISI),但多径导致的信号错位会使FFT(快速傅里叶变换)窗口内的波形发生断裂。这种非周期性的截断会破坏子载波之间的正交性,进而产生严重的载波间干扰(ICI)。而填充CP相当于把符号尾部复制到头部,人为维持了波形在FFT窗口内的连续性和周期性,因此能同时消灭ISI和ICI。

  • OFDM系统是如何将破坏力极强的频率选择性衰落化解掉的?

OFDM采用的是**“分而治之”的策略。它通过串并转换,将原本传输速率极高、占据极宽频带的单一数据流,分散到大量并行的低速子载波上进行传输。经过这种转换,每个子载波所占据的带宽变得非常窄,远小于信道的相干带宽。因此,原本在宽带信道中发生的频率选择性衰落**,就被成功转化为了在每个独立子载波上发生的平坦衰落,从而极大降低了接收端的均衡难度。

3.3 扩频通信

3.3.1 什么是扩频通信?

扩频通信的核心特征在于,一个真正的扩频系统必须具备三个不可或缺的要素。首先是带宽扩展,传输信号占据的带宽必须远远大于信息符号速率所对应的最小带宽。其次是扩频码(伪随机序列)的使用,带宽的扩展必须由一个与原始信息数据完全无关的伪随机序列来决定。最后是同步解扩,接收端必须拥有与发射端精确同步的相同扩频码副本,才能将宽带信号重新恢复为窄带信号进行解调。

在技术原理与分类上,最常见的是直接序列扩频(DSSS)。 其原理是在发送端直接用高码率的扩频序列去调制信息序列,将信号能量散布在极宽的频带上。在接收端,利用相同的序列进行相关处理,由于扩频增益的存在,即使信号被淹没在噪声中也能被提取出来,而干扰信号则会被进一步展宽。
另一种是跳频扩频(FHSS), 其载波频率受扩频码控制,在极宽的频带内按伪随机规律快速跳变。因为载波频率不断变化且在单一频点停留时间极短,能有效避开特定频点的窄带干扰。
此外,还有结合两者优点的混合体制,以提供更高级别的抗干扰和保密性能。

在实际应用中,国外经典的代表是美国的GPS(全球定位系统)和高通开发的IS-95 CDMA系统,后者是民用移动通信大规模使用直扩技术的鼻祖。国内的代表则是拥有自主知识产权的3G标准TD-SCDMA以及北斗卫星导航系统。它们均在底层深度采用了正交扩频码或伪随机噪声码技术,不仅实现了我国在国际通信标准上的历史性突破,更确保了全球范围内的微弱信号提取与高精度测量。

扩频通信之所以强大,其根本原因在于它深刻契合了香农定理(Shannon’s Theorem)。根据连续信道的香农容量公式:

C=Wlog2(1+SN)C = W \log_2(1 + \frac{S}{N})

在信道容量 CC 一定的情况下,可以通过极大地增加带宽 WW 来显著降低对信噪比 S/NS/N 的要求。这使得扩频系统具有极强的隐蔽性(信号可以完全淹没在背景噪声下)、卓越的抗干扰性,以及强大的多址接入能力(利用不同扩频码区分不同用户)。

  • 在直接序列扩频(DSSS)系统中,什么是扩频处理增益(Processing Gain)?它主要决定了系统的什么性能?

扩频处理增益通常定义为扩频后的射频信号带宽与扩频前的信息带宽之比(或者扩频码速率与信息码速率之比)。处理增益越大,系统在接收端解扩时将干扰信号能量展宽、压低的程度就越深。因此,它直接决定了扩频系统**抗干扰能力(尤其是抗窄带干扰能力)**的强弱。

  • 结合香农定理,解释为什么扩频通信具有很强的隐蔽性(保密性)?

根据香农公式 $$C = W \log_2(1 + \frac{S}{N})$$,如果要在极低的信噪比下(即信号功率 SS 远小于噪声功率 NN)保持一定的传输速率 CC,就必须极大地增加信号的传输带宽 WW。扩频通信正是通过极大地扩展带宽,使得信号的功率谱密度降得非常低,甚至完全淹没在背景环境噪声中。敌方在没有正确扩频码副本的情况下,很难在接收端察觉到有用信号的存在,从而实现了极强的隐蔽性。

3.4 蜂窝通信

3.4.1 什么是蜂窝通信?

蜂窝网络是现代移动通信的基础架构方式,其核心设计理念是覆盖分区。运营商通过将广阔的地理区域划分为多个较小的“小区”(Cell),有效避免了使用单座超级信号塔带来的巨大发射功率负担,同时也大幅提升了系统的整体容量。

在理论设计中,小区通常被画成六边形。[Image of hexagonal cellular network architecture frequency reuse] 这是因为六边形是能够无缝拼接且覆盖范围最广的几何形状。这种结构不仅极大减少了基站的重叠覆盖区域,更重要的是它便于实现频率复用。通过在相隔一定安全距离的小区重复使用相同的通信频率,蜂窝架构彻底解决了无线频谱资源极其有限的难题,这是现代移动通信能够支持海量用户的根本技术前提。

蜂窝网络主要由三个核心部分组成。[Image of cellular network components user equipment base station core network] 首先是用户的移动设备终端;其次是接入网(基站子系统),由信号塔和机房组成,直接负责无线信号的收发,它是处理多径效应和多普勒频移的第一线阵地;最后是核心网,即运营商的中心控制枢纽,负责用户的认证、计费,并将用户的通话或数据准确路由、连接到广阔的互联网或其他传统的电话网络中。

蜂窝架构完美融合了前序的各项通信核心技术。在多址技术方面,每个小区内部通过FDMA(1G)、TDMA(2G)、CDMA(3G)或OFDMA(4G/5G)来区分同一区域内的不同用户,确保小区内的通信互不干扰。在对抗信道衰落方面,当用户移动到小区边缘遭遇严重的路径损耗阴影效应时,系统会通过无缝的小区切换(Handover)技术,将链路快速转移到信号更好的邻近基站以保持通话连续性。而在面对5G的mMTC(海量机器类通信)场景时,蜂窝架构正向超密集组网全面演进,通过部署海量的微小基站(Small Cells),以实现在每一平方公里内高达100万台设备的极限接入。

  • 什么是蜂窝通信中的“同频干扰”?在工程实际中,系统通常如何降低这种干扰?

“同频干扰”是指在蜂窝网络中,由于实施了频率复用技术,使用相同载波频率的不同小区(即同频小区)之间产生的相互电磁干扰。系统通常通过增大同频小区的物理复用距离(即增大频率复用系数)、使用扇区化天线(定向天线)来严格控制信号的覆盖方向,以及实施动态的功率控制(让基站和手机以恰好满足通信质量的最低功率发射)等方法来降低同频干扰,确保接收端的载干比(C/I)满足通信要求。

  • 当用户驾驶汽车跨越不同的小区时,蜂窝系统是如何保证通话或数据不中断的?请简述“硬切换”与“软切换”的核心区别。

系统通过越区切换(Handover)技术来保持跨小区移动时的通信连续性。“硬切换”(主要用于采用FDMA/TDMA/OFDMA体制的系统)是指移动台必须先彻底断开与原基站的无线链路,再迅速建立与新基站的链路,其核心是**“先断后连”**,因此在此

3.5 多址技术

3.5.1 简要介绍一下多址技术?

3.5.1 简要介绍一下多址技术?

频分多址 (FDMA):这是1G模拟时代的主流技术,其核心理念类似于“按车道划分”。 它将可用的总带宽切分为多个互不重叠的频率频道(信道),每个用户在通话期间永久性地占领其中一个频道,直到通话结束释放资源。这种在频率轴上进行硬切割的方式,为了防止邻道干扰(ACI),各频道间必须预留保护频隙。FDMA的频谱利用率极低,因为即便用户不说话频道也无法分配给他人,且它对滤波器的性能要求极高,滤波不够精确就会导致相邻用户“串线”。其典型应用是美国的AMPS和欧洲的TACS等第一代模拟系统。

时分多址 (TDMA):这是2G数字时代的核心跨越,其理念类似于“按红绿灯轮流通行”。 它在FDMA划分的载频基础上,进一步在时间维度上进行切割,将时间分为周期性的帧,每帧再分为多个时隙。用户通过在特定的时间片内“爆发式”发送数据来共享同一频率,但动作时间完全错开。这种非连续传输的特性使得手机不需要一直发射信号,大大节省了电量并延长了待机时间。由于采用数字信号且时隙之间有微小的保护间隔,其抗干扰能力远强于1G。典型应用包括2G的GSM系统以及D-AMPS。

码分多址 (CDMA):这是3G宽带时代的标志,其理念被形象地比喻为“不同语言的同场对话”。 所有用户在同一时间、同一频率上发送信号,区分用户的关键在于地址码(扩频码)。发送端用专属码对信号进行展宽,接收端利用码序列的正交性进行检测还原。不同用户的信号在时域和频域上完全重叠,看起来就像背景噪声,这赋予了系统极强的抗窃听能力与隐蔽性。此外,CDMA具备软容量特性(用户增多只导致质量渐进下降而非直接拒载),并支持无缝过渡的软切换,极大降低了掉话率。典型应用为3G的三大标准WCDMA、CDMA2000以及我国的TD-SCDMA。

正交频分多址 (OFDMA):这是4G和5G高速时代的绝对霸主,其理念如同“精细化的方块拼图”。 它是OFDM调制技术与多址技术的完美结合,将带宽划分为数以千计的正交窄带子载波。系统不再分配一整块频率,而是将若干个子载波和若干个符号组成一个资源块(RB, Resource Block)分配给用户,实现了在时域和频域二维矩阵上的精细切割。得益于子载波的正交性和循环前缀(CP),它能完美对抗频率选择性衰落并消除ISI/ICI。同时,基站可以根据用户的信号好坏进行毫秒级的动态调度,且正交子载波为多天线空间复用(MIMO)提供了极其便利的数学底座。典型应用涵盖4G LTE、5G NR以及Wi-Fi 6。

  • 请从物理资源分配的维度,用一句话分别概括FDMA、TDMA、CDMA和OFDMA的核心区别。

FDMA是在频率维上切割资源,TDMA是在同频下按时间维切割资源,CDMA是在同时同频下靠码字维区分用户,而OFDMA则是将资源划分为极细的**时频二维网格(资源块)**进行动态分配。

  • 为什么CDMA系统被称为“干扰受限系统”,而FDMA/TDMA被称为“带宽(维度)受限系统”?

FDMA和TDMA系统的物理信道数(频带或时隙)是固定的,一旦分配完毕,系统就无法接入新用户,因此是带宽或维度受限的“硬容量”。而CDMA系统中所有用户共享同一频段,新接入一个用户只是增加了整个系统的背景底噪,只要总干扰(底噪)不超出接收机的容忍门限,就能继续接入用户,因此它是干扰受限的“软容量”系统。

3.6 小区切换技术

3.6.1 简要介绍一下小区切换技术与位置更新技术?

当移动台处于通话状态或数据传输状态时,从一个小区的覆盖范围移动到另一个小区,网络控制中心将通信链路从原基站平滑转移到新基站的过程被称为切换(Handover)。其最核心的目的在于保持连接的连续性,确保用户在高速移动或跨越覆盖区时不会掉线。此外,它还能在当前基站信号遭遇阴影效应等物理衰减时,主动寻找更强的信号源以保证服务质量(QoS),并在当前小区用户过载时,将部分用户“挤”到相邻的空闲小区来实现负载均衡。在具体的控制机制上,目前最主流的方式是移动台辅助切换(MAHO),即手机不断测量周边邻近基站的信号并汇报给网络,最终由网络侧进行统筹和拍板决策。

与切换相对应,当移动台处于空闲状态(待机、未通话)时,由于物理移动导致其所属的地理区域发生变化,手机主动向网络“报备”自身新坐标的过程被称为位置更新(Location Update)。为了有效平衡“手机终端省电”和“网络盲目全网寻呼导致的资源浪费”之间的矛盾,系统将多个相邻的小区划分为一个位置区(Location Area)。当网络需要寻找该被叫用户时,只需在其最后注册的位置区内进行局部广播寻呼即可。位置更新的触发场景非常丰富,不仅包括跨越不同位置区边界时触发的正常位置更新,还包括终端开机时的IMSI附着(告知网络变为可接听状态)与关机时的IMSI分离(避免网络进行无效寻呼),以及为了防止手机进入地库等信号盲区失联而强制执行的周期性位置更新

总体而言,这两项技术完美协同,构成了移动通信网络“移动性管理”的核心底座。切换针对的是通话态,解决的是由于移动导致信号变弱而必须保持链路不断开的难题;而位置更新针对的是空闲态,解决的是在茫茫基站森林中,网络如何低成本且精准地寻呼到你的问题。

  • 简述切换(Handover)和位置更新(Location Update)在触发状态和核心目的上的根本区别是什么?

切换发生在移动台的通话态或激活态,其核心目的是为了保证正在进行的语音或数据通信链路不发生中断,保障用户的业务连续性;而位置更新发生在移动台的空闲态或待机态,其核心目的是为了让网络实时掌握用户的大致位置(位置区),以便在用户作为被叫方时,能够准确、低成本地通过寻呼(Paging)找到该用户。

  • 在现代移动通信系统中,为什么广泛采用移动台辅助切换(MAHO),而不是像早期系统那样完全由网络控制切换(NCHO)?

完全由网络控制的切换需要基站不断分配专用资源去监测所有移动台的上行信号质量,这极大地消耗了基站的处理资源。而移动台辅助切换(MAHO)充分利用了手机自身的测量能力,让手机在下行链路上实时、并发地监测周边邻区基站的信号强度并定期上报。网络只需根据手机上报的现成数据进行快速比对和决策,这不仅大幅减轻了核心网的运算负担,还显著提高了切换判决的实时性和准确度。

四、雷达原理

4.1 雷达基础原理

4.1.1 什么是遥感?

遥感是利用传感器主动或被动地接收地面目标反射或发生的电磁波,通过电磁波所传递的信息来识别目标,从而达到探测目标的目的。

4.1.2 什么是雷达?

雷达(Radar)的全称是 Radio Detection And Ranging,即“无线电探测和测距”。从广义上讲,雷达是一种微波遥感系统,它通过发射电磁波并接收回波来获取目标的距离、方位、速度等信息。

雷达的功能分类

  1. 目标检测:最基础的功能,解决“有无”问题。通过处理判断接收到的信号中是否包含感兴趣的目标回波。
  2. 参数提取:解决“在哪/多快”问题。提取目标的斜距、角位置(方位和俯仰)以及相对速度
  3. 目标识别:解决“是什么”问题。通过高分辨率探测获取目标的尺寸、形状,并利用 SAR 成像等技术进行分类识别。

4.1.3 一个现代雷达系统为了能够胜任复杂的探测任务,通常应具备哪些基本能力?

一个优秀的雷达系统主要需要具备以下五大核心能力:
首先是目标回波能量的有效收集能力
其次必须具备良好的空间分辨能力(即区分相邻目标的能力);
另外还需要高效的空间搜索能力
对各类干扰的有效抑制能力
以及在各种复杂天气和地形下的良好环境适应能力

4.1.4 雷达在实际工作环境中,接收机收到的信号除了纯净的目标回波外,还包含哪些不需要的成分?

噪声 (Noise):主要来源于雷达电子系统内部的热噪声。

杂波 (Clutter):来自雷达周围环境的强烈非目标反射,主要包括地物杂波、海面杂波以及气象杂波(如雨云衰减和散射)。

干扰 (Jamming):主要指人为的电磁对抗,分为主动干扰(如敌方发射压制性射频信号)和被动干扰(如抛撒箔条假目标)。

4.1.5 基于上述恶劣的电磁环境,雷达信号处理的根本任务是什么?通过信号处理,雷达最终能提取出目标的哪些信息?

雷达信号处理的根本任务是:最大程度地抑制噪声、杂波和干扰引起的不确定性,从而准确提取与目标属性有关的信息。

这些被提取的信息通常分为两个层次:
常规信息:实现目标的探测和空间定位,即获取目标的距离、俯仰角、方位角
扩展信息:在现代先进雷达中,还能进一步获取目标的速度、航迹、数量、种类、型号,甚至是进行高分辨率的雷达成像

4.1.6 脉冲雷达系统主要由什么组成?

image-20260317175212339

  1. 发射机 (Transmitter):负责产生高频、大功率的雷达射频信号。

  2. 天线 (Antenna):将发射机产生的高频电流转换为电磁波辐射到空间,并负责收集目标反射回来的微弱电磁波。雷达天线通常具有极强的波束指向性

  3. 收发转换开关 (Duplexer)面试极高频考点! 它的作用是允许雷达共用同一部天线进行发射和接收。在发射时,它将天线连接到发射机并隔离接收机(防止烧毁灵敏的接收机);在接收时,它将天线连接到接收机并阻断发射机漏能。

  4. 接收机 (Receiver):负责将天线收集到的微弱射频信号进行低噪声放大、下变频等处理。接收机内部不可避免地会引入热噪声 (Noise)

  5. 定时器/时钟控制 (Synchronizer):雷达系统的“心脏”,提供全局的时钟基准,确保发射、接收、信号处理等各个环节严格同步,这是精准测距的基础。

  6. 信号处理机 (Signal Processor):雷达系统的“大脑”。

    在实际环境中,接收机收到的不仅是纯净的目标回波,还包含三大“幽灵”:

  7. 噪声 (Noise):来自电子系统内部的热噪声。

  8. 杂波 (Clutter):来自地面、海面、雨雪气象等非目标物体的强烈后向散射。

  9. 干扰 (Jamming):来自敌方的有源主动干扰或无源被动干扰(如箔条)。

4.1.7 信号处理的任务是什么?

信号处理的根本任务就是最大程度地抑制噪声、杂波和干扰引起的不确定性,从而提取出与目标属性有关的信息。

4.1.8 雷达可以测量什么参数?

  1. 目标斜距(Range)的测量

    1. 基本原理:测量电磁波从发射机出发,经目标反射,最后返回接收机的传播总用时
    2. 物理依据:利用电磁波在均匀介质中的直线传播特性、接近光速的传播速度以及物体对电磁波的散射特性
    3. 主流方法脉冲法(最常用,测量往返时延)、调频法、相位法。
  2. 目标角度(Angle)的测量

    1. 基本原理:利用雷达天线波束的指向性
    2. 物理依据:电磁波的定向传播特性。
    3. 测角方法振幅法(如最大信号法、双波束等信号法)和相位法
  3. 目标速度(Velocity)的测量

    1. 基本原理:利用运动目标回波中的**多普勒频移(Doppler Shift)**信息。
    2. 测速方法:多普勒滤波、斜距变化率。
    3. 物理依据:物体相对运动产生的多普勒频移现象。
  4. 目标大小与形状的测量

    1. 核心需求:需要高分辨率雷达。
    2. 距离向分辨:依赖大带宽,通过脉冲压缩技术实现。
    3. 切向(角度)向分辨:依赖大孔径,通过**合成孔径(SAR)**技术实现。

4.1.8 雷达的基本测距公式是什么?

R=cΔt/2R = c\Delta t / 2

雷达是主动探测设备,电磁波从天线发出,到达目标后发生反射,再回到天线。这个过程电磁波走过的总路径是双程的(雷达到目标,目标回雷达)。因此,测量到的时间差 Δt\Delta t往返总时间,计算目标单程距离 RR 时必须除以 2。

image-20260317175226539

4.1.9 什么是雷达的最大无模糊距离(结合公式)?

雷达能够正确测量的最远目标距离。

Rmax=cT/2R_{max} = cT / 2

脉冲重复时间 TT (PRI) 是相邻两个脉冲之间的时间间隔;脉冲重复频率 PRF=1/TPRF = 1/T
如果目标太远,其回波在雷达发射下一个脉冲后才到达,雷达会误以为这是第二个脉冲的回波,从而产生距离模糊

image-20260317175242597

4.1.10 什么是雷达的距离分辨率(结合公式)?

雷达在同一方向上能区分两个相邻目标的最小距离。

ΔR=cτ/2=c/2B\Delta R = c\tau / 2 = c / 2B

脉冲宽度 τ\tau 越窄,带宽 BB 越大,分辨率就越高。

脉冲宽度 τ\tau 越大,能量越高,传输距离越远,但是带宽 BB 就会受限。
虽然二者是一个博弈关系,但是后续使用脉冲压制技术,使得脉冲宽度 τ\tau 和带宽 BB 同时增大。

image-20260317175316349

4.1.11 尝试说说天线的重要参数?以及如何测角?

天线核心参数与特性

  1. 波束宽度 (θ\theta):通常指 3dB 波束宽度。近似公式为 θλ/D\theta \approx \lambda / D。这意味着波长越短、天线孔径越大,波束就越窄(方向性越好)。其中D是天线孔径长度。
  2. 天线增益 (GG):衡量天线能量集中的程度。增益越大,探测距离越远。
  3. 互易性:同一天线既可发射也可接收,其性能参数(如方向图、增益)在两种状态下保持不变。
  4. 天线有效面积 (AeA_e):反映天线收集电磁波的能力。公式为 Ae=Gλ2/4πA_e = G\lambda^2 / 4\pi
  5. 天线是无源器件,其辐射功率不可能大于来自发射机的功率。

测角与角分辨率

  1. 测角原理:利用天线的方向性。当天线波束轴线对准目标时,回波最强。
  2. 角分辨率 (RcR_c):在同一距离上区分两个相邻目标的能力。公式为 Rc=R×θR_c = R \times \theta。波束越窄,角分辨率越好。

4.1.12 什么是多普勒效应?

当目标与雷达之间存在相对运动时,雷达接收到的回波信号频率会相对于发射频率发生偏移,这种现象称为多普勒效应。当目标靠近雷达时,回波频率升高;当目标远离雷达时,回波频率降低。

4.1.13 多普勒频率公式是什么?

多普勒频率公式fd=2vcf0=2vλf_d = \frac{2v}{c}f_0 = \frac{2v}{\lambda}。(其中 vv 是目标相对于雷达的径向速度,f0f_0 是发射频率,λ\lambda 是波长)。这个公式必须牢记,因子 2 是因为电磁波经历了“发射-目标-接收”的双程路径

多普勒频移本质上是因为目标运动导致电磁波传播距离 R(t)R(t) 随时间变化,进而引起回波信号的相位随时间发生线性变化。在信号处理中,相位的对时间求导就是角频率,这多出来的频率部分就是多普勒频移。

4.1.14 接收机的灵敏度是什么?

收机灵敏度是指接收机能够接收并检测到微弱信号的能力。它通常由最小可检测信号功率 (SminS_{min}) 来定量描述。

核心逻辑:灵敏度是一个“反向指标”。灵敏度越高(即指标越好),意味着接收机能够感知的回波信号功率越小SminS_{min} 越小),从而使雷达的作用距离越远

检测性能的决定因素:雷达能否可靠地检测到目标,并非单纯取决于接收到的信号绝对功率,而是取决于接收机输出端的信噪比(SNR)。由于目标回波往往极其微弱,常常会“被噪声淹没”,只有通过信号处理提升信噪比,才能将其提取出来。

4.1.15 雷达在噪声中检测目标的能力由什么决定?

雷达的综合检测能力(直接关系到雷达的最大探测距离)是由整个系统的多个环节共同决定的:

  1. 发射功率:发射能量越强,回波能量也就越强。
  2. 天线尺寸:天线孔径越大,增益越高,不仅发射时能量更集中,接收时也能收集到更多的回波能量。
  3. 接收机噪声:接收机内部的热噪声越小,对微弱信号的掩盖作用就越小,灵敏度越高。
  4. 目标 RCS 的起伏特性:雷达截面积(RCS)反映了目标反射电磁波的能力。复杂目标的 RCS 会随姿态和频率快速起伏,这直接影响回波的稳定性。
  5. 雷达系统损耗:包括馈线损耗、收发开关损耗、信号处理损耗等。
  6. 传播环境影响:包括大气衰减(尤其是高频段吸收)、地球表面多径反射等。

4.1.16 如何理解距离分辨率和最大无模糊距离?脉冲重复时间和脉冲宽度有什么关系?

雷达的最大无模糊距离是指雷达能够正确测量的最远目标距离。 它的核心决定因素是脉冲重复时间 T (PRI),即相邻两个脉冲之间的时间间隔。如果目标过于遥远,其回波在雷达发射下一个脉冲之后才到达接收机,雷达就会将其误认为是第二个脉冲产生的回波,从而产生严重的距离模糊。其物理计算公式可以明确表示为:

Rmax=cT2R_{max} = \frac{cT}{2}

雷达的距离分辨率则是指雷达在同一方向上,能够清晰区分开两个相邻目标的最小物理距离。 它的核心决定因素是脉冲宽度 τ\tau信号带宽 B。脉冲宽度 τ\tau 越窄,意味着信号的频谱带宽 B 越大,雷达对空间目标的距离分辨能力就越高。其计算公式可以明确表示为:

ΔR=cτ2=c2B\Delta R = \frac{c\tau}{2} = \frac{c}{2B}

关于脉冲重复时间 T 与脉冲宽度 τ\tau 的博弈关系,在基本时序上,发射的脉冲宽度必须远小于脉冲重复时间。在传统固态雷达设计中,增加脉冲宽度 τ\tau 可以显著提升发射的总能量,从而让雷达探测得更远,但致命代价是极大地限制了信号带宽 B,导致距离分辨率急剧恶化。为了打破这种高能量(远距离)与高带宽(高分辨)不可兼得的物理矛盾,现代雷达引入了脉冲压缩技术(如线性调频)。它通过在宽脉冲内部进行频率或相位调制,使得雷达能够在保持大脉冲宽度以获取高能量的同时,获得极大的等效带宽,完美化解了这一矛盾。

  • 简述脉冲重复频率(PRF)的高低对雷达系统性能的双重影响。

脉冲重复频率(PRF)是脉冲重复时间 T 的倒数。降低 PRF(即增大 T)可以显著增大雷达的最大无模糊距离,有效避免远距离目标的距离模糊;但代价是,过低的 PRF 会降低雷达的平均发射功率,并且在测量高速移动目标时,极易引发严重的多普勒频率模糊(即盲速问题)。因此,实际雷达工程中往往采用多重 PRF 参差跳变的策略来兼顾两者。

  • 结合匹配滤波器的概念,说明脉冲压缩技术是如何在接收端恢复高分辨率的?

脉冲压缩技术在发射端发送大带宽的宽脉冲(如线性调频信号)以保证高能量。在接收端,系统使用一个与发射信号完全共轭匹配的滤波器对回波进行处理。当回波信号进入该滤波器时,由于不同频率成分的延迟时间不同,宽脉冲在时间轴上被急剧压缩,最终输出一个能量高度集中、主瓣极窄的辛格(Sinc)函数尖峰。这个极窄的输出尖峰不仅大幅提高了信噪比,更直接决定了系统极高的距离分辨率。

4.2 脉冲压制技术

4.2.1 什么是脉冲压缩技术?为什么要引入线性调频(LFM)信号?

脉冲压缩技术是指发射宽脉冲、大带宽信号,在接收机中通过处理将其压缩成窄脉冲的技术。
引入 LFM 信号是为了解决探测距离与分辨率之间的矛盾。传统单频脉冲要分辨近距离目标需要窄脉冲(带宽大),但窄脉冲能量小,看得不远。LFM 信号通过调频增加了带宽,使得我们既能用宽脉冲保证发射能量(看得远),又能利用大带宽在接收端获得高分辨率(看得准)。

4.2.2 LFM 信号的频谱有什么特点?为什么说它的时宽带宽积很重要?

LFM 信号的幅度频谱在带宽 BB 内近似为矩形,相位频谱则是频率的二次函数(平方律相位)。当 Bτ1B\tau \gg 1 时,其频谱包络非常接近矩形,信号能量集中在带宽 BB 内。

  1. 在传统脉冲中,Bτ1B\tau \approx 1
  2. 在 LFM 信号中,BτB\tau 可以做得很大。BτB\tau 越大,频谱的边缘越陡峭,形状越接近矩形,且驻定相位定理的近似精度越高。在工程上,这意味着我们可以获得更高的压缩比

4.2.3 简单解释一下什么是“驻定相位定理”,它在雷达信号处理中有什么用?

驻定相位定理是一种处理复杂振荡积分的近似计算方法。它认为信号的能量主要集中在相位变化率(瞬时频率)等于零的那个点附近。

在雷达信号处理中,它主要用于求解 LFM 信号的频谱以及进行 SAR 成像算法推导。
因为 LFM 信号的时域和频域之间存在一种一一对应的映射关系,利用这个定理可以避开复杂的积分运算,直接得到信号在频域的解析表达式,极大地方便了工程设计。

4.2.4 什么是匹配滤波器?它在雷达接收机中的主要作用是什么?

匹配滤波器是一种最优线性滤波器,其频率传递函数与输入信号的频谱互为复共轭。
其主要作用有两个:

  1. 最大化信噪比:它能保证在白噪声背景下,输出端的峰值信噪比(SNR)达到理论最大值,提高雷达对微弱目标的检测能力。
  2. 实现脉冲压缩:通过对宽脉冲信号进行相位补偿,使能量在极短的时间内聚集,从而在不损失探测距离的前提下,显著提高雷达的距离分辨率

4.2.5 请从物理直觉上解释一下,为什么匹配滤波器能把宽脉冲变窄?

以向上调频的 LFM 信号为例,信号的前端是低频,后端是高频。
匹配滤波器具有特定的“群时延”特性:它对低频信号产生的延迟大,对高频信号产生的延迟小。
当宽脉冲通过滤波器时,早到的低频部分被“扣留”了一会儿,而晚到的高频部分则快速通过。最终,信号的所有频率成分几乎在同一瞬间到达输出端并发生相干叠加。这样,能量在时间上就从一个宽脉冲“挤压”成了一个窄脉冲。

4.2.6 匹配滤波器的时域响应 h(t)h(t) 为什么要设计成 s(t0t)s^*(t_0 - t)?即为什么要进行“时间反转”?

从数学卷积的角度看,滤波器的输出是输入信号与 h(t)h(t) 的卷积。将 h(t)h(t) 设计为信号的镜像,本质上是将卷积运算变成了相关运算
由于信号与其自身在时延为零时相关性最强(自相关峰值),这种“时间反转”的设计确保了信号能量能够最大程度地对齐叠加,从而产生一个极窄且极高的输出峰值。

4.2.7 什么是脉冲压缩比?它的大小受什么因素限制?

脉冲压缩比是发射脉冲宽度与压缩后脉冲宽度的比值,数值上等于信号的时宽带宽积(τB\tau B)。
它的大小主要受以下因素限制:
首先是硬件带宽:发射机和接收机能够处理的最大带宽 BB 限制了压缩后的最窄脉冲;
其次是峰值功率与作用距离:为了探测更远,需要加长发射脉冲 τ\tau
在工程实践中,脉冲压缩比越高,雷达性能越强,但对系统的相干性线性度要求也越高,过高的压缩比会增加处理难度和距离旁瓣电平。

4.2.8 为什么实现脉冲压缩一定要‘非线性相位谱’?普通的矩形单频脉冲可以压缩吗?

普通的矩形单频脉冲不可以被压缩。
因为单频脉冲的频率不随时间变化,其相位谱是线性的。根据傅里叶变换性质,其带宽 BB 严格受限于脉冲宽度 τ\tauB1/τB \approx 1/\tau),即时宽带宽积 τB\tau B 始终接近 1,没有压缩空间。
实现脉冲压缩的本质是利用频率的变化来增加带宽。只有相位谱是非线性的,才能使带宽 BB 独立于时宽 τ\tau 增长,从而提供大于 1 的压缩比。

4.2.9 如果有两个目标靠得非常近,它们的宽脉冲回波在接收端完全重叠了,脉冲压缩是怎么把它们分开的?

虽然两个目标的回波在时域重叠,但由于它们来自不同的空间位置,它们到达接收机的时间存在微小的先后差异
在通过匹配滤波器时,滤波器会针对每个回波独立的进行“追赶叠加”操作。压缩过程使每个目标的能量都向其各自的中心时刻汇聚。由于压缩后的脉冲宽度 τ0\tau_0 极窄,原本重叠的“宽云团”变成了两个互不相干的“窄尖峰”,只要目标的距离差大于 cτ0/2c\tau_0/2(即 c/2Bc/2B),雷达就能在距离轴上分辨出这两个目标。

4.3 合成孔径雷达(SAR)

4.3.1 什么是SAR?

Synthetic Aperture Radar,简称 SAR。它在微波波段对目标的后向散射系数进行二维描述,实现雷达成像
雷达信息获取从一维(距离)扩展到了三维(距离、方位、高度),能够获取目标的形状、大小等图像信息。

4.3.2 SAR成像有何好处?

  1. 全天时、全天候:作为主动遥感系统,微波波段不受昼夜、云雨、雾霾影响,优于可见光和红外成像。
  2. 穿透性:长波段微波具有一定的地表/植被穿透能力,可发现被遮盖的目标。
  3. 信息维度多:可以获取目标在不同频率、角度及极化下的微波散射特性。
  4. 高精度测量:能够同时精确测量目标的几何位置与运动速度。

4.3.3 不同频段的SAR有什么用处?

合成孔径雷达(SAR)的工作频段直接决定了电磁波的波长,而波长是决定雷达信号穿透能力成像分辨率这两个核心指标的最关键物理量。 在工程应用中,不同频段的SAR系统凭借其独特的物理交互特性,在对地观测中扮演着完全不同的角色。

高频段(X、Ku、Ka频段)的波长极短,例如X频段波长仅在3厘米左右。这类频段的电磁波几乎没有穿透能力,会直接在物体的最顶层表面(如树冠顶层、冰雪表层、建筑屋顶)发生强烈的后向散射。但正因为波长短,它们能够极其容易地实现大带宽,从而获得极高的空间分辨率
因此,高频段SAR被广泛应用于对地表纹理要求极高的场景,例如高精度的城市建筑测绘、微小的地表形变监测(如桥梁沉降)、船只检测以及极具战略价值的军事高精度目标识别

中频段(C、S频段)的波长适中,例如C频段波长约在5厘米左右,它在分辨率和穿透力之间提供了一个近乎完美的黄金平衡。 它的电磁波能够穿透植被的表层叶片,与农作物的茎秆或较浅的土壤层发生作用。这种特性使得中频段SAR成为了全球农业监测的绝对主力,被大量用于农作物长势评估、产量预测以及土壤湿度反演。
此外,C频段在海洋学中也大放异彩,是监测海冰、海浪起伏以及海面溢油污染的首选频段(如著名的欧洲Sentinel-1卫星)。

低频段(L、P、VHF频段)拥有较长的波长,L频段波长约24厘米,而P频段甚至超过50厘米。它们具有极其强悍的穿透能力。 这些长波信号可以直接无视茂密的树冠,径直穿透下去与粗壮的树干甚至林下的地表发生作用。
因此,低频段SAR在林业领域(如精确估算全球森林生物量)无可替代。更为神奇的是,在极度干燥的环境中(如沙漠或冰川地带),低频SAR甚至能穿透数米的干燥沙土或冰层,探测到被掩埋的古代河道、冰下基岩或隐藏的地底人造结构,是地质勘探和地下考古的超级利器。

4.3.4 什么是“合成孔径”?它解决的核心问题是什么?

“合成孔径”是指利用雷达平台的运动,将雷达在不同时刻接收到的回波进行相干累加,从而在信号处理中等效地虚拟出一个尺寸巨大的天线孔径
它解决的核心问题是方位分辨率受限的问题。由于传统雷达方位分辨率取决于波束宽度(θλ/D\theta \approx \lambda/D),要在高空实现高分辨率就需要极大的物理天线 DD,这在飞机和卫星上无法实现。SAR 利用“以动代大”的思想,突破了物理天线尺寸的限制。

4.3.5 简要介绍一下SAR的工作模式?

image-20260323184552583

合成孔径雷达(SAR)在对地观测时,为了满足不同场景下对“看多宽”(测绘带宽度)和“看多清”(空间分辨率)的差异化需求,设计了三种最经典的工作模式。这三种模式本质上是对雷达波束驻留时间与空间覆盖范围的精妙博弈。

**条带式 (Stripmap Mode):**这是SAR最基础、最经典的成像模式。 在这种模式下,雷达天线的波束指向保持固定不动(通常侧视指向正侧方),随着飞行平台的匀速移动,波束在地面上像刷子一样扫过一条连续的带状区域。它的特点是测绘带宽度和方位向分辨率相对固定,提供了一种连续且稳定的中等观测能力,非常适合大面积的基础地理测绘。

**扫描式 (ScanSAR Mode):**这是一种为了获取“超宽幅成像”而牺牲分辨率的模式。 在飞行过程中,雷达利用相控阵天线技术,让波束在距离向上快速地在几个不同的子条带之间来回步进扫描。虽然这样极大地拓宽了整体的横向观测范围(能一次性看清极广阔的海域或陆地),但由于波束在每个子条带上的“停留照射时间”被大幅缩短,导致合成孔径长度变短,最终不可避免地降低了方位向的空间分辨率。

**聚束式 (Spotlight Mode):**这是一种为了获取“极高分辨率”而牺牲单次观测面积的模式。 与条带式固定波束不同,聚束式的雷达天线在飞过目标区域时,会主动转动波束,使其始终“死死盯住”某一个特定的固定目标区域。这种凝视机制极大地延长了目标被雷达波束照射的有效观测时间,从而构建出了一段超长的虚拟“合成孔径”,最终获得了极其惊人的方位向高分辨率。它通常用于对重点高价值目标(如机场、港口、军事基地)的精细化定点侦察。

4.3.6 请简单对比一下 SAR 的条带模式(Stripmap)和聚束模式(Spotlight)的优缺点。

条带模式

  1. 优点:能够进行连续的大面积成像,适合大范围侦察。
  2. 缺点:分辨率受物理天线长度限制,无法无限制提高。

聚束模式

  1. 优点:通过天线转动始终对准目标,极大地增加了合成孔径的有效长度,能够获得极高的方位分辨率
  2. 缺点:成像范围受波束照射范围限制,只能对特定局部区域成像,且数据处理更复杂。

4.3.7 简单介绍一下SAR的基本思想?

SAR 的基本思想可以参照阵列天线去理解。传统的实孔径线阵天线是通过多个阵元同时发射/接收信号,并在馈线上相干叠加形成窄波束。而合成孔径机理SAR 则是利用一个小天线在不同时刻(等间隔位置)发射和接收相干信号。对于同一个地面目标单元,雷达在移动过程中多次“观察”它,并将这些回波信号存储并叠加。
这种“时间换空间”的方式,使小天线在空间上等效合成了一个长的实孔径天线,从而获得极窄的等效波束和高分辨率。

  1. 计算公式:聚焦合成孔径的方位分辨率为 ρa=d/2\rho_a = d/2dd 为实际天线孔径)。
  2. 关键特性:最佳方位分辨率为常数,与目标距离及工作波长无关
  3. 反直觉结论:实际天线尺寸 dd 越小,方位分辨率反而越好。原因是实际天线越小,目标受到照射的区间越长,最大合成长度也越长,从而分辨率越好。

4.3.8 为什么 SAR 的方位分辨率是 d/2d/2,且天线越小分辨率反而越高?这和普通雷达完全相反,请解释原因。

这是因为 SAR 的分辨率取决于合成孔径的长度

根据公式

θλd\theta \approx \frac{\lambda}{d}

对于普通雷达,天线越大波束越窄,分辨率越好。就像一个激光笔,发出的光束非常集中,能量很准,但照射范围很小。
但对于 SAR,天线尺寸 dd 越小,波束扩散角度 θ\theta 越大,其实际波束就越宽。波束越宽,飞机在飞行过程中,照射到地面同一个点的时间就越长,积累的回波数据就越多,从而合成出来的虚拟孔径长度就越长
换而言之,飞机在这段时间内飞过的距离 LL 就越长,就是我们“凑”出来的那个**虚拟大天线(合成孔径)**的长度!

因为合成孔径长度与 dd​ 成反比,最终抵消后得出的结论就是:天线越小,合成孔径越长,方位分辨率就越精细。

4.3.9 为什么说 SAR 的方位分辨率与距离 RR 无关?普通雷达不是离得越远看得越模糊吗?

这是 SAR 的另一个独特优势。
虽然目标离雷达越远,其回波的波束扩散会导致能量变弱,但由于波束的扩散,远处的目标被雷达波束“照”到的时间也随之线性增加
这意味着距离越远,参与相干合成的脉冲数就越多,合成孔径的长度也随距离线性增加。合成孔径增加带来的分辨率增益,恰好抵消了远距离带来的发散损失。因此,在理论上,SAR 具有距离无关的分辨率特性

4.3.10 实现 SAR 成像对雷达平台和信号有什么严苛的要求?

信号的相干性:SAR 必须记录回波的相位信息才能进行相干合成。如果发射信号不相干或相位随机跳变,就无法合成出窄波束。

运动补偿(轨迹精度):由于合成孔径是靠位移实现的,雷达必须精确知道自己在每个时刻的空间位置。如果飞机晃动或轨道偏移且不加补偿,合成过程就会发生相位失焦,导致图像模糊。

4.4 成像算法

4.4.1 合成孔径的原理是什么?

合成孔径本质上是指利用方位向的虚拟阵列天线来合成一个大孔径
在机载合成孔径雷达的飞行与成像机理中,它的实现前提是雷达匀速直线飞行,在此过程中持续进行等间隔发射并接收电磁波,最终通过后端的复杂信号处理来实现高分辨率成像。

合成孔径最底层的物理逻辑:雷达与目标发生相对运动,引起两者相对位置的改变,这是实现合成孔径的物理基础

具体而言,这种相对运动带来了两方面的核心效应。
首先,它使得雷达能够在不同的空间位置对同一目标进行多次采样,从而在方位向上等效构建出一个极大的虚拟阵列天线
其次,由于相对位置的不断改变,目标回波在方位向上会产生多普勒频移的历史积累,这种多普勒频率的变化最终形成了一个LFM(线性调频)信号
因此,SAR成像的实质,就是紧紧围绕着目标与雷达之间相对位置(包含方位向和距离向)的变化,利用匹配滤波等数字信号处理手段展开的一系列参数估计与图像重建工作。

  • 简述为什么合成孔径雷达(SAR)必须要平台(如飞机或卫星)处于运动状态才能实现高方位分辨率?

因为合成孔径的核心物理基础正是雷达与目标之间的相对运动。只有平台持续处于匀速直线运动状态,雷达才能在不同的空间坐标点上对同一目标进行多次回波采样。这些分布在飞行轨迹上的物理天线在信号处理时,被相干累积等效为一个长度惊人的“虚拟阵列天线”。如果没有这种相对运动,就无法构建这个超大孔径,也就无法突破传统真实小天线所带来的低方位分辨率物理瓶颈。

  • “方位向多普勒频率变化形成LFM信号”,请结合雷达的飞行轨迹,直观解释这个LFM(线性调频)信号是如何产生的?

当雷达平台以匀速直线飞过某个静止的地面点目标时,两者之间的相对径向速度是动态变化的。在目标进入雷达波束的前端时,两者相对靠近,产生正的最大多普勒频移;当雷达飞越目标正侧方(最近点)时,径向相对速度为零,多普勒频移也为零;当雷达飞过目标并逐渐远离时,产生负的多普勒频移。这种多普勒频率随飞行时间呈现出从正到负、近似均匀递减的变化过程,其数学表达形式恰好等同于一个向下调频的线性调频(LFM)信号。这为后续在方位向上使用匹配滤波器进行“脉冲压缩”提供了完美的理论基础。

4.4.2 请简述合成孔径雷达(SAR)中的“停走停(Start-Stop)假设”,并说明在实际工程中为什么要引入这一假设?

“停走停假设”是指在建立SAR回波信号模型时,认为雷达平台在发射一个脉冲到接收该脉冲回波的整个极短时间内,平台在空间方位向上是完全静止不动的;只有在当前脉冲接收完毕,到下一个脉冲发射之前的间隙,平台才瞬间移动到下一个空间采样位置。
引入这个假设的核心原因是,真实世界中雷达是连续飞行的,如果不加简化,电磁波的收发斜距将是一个随时间时刻变化的极其复杂的微积分模型。由于电磁波以光速传播,脉冲往返的“快时间”(微秒级)远远小于雷达随平台运动跨越一个方位分辨率单元所需的“慢时间”(毫秒级)。因此,假设在这个微秒级缝隙内雷达静止,带来的斜距误差微乎其微,但却能将极其复杂的连续运动模型转化为离散的静态空间模型,从而极大地降低了后续成像算法的设计难度和信号处理的运算量

可以这么理解:在SAR的二维原始数据矩阵中,快时间对应的是雷达横向的距离向。而慢时间对应的是雷达纵向的方位向(或沿着飞行轨迹的方向)

4.4.3 简要介绍一下距离抖动的原理?什么是距离抖动,距离弯曲?SAR对距离抖动如何校准的?

距离徙动的原理

在合成孔径雷达的飞行过程中,雷达与地面目标之间存在相对运动。这就导致在雷达波束照射目标的这段时间(合成孔径时间)内,雷达与目标之间的直线距离(斜距)是随时间不断变化的。当这个斜距的变化量超过了一个距离分辨单元的物理长度时,同一个点目标的回波信号就不会老老实实地待在同一个距离波门(同一行数据)里,而是会“跨越”分布到相邻的多个距离波门中。 这种目标回波在数据矩阵中表现为一条曲线而不是直线的现象,就是距离徙动。它的存在导致了距离向和方位向数据的严重耦合。

为了更直观地描述这个斜距的变化,我们可以引入其关于慢时间 tt 的泰勒展开公式:

R(t)R0+vrt+ar2t2R(t) \approx R_0 + v_r t + \frac{a_r}{2} t^2

距离走动与距离弯曲的区别

根据上面公式的物理意义,距离徙动在数学上被拆解为两个分量:距离走动(Range Walking)距离弯曲(Range Curvature)

距离走动对应公式中的一次项(线性分量),它表现为回波轨迹的倾斜直移。这通常发生在斜视SAR中,或者在星载SAR中由于地球自转导致多普勒中心频率 fdcf_{dc} 不为零时产生。它的变化范围极大,可以跨越几个到几十个距离单元。

距离弯曲对应公式中的二次项(抛物线分量),它是由雷达飞近再飞离目标的自然几何弧线引起的。当SAR处于理想的正侧视状态时,此时不存在距离走动,只存在距离弯曲,且弯曲量相对稳定,通常在几个距离单元左右。

SAR如何对距离徙动进行校正

如果不把这条弯曲的能量轨迹拉直,就无法进行高质量的方位向脉冲压缩。图片中展示了一种经典的基于距离多普勒(RD)域的校正方法:频谱搬移方法
由于不同时刻的回波对应着不同的多普勒频率,系统将信号转换到RD域(即距离-多普勒域)后,采用分段直线去逼近这条理论上的弯曲轨迹。然后,针对每一个多普勒频率单元,进行物理的数据插值和频移操作,强行将这些弯曲的片段“搬移”并对齐到同一条水平直线上。经过校正后,同一个点目标的能量就重新聚集在了一个距离单元内,从而顺利解除了二维耦合,为后续的一维方位向聚焦扫清了障碍。

  • Q: 为什么在机载正侧视SAR中,通常只需要校正距离弯曲而不需要考虑距离走动?

在理想的机载正侧视工作模式下,雷达天线波束垂直于飞行方向。此时目标穿越波束中心时的多普勒频率(即多普勒中心频率 fdcf_{dc})为零。从运动学几何上看,斜距随慢时间的变化是一个完美对称的抛物线,不存在一阶的线性倾斜项。因此,此时数据中不存在距离走动分量,只需对二次项的距离弯曲进行补偿即可。

  • 距离徙动现象如果不进行校正,会对最终的SAR图像产生什么致命的负面影响?

如果不进行距离徙动校正(RCMC),同一个目标的点回波能量就会一直散布在多个不同的距离单元内。在进行方位向脉冲压缩时,由于能量无法在同一个距离门内进行完整的相干累积,会导致最终成像的点目标在距离向和方位向上严重散焦(Smearing)。这不仅会使图像变得极度模糊、严重损失空间分辨率,还会导致信噪比大幅下降,微弱目标将被彻底淹没。

4.4.4 简要介绍一下SAR有什么常用的成像算法?

SAR常用的经典成像算法

合成孔径雷达(SAR)的成像算法发展史,本质上就是一部不断与“计算复杂度”和“近似误差”作斗争的数学演进史。根据处理域的不同,常用的成像算法主要分为频域算法和时域算法两大阵营。

距离多普勒算法 (Range-Doppler Algorithm, RDA)
这是SAR成像中最经典、应用最广泛的频域基础算法。 其核心思想是将庞大的二维处理分解,在距离-多普勒域(RD域)集中完成距离徙动校正(RCMC)。雷达数据在距离向脉冲压缩后,通过方位向FFT转换到RD域,此时同一目标的能量呈现为随多普勒频率变化的弯曲轨迹。RDA通过物理的空间插值操作将这条曲线“拉直”,最后再进行方位向压缩回到时域图像。它的优点是概念极其直观、工程实现成熟,但在处理大斜视角或要求极高分辨率时,由于插值带来的截断误差和二维耦合效应,会导致图像边缘画质严重下降。

调频变标算法 (Chirp Scaling Algorithm, CSA)
这是一种为了彻底解决RDA中插值运算效率低且存在误差而诞生的革命性算法。 它的天才之处在于引入了数学上的Chirp Scaling(调频变标)原理:通过在距离-多普勒域乘以一个精心构造的二次相位因子,强行改变信号的调频斜率。这个奇妙的数学变换使得所有不同距离上的目标,其距离徙动轨迹被等比例“拉平”到了同一条参考线上。这样一来,极度耗时的时域插值操作就被完全舍弃,整个RCMC过程仅需通过快速傅里叶变换(FFT)和复数乘法即可完成。CSA极其高效且保留了极高的相位精度,是目前处理正侧视和中小斜视高分辨SAR数据的绝对绝对主力。

距离徙动算法 (Range Migration Algorithm, RMA / w-k算法)
这是基于波动方程精确解析解的一种高级频域算法。 前面的RDA和CSA为了推导方便,都对SAR的几何斜距历史进行了一定程度的泰勒展开近似(如忽略三次以上的高阶项)。而w-k算法则直接在二维频域(距离频域-方位频域)中进行精确的相位补偿。其最核心的步骤是进行Stolt插值(一种非线性的坐标映射),它从物理底层完美解除了极其复杂的二维耦合。由于不存在任何高阶近似误差,w-k算法特别适合处理超宽带(超高分辨率)极大斜视角的极限SAR成像任务,但代价是其二维频域的Stolt插值计算复杂度非常高。

后向投影算法 (Back-Projection Algorithm, BPA)
与前三种频域算法不同,BPA是极其暴力的时域成像算法。 它的原理非常直接:在事先划分好的地面成像网格上,针对每一个像素点,反向去计算它到雷达天线在每一个飞行时刻的精确几何空间距离,提取出对应的回波相位并进行逐点相干累积。由于完全不依赖任何几何近似和傅里叶变换,BPA能够完美适应任意复杂、非线性的雷达飞行轨迹(如无人机颠簸飞行、圆迹SAR、多基SAR等)。尽管其逐点遍历的庞大计算量曾是致命瓶颈,但随着现代GPU并行计算能力的飞跃,BPA正以其绝对的精准度和极强的轨迹适应性,成为新一代雷达体制研究的前沿宠儿。

  • 在SAR成像中,RD算法(距离多普勒算法)和CS算法(调频变标算法)在处理距离徙动校正(RCMC)时,最本质的区别是什么?

最本质的区别在于实现RCMC的数学手段不同。RD算法是在距离-多普勒域中,通过空间域的插值运算来强行拉直距离徙动曲线,这不仅计算量大,还会不可避免地引入插值核截断误差;而CS算法巧妙地利用了线性调频信号的相位特性,通过相乘一个Chirp Scaling相位因子来实现不同目标距离轨迹的一致化,彻底避免了插值操作,只用纯粹的FFT和复数乘法就完成了高精度、高效率的RCMC。

  • 如果你要处理一段搭载在轻型无人机上的SAR数据,且该无人机飞行环境极其恶劣,存在严重的偏航、翻滚和高度起伏,你会首选哪种成像算法?为什么?

会首选时域的后向投影算法(BPA)。因为诸如RD、CS、w-k等经典的频域算法都有一个极其严苛的物理前提,即雷达平台必须进行“匀速直线运动”(或轨迹偏差极小),以便使用统一的傅里叶变换进行全局的频域解耦推导。而BPA是逐个像素点基于真实的几何三维坐标进行时域延迟补偿的,它完全不需要平稳飞行假设,能够天然地容纳并精确补偿任意复杂的非线性运动误差。

4.4.5 成像指标有哪些?

成像指标 (衡量SAR成像质量的关键参数)

在合成孔径雷达(SAR)中,衡量最终图像质量好坏的基石是冲激响应函数 (IRF, Impulse Response Function)。 所谓IRF,就是当雷达照射到地面上一个极其理想的、孤立的“点目标”时,经过复杂的二维脉冲压缩处理后,在最终图像上呈现出的二维物理形态。由于受限于系统的有限带宽和处理时窗,这个点目标在图像上并不会是一个无限小的完美圆点,而是会呈现出一个中心能量极度集中的主瓣,以及向四周水波纹般无限延伸的旁瓣。基于这个IRF的三维能量分布图,工程师们提炼出了衡量成像质量的四大核心物理指标。

距离分辨率与方位分辨率
这两个指标定义了雷达“看清细节”的极限能力,即在特定方向上,能够将两个靠得很近的相邻散射点区分开来的最小物理距离距离分辨率衡量的是在雷达视线(电磁波传播)方向上的分辨能力,它在底层物理上严格受限于雷达发射信号的频谱带宽;而方位分辨率衡量的是沿着飞行平台运动轨迹方向的分辨能力,它直接得益于合成孔径技术,受限于雷达波束照射目标的驻留时间(即虚拟阵列天线的长度)。如果分辨率不达标,两个靠得近的物体在图像上就会模糊、粘连成一团。

峰值旁瓣比 (PSLR - Peak Sidelobe Ratio)
这是一个考察局部对比度的极端指标。它被定义为IRF中心主瓣的最大峰值能量,与主瓣之外指定区域内最强的那一个旁瓣的峰值能量之比。在实际的战场侦察或遥感测绘中,如果系统的PSLR性能很差(即存在异常突出的强旁瓣),那么当一个反射极强的目标(如大型金属桥梁或角反射器)旁边刚好停着一辆反射较弱的伪装车时,这座桥梁产生的巨大旁瓣极有可能直接掩盖掉伪装车的主瓣,导致弱目标在图像上彻底“隐身”。

积分旁瓣比 (ISLR - Integrated Sidelobe Ratio)
这同样是一个考察旁瓣影响的指标,但它更注重全局的能量泄漏情况。它被定义为IRF主瓣内部所包含的总能量,与散布在主瓣之外所有旁瓣区域内的总能量之比。如果说PSLR是怕“某个刺头”掩盖弱目标,那么ISLR怕的就是“大面积的能量漏水”。当ISLR较差时,意味着原本应该集中在目标身上的能量,大量弥漫、泄漏到了整个图像的背景区域中,这会直接抬高整幅图像的背景噪声底噪,导致图像看起来像蒙上了一层灰蒙蒙的雾,整体对比度和清晰度严重下降。

  • 既然旁瓣(Sidelobe)对SAR图像的局部目标检测(PSLR)和全局对比度(ISLR)都有极大的破坏作用,在工程信号处理中通常采用什么核心方法来压低旁瓣?

工程上通常采用**频域加窗技术(Windowing)**来压低旁瓣。由于理想的脉冲压缩(匹配滤波)在频域本质上是一个矩形窗截断,这在时域必然对应着带有极高旁瓣的辛格(Sinc)函数。为了抑制这些突变的边缘,工程师会在频域乘以一些边缘平滑的加权窗函数(如汉明窗 Hamming、泰勒窗 Taylor 等),从而极大地降低旁瓣电平,显著改善 PSLR 和 ISLR。

  • 结合频域加窗技术,请解释在实际SAR系统设计中,为什么“分辨率”和“旁瓣抑制”之间存在着不可调和的物理博弈(Trade-off)?

这正是数字信号处理中不确定性原理的体现。当我们使用平滑的窗函数在频域压低信号边缘的能量以换取极低的旁瓣(提升 PSLR 和 ISLR)时,不可避免地会导致信号在时域(或空间域)的能量分布被展宽。换句话说,压低旁瓣的必然代价就是主瓣变宽。主瓣一旦变宽,系统区分两个相邻目标的最小距离阈值就会变大,从而直接导致空间分辨率的下降

4.4.6 什么是RD算法?

RD算法(距离多普勒算法)是合成孔径雷达(SAR)频域成像处理中最经典、最具里程碑意义的基础算法。
它的核心思想可以用“二维解耦”来概括。雷达采集到的原始回波是一个庞大且复杂的二维数据矩阵,如果直接进行二维联合处理,计算量是目前的硬件极其难以承受的。RD算法巧妙地将这个极其复杂的二维处理,分解成了
距离向和方位向的两个相对独立的一维处理过程
,从而成数量级地降低了运算复杂度。

根据流程图,它的处理逻辑非常清晰,主要分为三大核心步骤。首先是距离压缩,系统利用发射脉冲固定不变的调频斜率,通过“距离向FFT、与距离压缩参考函数相乘、距离向IFFT”的标准频域匹配滤波流水线,将宽脉冲压缩成极窄的尖峰,率先实现距离方向的高分辨率。

接着是该算法的灵魂步骤——距离徙动校正(RCMC)。在完成距离压缩后,数据通过方位向FFT被转换到了距离-多普勒域(RD域)。在这个特殊的物理域中,原本在时域中交织、弯曲的目标能量轨迹被梳理得清晰可辨。系统通过数学上的插值操作,将这些弯曲的曲线强行“拉直”,使得同一个目标的全部回波能量被精确地对齐到了同一个距离波门(同一行)内,彻底打破了距离与方位之间的二维耦合困境。

最后是方位压缩。在目标轨迹被完美拉直之后,系统顺理成章地沿着方位向,再施加一次一维的匹配滤波聚焦操作。随后经过数据逆转置等后续处理,原本模糊散乱的信号最终聚焦成清晰的高分辨率雷达图像。

4.4.7 什么是二次距离压缩算法?

4.4.7 什么是二次距离压缩(SRC)算法?

核心概念与产生原因: 二次距离压缩(SRC)是专门为了解决SAR信号中深度的方位-距离耦合问题而引入的一种核心相位补偿技术。在传统的RD算法处理流程中,当我们对数据进行方位向FFT变换(即进入距离-多普勒域)时,此时尚未进行距离弯曲校正。这就意味着目标的回波能量依然弯曲地跨越着多个距离门。这种严重的跨越极大降低了方位信号的时宽带宽积。当系统的距离弯曲特别大(例如在要求极高分辨率或使用宽波束的情况下),这个时宽带宽积会小到不再满足驻留相位定理(POSP)的适用条件。一旦该数学定理失效,强行进行方位向FFT转换,就会在信号的距离向上“凭空”衍生出一个新的寄生交叉相位项

物理影响与实现方式: 这个意外多出来的寄生相位项极其致命,它相当于给信号加上了一个错误的调制,会导致原本在第一步已经完美压缩的距离向尖峰发生再次展宽(散焦),从而严重恶化最终图像的距离分辨率。为了挽救分辨率,系统必须在频域额外施加一个与该寄生相位完全相反的补偿滤波器来进行精准抵消,这个过程就是二次距离压缩。根据图片右侧的流程图,工程界衍生出了多种极其灵活的实现方式:既可以在距离-多普勒域将其与距离徙动校正(RCMC)合并联合处理(方式1);也可以先进入二维频域完成距离压缩与SRC后再回到RD域(方式2);甚至可以通过等效推导,直接在最初的一维距离压缩阶段,将SRC滤波器与主距离匹配滤波器融合,进行一次性高强度的前置处理(方式3)。

  • 驻留相位定理(POSP)在SAR信号处理中的作用是什么?为什么它的失效会导致必须引入SRC?

驻留相位定理(POSP)是信号处理中用于求解大带宽高频振荡信号傅里叶变换解析解的一种极其重要的渐近近似数学工具。它的核心物理前提是信号必须具有足够大的时宽带宽积。当SAR系统分辨率极高时,严重的距离弯曲破坏了这一前提,导致POSP的近似解析解不再精确,从而在变换后的二维频域表达式中残留了不可忽略的高阶误差交叉项(即那个导致距离展宽的寄生相位项)。因此,必须人为引入SRC来专门清理这个由底层数学近似失效所暴露出来的物理误差。

  • 在实际工程中,对于低分辨率、窄波束的正侧视机载SAR系统,是否必须进行二次距离压缩(SRC)?

通常不需要。对于低分辨率、窄波束的正侧视系统,其目标回波的绝对距离弯曲量非常微小,方位信号的时宽带宽积巨大,完美满足驻留相位定理的严苛条件。此时方位向FFT产生的二维交叉耦合相位微乎其微,距离向脉冲几乎不会发生任何可察觉的展宽。因此,在算法设计时,为了节省系统极其宝贵的实时运算资源,工程师通常会果断地省略掉 SRC 这一步骤。

4.4.8 什么是CS算法?

什么是CS算法(调频变标算法)?

CS算法(Chirp Scaling Algorithm,调频变标算法)是合成孔径雷达(SAR)成像领域极其优美且具有里程碑意义的一种高级频域算法。如果说RD算法(距离多普勒算法)的核心是“插值拉直”,那么CS算法的核心就是“变标统一”。它的诞生,彻底解决了RD算法中因空间插值带来的运算量大、截断误差高以及相位精度受损等致命痛点。

核心物理与数学原理:
在雷达回波数据中,由于目标距离雷达的远近不同,它们产生的距离弯曲程度是不一样的(近处弯曲大,远处弯曲小)。 在RD算法中,为了把这些不同程度的弯曲轨迹分别拉直,系统不得不逐个点进行极其繁琐的插值计算。而CS算法的天才之处在于,它敏锐地抓住了距离向信号是线性调频(LFM)信号这一物理本质。它通过在距离-多普勒域(RD域)乘以一个精心构造的线性调频变标相位因子(即流程图中的 Φ1\Phi_1,对信号进行了一种奇妙的数学“挤压”或“拉伸”。这个操作极其优雅地消除了距离弯曲在距离向的尺度变化,强行使得所有不同距离上的目标,都拥有了与参考距离点完全相同(平行)的距离徙动曲线轨迹

整个过程彻底抛弃了插值运算,全部由高效的快速傅里叶变换(FFT)和复数矩阵点乘构成,不仅大幅提升了运算效率,更完美保留了信号的原始相位,是现代高分辨率SAR(尤其是星载SAR)成像的绝对基石。

面试练习:CS算法核心原理

  • 相比于RD算法,CS算法(调频变标算法)为什么能获得更高的成像质量和相位精度?

RD算法在距离-多普勒域进行距离徙动校正(RCMC)时,必须使用Sinc插值等空间频域插值核来拉直弯曲的轨迹。这种插值操作由于核长度有限,不可避免地会引入截断误差,导致图像边缘的旁瓣升高,并且会破坏极其宝贵的原始相位信息。而CS算法巧妙利用了LFM信号的特性,全过程只包含FFT变换和纯相位因子的相乘,完全避开了任何插值操作,因此在理论上没有任何插值引起的精度损失,能够完美保留图像的相位信息,非常适合用于后续要求极高相位精度的干涉SAR(InSAR)处理。

4.4.7 对比总结一下常用的SAR成像算法。

RD算法(距离多普勒算法)

RD算法是SAR成像中最基础且易于实现的频域算法。它的核心优势在于流程极其简单直观,将复杂的二维处理解耦为两个一维处理。然而,它的致命弱点暴露在距离徙动校正(RCMC)阶段。为了实现精确成像,它必须在距离-多普勒域进行极其繁琐的内插运算,这不仅运算量极大,而且在面对大斜视角或高分辨率带来的大距离迁移时,会引入极其严重的二次相位误差,导致图像边缘质量严重下降。

二次距离压缩算法 (SRC)

SRC算法本质上是对RD算法在面临高分辨率、宽波束场景时的一种极其重要的核心改良。当方位-距离耦合加剧导致信号时宽带宽积变小、产生额外交叉相位误差时,该算法通过修正距离参考函数,实现关键的二次相位补偿。它通常在方位处理上通过二次采样来实现二次距离压缩,从而有效抑制了高频下的距离向散焦现象。从工程应用大局来看,SRC算法在保持适中计算复杂度的同时,大幅提升了雷达的聚焦效果,因此特别适合用于对运算时效性有一定要求的大面积常规成像处理

Chirp Scaling算法 (CS算法)

CS算法代表了SAR频域成像精度的一座巅峰,是一种极其优雅的高阶二维处理算法。它最核心的革命性创举在于:利用线性调频信号独有的相位变标特性,通过纯数学相位乘法统一了所有不同位置目标的距离徙动轨迹,从而彻底避免了距离徙动校正时低效且极其容易引入截断误差的内插运算。这种纯粹依靠FFT和复数乘法的架构,不仅完美保留了最原始的相位信息,还极大地提高了运算效率,能够实现极高精度的完美成像。正是由于其出众的聚焦性能,它通常被军方或科研机构指定用于对重点区域的高价值目标精确成像任务中。

这三种算法的算法复杂度呈现:CS算法 > 二次距离压缩算法 > RD算法的严格递增趋势。
优秀的微波工程师在实际工程架构中,绝不会盲目追求最复杂的算法,而是需要根据雷达的任务载荷是对大面积快速扫测(主选SRC/RD),还是对高价值目标进行精细刻画与干涉测绘(必选CS),来进行极其严谨的资源博弈与算法选型。

  • 简述RD算法为什么在处理大距离迁移时会遇到性能瓶颈?

当距离迁移量(特别是距离弯曲)过大时,目标回波在二维频域的耦合极其严重。RD算法受限于一维独立处理的假设,其空间内插运算不仅计算量随迁移量剧增,而且无法彻底补偿由严重二维耦合带来的高阶相位误差(如二次相位误差),从而导致图像的远端边缘发生严重的散焦现象。

  • 既然RD算法内插运算量大且存在误差,为什么在早期的机载SAR系统中依然被广泛采用?

因为早期SAR系统的空间分辨率相对较低,天线波束较窄,其目标的距离徙动量通常极小,甚至可以忽略“跨距离波门”的现象。在这种宽松的物理条件下,RD算法无需进行复杂的高精度内插,或者只需采用最邻近插值等低代价方案即可满足成像要求,其极其简单的流水线流程完美契合了早期数字信号处理硬件极其有限的计算能力。

  • 二次距离压缩(SRC)在物理上主要补偿的是哪一种效应带来的恶化?

它主要补偿的是由于SAR系统在高分辨率、极宽波束或大斜视角工作条件下,极其严重的方位-距离二维耦合所衍生出来的交叉寄生相位项。如果不通过二次压缩滤波器抵消掉这个寄生的二次相位,原本在第一步已经完美压缩的距离向主瓣信号会被严重展宽,导致距离分辨率出现断崖式下跌。

  • 在整体算法复杂度上,为什么SRC算法被评估为介于RD算法和CS算法之间?

SRC算法依然保留了RD算法“一维依次处理”的宏观框架,并没有像CS算法那样引入极其复杂的全二维频域变标乘法运算。但相比于最基础的RD算法,它增加了一次在频域(或距离多普勒域)与修正参考函数的相乘运算来进行额外相位补偿,因此其计算量略微大于基础RD,但整体开销远小于CS算法。

  • 如果你们团队需要对一处地形极度复杂、包含众多微小高价值军事目标的区域进行星载SAR成像,你会强烈建议采用PPT中的哪种算法?为什么?

会毫不犹豫地强烈建议采用CS算法(Chirp Scaling算法)。因为高价值微小目标的成像对空间分辨率和底层相位精度有着极其苛刻的要求。CS算法彻底抛弃了RD算法中的空间内插运算,从根本物理逻辑上消除了插值带来的截断误差和高频相位畸变,能够完美保留目标最真实的电磁散射相位和高频边缘细节,是完成此类高精度侦察任务的唯一最优解。

  • 请站在“二维信号耦合处理”的上帝视角,高度概括RD算法与CS算法在解决该问题上的最根本思维差异。

RD算法的思维是将二维耦合问题强行降维拆解为两个一维问题来近似解决,通过物理插值硬性拉直轨迹,这种“头痛医头”的方式不可避免地会残留系统级误差;而CS算法则是直面二维耦合,在距离-多普勒域和二维频域中,利用信号自身的数学解析特性(变标原理)进行全局的相位尺度映射与精确对齐,这是一种极其纯粹且优雅的全局高精度联合处理思维。

五、DSP

5.1 时域离散信号和时域离散系统

5.2 离散时间傅立叶变换

5.3 Z变换

5.4 离散时间系统

5.5 DFT

5.6 离散时间系统分析

5.7 数字滤波器

六、Verilog

6.1 数字集成电路的发展和演变

6.2 verilog基础知识

6.3 verilog语句与描述方式

6.4 verilog数字逻辑设计电路设计方法

6.5 仿真验证与Testbench

七、计算机网络

八、模拟电路