面试简答

一、通信原理

1.1 绪论

1.1.1 为什么带宽可以衡量一个模拟通信系统的有效性?

在模拟通信系统中,有效性一般是衡量系统对频带的使用效率, 而带宽的大小直接决定了:在一个给定的总频率空间中,如果一个信号占用的带宽越少,那能够容纳的信道数量就越多。这就意味着系统的资源转换效率就越高,因此带宽可以成为衡量一个模拟通信系统有效性的核心标尺。

  • 模拟通信系统中有效性和可靠性是一对矛盾体吗?

在大多数情况下都是一对矛盾体,就比如AM和FM,后者的频率带宽远大于前者,但是却有非常好的抗噪声能力。FM巧妙地运用巨大的频率空间来换取了极强的抗噪声能力,使其可靠性远高于AM。

  • 为什么在数字通信系统中,衡量有效性的核心指标变成了传输速率(如比特率)而不是单纯看带宽?

虽然物理的底座依旧是带宽,但是由于在数字系统中信息被抽象成为离散的状态,我们可以使用不同的调制方法,往单位赫兹这一绝对带宽中塞入不同数量的数字比特。因此比特率更能够衡量数字通信系统的有效性。

  • 单边带(SSB)调制既然带宽减半、有效性极高,为什么早期的商业广播不全用它?

虽然SSB有效性很高,但是其硬件实现代价非常高昂——其在发送端需要极其陡峭的滤波器进行切割,在接收端需要复杂的相干解调和载波同步。早期的商业广播为了让所有人都能买得起廉价的收音机,用浪费大量频谱带宽的代价来换取硬件成本的机制压缩。

1.1.2 什么是基带传输,什么是频带传输?

基带传输就是将未经调制的模拟信号或者数字信号直接送到线路中进行传输。适合小范围的数据传输。
频带传输就是将信号经过调制后,将低频的基带信号“搭载”在高频的载波上。合适远距离的天线传输。

  • 为什么基带信号不能直接用天线发射到空气中进行无线通信?

根据电磁辐射原理,为了让天线高效地发送电磁波,天线的物理尺寸必须和信号的波长处于同一数量级(一般为1/4波长)。基带信号的频率极低,波长极长,难以实现。

  • 家里用的千兆以太网网线(网线直连计算机)属于基带还是频带传输?

属于典型的基带传输,是根据原始电路进行信号传输的。因为这种有线信道具有优秀低通并且环境封闭,工程师可以在极短的传输距离内用原始的电压跳变来暴力拉满数据的吞吐率。

1.1.3 简要说说通信系统模型,并对比数字通信系统的优缺点。

一般模型:信源–发送设备–信道–接收设备–信宿
模拟通信:模拟信源–调制器–信道–解调器–信宿
数字通信:信源–信源编码–加密–信道编码–数字调制–信道–数字解调–信道译码–解密–信源译码–信宿

数字通信系统的优点:抗干扰能力强,便于使用现代数字信号处理技术对数字信息进行处理变换存储,传输差错控制,易于集成,易于加密处理
数字通信系统的缺点:需要较大带宽,对同步要求高且系统设备复杂

  • 在数字通信模型中,模数转换(A/D)和数模转换(D/A)具体发生在哪一个模块中?

主要发生在信源编码和信源译码模块中。

  • 为什么说数字通信系统比模拟通信系统更容易实现保密通信?

模拟通信系统的保密只能用简单的频段倒置或者隐蔽,一旦信号被截获,很容易被相同的物理线路破解。而数字系统是用抽象的0和1来传输信息,工程师可以在信道译码前加入复杂的密码学算法,即使信号被截获,也很难被破解。

  • 既然数字通信优点这么多,模拟通信系统在今天已经被彻底淘汰了吗?

并没有,只是退居到了对成本和功耗极度敏感,及对通信质量要求不高的地方。如老式的AM/FM广播,部分简易的航空语音通信系统以及极其廉价的模拟对讲机

1.1.4 通信原理考虑的主要问题是什么?

信息如何被携带:信源与调制——寻找能够高效携带信息的信号形式。
信号如何传输:有效性——寻找适合于特定信号,并且能够充分利用信道资源的信号波形。(多径信道用OFDM,深空信道用MFSK)
传输如何抗干扰:可靠性——采取有效抑制噪声与其他干扰以保障传输质量的措施。(信道编码、扩频技术)
硬件如何实现:可行性——采用可行且尽量简单的方法。(OFDM中,对于矩阵乘法不用LFSR,而是用FFT)
成本如何控制:经济性——考虑系统的成本。

1.1.5 数字通信系统和模拟通信系统的区别是什么?

模拟通信系统是使用连续变化的模拟信号来传输信息的系统。
数字通信系统是使用离散的数字信号0和1来传输信息的系统。

数字通信系统与模拟通信系统相对比,有着许多突出的优点,如下所述:
(1) 数字信号状态有限,容易再生。因而,利用反复转发可以避免噪声积累,保持高的完好度。在长距离传输中,借助中继再生使得信号质量不受距离的限制。
(2) 数字信号易于分辨,即使在强噪声下,仍可能出现低误码率的传输。
(3) 数字电路成本低,可大规模集成,而且稳定性好,易于调试。
(4) 数字信号易于进行差错控制,可以实施更多的传输可靠性措施。
(5) 数字信号易于压缩与加密处理。
(6) 不同种类的信源数据,如语音、图片、文字、软件等,易于形成统一的传输序列,共用数字通信系统。
(7) 便于计算机与网络通信。

不过,数字通信也有下面的缺点:
(1) 一般而言,传输数字信号比传输模拟信号需要更多的带宽。
(2) 数字通信系统需要更复杂的同步系统。

1.1.6 简要介绍一下数字通信系统的结构

image-20260308212915011

1.2 基础知识

1.2.1 为什么通信必须用随机过程来描述?

从信息论的底层逻辑来说,通信的本质就是在传输“未知”的消息,而确定的信号是不能携带任何信息的。所以,为了承载有效的信息,在通信过程中,发送端发出的信号序列对于接收端而言,必须是随机的、不可预测的。

  • 即然信号是随机的,那我们如何预测它的带宽

虽然瞬时波形不可以预测,但是平稳随机过程的自相关函数是确定的。我们可以通过维纳辛钦定理,将自相关函数通过傅立叶变换得到功率谱密度,功率谱在频率上占用的范围就定义了该信号的统计带宽。

  • 什么是平稳随机过程,它在通信中有何意义?

平稳随机过程指的是其统计特性(如均值、自相关)不随着时间起点变化而变化。它简化了数学模型,使得我们能够使用一套不随着时间漂移的固定参数来描述整个通信系统的平均性能。

  • 各态历经性在描述信号时起到什么作用?

它保证了我们在观察一段足够长的单次实验的时间平均能够代替无数次实验的统计平均。这就意味着工程师只需要测量一个样本的长时间平均性,就能够推断出通信系统整体的统计规律。

1.2.2 为什么平稳性在通信中至关重要?

平稳性决定了研究通信随机过程中是否可以分析。因为在现实中,虽然信号的瞬时值随机波动,但是如果该过程满足平稳性,即其统计特性不随着时间起点的不同而发生变化,那我们就可以从宏观上提取到该信号的一套恒定规律。
平稳性决定了我们是否可以使用维纳辛钦定理,通过计算自相关函数,再通过傅立叶变换得到功率谱密度,我们可以根据功率谱密度来设计发射机的带宽、接收机的滤波参数、信道的分配策略。
平稳性是各态历经性的先决条件,有了平稳性,我们可以通过捕捉一段时间的波形从而观测到该信号在所有情况下的可能的集合,这样我们就可以通过对单个样本计算其时间平均来代替复杂的统计平均。

  • 宽平稳和严平稳有什么区别?

严平稳要求所有的阶的统计特性都不随时间移动,但是宽平稳只要求均值为常数并且自相关函数只和时间间隔有关。通信工程中,信号只需要满足宽平稳就能进行大部分的功率谱和信噪比分析

  • 如果信号是非平稳的,应该如何分析?

常规方法不能使用,可以使用时频分析,例如短时傅里叶变换(STFT)或小波变换,来观察信号的统计特性是如何随时间演变的。

  • 为什么随机过程“均值为常数”对电路非常重要?

均值在物理上对应直流电流。如果均值常数是已知的,那么工程师就可以使用隔直电容准确去除直流偏移,或者利用该分量进行自动增益控制AGC,从而保证后续放大电路不进入饱和区。

1.2.3 现在无线通信的实际应用情况中,几乎不存在AWGN信道,那么我们研究通信系统在 AWGN信道下的性能的意义是什么呢?

AWGN是通信系统中不可或缺的理想参考坐标系。通过研究在AWGN信道下的可靠性,工程师可以确定一个通信系统在理想情况下的最好表现,从而我们可以量化评估在加入复杂信道干扰后,系统性能究竟产生多少的功率代价。在这部分基础打牢后,我们后续在此基础上,对于复杂的环境,只需要加入其他余量或者补偿算法,而不需要将整个底层推翻架构重新设计。

  • 为什么热噪声被建模为“白”噪声?

在通信关注的频率范围内,热噪声的功率谱密度是平坦的,类似白光的光学频谱特性。意味着它在所有频段上都有相同的破坏力,使得信噪比计算不依赖于具体的中心频率。

  • 除了AWGN,移动通信中的复杂信道有哪些?

瑞丽衰落模型:模拟没有直射路径的密集城区环境,如城市。
莱斯衰落模型:模拟存在强直射路径(LOS)的开阔环境。
二者均比 AWGN 更贴近真实的无线电波传播特性。

  • 在 AWGN 分析中,为什么 Eb/N0E_b/N_0 比 SNR 更常用?

因为 Eb/N0E_b/N_0(每比特能量与噪声功率谱密度之比)是一个归一化指标,它消除了带宽和传输速率的影响。这使得我们可以公平地比较不同速率、不同带宽效率的系统在抗噪声性能上的优劣。

1.2.4 为什么要研究预包络和复包络?

数学分析:研究预包络和复包络是为了将高频带通信号转化为低频基带等效模型。通过引入希尔伯特变换得到预包络,将信号的负频率部分消除,而复包络进一步移除了载波频率的影响。这种转换使得原本震荡剧烈的带通系统的分析,简化成了对低频复包络的线性处理,极大地降低了系统仿真和理论推导的维度。

硬件分析:研究复包络能够让我们清晰地观察到信号在传输过程中产生的幅度畸变和相位偏移,从而为载波同步、均衡器设计以及相位补偿提供最直观的物理参数;

系统评估:预包络和复包络提供了一种与载频无关的分析手段,通过这种分析方法,我们可以定义统一的等效低通特性来描述放大器的非线性失真、信道的衰落特性以及滤波器的群时延。这不仅提高了计算效率,也使得不同频段、不同带宽的通信协议可以在同一个复基带框架下进行公平的性能对比。

  • 希尔伯特变换在构造预包络时起到什么作用?

希尔伯特变换本质上是一个 90° 移相器。通过它,我们可以产生一个单边光谱的解析信号(即预包络)。这样做的物理意义在于消除了频谱的对称冗余,使得信号在复平面上的旋转方向变得唯一且可追踪。

  • 为什么复包络通常被认为是“低通”信号?

复包络是通过将预包络的频谱向左平移 fcf_c(载频)得到的。这一操作将能量中心从高频搬移到了零频率附近。因此,复包络不再包含高频载波的快速振荡,只保留了信息调制的缓慢变化趋势,符合低通信号的特征。

  • 带通信号的功率谱密度实际上就是其复包络功率谱密度的频移版本。研究复包络的功率谱可以让我们避开高频载波,直接观察调制脉冲的形状和旁瓣特性。

1.2.5 为什么非要将信号写成同相分量与正交分量相加的形式?

数学分析:在复基带理论中,一个复信号 m(t)m(t) 包含了幅度与相位。通过欧拉公式展开,这个复信号可以完美地拆解为两个相互正交的实分量:同相分量 I(t)I(t) 对应实部,正交分量 Q(t)Q(t) 对应虚部。这种表示法允许我们利用相位相差 90° 的两个正交载波在同一频段内同时传输两路独立的信息,而不会产生相互干扰,这正是 QAM 或 PSK 等现代高效调制技术的底层物理架构。

硬件分析:I/Q 分解极大降低了发射机与接收机的复杂度。如果直接调节载波的振幅和相位(极坐标方式),硬件需要极高性能的压控振荡器和线性放大器,这在高速切换时非常难以精确控制。而采用 I/Q 分解(直角坐标方式),我们只需要两个简单的乘法器和加法器,分别控制两路基带信号的幅度,再与正交载波相乘相加。种架构对电路的线性度要求相对较低。

系统分析:I/Q 形式是观察信号矢量演变的最直观工具。在复平面(星座图)上,I 分量决定了点的横坐标,Q 分量决定了纵坐标。通过这种分解,我们可以独立地分析信道对信号造成的幅度衰减与相位旋转。

  • 为什么 I 路和 Q 路信号相加后不会产生干扰?

这是因为 cos(ωt)\cos(\omega t)sin(ωt)\sin(\omega t) 在一个周期内是相互正交的。在接收端,当我们用本地 cos(ωt)\cos(\omega t) 进行相干解调时,Q 路信号由于与本地载波正交,积分后的均值为零,从而被完美消除,保证了 I 路信息的独立提取。

  • I/Q 不平衡(I/Q Imbalance)会对通信造成什么影响?

如果 I/Q 两路的增益不一致或相位差不是严格的 90°,就会导致星座图发生偏移或扭曲。物理上,这表现为两路信息产生了串扰,增加了误码率,通常需要通过数字信号处理算法在接收端进行专门的补偿。

1.2.6 如何理解这句话:经过严格的理论推导,对带通信号在高频段进行处理,等同于将信号和系统的冲激响应都用复包络表示出来,然后在低频段进行相同的处理?

从线性时不变系统(LTI)的卷积特性来看,经过数学推导,带通信号和带通系统的卷积,严格等于在去除载波后,两者的复包络在时域进行的卷积。

从信号分析的角度来看,这种映射本质上是利用了信号能量的局域性特征。由于带通信号的带宽远小于其载波频率,信号的有效信息完全由其复包络的幅度与相位演变决定,而非载波本身的快速振荡。将系统映射到复基带,实际上是剔除了载波这一无信息的“背景背景”,将复杂的带通干涉问题转化为简单的复数向量运算。

从正交调制与解调(I/Q 架构)的硬件实现来看,接收机通过下变频器将高频信号搬移至零频,在低频段进行的信号处理,正是在对复包络执行“相同的处理”。这种理论与实践的高度统一,使得工程师可以在低频数字电路中完成所有复杂的数学运算,而其结果在物理上等同于对高频电磁波进行了精确的操控,

  • 为什么在等效基带模型中,系统冲激响应的复包络要乘以 1/2?

在频域中,带通系统的频谱由正负两个对称谱点组成。当我们通过希尔伯特变换构造预包络并移动到零频时,为了保持能量守恒或增益一致,通常需要引入一个 1/2 的修正因子(取决于预包络的具体定义),以确保基带模型的输出功率与实际带通系统的输出功率匹配。

  • 复基带等效模型在处理非线性系统时还成立吗?

不完全成立。等效模型主要建立在线性叠加原理之上。如果系统存在严重的非线性(如功率放大器的饱和失真),简单的复包络卷积就不再适用。此时需要引入更复杂的Volterra级数或基于复包络的非线性映射模型来描述信号产生的谐波和交调干扰。

1.2.7 随机信号的自相关函数的傅立叶变换是什么,这个关系叫什么?

是该信号的功率谱密度PSD。随机信号的自相关函数及其功率谱是傅立叶变换和逆变换的关系,这就意味着,自相关函数描述了随机信号在时域上信号的值随时间推移的内在关联程度,而它的傅立叶变换则直接在频域上揭示了该信号的平均功率是如何随频率分布的。

这个定理叫做维纳辛钦定理。真正的随机信号在时间上是无限延展的,这就意味它的能量无限,不满足傅立叶变换的狄利克雷条件,而维纳辛钦定理巧妙地将视角从“研究信号的波形”转换为“波形的自相关函数”,因为随机信号的自相关函数的波形是随着时间迅速衰减并且可积的,从而在数学上完美跨越了随机信号无法直接进行频谱分析的理论鸿沟。

  • 自相关函数在时域上的衰减速度,反映了信号频域上的什么特征?

自相关函数的衰减速度与信号的频谱宽度成反比。如果自相关函数衰减极快(例如一个极其尖锐的冲击),说明信号只与极短时间内的自己相关,其内部变化极其剧烈且毫无规律,这在频域上对应着极宽的功率谱(如白噪声的平坦频谱);反之,如果衰减极其缓慢,说明信号变化平缓、可预测性强,其能量就会极其狭窄地集中在低频区域。

  • 维纳-辛钦定理是否适用于所有类型的随机信号?

仅适用于广义平稳(Wide-Sense Stationary, WSS)随机过程**。这意味着该随机信号的统计特性不能随时间剧烈突变:其均值必须是一个常数,且其自相关函数只能与时间差(延迟量 τ\tau)有关,而绝对不能与起始观察时间有关。对于非平稳随机信号,这一定理将不再适用,工程师必须转向更为复杂的时频分析工具(如小波变换)。

  • 在实际的通信接收机芯片中,我们是如何利用这一定理来估算信道噪声的?

我们永远无法获得无限长的时间样本来计算真正的数学期望,DSP(数字信号处理器)通常会先对有限长度的接收噪声样本进行采样,利用“时间平均”来近似“统计平均”,暴力估算出一个离散的自相关序列,然后再对这个序列执行快速傅里叶变换(FFT)。这种基于维纳-辛钦定理的间接算法,是现代通信设备评估信道质量和实时抗干扰的最核心底层逻辑。

1.2.8 高斯白噪声是什么?是功率信号还是能量信号?

高斯白噪声(Gaussian White Noise)是通信系统中最经典且最恶劣的理想噪声模型。
“高斯”一词严格界定了它的时域概率统计特性,意味着这种噪声在任意时刻的瞬时幅度值完全服从正态分布(高斯分布),即大多数时候噪声幅度在均值附近波动,但也有极小概率出现极其极端的电平尖峰。
而“白”一词则精确描述了它的频域能量分布形态,意味着它的功率谱密度在整个无限宽的频率轴上是一个常数。就像包含了所有可见光谱的白光一样,它包含了从零频到无穷高频的所有频率分量,且各个频率分量的能量完全绝对相等。

高斯白噪声是一个绝对的功率信号,而绝非能量信号。
由于高斯白噪声在时间上是无始无终、永远持续存在的,且其功率谱密度在无穷宽的频带上积分等于无穷大,它的总物理能量必然趋于无穷;但是,当我们在任何一段受限的物理带宽或有限的时间窗口内去测量它时,其平均功率总是表现为一个稳定的常数。
因此,在工程与数学分析中,我们常用功率谱密度和平均功率来衡量它。

  • 现实物理世界中存在真正的高斯白噪声吗?

是不存在的。因为要在从零到无穷大的所有频率上保持同等的能量,意味着这种信号的总发射功率必须是无穷大,这显然违背了宇宙的能量守恒定律。在实际工程中,只要一种内部热噪声的平坦频谱带宽远远大于我们通信系统的接收机物理带宽,我们就将其在系统内部极其合理地近似视为白噪声。

  • 什么是带限白噪声(Band-limited White Noise),它有什么物理意义?

理论上的无限宽带高斯白噪声穿过接收机前端的实际物理滤波器(如低通或带通滤波器)后,其频谱中超出系统带宽的高频部分会被强行切除。此时进入解调器的噪声被称为带限白噪声,它的总功率不再是致命的无穷大,而是变成了一个与滤波器带宽成正比的有限确定值,这正是通信系统能够计算出有限信噪比并正常工作的前提条件。

  • 为什么我们在理论推导和系统设计中,极其偏爱用高斯分布来模拟信道噪声?

源于概率论中极其伟大的中心极限定理。在真实的通信接收机中,天线感知到的总背景噪声往往是宇宙微波辐射、电路内部亿万个自由电子的无规则热运动以及无数杂乱空间电磁波的无穷叠加。中心极限定理严格证明了,大量极其微小且相互独立的随机物理事件之和,无论其各自原先是什么奇奇怪怪的分布,最终叠加后的宏观表象必然无限逼近于高斯分布,这赋予了高斯噪声模型无可捍卫的物理真实性。

1.2.9 什么是维纳-辛钦定理?它的存在有何意义?

维纳辛钦定理指的是:对于一个宽平稳的随机过程,它的自相关函数和功率谱密度是一对傅立叶变换。

通过这个定理,我们对于随机信号的分析,可以不再聚焦于其信号随时变化的瞬时波形,而是分析其稳定的统计平均,而宽平稳信号又允许我们通过计算其自相关函数,以时间平均等效统计平均,从而将时域上的统计相关性,完美映射到频域上的功率分布规律。

1.2.10 如何理解能量信号与功率信号、能量谱密度和功率谱密度;确知信号与随机信号、频谱密度和功率谱密度?

能量信号就是能量有限信号。如一个简单脉冲、指数衰减信号。
功率信号就是能量无限,功率有限信号。如周期正弦波、白噪声。
能量谱密度是描述能量信号在不同频率下的能量分布,是能量信号的频谱的平方。
功率谱密度是描述功率信号在不同频率下的功率分布,是确定性功率信号的频谱的平方,或者描述一个随机信号的功率分布。

确知信号是其取值在任何时间内是确定的,可以用带有t的函数来表示。
随机信号无法用具体函数表示,只能通过其统计特性来描述(均值、方差、自相关)。
频谱密度是确知信号的傅立叶变化,包含幅度和相位信息,它能够还原波形的细节。
功率谱密度只能描述功率的统计分布,丢失了相位信息,而是关注于能量在频率上的分布。

1.2.11 能量谱密度、功率谱密度与频谱有什么关系?

频谱适用于能量信号和确定性功率信号,即确知信号。
能量谱密度是频谱的平方,表示其能量在频率上的分布。

功率谱密度适用于随机功率信号,即随机信号。表示其功率在频率上的分布。

1.2.12 δ\delta 脉冲在频谱、能量谱、功率谱上分别代表什么意思?频谱上的 δ\delta 与 功率谱上的 δ\delta 有什么关系?

频谱中的 δ\delta:代表“固定的振幅”。在确定性功率信号(如正弦波或周期信号)中,存在一个频率为 fcf_c 的完美简谐振荡。δ\delta 脉冲的面积(前面的系数)直接代表了该频率分量的幅度。

功率谱 (PSD) 中的 δ\delta:代表“集中的平均功率”。这个永不停歇的周期性振荡,持续不断地向外辐射着实实在在的能量。由于它无限长,我们只能计算它在单位时间内的平均功耗。δ\delta 脉冲的面积直接代表了该频率分量所携带的平均功率。

严格意义上,真正的能量信号的能量谱中,是不可能出现 δ\delta 脉冲的。能量谱是用来分析能量有限的信号。δ\delta 脉冲代表能量无限集中在某一个频率点上。如果一个信号在频域有 δ\delta(意味着它包含永不停歇的正弦波),那么它在时域一定延伸到无限长,它的总能量必定是无穷大!从数学上看,能量谱 G(f)=S(f)2G(f) = |S(f)|^2。如果 S(f)S(f) 里有 δ(f)\delta(f),那么 G(f)G(f) 就会出现 δ2(f)\delta^2(f),这在分布函数理论中是未定义、无意义的。

无论是频谱上的 δ\delta 还是功率谱上的 δ\delta ,它们的出现都代表着:该频率上存在一个永不停歇、波形完美的简谐振动。 它的能量没有被“稀释”在频带里,而是“凝聚”在一个点上。因此对于真实的数字通信信号(包含随机的 0 和 1):我们无法求出它的确定性频谱 S(f)S(f)(因为波形随机,它没有连续的幅度谱);但它的功率谱 P(f)P(f) 依然存在。在这个 P(f)P(f) 中,不仅可能会有代表确定性载波的 δ\delta 脉冲(离散谱),还会存在代表随机信息的连续谱(鼓包)。

1.2.13 如何理解随机信号的各态历经性?

随机信号的任何一个样本函数的时间平均等于它的统计平均。物理层面上,这意味着只要观测时间足够长,该信号的每个样本函数都会遍历信号的各个状态,因此我们只需从任何一个样本函数中就能计算出其统计平均值。

具体分为两类:
一是均值各态历经性,即 E[X(t)]=X(t)E[X(t)] = \overline{X(t)};代表了信号的“能量平衡点”,它保证了“局部样本的中心”就是“全局系统的中心”。
二是自相关函数各态历经性,即 RX(τ)=X(t+τ)X(t)R_X(\tau) = \overline{X(t+\tau)X(t)}。代表了信号的“波动节奏”与“功率分布”,保证了“局部样本的指纹”就是“全局系统的基因”。
如果两者同时满足,则称该信号具有(广义)各态历经性。

1.2.14 自相关函数的存在意义是什么?

它是将“不可预测的随机波形”转化为“可进行频域分析的确定性规律”的唯一桥梁。可以这么理解,它是随机过程理论与经典频域分析之间的翻译官。

首先,现实信号的各态历经性保证了我们可以通过观察单一波形的时间平均来获取它的自相关函数;
其次,自相关函数滤除了波形的随机性,提取了稳定的时间关联规律;
最后,借由维纳-辛钦定理,我们将这个稳定的时间规律映射到频域,最终求得了指导工程实践的功率谱密度。

1.2.15 如何理解傅立叶变换与信号的频谱密度?

傅立叶变换是一种将信号从时域表示转换为频域表示的重要工具。
通过傅立叶变换,可以把复杂的时域信号分解为不同频率正弦信号的叠加,从而得到信号的频谱。
频谱反映了信号在各个频率上的分布情况,而频谱密度则表示信号在不同频率处所包含的能量或功率的分布特性。

1.2.16 频谱密度分为能量谱密度与功率谱密度,如何理解二者?

对于能量有限的信号(能量信号),通常用能量谱密度(Energy Spectral Density)来描述信号能量在频域中的分布,它等于信号傅立叶变换幅度的平方。
对于功率有限但持续时间无限的信号(功率信号),则使用功率谱密度(Power Spectral Density)来描述信号功率在频率上的分布。功率谱密度反映了信号在不同频率成分上的平均功率。

1.2.17 什么是带宽?

带宽是通信系统中的重要参数,它决定了信号传输所需要的信道频率资源,并影响系统的数据传输能力。

1.2.18 什么是随机信号?

随机信号是指随时间变化且其取值具有随机性的信号,通常用随机过程来描述。可以理解为:在每一个时刻,信号的取值是一个随机变量,而所有可能的时间函数组成了一个随机过程。在通信系统中,噪声信号、随机信息序列等都属于随机信号。

随机信号的基本特性通常通过统计量来描述,而不是通过确定的时间函数。常用的统计特性包括均值(数学期望)、方差以及自相关函数。均值表示信号的平均水平,方差反映信号波动的强弱,自相关函数则描述信号在不同时间之间的相关程度,是分析信号结构和系统性能的重要工具。

1.2.19 如何研究两个随机信号之间的关联?

当研究两个随机信号之间的关系时,需要考虑它们的联合特性。常见的描述方法是互相关函数,它表示两个信号在不同时间间隔下的相关程度。
在通信系统中,互相关函数常用于分析系统输入与输出之间的关系,以及信号与噪声之间的影响。

1.2.20 什么是高斯信号?

高斯信号是指在任意时刻其信号取值服从高斯分布(正态分布)的随机信号。如果一个随机过程在各个时刻的概率分布都是高斯分布,并且任意多个时刻的联合概率分布也服从高斯分布,则称为高斯随机过程。

1.2.21 确知信号和随机信号通过LTI系统时有什么区别?

区别来自于确知信号和随机信号的分析特性,前者可以使用频谱分析,而后者只能使用频谱密度分析。

确知信号:可以理解为系统通过其幅频特性和相频特性,对输入信号的各个频率分量进行加权,从而重塑了信号的波形。而在频域中,输出信号的频谱 Y(f)Y(f) 等于输入信号的频谱 X(f)X(f) 与系统频率响应 H(f)H(f) 的乘积。在时域中,输出信号 y(t)y(t) 等于输入信号 x(t)x(t) 与系统单位冲激响应 h(t)h(t) 的卷积。

随机信号:系统通过滤除或削弱特定频段的能量,改变了随机信号的功率分布和自相关特性。输出的功率谱密度 Py(f)P_y(f) 等于输入的功率谱密度 Px(f)P_x(f) 乘以系统幅频特性模的平方,即 Py(f)=Px(f)H(f)2P_y(f) = P_x(f) \cdot |H(f)|^2。随机信号(平稳随机过程)而言,由于无法写出确定的时间解析式,我们转而研究其统计特性的变化,但是值得注意的是:平稳随机过程通过 LTI 系统后,输出过程依然是平稳的;如果输入是高斯平稳随机过程,由于线性变换不改变概率分布的类型,输出信号依然严格服从高斯分布,只是其均值和功率(方差)发生了改变

1.2.22 希尔伯特变换与解析信号?

从时域上看,确知信号 s(t)s(t) 的希尔伯特变换 s^(t)\hat{s}(t) 相当于信号与 1/(πt)1/(\pi t) 进行卷积;从频域上看,其频率响应 H(f)=jsgn(f)H(f) = -j \text{sgn}(f),这表明它在正频率处提供 j-j(即 90-90^\circ)的相移,而在负频率处提供 +j+j(即 +90+90^\circ)的相移。

利用希尔伯特变换,我们可以构造出解析信号(Analytic Signal),其定义为复信号 z(t)=s(t)+js^(t)z(t) = s(t) + j\hat{s}(t)。解析信号最显著的物理特征是其频谱只包含正频率分量,且正频率部分的幅度是原实信号的两倍。

信号的解析信号就是该信号的预包络。

1.2.23 复包络的研究意义是什么?

复包络(Complex Envelope)的研究意义在于它提供了一种等效基带分析法,将高频带通信号转化为低频基带信号进行处理。直接研究带通信号存在巨大的工程和计算障碍,因为带通信号的频谱集中在极高的载波频率 fcf_c 附近,这意味着信号的瞬时变化极快,若直接进行数字化处理或计算机仿真,必须遵循奈奎斯特采样定理,以高于 2(fc+B)2(f_c + B) 的频率进行采样,这会导致数据量爆炸且对硬件性能要求极高。

通过引入复包络 s~(t)\tilde{s}(t),我们实际上是剔除了毫无信息量的高频载波分量,仅保留了真正承载消息的振幅 a(t)a(t) 和相位 ϕ(t)\phi(t)。复包络是一个低通信号,其带宽仅为原信号带宽 BB 的一半(对于单边带宽而言),这使得我们可以用极低的采样率和运算量来精确描述高频系统的动态特性。

此外,复包络将信号分解为同相分量 sI(t)s_I(t) 和正交分量 sQ(t)s_Q(t),这种正交表示法不仅简化了线性系统的数学推导(将带通系统的卷积简化为基带复数运算),更直接对应了现代调制解调器中 I/Q 调制器的物理结构。

1.2.24 带通高斯白噪声有何研究意义?

在通信系统的抗噪声性能分析中,带通高斯白噪声(Bandpass Gaussian White Noise)具有极高的研究意义。由于实际的接收机前端通常包含一个带通滤波器(BPF),宽带的高斯白噪声在进入解调器之前,其频谱会被限制在载波频率 fcf_c 附近的有限带宽 BB 内。

研究带通噪声,本质上是研究噪声在经过系统选择性过滤后,如何与有用信号相互作用并影响最终的判决准确性。

通过将带通高斯噪声分解为同相分量 nc(t)n_c(t) 和正交分量 ns(t)n_s(t),我们可以利用低频等效模型来简化复杂的带通分析。这种分解揭示了一个核心数学特性:若原带通噪声是平稳高斯过程,则其两个正交分量也是平稳高斯过程,且在同一时刻互不相关、统计独立。这一结论极大地简化了计算输出信噪比和误码率的过程,使得我们能够分别分析噪声对信号振幅(包络)和相位造成的随机扰动。

此外,研究带通噪声的包络分布具有直接的工程指导价值。当信号中仅存在噪声时,其包络服从瑞利分布;而当存在确定性载波信号时,包络转变为莱斯分布。这种分布规律的切换是设计包络检波器(如非相干解调)和评估衰落信道性能的理论根基。简而言之,带通高斯噪声是连接“理想噪声模型”与“实际接收机表现”的关键环节,它决定了系统在真实物理带宽限制下的性能上限。

1.3 模拟通信系统

1.3.1 为什么AM需要包络检波?

从系统复杂度和成本来看:AM 信号(标准调幅)引入大载波分量的核心目的就是为了实现包络检波。
包络检波器本质上是由二极管、电阻和电容组成的低通滤波器,它不需要在接收端提取一个与发射端频率和相位完全一致的相干载波。
这种非相干解调方式极大地简化了早期广播接收机的电路结构,使得普通用户只需极其廉价的元器件就能还原声音信号。

从物理波形的直观表示来看,包络检波的前提是信号的复包络必须始终大于零,即调制指数小于 1。
在这种条件下,调幅信号的幅度起伏完全跟随基带信号的变化,信号的“外壳”或者说“包络”就直接承载了所有的音频信息。
二极管的非线性导通特性配合电容的充放电过程,能够像“扫描仪”一样提取出这条随时间变化的振幅曲线,从而绕过了复杂的乘法运算和载波同步环节。

从频谱效率与功率折中的逻辑来看,包络检波虽然以浪费发射功率(大载波不携带信息)为代价,但换取了解调的鲁棒性。
相干解调技术,载波同步环路(如锁相环)极易失锁或产生相位抖动。
包络检波作为一种非相干解调技术,对相位变化不敏感,只要信号电平足够高,就能稳定地恢复出原始基带波形。
这种“发射端多花钱,接收端省大钱”的策略,是 AM 广播能够大规模普及的关键。

  • 如果 AM 信号的调制指数大于 1(过调幅),包络检波会发生什么?

当发生过调幅时,信号的包络会进入负值区域,但包络检波器只能提取幅度的绝对值,这会导致波形在过零点附近发生严重的相位反转畸变,还原出来的音频信号会产生极其刺耳的失真。

  • 为什么 DSB-SC(抑制载波双边带)不能使用包络检波?

DSB-SC 去掉了大载波,其时域波形在基带信号过零时会发生 180° 的相位跳变,导致其“包络”不再直接对应基带波形的形状。因此,DSB-SC 必须使用包含本地载波的相干解调才能恢复出原始信号。

1.3.2 既然有了SSB,为什么还要用VSB?

从设计的工程可行性来看,VSB(残留边带调制)的出现是为了解决 SSB(单边带调制)的一些技术瓶颈。
SSB 要求滤波器在载频附近具有极其陡峭的截止特性,以便在完全滤除一个边带的同时不损伤另一个边带的低频部分。然而,物理可实现的滤波器往往存在过渡带,如果强行使用 SSB 传输包含大量低频细节的信号(如电视图像信号),这些靠近载频的有用成分会被滤波器严重切除,导致严重的波形失真。

从频谱效率与复杂度的折中来看,VSB 采取了一种“非对称”的妥协方案,它允许其中一个边带被大部分滤除,但保留一小部分残留,并配合另一边带的对应部分。
通过设计一种具有互补特性的残留边带滤波器,VSB 能够保证在接收端解调后,两路边带在载波附近的能量能够完美叠加。
这种方式虽然比 SSB 稍微多占用了一点带宽,但它极大地缓解了对滤波器“陡峭度”的要求,使得在低成本设备中传输宽带且含低频丰富信号成为可能。

VSB实际可用于模拟电视广播。

  • VSB 接收端进行相干解调时,对滤波器的互补特性有什么要求?

为了保证解调后没有幅度失真,VSB 滤波器的幅度谱必须在载频附近满足奇对称性。这意味着在载频处,滤波器的增益应为 0.5,且其上升沿与下降沿的变化规律互补,从而使残留边带的能量与另一边带对应的缺失能量加权求和后等于常数。

  • 为什么 VSB 在现代数字电视(如 ATSC 标准)中依然被提及?

虽然现代数字通信多采用 OFDM,但经典的 ATSC 早期数字电视标准采用了 8-VSB 调制。这是因为它在单载波条件下具有很高的频谱利用率,并且在特定的广播信道环境下,其峰值平均功率比(PAPR)相对较低,有利于大功率发射机的效率提升。

1.3.3 在角度调制中,调制指数有什么意义(调相指数、调频指数)?

从频域分布的底层逻辑来看,调制指数是决定角度调制信号带宽的核心参数。
与幅度调制不同,角度调制的频谱并不是基带信号频谱的简单线性平移,而是通过贝塞尔函数展开后的无限带宽分布。
调制指数的大小直接决定了能量在各个谐波分量上的分配比例。当调制指数较小时,信号呈现窄带特性,能量主要集中在载频及其相邻的一对边带上;而当调制指数增大时,有效带宽会随之显著扩张。
根据卡森公式,带宽与调制指数成正相关,这意味着我们通过牺牲更多的频率空间,换取了比幅度调制更优异的抗噪声性能。

从相位角度来看,调相指数(mpm_p)反映了载波相位偏移的最大瞬时偏移量,而调频指数(mfm_f)则描述了载波频率偏移量相对于基带信号频率的比值。

从工程设计与抗干扰能力的折中来看,调制指数是有效性与可靠性之间的平衡杆。
增大调制指数可以提高系统的解调信噪比改善增益,因为在解调过程中,有用信号的功率增益与调制指数的平方成正比,而噪声的影响保持相对恒定。
然而,这种性能的提升是以占用巨大的频谱资源为代价的。在实际的无线电广播或专业移动通信中,工程师必须根据信道的带宽限制和预期的覆盖质量,精确设定最大频偏与调制指数,以确保在不干扰相邻频道的前提下,利用非线性调制的特性压制信道背景噪声。

  • 为什么窄带调频(NBFM)的频谱看起来和普通 AM 很像?

当调制指数远小于 1 时,贝塞尔函数的高阶项可以忽略不计。此时信号在频域上只保留了主载波和一对边带。尽管它们在相位关系上与 AM 不同(PM/FM 的两个边带相位是奇对称的),但在占用带宽上与 AM 完全一致。

  • 在 FM 中,如果基带信号频率 fmf_m 减小而幅度不变,调制指数和带宽会如何变化?

在调频(FM)中,最大频偏 Δf\Delta f 仅取决于基带幅度。如果 fmf_m 减小,调频指数 mf=Δf/fmm_f = \Delta f / f_m 会增大。虽然单看频偏没变,但由于指数增大,能量会向更高阶的边带扩散,导致卡森带宽保持基本稳定或略有微调。

1.3.4 什么是卡森规则,有何用(注意说明频偏比)?

卡森规则(Carson’s Rule)提供了一个估算角度调制(调频 FM 或调相 PM)信号有效带宽的实用工程公式。
由于角度调制的频谱理论上延伸至无穷远,直接计算其所有能量分布在工程上既不现实也无必要。卡森规则指出,信号绝大部分功率(约 98% 以上)集中在带宽 B2(Δf+fm)B \approx 2(\Delta f + f_m) 之内,其中 Δf\Delta f 为最大频偏,fmf_m 为基带信号的最高频率。

卡森规则深刻揭示了频偏比(或称调制指数 β\beta)对带宽占用的控制作用。我们将最大频偏 Δf\Delta f 与基带最高频率 fmf_m 的比值定义为频偏比 β=Δf/fm\beta = \Delta f / f_m,此时带宽可以写成:B2fm(1+β)B \approx 2f_m(1 + \beta)
当频偏比极小时,卡森带宽近似等于 2fm2f_m,此时信号呈现窄带(NBFM)特性,频谱占用与普通调幅(AM)相似;而当频偏比很大时,带宽则主要由 2Δf2\Delta f 决定,呈现宽带(WBFM)特性。
通过调整频偏比,工程师可以在频谱有效性(节省带宽)与传输可靠性(利用宽带增益压制噪声)之间找到最佳的平衡点。

在实际工程应用中,卡森规则告诉我们,角度调制系统可以通过牺牲带宽来换取信噪比(SNR)的极大改善,这种“带宽换增益”的倍数关系正是由频偏比直接决定的。

  • 如果实际带宽小于卡森规则计算出的带宽会发生什么?

如果接收端的带通滤波器带宽窄于卡森带宽,会导致信号的高次边带分量被滤除。这在物理上表现为非线性失真(幅度失真和相位失真),反映在解调后的音频或数据上就是谐波分量增加、保真度下降或误码率上升。

  • 卡森规则在窄带调频(NBFM)和宽带调频(WBFM)中表现有何不同?

在窄带调频中,频偏比 β\beta 远小于 1,卡森带宽退化为 2fm2f_m,侧重于节省频谱。
在宽带调频中,频偏比 β\beta 远大于 1,卡森带宽近似为 2Δf2\Delta f,侧重于利用宽带特性提高抗噪声性能,这正是 FM 广播音质优于 AM 广播的物理根源。

1.3.5 解调增益、系统增益分别有什么用?

解调增益(也称为调制增益 GG)衡量的是解调过程本身对信号质量的提升能力。它定义为解调器输出信噪比与输入信噪比的比值。
对于调频(FM)等非线性调制系统,解调增益通常远大于 1,这意味着系统通过牺牲带宽换取了信噪比的改善;而对于传统的 AM 信号,解调增益则相对固定且较小。
研究解调增益能帮助工程师判断特定调制方式在抑制信道噪声方面的内在效率,从而在设计阶段决定是采用复杂的宽带调制还是简单的窄带调制。

系统增益则描述了整个通信链路对信号功率的动态调控能力。它涵盖了从发射机天线增益、传播路径损耗到接收机低噪声放大器(LNA)增益的完整物理过程。系统增益的作用在于确保到达判决器前的信号电平足以压制背景热噪声,维持必要的链路预算。如果系统增益不足,即便解调器的解调增益再高,也会因为输入端的“物料”信噪比过低而导致通信中断。因此,系统增益是决定通信距离和覆盖范围的核心工程参数。

解调增益侧重于算法与调制维度的优化,旨在从已有的信号中榨取更高的保真度;
而系统增益则侧重于硬件与功率维度的支撑,旨在为信号提供足够强的物理场强。
在实际应用中,如果信道环境极度恶劣,工程师通常会通过增加天线增益(提高系统增益)和采用宽带调频或扩频技术(提高解调增益)相结合的手段,来确保在低信噪比环境下依然能实现稳定可靠的数据传输。

  • 为什么 AM 信号的解调增益通常被认为表现平平?

在标准 AM 相干解调中,解调增益最大仅为 1。这是因为 AM 是线性调制,它没有利用额外的频率空间来换取噪声抑制。更糟糕的是,如果是包络检波,在大信噪比时增益接近 1,但在低信噪比时会产生门限效应,导致解调质量剧烈恶化。

  • 调频(FM)系统的解调增益与什么参数密切相关?

调频系统的解调增益与调制指数(或频偏比)的平方成正比。这意味着通过适度增大频率偏移(占用更多带宽),我们可以获得指数级增长的抗噪声能力,这正是 FM 广播能够提供“高保真”音质的数学基础。

1.3.6 简要介绍一下常见的模拟传输的产生和调制,以及抗噪能力对比(AM、DSB、SSB、VSB、FM、PM)

幅度调制家族(AM、DSB、SSB、VSB)的核心思想是让高频载波的幅度随基带信号的规律变化。
标准调幅(AM)通过在基带信号上叠加一个极大的直流分量后再与载波相乘,使得包络直接反映信号形状,从而允许极其廉价的包络检波器进行解调,但付出了极大的载波功率浪费。
为了提高功率效率,双边带抑波调制(DSB)去除了直流分量,直接将纯信号与载波相乘,虽然节省了发射功率,但必须使用复杂的相干解调。
进一步地,为了压榨宝贵的频谱资源,单边带调制(SSB)利用极其陡峭的带通滤波器或相移法,强行滤除掉 DSB 中冗余的一个边带,将物理带宽极限压缩了一半。
而残留边带调制(VSB)则是针对包含极低频分量的电视图像信号所做出的工程妥协,它允许残留一小部分无用边带,以换取滤波器设计的平缓与低频波形的完整。

角度调制(FM、PM)彻底抛弃了脆弱的幅度信息,转而将基带信号隐匿在载波的频率或相位变化中。
调频(FM)让载波的瞬时频率偏移与基带信号的幅度成绝对正比,通常通过压控振荡器(VCO)或者倍频器直接产生,或者利用阿姆斯特朗法进行间接相位积分调制。
而调相(PM)则是让载波的瞬时相位偏离量与信号幅度成线性关系。这两种调制方式在物理本质上是相通的,它们不再像调幅那样只是简单地平移频谱,而是通过极其复杂的贝塞尔函数展开,激发出无穷无尽的边带分量,从而以极其野蛮的方式极大地扩展了信号所占用的绝对物理带宽。
由于角度调制的包络是恒定的,所以不怕非线性失真,并且可以采用非相干解调。

更重要的是,宽带调频系统能够通过牺牲巨大的频谱带宽来换取指数级增长的输出信噪比(即宽带增益),这是模拟通信中“以带宽换取可靠性”的最巅峰工程杰作,尽管它在极低信噪比下依然无法逃脱门限效应的物理诅咒。

  • 为什么我们在模拟语音广播中常用 FM 而不用 PM?

虽然 FM 和 PM 极为相似,但在模拟语音信号中,能量大多集中在低频,高频分量极其微弱。
如果使用 PM,其产生的频偏与调制信号频率成正比,会导致低频部分的调制指数极小、抗噪能力极差。
而 FM 的频偏仅与信号幅度有关,因此在传输具有明显低频特征的自然语音时,FM 能够提供比 PM 更加均匀且优异的整体信噪比表现。

  • 既然 SSB 带宽最窄、效率最高,为什么早期的模拟电视图像信号要采用 VSB 而不是 SSB?

模拟电视的视频基带信号包含了极其丰富且至关重要的极低频甚至直流分量(决定了屏幕的背景绝对亮度)。如果要使用 SSB,由于物理世界中根本不存在具有绝对垂直截止特性的理想滤波器,强行滤波必然会严重切伤低频信号,导致图像发生极其严重的拖尾与畸变。VSB 通过一种极其精妙的互补滚降滤波器,允许残留部分边带,完美解决了低频信号无失真传输与频带压缩之间的工程死结。

1.3.7 门限效应是什么?可能出现在什么场景(具体的模拟、数字系统)?有什么解决方法?

门限效应是通信接收机在极端恶劣信噪比下发生的一种灾难性性能崩塌现象。
在正常物理环境下,接收机输出信号的质量通常会随着输入信号的减弱而呈线性缓慢下降;
但是,当输入信噪比(SNR)跌破某一个特定的临界值(即门限值)时,原本作为背景的杂乱高斯噪声会瞬间在幅度或相位上彻底压倒并“捕获”有用信号,导致接收机的输出信噪比发生断崖式的垂直暴跌,使得原本勉强维系的通信链路瞬间被彻底撕裂。

在模拟通信中,它最经典地爆发于常规调幅(AM)的包络检波器和宽带调频(FM)的非相干鉴频器中。
在数字通信系统中,虽然语境略有不同,但在使用包络检波的非相干频移键控(如 2FSK)中,或者在逼近香农极限的现代前向纠错编码(FEC)网络中,当信道质量跌破编码算法的纠错极限时,误码率(BER)曲线也会呈现出极其相似的、从完美无缺瞬间跌入深渊的“瀑布效应(Cliff Effect)”。

最彻底的物理根除方法是全面放弃非线性体制,改用需要复杂载波同步的“相干解调(同步检波)”,因为纯线性的乘法运算在数学上绝对免疫门限效应,哪怕信号被噪声彻底淹没也能实现线性的能量提取。
如果为了系统成本非要坚守 FM 等非线性体制,工程师则会采用极其精妙的门限扩展技术(Threshold Extension),例如引入锁相环(PLL)调频解调器或频率负反馈(FMFB)电路。
而在现代数字通信中,则是通过部署极其强悍的纠错编码并配合严格的链路预算管理,来确保接收端永远平稳地运行在致命的悬崖之上。

  • 为什么相干解调(同步检波)在数学上能够绝对免疫门限效应?

相干解调本质上是一种纯线性的频谱搬移操作。它仅仅是将接收到的信号和加性噪声与本地载波相乘,然后一起通过低通滤波器。在这个过程中,信号和噪声只是被按照同样的比例平移并滤除带外分量,绝不会发生非线性的交叉互调与包络混合,因此输出信噪比始终与输入信噪比保持严格的线性正比关系,不存在任何断崖式崩溃的可能。

  • 锁相环(PLL)是如何在 FM 接收机中实现“门限扩展”的?

传统的鉴频器面对的是整个中频带宽内汹涌的宽带噪声。而锁相环(PLL)极其聪明,它充当了一个中心频率能够实时跟随有用信号瞬时频率移动的“极窄带动态跟踪滤波器”。由于它的瞬时带宽极窄,绝大部分宽带噪声在进入鉴频器之前就被死死挡在了门外,从而在物理上强行降低了触发门限效应所需的最小输入信噪比。

  • 现代数字电视(如看高清直播)遇到信号差时直接卡死黑屏,这也是门限效应吗?

这是数字通信中极其典型的“瀑布效应(Cliff Effect)”,在宏观表现上与门限效应同理。现代数字电视采用了极其强悍的 LDPC 或 Turbo 等纠错码,当输入信噪比高于门限时,极其暴力的纠错算法能把所有误码瞬间抹平,画面完美无瑕;
但一旦物理信噪比跌破了编码定理规定的极限门限,纠错矩阵就会发生雪崩式的连环计算错误,导致解码器瞬间崩溃,画面便由极其清晰直接变为彻底黑屏或马赛克卡死,中间没有任何平滑过渡的余地。

1.3.8 为什么需要调制?

调制(Modulation)是指按调制信号(基带信号)的规律去改变载波(高频信号)的某个参数的过程。
之所以不能直接发送低频基带信号,主要有三个原因:
首先是天线尺寸的限制,电磁波的有效发射需要天线尺寸与波长 λ\lambda 匹配,低频信号波长过长,天线无法实现;
其次是多路复用的需要,通过将不同用户的信号搬移到不同的高频段,可以在同一信道中互不干扰地传输;
最后是改善抗噪声性能,某些调制方式(如宽带 FM)可以通过牺牲带宽来换取更高的信噪比。

1.3.9 模拟调制分别有什么?

幅度调制(线性调制):包括 AM(普通调幅)、DSB(双边带)、SSB(单边带)和 VSB(残留边带)。
其核心特征是已调信号的频谱是基带频谱的线性搬移,且包络通常与调制信号成线性关系。

角度调制(非线性调制):包括 FM(调频)和 PM(调相)。
其核心特征是载波的幅度保持不变,而将信息隐藏在频率或相位的变化中。由于频谱会产生无限多个新的分量,它被称为非线性调制。

1.3.10 模拟通信系统中,有什么解调方法?

解调是调制的逆过程,目的是从高频载波中还原出原始消息。
相干解调要求接收端提供一个与载波同频同相的本地相干载波,通过乘法器和低通滤波器还原信号,性能较好但电路复杂;
非相干解调(如包络检波)则不需要本地载波,直接通过二极管电路提取信号包络,电路简单但抗噪声性能较差,且存在“门限效应”。

1.3.11 当调制信号频率 fmf_m 提高时,FM 和 PM 的带宽如何变化?

对于 PM:βp\beta_p 不变,由于卡森公式 B=2(β+1)fmB = 2(\beta + 1)f_m,带宽随 fmf_m 的增加而线性增加。
对于 FM:当 fmf_m 提高时,βf\beta_f 会相应减小。
这使得 FM 的带宽随 fmf_m 增加的变化趋势比 PM 平缓得多。

这种特性决定了 FM 在抗信道衰落和频率偏移方面具有比 PM 更优越的稳定性。

1.3.12 如何理解解调增益与系统增益?

二者均描述了信号在经过解调器处理后,其信噪比(SNR)发生的质变过程。

解调增益(GG)定义为解调器输出端的信噪比 So/NoS_o/N_o 与输入端信噪比 Si/NiS_i/N_i 的比值,即 G=So/NoSi/NiG = \frac{S_o/N_o}{S_i/N_i}
它的物理意义非常直观:它衡量了解调器本身在抑制噪声、提取有用信号方面的“功力”。

系统增益更侧重于端到端的比较。它通常是将已调系统的输出信噪比,与基带直接传输(即不调制,直接发送 m(t)m(t))在相同功率、相同噪声背景下的信噪比进行对比。
这种对比方式回答了一个根本问题:我们费时费力搞的这套调制体制,究竟比“裸传”强多少?

二者的联系与区别主要体现在参考基准上。联系在于它们都反映了系统抗干扰的优劣。
区别在于:
解调增益 GG 是解调器前后的自我对比,关注的是解调算法的效率;
而系统增益是跨体制的横向对比,关注的是调制方式本身的优越性。

1.3.13 比较一下各类模拟通信系统(比较AM、DSB-SC、SSB、VSB、FM、PM,是否线性调制、传输带宽(有效性),系统增益(可靠性)、实现难以程度)

有效性(带宽)排序:BFM(或 BPM)>BDSB_SC(或 BAM)>BSSB(或 BVSB)B_{FM}(\text{或 } B_{PM}) > B_{DSB\_SC}(\text{或 } B_{AM}) > B_{SSB}(\text{或 } B_{VSB})

可靠性(抗噪)排序:在门限以上时,FM(或 PM)>DSB_SC(或 SSB,VSB)>AMFM(\text{或 } PM) > DSB\_SC(\text{或 } SSB, VSB) > AM

调制方式 线性与否 传输带宽 (有效性) 系统增益 GSYSG_{SYS} (可靠性) 实现难易程度
AM 线性 2B2B m2(t)1+m2(t)=ηAM\frac{\overline{m^2(t)}}{1+\overline{m^2(t)}} = \eta_{AM}(调制效率) 最简单
DSB-SC 线性 2B2B 11 复杂
SSB 线性 BB (最窄) 11 最复杂
VSB 线性 B\approx B 11 复杂
FM 非线性 2(βFM+1)B2(\beta_{FM}+1)B 1.5βFM21.5\beta_{FM}^2 (最高) 简单
PM 非线性 2(βPM+1)B2(\beta_{PM}+1)B 0.5βPM20.5\beta_{PM}^2

1.3.14 你知道什么复用技术?

复用技术存在的意义在于提高信道的利用率,通过特定的分割手段,使多路彼此独立的信号在同一物理信道中传输而互不干扰。

频分复用(FDM):频谱的切片
频分复用是将信道的总带宽划分为若干个互不重叠的频段,每路信号占用其中一个子频段进行传输。
为了防止相邻信道之间的相互干扰,各子频段之间通常需要预留保护频带。
FDM 广泛应用于模拟通信,其核心优势在于技术成熟,能够实现多路信号的同时传输。
例如模拟电话通过多级调制,将 12 个话路合并为一个基群;接着将 5 个基群合并为一个超群(包含 60 个话路);再将 10 个超群合并为一个主群(包含 600 个话路)。这种层级结构使得单根同轴电缆或微波链路能够支撑数千对用户同时通话。

时分复用(TDM):时间的轮转
时分复用则是将传输时间划分为互不重叠的时间片(时隙),每路信号在预定的时隙内独占整个信道带宽。
TDM 的因果逻辑源于信号的抽样理论,只要抽样频率足够快,我们就可以在两个抽样脉冲之间插入其他信号的抽样值。
它与数字通信天然兼容,是目前现代通信网络(如 PCM 系统)的基础。

码分复用(CDM):数学正交的魔法
码分复用(通常指 CDMA)既不分频率也不分时间,所有用户在同一时间、同一频率上发送信号。
它存在的物理依据是正交码序列。
每个用户被分配一个唯一的、彼此正交的地址码(码型),接收端通过相关的数学运算,能够从混合的乱码信号中精准地“滤”出属于自己的那一部分信息。
这种方式具有极强的抗干扰能力和保密性,曾是 3G 移动通信的核心。

1.4 数字基带传输通信系统

1.4.1 什么是数字基带系统?

数字基带系统是指不经过载波调制,直接在传输路径上传送数字信号电平的通信系统。
它通常由信息序列、基带脉冲成形波形、信道以及接收端的滤波器和判决器组成。
在这种系统中,二进制比特流(0 和 1)被映射为特定的电平形状(如矩形波、升余弦波),并直接在具有低通特性的有线信道(如双绞线、光纤或电路板走线)中传输。
它是所有复杂通信系统的底层核心,因为即使是无线带通系统,其本质也是将基带信号搬移到高频段。

数字基带系统的设计核心在于解决码间串扰(ISI)与噪声抑制的平衡。
由于信道带宽有限,发送出的尖锐脉冲在经过信道后会发生展宽,导致前后码元的波形相互重叠。
为了在判决时刻获得清晰的信号,我们需要遵循奈奎斯特第一准则,通过精细设计基带脉冲的形状(如采用升余弦滚动因子),使得在抽样点处除了当前码元外,其他码元的贡献恰好为零。
这种在时域上的精确“对齐”是数字基带系统实现可靠传输的数学基础。

数字基带系统广泛存在于短距离、高带宽的局域通信中。
例如,电脑内部 CPU 与内存之间的数据交换、以太网线中的电信号传输,以及 USB 接口的数据通信,本质上都是数字基带系统。
在这些场景中,由于传输距离较短或信道条件受控,我们不需要昂贵的射频调制解调器,而是通过线路编码(如曼彻斯特编码或 HDB3 码)来解决直流分量偏移和定时信息提取的问题,从而以极低的成本实现极高的数据吞吐率。

  • 既然基带信号可以直接传输,为什么无线通信还要进行调制?

无线通信需要通过天线发射电磁波,而天线的尺寸必须与信号波长相匹配。基带信号通常频率较低(波长极长),如果直接发射,需要公里量级的超大天线。
通过调制将其搬移到高频段,可以使用厘米级的便携天线,并实现多用户频分复用。

  • 为什么数字基带系统通常需要进行线路编码?

原始的 0/1 序列可能出现长串的连 0 或连 1,这会导致信号中出现直流分量(无法通过变压器耦合)且缺乏跳变沿,导致接收端无法提取位同步时钟。
线路编码通过引入特定的跳变规律,确保了信号的均值为零并富含时钟信息。

1.4.2 为什么要进行码型变换(NRZ、RZ、单极性、双极性、差分)?

码型变换的首要任务是适配传输介质。
原始的单极性非归零码(NRZ)包含大量的直流分量,而许多实际信道(如电缆中的变压器耦合电路)是不允许直流通过的。
通过将单极性码转换为双极性码,信号的正负电平在统计上可以相互抵消,从而实现均值为零的直流平衡。这不仅保护了电路设备,还避免了基带信号在传输过程中产生严重的电平基准漂移,确保了判决门限的稳定性。

此外,码型变换通过增加电平跳变来提供定时信息。
长串的连“0”或连“1”在 NRZ 码中表现为恒定的电平,这会导致接收端无法辨别码元的起始位置,进而造成位同步丢失。
归零码(RZ)通过在每个码元周期内强制回零,或者差分码通过电平的相对跳变来表示信息,确保了信号中蕴含丰富的“边沿特征”。这些特征像节拍器一样,让接收机能够实时锁定时钟频率,保证数据抽样的精确度。

而且,不同的码型决定了信号功率谱的分布形态。
NRZ 码带宽较窄,频谱效率高,但缺乏自同步能力;
RZ 码虽然占用带宽翻倍,却换取了极强的同步性能。
单极性码实现简单但抗噪能力弱,而双极性码在相同发射功率下具有更大的判决距离,从而显著提升了系统的抗加性噪声性能。
工程师根据信道的带宽限制、噪声水平以及硬件成本,在这些特性之间进行精确权衡,选择最能平衡有效性与可靠性的线路编码方案。

  • 为什么差分码(相对码)能解决相位模糊问题?

在相干解调中,载波同步可能会产生 180° 的相位倒置(“反相”现象)。如果使用绝对码,所有的 0 会变成 1,1 变成 0;而差分码只关注电平是否跳变,不依赖电平的绝对极性,因此能完美绕过相位模糊导致的误码。

  • HDB3 码这种复杂的码型变换解决了什么痛点?

HDB3 码在保持双极性(AMI 码)特性的基础上,强制打破了长连零的静默状态。它通过插入特定的取代脉冲,保证了即使在极端数据下也能提供充足的跳变沿,同时不引入直流分量,是 PDH 数字通信系统中的标准接口码型。

1.4.3 脉冲调制的目的是什么?

脉冲调制的首要目的是将连续的模拟信号转换为离散的脉冲序列,以便在数字信道或时分复用(TDM)系统中传输。
原始模拟信号在时间上是连续的,占据了整个通信链路的资源。通过脉冲调制(如 PAM),我们只在特定的离散瞬间对信号进行取样。这种处理方式使得不同的信号源可以利用脉冲之间的时间间隙进行交织传输,从而在不增加频率带宽的前提下,极大地提高了物理信道的利用率,实现了多路信号的并行通信。

脉冲调制(尤其是 PCM)是为了实现信号的彻底数字化与再生。
在传统的模拟传输中,噪声会随着传输距离的增加而不断累积,且无法与有用信号分离。通过将信号调制为二进制脉冲,我们改变了信息的携带方式:接收端不再关注波形的精细幅度,而只判断“有脉冲”或“无脉冲”。这种判定机制允许中继站在噪声淹没信号之前进行整形再生,彻底消除累积噪声,从而实现了远距离、高保真的信息传递。

脉冲调制为信息提供了灵活的处理平台。
一旦信号被调制成脉冲形式,它就可以被计算机轻松地进行压缩、存储和复杂的算法处理。通过脉冲调制,我们可以方便地引入纠错编码来提升链路的可靠性,或者利用数字加密技术确保通信的安全性。这种从“模拟波动”到“离散脉冲”的跨越,是现代移动通信、互联网以及各类智能设备能够高效运作的技术前提。

  • PAM、PWM 和 PPM 这三种基本脉冲调制有什么区别?

这三者分别改变脉冲的不同参数:PAM(脉冲幅度调制)改变脉冲的高度,PWM(脉冲宽度调制)改变脉冲的持续时间,而 PPM(脉冲位置调制)则改变脉冲相对于基准时刻的偏移量。
其中 PAM 是数字化的基础,而后两者在电机控制和光学通信中应用广泛。

  • 为什么说脉冲编码调制(PCM)比单纯的 PAM 更高级?

PAM 虽然在时间上离散,但其幅度依然是连续的(模拟的),抗噪声能力有限。
PCM 在 PAM 的基础上增加了量化和编码,将幅度也变成了离散的数字,从而使信号获得了数字通信特有的强抗干扰性和纠错能力。

  • 脉冲调制后的信号带宽会发生什么变化?

脉冲调制显著扩大了信号所需的带宽。
根据采样定理和脉冲波形的特性,脉冲越窄,其在频域占据的带宽就越宽。
这体现了通信中典型的“带宽换取可靠性”或“带宽换取时间复用能力”的折中思想。

1.4.4 脉冲幅度调制如何实现?

脉冲幅度调制(PAM)本质上是模拟信号与周期性脉冲序列的乘法运算。
在电路层面,这通常通过一个由时钟信号控制的电子开关(抽样门)来完成。当开关导通时,输出端直接跟踪模拟输入信号的瞬时电平;当开关断开时,输出端保持为零或维持前一时刻的电平。
这种操作在时域上将连续信号切割成了等间隔的离散脉冲,使得每一个脉冲的顶点幅度都严格正比于该时刻模拟信号的抽样值。

PAM 的实现过程可以看作是信号在时域的理想抽样或自然抽样。
根据卷积定理,信号在时域与冲激脉冲序列相乘,等效于其频谱在频域进行周期性的搬移与叠加。为了确保采样后的信号能够无失真地还原,必须遵循奈奎斯特采样定理,即采样频率必须大于信号最高频率的两倍。
在这个过程中,脉冲波形的形状(如矩形脉冲的宽度)决定了输出信号能量的集中程度,而抽样的精度则直接影响了后续量化和编码的质量。

  • 自然抽样和平顶抽样有什么区别?

自然抽样的脉冲顶部保留了原信号的变化曲线,而平顶抽样的脉冲顶部是水平的。
工程中多采用平顶抽样,因为它更易于数字化处理,但平顶抽样会引入孔径失真(频谱被一个 Sinc 函数加权),通常需要在接收端进行补偿。

  • PAM 信号可以直接进行无线远距离传输吗?

理论上可以,但实际效果极差。
因为 PAM 的信息承载在脉冲幅度上,而无线信道的衰落和噪声会直接改变脉冲的高度,导致极其严重的失真。因此,PAM 通常只作为中间处理步骤,或者在极短距离的有线系统中使用。

1.4.5 我们知道在数字基带传输中有普通接收系统(使用低通滤波器)和最佳接收系统(匹配滤波器)。在普通接收系统中,对于基带信号我们使用简单低通滤波+抽样判决,对于AM、ASK等幅度调制信号我们使用包络检波器;对于FM、FSK等频率调制信号用过零检测器。我们为什么要普通接收系统?普通接收系统在低信噪比下会出现什么问题?你能举一些实际系统中使用普通接收机的例子?在现在通信系统中,普通接收机还有存在的必要吗?

普通接收系统提供了一种极其高效且廉价的解决方案。与需要复杂载波恢复、精确时钟同步以及数字信号处理器(DSP)来计算相关性的最佳接收机(匹配滤波器)不同,普通接收系统依赖于最基础的模拟元器件,因此它的电路实现的门槛与系统的整体功耗都很低。
在在信号本身足够强烈的场景下,工程师宁愿牺牲几分贝的理论信噪比,也要换取这种结构上的极简主义,这使得通信设备的大规模廉价量产成为可能。

普通接收系统在低信噪比(SNR)环境下会面临灾难性的性能崩溃。因为包络检波和过零检测等操作本质上都是非线性处理,当环境噪声的功率逐渐逼近或超过有用信号时,会触发著名的门限效应(Threshold Effect)。
此外,简单的低通滤波器无法像匹配滤波器那样针对特定脉冲形状进行最优的能量收集,从而不可避免地引入严重的码间串扰(ISI)

但是,普通接收机曾经并依然统治着许多对成本和功耗极度敏感的领域。
最经典的例子莫过于传统的 AM/FM 广播收音机,数以亿计的廉价消费电子产品仅靠几个晶体管和包络/鉴频电路,就能从强发射塔的信号中还原出清晰的语音。
此外,像日常使用的红外遥控器、简单的 RFID 标签以及早期的无线门铃,均采用最基础的 ASK(幅移键控)配合包络检波来解码指令。在这些系统中,电池寿命和几毛钱的芯片成本是第一考量,而复杂的相干解调根本没有用武之地。

从现代通信架构的演进与物联网需求来看,普通接收系统在当今时代依然具有不可替代的必要性。
尽管 5G 手机和 Wi-Fi 路由器为了榨干频谱效率,必须使用复杂的匹配滤波、I/Q 解调和 OFDM 技术,但在海量物联网(IoT)与超低功耗边缘节点的竞争中,简单往往意味着胜利。
例如,在无线传感器网络的唤醒接收器(Wake-Up Receiver, WuRx)或近场通信(NFC)中,设备常年处于微瓦级的休眠监听状态。在这种严苛的功耗约束下,这种无需锁相环、无需高速 ADC 的普通非相干接收架构,成为了在物联网“电磁丛林”中生存的唯一法则。

  • 为什么匹配滤波器在理论上被称为“最佳”?

匹配滤波器的冲激响应是输入信号波形的镜像反转。
这种特定的数学结构能够在加性高斯白噪声(AWGN)背景下,最大限度地收集信号能量并压制带宽外的噪声,从而使得抽样判决那一瞬间的输出信噪比达到理论上的最大值,将系统的误码率降到物理极限。

  • 门限效应具体是如何破坏普通接收系统通信的?

门限效应通常发生在非相干解调过程中。
当输入信噪比低于某个特定阈值时,噪声的随机包络起伏会频繁地超过有用信号的包络。
此时检波器的输出不再是信号的线性反映,而是被高斯噪声主导,导致解调后的音频产生极其刺耳的“咔哒”声,或者在数字判决时产生不可逆转的大规模错码。

  • 既然匹配滤波器这么好,为什么以前的系统不普及使用它?

在纯模拟电路时代,要用硬件电容电感去制造一个冲激响应与特定脉冲波形“完美匹配”的滤波器不仅成本极高,而且极易受温度和器件老化影响。只有到了现代数字通信时代,匹配滤波器才被转化为数字基带处理器(DSP)中的一组 FIR 软件系数,从而以极低的边际成本在所有现代通信协议中得到了全面普及。

1.4.6 什么是码间串扰?解释一下奈奎斯特第一准则。

码间串扰(ISI)是由于信道带宽受限导致脉冲波形在时域上发生严重展宽,进而使得前后相邻码元在抽样判决时刻发生相互重叠与干扰的物理现象。
在理想的无限带宽信道中,发送的矩形脉冲能够完美保持其陡峭的边缘;但在现实中,无论是电缆还是无线频谱,都像是一个低通滤波器,它会切除信号的高频突变部分,导致到达接收端的脉冲变成了一个个拖着长长“尾巴”的平缓波形。

奈奎斯特第一准则指出,为了在抽样时刻完全消除码间串扰,基带系统的总冲激响应必须在所有非零的整数倍抽样点上精确为零,这在频域上严格等效于其折叠频谱必须是一个平坦的常数。
奈奎斯特并没有试图消除整个脉冲的拖尾,而是极其聪明地利用了抽样判决的离散性:只要保证在对当前码元进行抽样的那一瞬间,其他所有前后码元的拖尾刚好穿过零点(即幅度为零),那么串扰在判决时刻就不复存在。

要完美满足奈奎斯特第一准则,理论上需要使用具有矩形频谱的理想低通滤波器,它在时域对应一个无限延伸的辛格(Sinc)函数。
然而,这种系统在物理上是完全不可实现的,且对定时抖动极其敏感。因此,现代通信系统广泛采用了升余弦滚降滤波器。它通过引入一个滚降因子(α\alpha),稍微牺牲了一部分频谱效率(扩展了绝对带宽),却换取了时域尾部振荡的快速衰减。使得在实际过程中也能完美满足奈奎斯特的无码间串扰条件

  • 奈奎斯特速率是什么意思?

在理想低通信道(带宽为 WW)中,能实现无码间串扰的最大理论传输速率被称为奈奎斯特速率,其值为 2W2W 波特(Baud)。这意味着在没有 ISI 的前提下,每赫兹的物理带宽每秒最多只能传输两个独立的符号。

  • 眼图(Eye Diagram)和码间串扰有什么直观的联系?

眼图是工程师在示波器上直观评估码间串扰严重程度的最佳工具。眼图的“眼睛”张得越大、轮廓越清晰,说明码间串扰越小,判决的噪声裕量越高;如果信道带限严重导致长长的拖尾叠加,眼睛就会完全闭合,意味着严重的 ISI 已经导致系统无法提取出正确的 0 和 1。

  • 如果信道极其恶劣,连升余弦滤波器都无法消除 ISI 怎么办?

无线信道的多径效应导致响应极其恶劣且动态变化时,单纯依靠发送端的成形滤波已经无能为力。
此时必须在接收端引入自适应均衡器(Equalizer),或者直接在底层架构上放弃单载波,改用抗多径串扰的 OFDM(正交频分复用)技术,通过并行的低速子载波强行化解 ISI 危机。

1.4.7 为什么要用信道估计和信道均衡?为什么之前的匹配滤波器、奈奎斯特准则和升余弦滚降滤波器还是不够,还是需要信道估计和信道均衡?

在实际的无线通信或长距离有线传输中,信道本身就是一个极其复杂且动态变化的滤波器。
匹配滤波器和升余弦滚降等技术是建立在“理想信道”或“已知静态信道”假设之上的。奈奎斯特准则确实在数学上完美解决了无码间串扰(ISI)的问题,但它的前提是整个通信链路(发送侧+信道+接收侧)的等效冲激响应必须满足特定条件。
当信号经过高楼反射、移动车辆遮挡产生的多径衰落时,原本完美的升余弦波形会被信道任意扭曲、拉伸和叠加。此时,单纯依靠收发两端预设的静态滤波器根本无法抵御这种未知的、时变的信道畸变。

信道估计是接收机为了“看清”当前恶劣环境而必须进行的“探路”过程。
既然无线信道在不断变化,接收端就必须实时搞清楚此时此刻的无线电波到底经历了怎样的反射和相移。通过在发送的数据流中周期性地插入收发双方都已知的导频序列(Pilot)或训练序列,接收机可以将收到的畸变波形与本地已知的理想波形进行对比。这种对比的核心目的就是提取出信道的瞬时冲激响应(CIR)或频域响应(CFR)。

信道均衡是对抗严重码间串扰(ISI)的终极修复武器。
一旦信道估计模块给出了当前信道的“病历”,均衡器就会立刻根据这个信息构造出一个与信道特性完全相反的补偿滤波器(即信道的逆系统)。如果信道把某个频段的能量削弱了,均衡器就把它放大;如果信道因为多径效应把前一个码元的拖尾拉长了,均衡器就产生一个反向的波形去精确抵消它。
通过信道均衡,我们人为地将“恶劣信道+均衡器”的总响应重新强行拉回平坦状态,从而让信号在到达最终判决器时,能够再次满足奈奎斯特无串扰准则,真正实现复杂环境下的高可靠传输。

  • 信道均衡是在时域做还是频域做?

两者皆可。
在传统的单载波系统中(如早期电视或 2G 通信),均衡通常在时域通过抽头延迟线(如线性横向滤波器)完成;
而在现代的 OFDM 系统(如 4G/5G/Wi-Fi)中,由于引入了循环前缀,多径信道被转化为多个平坦的子信道,均衡可以直接在频域通过极其简单的单抽头复数除法(即频域均衡,FDE)高效实现。

  • 盲均衡(Blind Equalization)和普通均衡有什么区别?

普通均衡需要发送端浪费一部分带宽来传输已知的导频或训练序列供接收端计算。
而盲均衡技术不依赖任何已知的训练序列,完全凭借接收信号本身的统计特性(如恒包络特性或高阶累积量)来自适应地估算并消除信道畸变,从而最大限度地节省了宝贵的物理频谱资源。

  • 既然 OFDM 能把频率选择性信道变成平坦信道,OFDM 系统还需要均衡吗?

依然需要,但过程被大幅简化了。
OFDM 虽然消除了子载波间的码间串扰(ISI),但每个子载波经过信道后仍然会发生各自独立的幅度衰减和相位旋转。接收端必须通过信道估计得知每个子载波的具体衰落系数,然后通过频域均衡将畸变的星座图点重新“反向旋转并缩放”回标准位置,否则同样无法进行正确的数字判决。

1.4.8 能否介绍一下信道估计技术?

信道估计是接收机为了还原发送信号而必须进行的“环境建模”过程。
当电磁波穿过复杂的物理空间时,多径衰落、多普勒频移以及阴影效应会对信号的幅度和相位造成严重的随机扭曲。
如果把通信看作是解一个方程 Y=HX+NY = H \cdot X + N,其中 XX 是未知的发送数据,YY 是接收端收到的畸变波形,那么信道估计的核心任务就是通过数学手段精准求解出代表信道状态矩阵的 HH。只有搞清楚了环境对信号施加了怎样的“滤镜”(即信道冲激响应或频域响应),接收端才能在后续的均衡模块中把这个滤镜的效果“反向剥离”,从而恢复出原始的干净数据。

现代通信系统最依赖的是基于导频(Pilot)的辅助估计技术。
这就好比在运送一批贵重且未知的货物时,故意在其中夹带一些收发双方都事先约定好的“标准参照物”。接收机收到这些导频信号后,会将其与本地存储的完美版本进行对比,通过经典的最小二乘法(LS)或最小均方误差法(MMSE)推算出信道在这些特定时频位置上的畸变程度。
随后,系统利用插值算法(如线性插值或样条插值),将这些离散点上的信道状态平滑扩展到整个数据频段,从而绘制出一幅完整的信道衰落全景图,为高阶 QAM 等对幅相极其敏感的调制方式提供了解调基准。

传统的导频技术虽然稳定,但不可避免地会挤占宝贵的有效数据带宽。
为了打破这一瓶颈,学术界和工业界发展出了盲信道估计(Blind Estimation)与半盲信道估计技术。
盲估计彻底抛弃了浪费带宽的导频序列,转而直接利用接收信号的高阶统计特性(如恒包络特性或循环平稳性)来反推信道参数。虽然盲估计极大地提升了传输效率,但它面临着计算复杂度极高、收敛速度慢且存在相位模糊等致命缺陷。
因此,在目前的 5G 甚至未来的 6G 演进中,结合了少量导频与大量数据特征的半盲估计,以及基于深度学习的端到端信道预测网络,正在成为解决高速移动与海量天线(Massive MIMO)场景下信道获取难题的终极方向。

  • LS 和 MMSE 估计算法有什么本质区别?

LS(最小二乘)算法极其简单,它完全忽略了噪声的影响,直接用接收信号除以导频信号,但在低信噪比下误差极大。
MMSE(最小均方误差)算法则将信道的统计先验信息和噪声方差纳入计算,在牺牲一定计算复杂度的前提下,实现了各种噪声环境下的最优估计性能,是现代接收机的标配。

  • 在 OFDM 系统中,导频是怎么分布的?

主要有三种方式:
块状导频(Block)适用于频率选择性衰落但时间变化慢的慢衰落信道;
梳状导频(Comb)适用于快衰落但频率平坦的信道;
而散布式导频(Scattered,即钻石型分布)则是现代 4G/5G 中最常用的方案,它能够在时间和频率两个维度上同时高效地捕捉动态衰落特征。

  • Massive MIMO 系统对信道估计提出了什么新挑战?

天线数量激增导致需要估计的信道参数呈爆炸式增长,如果继续在下行链路使用传统导频,会产生严重的导频污染(Pilot Contamination)并耗尽带宽。
目前主要依靠 TDD(时分双工)模式下的信道互易性,仅通过基站接收上行导频来推导下行信道,从而巧妙避开了海量参数估计的计算灾难

1.4.9 在实际系统中,为什么大多采用非盲信道估计而非盲估计?LS和MMSE估计的主要区别是什么?什么时候用LS,什么时候用MMSE?导频插入方式(块状、梳状、离散)各有什么优缺点?信道估计和均衡是什么关系?

实际系统大多采用非盲信道估计(基于导频)而非盲估计。
盲估计虽然能够节省导频开销、提高物理频谱效率,但它需要收集海量的数据样本来统计信号的高阶特征,导致计算复杂度极高、收敛时间极长,且往往存在无法解决的绝对相位模糊问题。
相反,非盲估计通过插入收发双方已知的确知信号(导频),将复杂的非线性盲猜转化为了极其简单的线性代数求解。这种方式虽然牺牲了少量的物理带宽(通常占 5% 到 10%),但换取了极低的信号处理延迟和绝对可靠的相位基准,完美契合了现代数字通信系统对低延迟和低功耗硬件的严苛要求。

LS(最小二乘)与 MMSE(最小均方误差)估计的主要区别在于是否将环境噪声纳入数学考量。
LS 估计算法极其简单粗暴,它直接用接收到的信号除以已知导频来求取信道响应,完全无视了加性白噪声的存在,因此在低信噪比环境下误差会被严重放大,导致估计出的信道起伏剧烈。
而 MMSE 估计则巧妙地利用了信道的自相关矩阵和噪声方差,在均方误差最小的准则下对 LS 的结果进行了平滑过滤。
在实际工程选择上,当系统处于高信噪比环境或终端硬件 DSP 算力极其受限时,通常优先使用低延迟的 LS 估计;而当信道条件恶劣、噪声干扰严重,且设备具备足够算力时,则必须启用 MMSE 估计以逼近系统的理论性能极限。

导频的插入方式直接决定了系统应对复杂环境的能力。
块状导频(Block)在时间上周期性插入完整的导频符号,它在频域极其密集,非常适合频率选择性衰落严重但时间变化缓慢的室内慢衰落信道,缺点是对高速移动场景束手无策。
梳状导频(Comb)则在所有时间符号的特定子载波上连续发送,它在时域极其密集,专门用于对抗高铁等带来的多普勒快衰落,但无法精确描绘频域的深谷。
为了兼顾两者的优势,现代 4G/5G OFDM 系统广泛采用了离散状(散布式/钻石型)导频,它在时频二维网格中交错均匀散布,能够用最少的导频开销同时追踪时间与频率的二维动态衰落,是目前兼顾频谱效率与测向性能的最优解。

信道估计与信道均衡构成了密不可分的“诊断与治疗”关系。
信道估计是前置的“环境探测器”,它的唯一任务是算出当前无线电波到底经历了怎样的幅度衰减和相位旋转,最终输出一个精确的信道状态信息(CSI)矩阵。
然而,仅仅知道信道多糟糕并不能恢复数据。
信道均衡则是紧随其后的“手术刀”,它直接利用信道估计输出的 CSI 参数,构造出一个与信道畸变完全相反的逆系统滤波器。
通过将接收到的信号强制通过这个逆滤波器,均衡器在数学上强行抵消了多径效应带来的码间串扰,从而为最终的数字判决清洗出干净的星座图点。

  • 为什么高速移动场景下信道估计会变得极其困难?

高速移动会产生严重的多普勒频移,导致信道在极短的时间内发生剧烈变化(即时间选择性衰落变快)。此时,由于信道的相干时间变短,接收机必须极其频繁地插入导频才能实时“看清”环境的变化,这不仅导致导频开销急剧增加,还会严重挤占有效数据的传输带宽。

  • 插值算法在离散导频系统中扮演了什么核心角色?

离散导频只在特定的时频网格点上提供了信道的真实采样。
插值算法(如一维的线性插值或高阶的二维维纳滤波)就像是“连点成线”的画笔,它利用有限的已知导频点,通过数学推演估算出所有未发送导频的数据位置处的信道响应,这是恢复完整信道频率响应(CFR)全景图的必经环节。

  • MIMO 系统中的信道估计面临什么特殊的干扰问题?

天线数量的成倍增加导致需要估计的信道路径呈指数级爆炸。如果不同发射天线发送的导频序列之间不正交,就会在接收端产生严重的导频污染(干扰)。
因此,MIMO 系统必须设计极其复杂的正交导频序列(如利用时间、频率或码域正交),以确保接收机能够清晰区分出信号究竟来自哪一根物理天线。

1.4.10 为什么要做信道均衡?

做信道均衡的根本目的是为了消除极其致命的码间串扰(ISI)。
在真实的无线电或高速有线传输环境中,信号会经过高楼反射、山体折射或电缆的低通滤波效应,导致原本极其干净的独立脉冲在到达接收端时,被拉伸成了拖着长长尾巴的畸变波形。
当传输速率不断攀升时,这些延迟到达的多径信号会严重侵入并覆盖相邻码元的判决区间,使得接收机根本无法分辨当前时刻发送的究竟是“0”还是“1”。

信道均衡器本质上是在接收端人为构建一个与真实信道特性完全相反的“逆滤波器”。
既然自然信道像一个不受控制的滤镜,随机削弱了某些高频成分或扭曲了特定的相位,接收机就必须利用之前通过信道估计获取的“病理报告(信道状态信息)”,在数字域实时生成一副对症下药的解药。
通过让畸变信号穿过这个逆向补偿系统,均衡器在数学上强行把“恶劣信道+均衡器”的综合频率响应拉平,从而恢复信号原本的正交性与平坦度。

不做信道均衡,现代宽带通信系统将寸步难行。
在示波器上直观地看,严重的码间串扰会导致接收信号的“眼图”完全闭合,此时任何抽样判决都会产生海量的误码。
信道均衡的作用就是像一只无形的手,强行把闭合的眼图重新撑开,为后续的判决器清理出最大、最清晰的噪声裕量(判决空间)。
正是因为有了这项技术,我们的 4G/5G 网络和高速光纤才能在极其恶劣的物理环境中,依然维持着千兆级别的极限数据吞吐量。

  • 线性均衡器和非线性均衡器(如判决反馈均衡器 DFE)有什么本质区别?

线性均衡器就像一个普通的横向滤波器,它在放大高频信号以补偿信道衰减的同时,也会不可避免地放大高频背景噪声。
而非线性的判决反馈均衡器(DFE)极其巧妙,它将已经判决出的正确数字信号重新引入反馈回路,用来精确抵消它们对后续码元造成的拖尾干扰,这种做法完全不会放大信道噪声,是对抗严重多径衰落的工程利器。

  • 为什么在 OFDM 系统中,均衡变得非常简单?

在传统的单载波宽带系统中,均衡必须在时域使用极长抽头的复杂滤波器来对付 ISI。
而 OFDM 技术通过引入循环前缀(CP)和将宽带划分为多个窄带子载波,接收机只需要把每个子载波的接收值除以它对应的信道衰落系数,就能瞬间完成波形的复原。

  • 自适应均衡器(Adaptive Equalizer)是如何工作的?

自适应均衡器内部包含一套实时更新的权重系数算法(如 LMS 最小均方算法或 RLS 递归最小二乘算法)。
它能够根据信道的动态变化,通过计算本地期望信号与实际接收信号的误差,来自动调整滤波器的抽头系数。
这就使得即便你正坐在时速 300 公里的高铁上,手机里的均衡器也能死死咬住那飞速变化的无线电波,持续为你输出清晰的信号。

1.4.11 简要阐述眼图的产生过程、眼图的作用、眼图中衡量传输质量的指标。

眼图的生成机制就是极其暴力地将示波器的水平扫描周期强制锁定为与接收端码元定时时钟(位同步时钟)绝对相等的整数倍,从而将源源不断、拖着长长尾巴的畸变基带波形像折纸一样,一段一段地切开并无限重叠在同一个屏幕上。
由于这些不同组合的波形轨迹在屏幕上疯狂叠加后,其留下的视觉余辉恰好构成了一个形似人类眼睛的闭合图形,这就诞生了数字通信中最伟大的时域诊断工具——眼图。

在没有眼图之前,我们很难量化复杂的滤波器特性和恶劣信道对波形造成的综合破坏。
眼图的最核心作用是极其直观地展示出码间串扰(ISI)和加性白噪声对信号的物理侵蚀程度,并极其精准地指引接收机在“眼睛”张得最大、最清晰的那个黄金时刻按下抽样判决的快门。

在眼图中,“眼睛”张开的绝对垂直高度直接决定了系统在不发生误判的前提下,能够容忍的最极端加性噪声的判决裕量(抗噪能力)。
而水平张开的宽度则代表了系统对本地时钟相位偏移(定时抖动)的绝对容忍范围。
此外,眼皮轮廓的倾斜斜率无情地揭示了定时误差对信号幅度衰减的敏感程度:斜率越陡,说明稍微一点时钟偏移就会导致幅度雪崩;
而那些水平方向上极其散乱的过零点交汇区,则直接暴露了系统信道中存在着极其严重的多径时延或相位抖动。

  • 如果我们在示波器上看到一只“完全闭合”的眼图,这意味着什么物理灾难?

完全闭合的眼图意味着码间串扰(ISI)或高斯噪声已经极其严重地吞噬了所有的判决空间。
此时,波形的波峰和波谷已经彻底混杂在一起,接收机根本无法找到任何一个安全的抽样时刻来区分“0”和“1”,整个通信链路的误码率将直接飙升到无法挽回的极限,系统彻底瘫痪.

  • 眼图的“眼皮”线条变得极其粗糙和模糊,通常是哪种物理干扰造成的?

这是典型的加性高斯白噪声(AWGN)留下的物理痕迹。
码间串扰(ISI)通常只会让眼图内部的净空变小,但线条依然是清晰的;
而无处不在的高斯热噪声会像无数微小的锯齿一样,直接附着在每一根波形轨迹上,导致重叠后的线条变得极其毛糙、发虚,甚至完全糊成一团。

  • 在眼图中,最佳的抽样判决时刻具体应该选在什么位置?

毫无疑问,必须极其严苛地选在眼图中央“眼睛”张开度最大、垂直净空最高的那个物理纵轴上。
因为在这个瞬间,代表“1”的电平和代表“0”的电平之间的物理距离被拉得最远,系统拥有最宽广的护城河来抵御瞬间突发的电压噪声尖峰,从而实现误码率的绝对最小化。

1.4.12 什么是同步?为什么需要同步?

同步是指接收端在时间、频率或相位上与发送端保持步调一致的物理过程。
在复杂的电磁波传输中,发送端发出的载波振荡和脉冲节拍到达接收端时,往往已经经历了未知的延时和频移。
同步的核心任务就是让接收机的本地时钟、载波发生器以及数据成帧逻辑,精准地“咬合”住接收信号的节奏。
无论是高频的载波相位(载波同步)、基带的抽样时刻(符号同步/位同步),还是数据包的起始边界(帧同步),都需要通过专门的同步电路或算法来实现时间维度的绝对对齐。

在相干解调中,如果本地载波与接收信号存在微小的频率差或初始相位差,星座图上的判决点就会发生疯狂的旋转或严重的幅度衰减,导致原本正交的同相(I)和正交(Q)分量产生不可逆的串扰。
而在数字基带处理中,符号同步(位同步)决定了抽样判决的“黄金时刻”。如果抽样时钟发生偏移,接收机就会在脉冲的边缘甚至相邻脉冲的重叠处进行采样,这不仅会引入极大的码间串扰(ISI),还会使得之前精心设计的奈奎斯特滤波器和信道均衡器彻底失效。
帧同步(群同步)负责在漫无边际的比特流中寻找特定特征的“同步字”或“前导码”,从而准确划定一段有意义的数据包的起点和终点。如果帧同步失败,接收机就会将数据截断或错位,导致整个数据链路层校验崩溃,上层的音频、视频或文件传输将瞬间中断。因此,同步是搭建在混乱模拟物理世界之上,维持数字通信秩序的最基础、最不可或缺的生命线。

  • 载波同步、位同步和帧同步的先后顺序是怎样的?

在绝大多数接收机架构中,这三者有着严格的先后依赖关系。首先必须完成载波同步以剥离高频载波并恢复出基带信号;
接着在基带信号上进行位同步(符号同步),找到最佳抽样点以恢复出准确的 0 和 1 比特流;
最后在干净的比特流中寻找固定的同步字,完成帧同步以划分数据包。

  • 锁相环(PLL)在同步中扮演了什么角色?

锁相环是实现物理层同步的绝对核心电路。它通过鉴相器(比较相位差)、环路滤波器(平滑电压)和压控振荡器(VCO)的负反馈机制,能够极其敏锐地捕捉并自动追踪输入信号的频率和相位变化,确保本地载波或时钟与发送端严丝合缝地锁定在一起。

  • 异步传输(如 UART 串口通信)难道不需要同步吗?

异步传输同样需要同步,只是它的同步成本极低。它不发送全局的独立时钟信号,而是通过在每个极短的字符(通常是 8 个比特)前后强制添加起始位和停止位,让接收机在每个字符到达时进行极其短暂的“重新对齐”。
这种方式只适用于低速短距离通信,一旦速率提高,时钟漂移就会导致严重的采样错位。

1.4.13 二元PAM和多元PAM的关系?

二元 PAM 是多元 PAM 的基础。通常 MM 进制序列可以视为由二进制序列转换而来,转换时将每 KK 个比特映射为一个 MM 进制符号(即 M=2KM=2^K)。

2PAM 接收最简单,抗干扰能力强。相比之下,多元 PAM(如 256PAM)拥有极多电平,在功率受限的物理系统中,过多的电平意味着电平间距变小,极易受噪声干扰导致判决错误,对接收机的分辨率要求也更高。

发送同样长度的数据序列时,若采用相同宽度的脉冲,2PAM 需要更长的传输时间。若要求在相同时间内传完,2PAM 必须采用更窄的脉冲,而窄脉冲意味着信号占用的带宽更大。因此,多元 PAM 存在的意义在于通过牺牲可靠性来提高频带利用率。

1.4.14 描述数字基带系统传输数据的速率有两种方式,一个是符号速率,一个是比特率,两者有何联系?

它们都是用来描述系统的数据传输速率,只不过从不同的维度来衡量系统的传输能力。

符号速率是指单位时间内传输的码元(符号)个数,单位为 Baud(波特)。每一个码元代表了 MM 进制序列中的一个可能取值,它由特定的传输脉冲 gT(t)g_T(t) 承载。

比特率是指单位时间内传输的平均信息量,单位为 bit/s(比特每秒**)**。它反映了系统实际传递数据的快慢。

对于二元系统(2PAM):由于 M=2M=2log22=1\log_2 2 = 1,此时符号速率在数值上等于比特率
对于多元系统,由于每个符号代表多个比特(如 4PAM 对应 2 比特,256PAM 对应 8 比特),在传输相同比特率的数据时,多元系统的符号速率更低,频带利用率更高。

1.4.15 简要分析数字基带信号的一些常见码型的功率谱和带宽

下表针对矩形脉冲波形,对比了四种基本码型的核心物理特性:

码型名称 符号表示 是否含离散谱 第一零点带宽 BTB_T 特性与存在意义
单极性 NRZ {0,A}\{0, A\} 含直流分量 RbR_b 含有强烈的直流功率;判决门限与信号幅度有关,稳定性差。
双极性 NRZ {A,+A}\{-A, +A\} 无离散谱 RbR_b 均值为零,无直流分量;抗噪声性能好,但无法直接提取位同步时钟。
单极性 RZ {0,A}\{0, A\} 含直流及 f=Rbf=R_b 时钟分量 2Rb2R_b 可直接提取位同步时钟信号;但带宽比 NRZ 加倍,频谱效率较低。
双极性 RZ {A,+A}\{-A, +A\} 取决于对称性 2Rb2R_b 兼具无直流特性(对称时)和同步潜力,但带宽占用同样较大。

关键结论分析

  1. 带宽权衡:不归零(NRZ)码的脉冲宽度等于码元间隔 TbT_b,而归零(RZ)码的脉冲通常只占半个时隙(占空比 50%)。 根据时频对偶原理,时域脉冲窄了一半,频域的第一零点带宽就增加了一倍。
  2. 同步能力:单极性 RZ 码在频谱中会出现位于 RbR_b 处的离散线谱,这使得接收端可以直接通过窄带滤波器提取位同步时钟,而 NRZ 码通常需要经过非线性变换(如平方律处理)才能提取时钟。
  3. 功率谱与元数无关:需要注意的是,2PAM 与 MPAM 在采用相同脉冲形状时,其功率谱密度曲线的形状是完全一致的,区别仅在于多进制信号通过降低 RsR_s 来压缩了带宽的绝对值。

1.4.16 如何理解信道不理想会导致信号的脉冲展宽?

非理想信道特性 → 时域/频域扭曲 → 脉冲展宽 (Pulse Broadening) → 码间串扰 (ISI) → 误码率上升

幅频失真使得信道对不同频率成分的衰减程度不同(如带宽受限导致的低通特性),这就使得高频信息丢失,从而脉冲边缘变得圆滑,能量从中心向两侧“溢出”,导致波形在时域上变胖。

相频失真主要原因是高频分量和低频分量在信道中的传输时间不同,原本在发送端“齐头并进”的所有分量,到达接收端时因为到达时间不一,导致相位错位,脉冲能量在时间轴上被拉散(Dispersion),峰值降低,基座变宽。

1.4.17 什么是吉布斯现象?

对于包含第一类间断点(跳变点)的函数 f(t)f(t),其傅里叶级数的前 NN 项和 SN(t)S_N(t) 在跳变点附近表现出特殊的收敛特性。当 NN \to \infty 时,SN(t)S_N(t) 在任何非间断点都趋于 f(t)f(t),但在间断点 t0t_0 附近,收敛序列并不满足一致收敛。这意味着在间断点邻域内,误差的最大值并不会随 NN 的增大而趋于 0。增加谐波分量(增大带宽 NN)只能让振荡的频率变高、向跳变点“挤压”,但峰值幅度不会减小。只要频域存在“硬截断”,过冲就永远恒定在约 9%。

吉布斯现象本质上是理想低通滤波 (Ideal Low-pass Filter) 的必然副产物。
限制带宽等效于在频域将原始信号的无限频谱 X(f)X(f) 乘以一个矩形窗函数 H(f)=rect(f/2B)H(f) = \text{rect}(f/2B)。根据卷积定理,矩形窗对应的时域单位冲激响应是 h(t)=2Bsinc(2Bt)h(t) = 2B\text{sinc}(2Bt)。输出信号 y(t)=x(t)h(t)y(t) = x(t) * h(t)。当具有无限震荡拖尾的 sinc\text{sinc} 函数与信号的跳变沿进行卷积时,其侧瓣 (Side-lobes) 的能量会在跳变瞬间由于积分效应产生“累积”与“抵消”的波动,形成波形边缘的起伏振荡。

在工程上,升余弦滚降滤波器通过修改频域窗口边缘的形状,从数学层面解决了间断点带来的震荡。 通过 平滑截断,赋予高频分量一个缓和的衰减权值。这使得信号在时域合成时,各个频率分量能以更协调的方式相互抵消,从而在跳变沿实现平滑过渡。这种极快的衰减速率迅速“吸收”了卷积过程中产生的侧瓣能量,使得信号在跳变沿附近几乎不再产生过冲,从而彻底消除吉布斯现象带来的波形失真。

1.4.18 什么是部分响应系统?

在数字基带传输中,部分响应系统(Partial Response System) 是一种为了在有限带宽信道中达到理论极限传输速率(奈奎斯特速率),同时克服理想低通滤波器物理不可实现性而设计的方案。

理论上,带宽为 WW 的信道最高能以 2W2W 波特的速率进行无码间串扰(ISI)传输。但这要求系统频谱具有陡峭边缘的矩形特性(理想低通滤波器),其时域波形的拖尾衰减极慢(按 1/t1/|t| 衰减),导致系统对定时误差(抖动)极其敏感。为了使拖尾衰减加快,工程上常采用升余弦滚动降特性,但这必须以增加带宽(即降低频带利用率)为代价。

部分响应系统通过主动引入 ISI,它不再追求抽样点上绝对无串扰,而是通过编码在前后符号间有目的地引入相关的码间串扰。由于这种串扰是人为引入、规律可循的(确知的),因此可以在接收端通过解码将其消除。这种相关编码使得系统的总频响不再需要陡峭的边缘,而是呈现平滑衰减的特性,从而在物理上易于实现。

1.4.19 符号同步是什么?有何意义?

符号同步就是接收端产生一个与接收信号的码元频率完全相同、相位保持固定关系的本地定时脉冲序列(时钟信号)的过程。

该定时信号通常指向码元的中央(如 LPF 接收系统)或末端(如匹配滤波器接收系统),以确保在信号幅度最稳定、信噪比最高的时刻进行抽样判决。
如果没有准确的符号同步,抽样时刻会发生偏移(定时抖动),导致抽样值偏离信号峰值,从而增大误码率。

常见的符号同步方法有两种。
外同步法(辅助信息同步):发送端在发送数据序列的同时,额外发送专门的同步导频信号(如在信号频谱的零点处插入一个时钟分量)。实现简单但需要占用额外的信道带宽或发射功率,在窄带通信中不够经济。
自同步法(非辅助信息同步):开环自同步:利用非线性变换(如平方律、微分整流)从接收信号的功率谱中提取位于 f=Rsf=R_s 处的离散线谱,再通过窄带滤波器或锁相环获取时钟;闭环自同步(如早迟门同步):利用信号波形的对称性,通过反馈控制环路不断修正本地时钟的相位,使其锁定在“眼睛”张开最大的位置。

1.4.20 有什么常见的线路码型?

常见基本线路码型分析

根据教材提供的波形与规则,以下是几种主流线路码型的特性总结:

码型名称 编码规则简述 主要特点 应用场景
双极性 NRZ “1”和“0”分别对应正负电平。 无直流分量,抗噪性能好。 基础基带传输
AMI 码(交替信号反转码) “0”电平保持不变,“1”交替表现为正负电平。 无直流分量,且具备检错能力;但怕长连“0”。 北美电话系统接口
数字双相码 (曼彻斯特码) 用电平跳变方向表示符号(如 10 为 1,01 为 0)。 自同步能力极强,每个码元中心均有跳变;但带宽加倍 10Mbps 以太网
CMI 码(信号反转码) “1”交替为11与00,“0”固定为“01”跳变脉冲。 规律清楚,易于检错,无直流成分。 ITU-T 接口标准
Miller 码 (密勒码) 由双相码演变而来,跳变规则更复杂。 能够克服双相码的定时相位不确定性。 磁带记录系统

进阶码型:HDB3 码

HDB3 码(三阶高密度双极性码)是 AMI 码最重要的改进型:

  • 解决痛点:它保持了 AMI 码无直流、易检错的优点,同时解决了 AMI 码在遇到长连“0”时无法提供定时时钟的问题。
  • 核心原理:当出现 4 个及以上连“0”时,将第四个“0”替换为特殊的“破坏码元” VV,并根据规则插入调节码元 BB,以确保 VV 与前一个非零电平同极性,且相邻 VV 码极性交替。
  • 地位:它是 ITU-T 推荐使用的码型之一,广泛用于现代数字通信干线。

1.4.21 在选择或设计码型时,通常需要综合平衡哪些核心因素?

功率谱形状:是否包含直流分量影响信号能否通过交流耦合电路传输。

传输带宽:带宽应尽量小,以提高频带利用率。

定时信息:码型中应包含足够的定时信息,以便接收端建立同步时钟,防止长连“0”或长连“1”导致同步丢失。

检错能力:部分码型自身具备规律性特征,能够在不增加额外开销的情况下进行初步检错。

抗噪性能:不同波形的抗噪能力不同,例如双极性信号通常优于单极性信号。

1.5 基本数字频带传输系统

1.5.1 对比2ASK、2FSK、2PSK、QPSK、2DPSK(分别从发展历史、基本原理、基本公式、相干解调下误比特率公式、非相干解调下误比特率公式、误比特率之间的差距、带宽大小、理论最小带宽、最高频带利用率)

1️⃣ 发展历史、基本原理、基本公式

调制方式 发展历史 基本原理 信号公式
2ASK/BASK 早期有线和低速无线通信 通过幅度变化表示 0/1 sASK(t)=Acm(t)cos(2πfct)s_{ASK}(t) = A_c m(t) \cos(2\pi f_c t)
2FSK/BFSK 抗噪声要求高的远程通信 通过不同频率表示 0/1 sFSK(t)=Accos(2πf0/1t)s_{FSK}(t) = A_c \cos(2\pi f_{0/1} t)
2PSK/BPSK 高可靠性无线、有线通信 通过相位变化表示 0/1 sBPSK(t)=Accos(2πfct+πm(t))s_{BPSK}(t) = A_c \cos(2\pi f_c t + \pi m(t))
QPSK 提高频谱效率,卫星和移动通信 每符号承载 2 个比特 sQPSK(t)=I(t)cos(2πfct)+Q(t)sin(2πfct)s_{QPSK}(t) = I(t)\cos(2\pi f_c t) + Q(t)\sin(2\pi f_c t)
2DPSK/DQPSK 移动通信,降低载波同步难度 通过符号间相位差表示信息 sDQPSK(t)=Accos(2πfct+πdk)s_{DQPSK}(t) = A_c \cos(2\pi f_c t + \pi \sum d_k)

2️⃣ 相干/非相干解调误比特率对比

调制方式 相干解调 PbP_b 非相干解调 PbP_b 误码性能排序
2ASK/BASK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等
2FSK/BFSK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等偏好相干
2PSK/BPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优
QPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优(每比特性能与BPSK相同)
2DPSK/DQPSK Pb2Q(2EbN0)P_b \approx 2 Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) Pb=12exp(EbN0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{N_0}\Big) 相对QPSK在相干上约1 dB损失

总结误码率排序(高到低)

QPSK/BPSK(相干)>相干FSK/ASK(约3 dB损失)>非相干FSK/ASK(约3 dB再损失)\text{QPSK/BPSK(相干)} > \text{相干FSK/ASK(约3 dB损失)} > \text{非相干FSK/ASK(约3 dB再损失)}

QPSK/BPSK(相干)>DPSK/DQPSK(差分检测,约1 dB损失)\text{QPSK/BPSK(相干)} > \text{DPSK/DQPSK(差分检测,约1 dB损失)}

  • PSK与QPSK是几种方式中性能最优秀、复杂度最高的,适用于要求高的应用,尤其是QPSK,其占用的频带是最少的。

  • DPSK与DQPSK当信道质量较好时,差分检测的性能接近最佳(差别小于1dB)。这种方式接收较为简单,且没有“不确定性反相”问题,因而非常实用。

  • FSK是一种性能一般的传输方式,当信道质量较好时(EbN0\frac{E_b}{N_0}高),FSK的非相干接收性能接近最佳(差别小于1dB)。因而,非相干接收方法更为实用。其实,FSK占用频带多,其重要特点是在AWGN以外的更恶劣信道上,例如在衰落或有干扰的信道上,FSK比其他几种传输方式更为“顽强”。(信号信息存储在频率上,相对于幅度或相位更不易被衰落或幅度/相位干扰破坏)

  • 最后,非相干ASK主要适用于信道质量好,要求传输设备尽量简单的应用。


3️⃣ 带宽、最小带宽、频谱效率对比

调制方式 典型带宽 理论最小带宽 最高频率利用率 说明
2ASK/BASK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 非相干解调简单,频谱效率低
2FSK/BFSK B2/Tb+ΔfB \approx 2/T_b + \Delta f 1/Tb1/T_b 2/3 bit/s/Hz 占用带宽大,但抗噪声好
2PSK/BPSK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 相干解调,误码性能最佳
QPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s 2 bit/s/Hz 每符号 2 bit,提高频谱效率
2DPSK/DQPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s ~1.8–2 bit/s/Hz 差分检测牺牲少量误码性能,但实现更简单

核心记忆点

  1. 误码性能:QPSK/BPSK > 相干FSK/ASK > 非相干FSK/ASK > DPSK/DQPSK
  2. 频谱效率:QPSK ≈ DQPSK > BPSK/FSK > ASK
  3. 实现复杂度:非相干ASK/FSK < DPSK/DQPSK < BPSK/QPSK
  4. 选择原则
    • 低速或成本敏感 → ASK/FSK(非相干)
    • 高可靠高速 → BPSK/QPSK(相干)
    • 移动或载波漂移 → DPSK/DQPSK(差分解调)

1.5.2 简要介绍一下MASK、MFSK、MPSK、QAM。(Tips:相关历史及发明目的、公式及原理、信号功率谱和带宽、误码性能比较)

1️⃣ 发展历史与发明目的

调制方式 历史与目的
M-ASK 基于2ASK扩展到多电平,最早用于低速有线数字通信,提高比特率
M-FSK 基于2FSK扩展到多频,早期用于无线远程通信,提高频谱利用率与抗干扰能力
M-PSK 由BPSK/QPSK扩展而来,用于高频谱效率场合,每符号承载多比特
QAM 将幅度调制与相位调制结合,每符号承载更多比特,高频谱效率;广泛用于有线、光纤、无线高速通信

2️⃣ 信号公式与基本原理

调制方式 信号公式 原理说明
M-ASK sMASK(t)=Aicos(2πfct)s_{MASK}(t) = A_i \cos(2\pi f_c t)i=1,2,...,Mi = 1,2,...,M 不同幅度表示不同符号,每个符号携带 log2M\log_2 M 比特
M-FSK sMFSK(t)=Accos(2πfit)s_{MFSK}(t) = A_c \cos(2\pi f_i t)i=1,2,...,Mi = 1,2,...,M 不同载波频率表示不同符号,每符号 log2M\log_2 M 比特;频率间隔需保证可分辨
M-PSK sMPSK(t)=Accos(2πfct+2πi/M)s_{MPSK}(t) = A_c \cos(2\pi f_c t + 2\pi i/M)i=0,1,...,M1i = 0,1,...,M-1 每个符号对应 MM 个离散相位,符号承载 log2M\log_2 M 比特
QAM sQAM(t)=Iicos(2πfct)+Qisin(2πfct)s_{QAM}(t) = I_i \cos(2\pi f_c t) + Q_i \sin(2\pi f_c t)(Ii,Qi)(I_i,Q_i) 为星座点 将幅度与相位组合形成星座,每个符号承载 log2M\log_2 M 比特;可实现高频谱效率

3️⃣ 功率谱与带宽

调制方式 功率谱/带宽特征 最小带宽估算 最小带宽估算
M-ASK 基本与2ASK类似,幅度级数增加会使信号幅度分布复杂 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx1/T_s
M-FSK 每个频率间隔需分开,带宽随 MM 增加线性增长 B2/Ts+(M1)ΔfB \approx 2/T_s+(M-1)\Delta f Bmin(M+1)/2TsB_{min} \approx (M+1)/2T_sBmin(M+1)/2TsB_{min} \approx (M+1)/2T_s
M-PSK 带宽与符号率相关,与M值增加关系不大 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s
QAM 类似M-PSK,但幅度变化导致功率谱更分散 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s

4️⃣ 误码性能比较

  • 在QAM、MPSK与MASK三种方式之间,QAM的误码性能最好,MPSK次之,MASK最差。并且随着M的增加,这种差距会更大。所以在实际应用中,当M较高时,应该首先选择QAM;当M中等时(8或16),也经常见到MPSK,因为可以利用到其恒包络的优点;只有在少数特殊情况中才会使用MASK,它简单直观,能在理论分析中具有一定的研究意义
  • QAM、MPSK、MASK的误码性能随着M的增加逐渐下降,这是它们获得更高频带利用率的代价;于此恰好相反,MFSK的误码性能随着M的增加而逐渐上升,这是它牺牲频带利用率的结果。其实,它们是具有不同特性的两类方式
  • 通信系统的信道带宽、噪声程度与信号功率是三个最基本的因素。在频带资源受限、信号功率充分的情况下,可以尽量运用QAM与MPSK,借助它们实现高的频带利用率,并通过加大发送功率保障误码性能;在频带资源丰富、信号功率受限的情况下,可以尽量运用MFSK,通过充分利用带宽实现可靠通信。
  • 工程应用中必须平衡考虑各种因素,包括恒包络特性,实现复杂度,经济成本与开发时间等等。例如,常常希望信号包络平稳以便利用非线性功放的效率,这时FSK,PSK, OQPSK,/4DQPSK是不错的方案,尤其是具有连续相位的CPFSK,CPM,甚至经高斯预滤波的GFSK与GMSK,如第8章所述。有时还希望使用非相干解调以降低接收机难度,那么,FSK,DPSK,DQPSK,/4DQPSK,以及第8章讨论的MSK与GMSK等方案可选。

理解要点

  • 误码性能:QAM > MPSK > MASK,M越大差距越大;MFSK特殊,M越大误码率越低。
  • 带宽与功率选择
    • 频带紧、功率充足 → QAM、MPSK(高频谱利用率)
    • 频带宽、功率受限 → MFSK(可靠通信)
  • 恒包络信号(MPSK、FSK、OQPSK、π/4-DQPSK) → 可用非线性功放,高效抗非线性失真
  • 非恒包络信号(QAM、MASK) → 需要线性功放,幅度敏感
  • 接收机选择:相干解调性能好但复杂,非相干解调简单实用

1.5.3 恒包络信号有何优点?

允许使用非线性功放:因为幅度恒定,信号通过非线性放大器(如功率放大器)不会产生严重失真。

抗非线性失真能力强:恒包络信号不依赖幅度信息,只靠相位或频率传输比特,经过非线性信道也能正确解调。

对信号衰落或幅度干扰更鲁棒:在衰落、干扰或多径信道下,幅度可能剧烈变化,但恒包络信号只关心相位/频率,误码率受影响较小。

简化接收机设计:恒包络信号可使用相干或非相干相位/频率检测,无需严格幅度恢复或 AGC(自动增益控制)调整。

1.5.4 简要说一说复包络在数字频带传输中的作用、等效基带系统的研究意义。

复包络的作用是将高频数字频带信号用一个低频复信号表示,把信号的幅度和相位信息都包含在低频基带中,从而可以在低频上进行分析和处理,而无需直接操作高频载波。这不仅简化了数学分析,也方便工程仿真和信号处理,例如滤波、调制和解调等操作都可以在基带完成。

等效基带系统的意义在于,它将复杂的数字频带传输系统等效为低频基带系统,通过基带模型可以直观计算功率谱、带宽和误码率,同时可以统一分析ASK、PSK、QAM等不同调制方式的性能。在工程上,这种方法可以简化设计流程、降低计算复杂度,并为优化滤波、解调和系统性能提供方便。

1.6 模拟系统数字化和PCM

1.6.1 为什么要先信源编码再信道编码,顺序能交换吗?

信源编码的核心目的是“挤水分”,即通过去除原始数据中的统计冗余来实现最大程度的压缩。无论是将庞大的视频压缩成 H.264 还是音频压缩成 MP3,信源编码都在极力让输出的比特流变得毫无规律、接近纯粹的随机状态(熵最大化)。
信道编码的核心目的是“加钢筋”,即在压缩后的纯净数据中人为地、有规律地添加冗余校验位。它通过引入这种可控的数学相关性(如卷积码、LDPC 码),让接收端能够在恶劣的噪声信道中发现并纠正错误。这“一减一加”的物理过程,决定了它们在通信架构中不可动摇的先后位置。

这两个过程的顺序绝对不能交换。
如果先进行信道编码(添加了抗干扰的规律性校验位),然后再送入信源编码器,那么信源编码器会极其敏锐地发现这些由信道编码引入的“规律与冗余”,并毫不留情地将它们当作无用数据全部压缩或剔除掉。
因此,必须先由信源编码提纯出最核心的信息骨架,再由信道编码为这个骨架穿上量身定制的防弹衣。

  • 什么是信源编码中的“熵”?

熵是信息论中衡量信息不确定度或平均信息量的数学尺度。信源编码的终极极限就是将数据的平均比特数压缩到逼近其信源的熵值。此时的数据去除了所有可预测的冗余,每一位都承载着实打实的纯粹信息。

  • 信道编码增加冗余,这难道不是降低了通信效率吗?

在表面上它确实牺牲了一部分有效的传输带宽(即编码效率总是小于 1)。但在恶劣的无线信道中,如果没有这部分抗干扰冗余,误码率会高到让所有收到的数据全部作废。
因此,信道编码本质上是用确定的带宽代价换取了恶劣环境下通信的绝对可靠性。

  • 有没有把信源和信道编码结合在一起的技术?

有,这被称为联合信源信道编码(JSCC)。
在极度受限的无线视频传输或特定的时变信道中,由于香农分离定理要求的“无限长延迟”假设无法满足,系统会打破模块壁垒,让压缩器和纠错器共享信道状态信息,在压缩率和纠错能力之间进行自适应的动态折中调配。

1.6.2 在无线通信中,如何克服多径衰落?

分集技术是对抗多径衰落最经典且有效的物理层手段。
既然单根天线接收到的多径信号可能会因为相位相反而在某处相互抵消(产生深衰落),我们就在空间上部署多根相距一定距离的接收天线,或者在不同的频率、时间片上发送相同的信号。
由于多条路径同时陷入深衰落的概率极低,接收机只需将这些承载着相同信息的独立衰落支路信号,通过最大比合并(MRC)等算法进行相加,就能极大提升接收端的信噪比,将衰落的“劣势”转化为多路备份的“优势”。

信道均衡和 RAKE 接收机是处理多径时延扩展的终极武器。
当多径传播导致相邻码元发生严重的码间串扰(ISI)时,信道均衡器通过在接收端构造一个与实际信道特性完全相反的逆滤波器,强行将展宽的脉冲重新压缩,抵消多径带来的时域重叠。
而在扩频通信中,RAKE 接收机则像一把“耙子”,利用多个相关器分别捕捉不同延迟到达的多径分量,在对齐它们的相位后进行建设性叠加,硬生生地把原本干扰视线的多径变成了增强信号能量的有用资源。

正交频分复用(OFDM)技术彻底改变了宽带通信对抗多径的规则。
传统的单载波系统在面对严重的频率选择性衰落时,均衡器的复杂度会呈指数级爆炸。
OFDM 极其巧妙地将一个宽带信道切割成了成百上千个相互正交的窄带子信道,使得原本复杂的多径畸变在每个子载波上退化成了极其简单的平坦衰落。
配合循环前缀(CP)的引入,OFDM 直接在物理层面上吸收了多径延迟的能量,不仅彻底消除了码间串扰,还让频域上的单抽头均衡变得轻而易举,成为了现代 4G/5G 和 Wi-Fi 网络的绝对基石。

  • 为什么天线分集要求天线之间必须保持一定的距离?

因为只有当空间距离大于半个波长时,两根天线经历的无线电波多径衰落才具有统计上的独立性。
如果靠得太近,它们会同时陷入同一个深衰落坑中,分集合并就失去了备份抗风险的物理意义。

  • 循环前缀(CP)是如何在 OFDM 中消除多径干扰的?

循环前缀是将 OFDM 符号尾部的一小段波形无缝复制并添加到符号头部。
只要多径传播的最大时延扩展不超过 CP 的长度,前一个符号的拖尾就只会在当前符号的 CP 区域内震荡衰减,而绝不会侵入到当前符号的有效积分数据区,从而完美隔离了符号间的串扰。

  • 宏分集和微分集有什么核心不同?

宏分集主要用于克服大尺度衰落(如大型建筑物遮挡造成的阴影效应),通常表现为终端同时与多个不同地理位置的基站建立链路;
而微分集主要克服小尺度衰落(即电磁波干涉引起的多径衰落),通常依靠单台设备上的多根物理天线阵列来实现信号的拾取与组合。

1.6.3 现代通信系统的演进(从1G到5G、关键技术演变)?

模拟语音到数字通信的跨越来看,1G 到 2G 的演进是通信史上最彻底的范式转变。
1G 采用频分多址(FDMA)技术,仅能提供极易被窃听且容量低下的模拟语音服务。
2G 引入了时分多址(TDMA)和码分多址(CDMA)技术,通过将语音信号数字化并进行信道编码,不仅极大地提升了频谱利用率和保密性,还首次让用户体验到了短信等基础数据业务,正式开启了移动通信的数字化纪元。

移动互联网的爆发与底层架构的重构来看,3G 到 4G 的演进标志着网络核心从“语音主导”向“数据主导”的全面让位。3G 时代以宽带 CDMA 技术为核心,勉强推开了移动多媒体的大门;
而 4G 则是一场彻底的物理层革命。4G 果断抛弃了复杂的扩频通信,全面拥抱正交频分复用(OFDM)与多天线(MIMO)技术,建立起全 IP 化的网络架构,用前所未有的频谱效率彻底解决了多径衰落带来的高速传输瓶颈,使得高清视频流媒体和移动支付成为了全社会的数字基础设施。

万物互联与垂直行业的深度赋能来看,5G 的诞生不仅是为了让手机上网更快,更是为了重塑整个物理世界的运行规则。
5G 引入了毫米波频段、大规模天线阵列(Massive MIMO)以及极化码(Polar Code)等尖端技术。通过**定义增强型移动宽带(eMBB)、超可靠低延迟通信(URLLC)和海量机器类通信(mMTC)**三大核心场景,5G 突破了个人通信的边界,以毫秒级的极致延迟和每平方公里百万级的海量连接能力,真正实现了从消费级互联网向工业级自动化网络的降维打击。

  • 频分多址、时分多址和码分多址的核心物理区别是什么?

它们分别对应着切分通信资源的不同维度。
FDMA 是将总带宽切成不同的频率薄片分给用户;
TDMA 是在同一频率上按极其微小的时间切片交替排队进行传输;
CDMA 则是让所有用户同时在同一大频段上通信,但给每个人分配了相互正交的独立数学密码(扩频码),接收机依靠密码的唯一性来滤除其他人的干扰。

  • 为什么 4G 时代放弃了曾经如日中天的 CDMA 技术?

数据速率需求飙升到几十兆甚至上百兆时,宽带信号的码间串扰(ISI)会变得极其严重。
CDMA 在处理这种超宽带的高速信号时,其接收端的 RAKE 接收机和信道均衡器复杂度会呈指数级爆炸,彻底击穿了终端芯片的算力与功耗极限。
而 OFDM 通过将宽带切分为大量低速的窄带子载波,极其巧妙地在频域绕开了这个算力黑洞。

  • 5G 中的网络切片(Network Slicing)技术有什么颠覆性意义?

网络切片允许运营商在同一套物理硬件基站和光纤核心网上,通过软件虚拟化技术,切割出多个逻辑上完全隔离的专属定制网络。
这意味着远程医疗设备可以独占一个确保极低延迟和超高可靠性的切片,而海量共享单车则可以使用另一个低带宽、大连接的切片,彻底实现了物理资源在不同工业需求间的完美按需分配。

1.6.4 在数字频带传输中,为什么要进行成形滤波?

成形滤波器将原始脉冲的无穷宽频谱强行裁剪并压缩到系统被严格分配的有限带宽之内,从而实现频谱资源的高效利用与合规发射。
数字基带信号(如原始的矩形脉冲)在频域上表现为无限延伸的辛格(Sinc)函数。如果将这种含有极宽频带旁瓣的能量直接调制到载波上发射,它会毫无阻挡地溢出到相邻的通信频段中,对其他用户的正常通信造成毁灭性的相邻信道干扰(ACI)。成形滤波器的首要任务就是像一把极其精准的“频域剪刀”,将无限剪切并压缩为有限。

通过让成形滤波器的冲激响应满足奈奎斯特无串扰准则,我们可以人为地控制脉冲拖尾的过零点位置,确保在接收端抽样判决的那一瞬间,所有前后相邻码元的干扰总和精确为零,完美化解了高速率传输下的自身干扰危机。
因为真实的物理信道本身就像一个低通滤波器,会不可避免地导致脉冲展宽和拖尾,那么我们干脆在发送端就主动把尖锐的脉冲“打磨”成具有特定衰减规律的圆滑波形(如升余弦波形)。

从,现代数字频带传输系统极其巧妙地将整个滤波过程“一分为二”。工程师通常将一个完整的升余弦滤波器拆解为两个平方根升余弦滤波器(RRC),分别放置在发射端(作为成形滤波器限制带外辐射)和接收端(作为匹配滤波器压制带外噪声)。
这种对称的物理架构不仅在发送侧平滑了相位突变以减轻功率放大器的非线性失真,同时在接收侧构成了针对该发送波形的最优噪声过滤屏障。当信号依次穿过这两个滤波器后,系统便在理论上同时达成了信噪比最大化与零码间串扰的巅峰境界。

  • 为什么发送端通常使用根升余弦(RRC)滤波器而不是直接用升余弦(RC)滤波器?

如果发送端直接用 RC 滤波器,虽然满足了无码间串扰条件,但接收端为了压制噪声必须再加一个匹配滤波器,这两者级联后的总响应就不再满足奈奎斯特准则了。
将 RC 拆分成两个 RRC 分别放在收发两端,既保证了接收端的最佳信噪比匹配,又保证了总体级联响应严格等效于一个 RC 滤波器,从而同时实现了抗噪与抗串扰。

  • 如果不进行成形滤波,对射频功率放大器(PA)有什么致命影响?

未成形的矩形脉冲在进行 PSK 或 QAM 调制时,会产生极其剧烈的相位和幅度突变。
当这种信号进入非线性的射频功率放大器时,会导致严重的频谱再生(Spectral Regrowth)现象,原本微弱的高频旁瓣会瞬间反弹并重新长出,不仅彻底抵消了基带处理的努力,还会导致发射机因为频谱严重超标而无法通过法规认证。

  • 成形滤波器中的滚降因子(Roll-off factor)如何决定系统的命运?

降因子 α\alpha 是带宽与抗抖动能力之间的“休战协议”。
较小的 α\alpha 极其节省物理频带,但会导致时域拖尾极长且震荡剧烈,对接收机的定时同步误差极其敏感;
较大的 α\alpha 虽然占用了更多的多余带宽,但时域尾部迅速衰减,极大地降低了系统对时钟抖动的苛刻要求。

1.6.5 什么是载波同步?为什么需要载波同步?

载波同步(也称载波恢复)是指在接收端本地产生一个与输入接收信号的射频载波在频率和相位上都极其严格同频同相的本地振荡波形的过程。

载波同步是防止信号能量在解调过程中发生灾难性衰减的生死防线。在经典的相干解调数学模型中,接收信号需要与本地载波相乘并经过低通滤波器。
如果本地载波与接收载波存在哪怕极其微小的频率偏差,解调出的基带信号就会发生持续的周期性起伏与翻转;而如果存在固定的相位差,有用信号的幅度就会不可逆地乘以该相位差的余弦值。

从现代高阶调制(如 QAM)的正交性维系来看,载波同步是防止不同信息通道发生致命串扰的最后壁垒。
现代通信系统为了极大地榨干频谱资源,广泛采用将两路完全独立的信息分别挂载在同相(I 路)和正交(Q 路)两个相差 90 度的载波上进行叠加传输。一旦接收端的载波同步发生相位偏移,这种物理上的正交性就会被彻底撕裂,导致 I 路的能量疯狂倾泻到 Q 路中,Q 路的能量也倒灌回 I 路,这种现象被称为星座图的旋转与串扰。
此时,原本清晰的星座点会糊成一团,任何先进的信道均衡或纠错编码都将无力回天。

  • 对于像 2PSK 或 DSB-SC 这种在频谱中完全把载波能量压制掉(抑制载波)的信号,接收机该怎么提取同步载波?

既然信号里没有现成的载波谱线,工程师就创造出了非线性变换法。比如利用平方环(将信号平方以强制产生两倍频的载波分量)或者使用极其精妙的科斯塔斯环(Costas Loop,同相正交双通道闭环跟踪),它们能够直接从抑制了载波的随机数据流中“无中生有”地榨取并锁定出极其纯净的同频同相参考载波。

  • 载波同步和我们前面提到的位同步(符号同步)在处理层面上有什么先后顺序?

这是接收机流水线上绝对不能颠倒的两道工序。载波同步必须冲在最前面,它的任务是把信号从几十 GHz 的射频高空安全“降落”到零频附近的基带;只有当高频的“外壳”被完美剥离后,位同步电路才能在剥离出的基带脉冲序列中,去寻找那个最佳的抽样判决时刻。

  • 既然载波同步这么复杂且容易导致串扰,我们能不能干脆不用它?

完全可以,这就是非相干解调(如包络检波、差分相干解调)存在的意义。
通过牺牲一部分理论上的信噪比性能(通常是 1 到 3 分贝的代价),我们可以彻底省去昂贵且复杂的载波同步环路电路。在蓝牙、早期收音机或廉价物联网节点中,这种“放弃精准同步换取极致成本”的折中随处可见。

1.6.6 什么是位同步?

位同步(又称符号同步或定时恢复)是指在接收端产生一个与发送端基带数据节拍完全一致的本地时钟脉冲序列的过程。

位同步是数字判决前绝对不可妥协的最后一道防线。
如果在前面千辛万苦通过了成形滤波、载波同步和信道均衡,但在这最后一步发生了微小的时钟偏移(定时相位误差),接收机的抽样点就会偏离波形的峰值,滑落到脉冲衰减的边缘,甚至直接踩进前后相邻脉冲的重叠灾区。
这种极其致命的时序错位不仅会使得信号自身的能量大幅缩水,还会将原本已经被完美压制的码间串扰(ISI)全盘释放出来,导致整个通信链路的误码率呈现雪崩式的爆发。

现代接收机大多采用极其优雅的“自同步法”。
既然发送端为了节省带宽通常不额外发送专门的时钟基准线,接收机就必须直接从杂乱无章的随机接收数据流中“无中生有”地榨取定时信息。
工程师们利用早迟门(Early-Late Gate)或非线性变换电路,极其敏锐地捕捉基带波形发生过零跳变的边缘特征。一旦捕获到这些跳变沿,内部的锁相环(PLL)就会像死咬猎物的猎犬一样,动态调整本地时钟的频率和相位,确保每一次抽样都严丝合缝地落在数据的正中央。

  • 载波同步和位同步在概念上最核心的区别是什么?

载波同步是对齐射频高频振荡的相位,目的是为了正确地把信号从高频“搬移”回低频基带;
而位同步是对齐低频数据脉冲的节拍,目的是为了在基带波形上找到最完美的抽样判决点。
前者对付的是几十 GHz 的电磁波,后者对付的是兆赫兹级的数据流。

  • 为什么长串的连“0”或连“1”会成为位同步的噩梦?

因为位同步电路极度依赖波形的电平跳变沿(过零点)来校准时钟。
如果数据流中出现长时间的电平保持不变,提取电路就会失去所有的物理参照物,导致本地锁相环因为“失去目标”而发生时钟自由漂移。这就解释了为什么前面提到的线路编码(如扰码、HDB3码)必须强制插入跳变规律。

  • 早迟门(Early-Late Gate)同步器是怎么工作的?

它极其聪明地在一个码元的中心抽样点之前(早)和之后(迟)各设置一个辅助抽样门。
如果本地时钟完全对齐,早门和迟门采样到的能量应该是完全相等的对称值;如果时钟发生偏移,两者的能量差就会产生一个误差电压,驱动压控振荡器立刻把偏离的时钟中心重新拉回波形的最高点。

1.6.7 什么是帧同步?

帧同步(又称群同步)是指在接收端连续不断的比特流中,准确找出信息块(如数据帧、字或包)起始位置的物理与逻辑过程。

帧同步极其依赖于发送端预先埋设的特殊“路标”。
工程师通常会在每一个数据帧的头部,强行插入一段收发双方事先约定好的、具有极强自相关特性的特殊比特序列(即帧同步码,如巴克码)。
接收机会在本地滑动一个与其长度相同的观察窗口,不断计算接收数据流与本地标准同步码的相关值;当两者完全对齐时,相关器会瞬间输出一个极其尖锐的峰值脉冲,这个脉冲就是宣告新一帧数据正式开始的绝对发令枪。

帧同步绝非一次性的简单匹配,而是一个包含“捕获、维持、保护”的复杂闭环生态。
由于恶劣信道中的噪声极有可能把普通数据篡改得和同步码一模一样(假同步),或者把真正的同步码破坏掉(漏同步),现代通信系统必须建立一套严密的帧同步状态机机制:只有连续多次在规定位置精准命中同步码,系统才会确认进入“同步态”;而偶尔的一次丢失只会被视为干扰,只有连续多次错失,系统才会退回“搜索态”重新寻找边界。

  • 什么是巴克码(Barker Code),为什么常被用作帧同步码?

巴克码只有在完全对齐的那一瞬间会产生巨大峰值,错开任何一位的相关值都极其微小。这种“非黑即白”的数学特性使其能够在极其嘈杂的噪声背景中被接收机瞬间识别,极大地降低了假同步的概率。

  • 假同步和漏同步分别会造成什么致命后果?

假同步是指接收机把一段恰好长得像同步码的普通用户数据当成了帧头,导致后续所有数据的切割位置全部错位,上层解码瞬间崩溃。
漏同步则是真正的帧头被噪声破坏而没被认出来,这会导致整个一帧的数据被接收机当成废弃比特直接丢弃,造成极其严重的信息断层。

  • 帧同步与我们之前讨论的位同步、载波同步是什么层级关系?

它们构成了接收机从底向上的三大物理同步阶梯。
载波同步剥离出高频射频外壳,位同步从中提取出离散物理比特,而帧同步最终将这些比特打包成高层逻辑数据帧。
底层任何一环的失锁都会导致上层同步的全面坍塌,它们环环相扣,缺一不可。

1.6.8 什么是网同步?

网同步是指在整个数字通信网络中,强制所有交换节点、传输设备和基站的时钟频率与相位保持高度一致的系统级协同过程。

现代通信网大多采用“主从同步(Master-Slave)”的集中式管理模式。网络中会设立一个极其精准的基准主时钟(Primary Reference Clock, PRC,通常是铯原子钟或北斗/GPS 授时信号),它就像整个网络的绝对“心脏”。
这颗心脏产生的精准节拍会通过层层树状结构,沿着同步数字体系(SDH)或同步以太网的光纤链路,逐级下发给各地的从节点。通过这种等级森严的传递机制,全网数以万计的基站和路由器都被强行锁定在这个唯一的绝对时间基准上,实现了微秒甚至纳秒级的整齐划一。

从移动互联网演进与 5G 极低延迟要求来看,网同步已经从传统的“频率同步”向极其苛刻的“时间/相位同步”跨越。
在 5G 时代,为了实现基站间的协同多点发送以及精准的 TDD 时分双工切换,相邻基站之间的相位误差必须被严格限制在极其微小的范围之内。
此时,传统的单纯频率同步已经远远不够,工程师们引入了 IEEE 1588v2 精确时间协议(PTP),让带有精确时间戳的数据包在全网飞速穿梭,实时计算并动态补偿每一段物理光纤的传输延迟,硬生生地在原本异步的 IP 网络上劈开了一条绝对同步的时间长廊。

  • 主从同步体系中,如果主时钟的传递链路突然断了怎么办?

节点时钟会立即切入保持模式(Holdover mode)。此时它不再依赖外部输入,而是依靠本地内置的高质量恒温晶振或铷原子钟,凭借之前锁定时“记住”的主时钟频率特征,在数小时甚至数天内继续独立维持极高精度的运转,直到备用的同步链路重新接通。

  • 准同步(Plesiochronous)和严格的网同步有什么本质区别?

准同步(如早期的 PDH 体系)并不强求全网锁定在同一个主时钟上,而是允许各节点使用极其精确但相互独立的本地时钟。因为频率非常接近但并非绝对一致,所以设备必须通过极其复杂的“码速调整(塞入无用比特)”来强行吸收时钟差带来的滑动,这极大地限制了组网的灵活性。

  • 网同步与我们之前探讨的载波同步、位同步、帧同步是什么宏观与微观的关系?

载波、位、帧同步是单条点对点链路内部的微观收发协同,解决的是“怎么把这根线上的信号解出来”;而网同步是跨越多节点的宏观全网时间基座,解决的是“怎么让上万台设备像一个人一样思考”。没有网同步,跨节点的长途数据接力就会在路由器内部发生严重的滑动丢包,单条链路的同步做得再完美也无济于事。

1.6.9 平定抽样导致了孔径失真,为什么?

平顶抽样本质上是把瞬间的抽样值在时间上“拉宽”了(数学上相当于与一个矩形脉冲进行卷积)。

时间域的矩形脉冲卷积,等价于在频率域乘以一个 Sa(x)Sa(x) (Sinc 函数)。由于 Sinc 函数是向高频不断衰减的,这导致恢复出来的基带信号高频部分被削弱了,波形发生畸变,这就是孔径失真(或孔径效应)。

在接收端的低通滤波器之后,级联一个频域均衡器(孔径均衡器)。它的频率响应正好与 Sinc 函数相反(高频放大,低频衰减),从而把衰减掉的高频成分“补偿”回来。

1.6.10 简要说一下PCM的基本原理、PCM的编码规则、PCM传输系统的信噪比

PCM(脉冲编码调制)的基本原理是将时间与幅度连续的模拟信号,通过抽样、量化、编码三大核心步骤,转换为二进制数字流。
它的本质并非凭空创造信息,而是利用奈奎斯特准则在时间轴上抓取离散点,再利用量化器在幅度轴上进行离散化映射。
通过这种不可逆的转化,PCM 彻底抛弃了脆弱的模拟波形,将信息寄托在坚不可摧的“0”和“1”脉冲逻辑上,从而获得了数字通信无与伦比的抗干扰特权。

在具体落地的编码规则上,以中国和欧洲广泛采用的 A 律 13 折线为例,它展现了极高的工程计算智慧。为了避免硬件处理复杂的对数函数,工程师将其精简为极其高效的8位折叠二进制码(c1c2c8c_1 c_2 \dots c_8)。第 1 位是极性码,第 2 到第 4 位是段落码(共 8 种组合),最后 4 位是段内码

在 PCM 系统的接收端,信号质量受制于两股完全不同的“破坏力量”:一是发送端 A/D 转换时强行四舍五入产生的量化噪声;二是物理信道干扰导致接收端 0/1 判决错误的信道误码噪声。

PCM 系统的终极护城河在这里体现得淋漓尽致——它具有极其显著的门限效应(Threshold Effect)。只要物理线路的信噪比高于某个“门限值”(确保误码率极低),接收端的再生中继器就能无视线路干扰,完美重新生成纯净的脉冲。
此时,信道噪声被彻底隔离,系统最终的输出信噪比将达到饱和,仅仅取决于固有的量化噪声。这意味着,只要网络规划跨过了这个门限,PCM 信号无论经过多少次中继、传输多远,其通话音质都绝不会像模拟通信那样发生噪声积累和劣化。这就是 PCM 能够彻底淘汰模拟传输的底层物理本质。

1.7 信号空间分析与多元数字传输

1.7.1 星座图到底是什么?星座图有什么作用?

星座图(Constellation Diagram)是数字调制信号在二维复平面上的直观“全息投影”。
在现代通信中,为了提高频带利用率,我们不仅改变载波的幅度,还改变它的相位。星座图就是建立一个以同相分量(I 路,In-phase)为横轴,正交分量(Q 路,Quadrature)为纵轴的直角坐标系。
在这个平面上,每一个亮点(星座点)都代表一个特定的数字符号(Symbol)。
点到坐标原点的几何距离代表着该符号的瞬时载波幅度,而点与横轴正方向的夹角则代表着该符号的瞬时载波相位。

从工程应用与信道诊断的角度来看,星座图是通信工程师用来给底层链路“看病”的最强可视化显微镜。
在理想的无噪声信道中,接收到的信号在星座图上应该是极其锐利、清晰的单点。然而,当信号穿过恶劣的物理信道后,各种干扰会在星座图上留下极其明显的病理特征。例如,加性高斯白噪声会让原本清晰的单点扩散成一团毛茸茸的“星云”;相位噪声会让星座点沿着同心圆轨迹发生弧形拖尾或旋转;而放大器的非线性失真则会让星座图最外围的点向内塌陷。工程师只需观察星座图的扭曲形态,就能瞬间定位系统硬件或信道的具体缺陷。

从接收端信号解调的逻辑来看,星座图为数字判决提供了最直观的“几何领地划分”法则。
接收机收到一个带有噪声的畸变信号后,会在星座图上标出一个实际落点。
解调的本质,就是在这个二维地图上寻找距离该实际落点最近的理想星座点,并将其判定为发送端原本想发送的数据(即最大似然判决)。因此,相邻星座点之间的欧氏距离直接决定了系统的抗干扰能力:点与点之间离得越远,容错的“护城河”就越宽,越不容易发生将一个点误判为另一个点的错误。

  • 星座图和眼图在使用场景上有什么核心区别?

眼图是时域分析工具,它将连续的基带波形折叠叠加,主要用来观察码间串扰(ISI)和定时抖动,核心是判断“抽样时刻准不准”。

而星座图是调制域(I/Q域)分析工具,它在最佳抽样时刻抓取一个瞬时离散点,主要用来观察幅相畸变和噪声分布形态,核心是判断“信号的二维位置对不对”。

  • 5G 和 Wi-Fi 路由器在信号变差时自动降速,这在星座图上是如何体现的?

这利用了自适应调制编码(AMC)技术。
信号极好时,系统使用高阶调制(如 256-QAM),星座点极其密集,虽然每个符号携带比特多(网速快),但极易被噪声推过判决边界。
当信号变差时,系统会主动退化到低阶调制(如 QPSK),星座图上只剩下 4 个距离极远的点,虽然网速下降,但极宽的判决边界保住了通信的稳定不断流。

1.8 现代数字调制技术

1.8.1 简要介绍一下MSK和GMSK?

传统的 2FSK 或 PSK 在码元切换时,相位往往发生突变。这种突变在频域上会导致极其严重的频谱泄露(旁瓣极高),不仅浪费带宽,还会严重干扰相邻信道。
为了解决这一痛点,最小频移键控(MSK)应运而生。它的底层逻辑是:在保持频率承载信息的前提下,强制要求信号的相位在任何时刻都必须是连续的(CPFSK)。同时,它选用了能让两个载频保持绝对正交的**最小调制指数 h=0.5h=0.5
它的核心优越性不仅在于频谱极其紧凑,更在于它具有
恒包络特性**。这意味着手机发射机的射频放大器可以一直工作在最高效的非线性饱和区而绝不会导致信号失真,极大地延长了移动设备的电池寿命
然而,工程师对频谱的贪婪是无止境的。为了进一步压榨带外泄露,在 MSK 调制之前强行加入了一个高斯低通滤波器,这就是GMSK(高斯最小频移键控)。它把原始矩形脉冲的尖锐跳变全部“盘圆润”了,使得相位变化更加平滑,频谱集中度达到了极其恐怖的地步,这也使得它直接成为了第二代移动通信(GSM)的绝对物理层标准

  • 连续相位 FSK(CPFSK)是如何诞生的?

从傅里叶变换的本质来看,时域上的任何突变,必定会在频域上激发出极其丰富的高频分量。而传统的 2FSK 调制存在一个极其致命的物理缺陷:在两个码元交接的瞬间,波形的相位往往会发生剧烈的突变。

为了彻底攻克这个瓶颈,工程师提出了连续相位频移键控(CPFSK)。
它的核心逻辑是改变调制硬件:不再切换两个独立的振荡器,而是用基带信号去控制单个压控振荡器(VCO)的频率。因为始终是同一个物理器件在连续积分振荡,这就从物理机制上保证了无论码元如何切换,射频波形的相位在任何时刻都是绝对连续的。这种相位的平滑过渡,直接换来了频谱旁瓣的迅速收敛。

  • MSK和CPFSK的关系?

为了保证接收端能完美区分 0 和 1(抗噪声性能最优),这两个频率的波形必须在数学上做到“严格正交”(即在一个码元周期 TbT_b 内积分乘积为零)。
同时,为了尽可能压缩带宽,我们希望这两个频率的间隔越小越好。
经过推导,工程师发现:当频率间隔 Δf\Delta f 刚好等于码元速率的一半(Δf=1/2Tb\Delta f = 1/2T_b),也就是调制指数 h=0.5h = 0.5 时,刚好能同时满足“正交”和“绝对相位连续”这两个严苛条件。

这里的“最小(Minimum)”就是指能在相干正交条件下实现的最小频率间隔。

  • MSK有何优点?

MSK信号功率谱的主瓣宽度是QPSK的1.5倍,是BPSK的0.75倍,且MSK信号功率谱的旁瓣比QPSK或BPSK的衰落快得多,对邻近频道的干扰就少得多。

抗噪性能强悍: 凭借严格的正交特性,MSK 可以采用相干解调,其误码率性能完全媲美最高效的 2PSK / QPSK,绝不因为节省带宽而牺牲可靠性。

论基带数据怎么变,MSK 波形的包络(幅度)始终保持绝对恒定。这意味着在手机发射端,我们可以肆无忌惮地使用效率极高、极其省电的非线性饱和功率放大器(如丙类功放),而完全不用担心波形畸变。

1.8.2 简要介绍一下OFDM

当通信迈入 4G/5G 和 Wi-Fi 时代,我们需要极高的传输速率。如果用传统的单载波传输,码元时间 TsT_s 会变得极短。在复杂的城市环境中,电磁波经过大楼反射形成多径效应,到达接收端的延迟时间甚至会远远超过码元本身的时间,导致极其毁灭性的码间干扰(ISI)
OFDM 的出现是一次极其绝妙的降维打击。它的核心思想是**“化整为零”:将一路极高速的串行数据,转化为成百上千路极低速的并行数据,然后分别调制到不同的子载波上。因为速率降下来了,每个码元的持续时间被极大拉长,瞬间就从物理机制上免疫了多径造成的时延扩展**。
更伟大的工程巧思在于“正交(Orthogonal)”:传统的频分复用(FDM)为了防止干扰,各频带之间必须留有白白浪费的保护频带;而 OFDM 通过巧妙的傅里叶数学设计,让所有子载波的频谱在频域上相互重叠,但在彼此的最高点处其他子载波的能量正好严格为零(积分正交)。这不仅彻底消除了子载波间的干扰(ICI),还将频带利用率直接逼近了奈奎斯特理论极限。配合上“循环前缀(CP)”,OFDM 完美统治了现代所有的高速宽带网络。

  • 如何理解OFDM中的正交?

传统的多载波频分复用(FDM)为了防止子载波互相串扰,必须在中间留出空白的“保护频带”,这极大地浪费了频谱。

正交频分复用(OFDM)的伟大之处在于它打破了这个隔离界限。它通过精密的数学设计,让所有子载波的频谱在频域上极其紧密地相互重叠。
虽然频谱重叠,但因为相邻子载波的频率间隔刚好等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这在数学上保证了它们是绝对正交的。
在接收端对某一个子载波的顶点进行抽样判决时,其他所有子载波的频谱值在这个频点上刚好严格为零。这不仅彻底消除了子载波间干扰(ICI),更将频带利用率直接逼近了奈奎斯特极限。

  • FFT的到来对OFDM有何影响?

如果一个 OFDM 系统有 10241024 个子载波,难道要在手机里塞进 10241024 个独立的射频振荡器和混频器吗?这在成本和体积上绝对是不可能完成的任务。

工程师惊奇地发现,OFDM 基带信号的生成公式,在数学形式上竟然与“离散反傅里叶变换(IDFT)”分毫不差!
这意味着,我们彻底抛弃了庞大昂贵的模拟射频阵列,直接在数字基带芯片里用一段极其高效的 IFFT(快速傅里叶逆变换)算法代码,瞬间就能计算出所有子载波叠加后的时域波形。
在接收端,只需跑一次 FFT 算法,就能把频域数据完美解调出来。

  • 保护间隔(GI)与循环前缀(CP)分别有什么用?

虽然多载波拉长了码元,但多径效应产生的拖尾依然会轻微污染相邻码元的边缘。

GI:最直观的做法是在两个 OFDM 符号之间插入一段空白时间。但这会引发新灾难:空白破坏了子载波在 FFT 积分窗口内的周期性,导致原有的正交性彻底崩溃,产生严重的 ICI。

CP:不插入空白,而是把当前 OFDM 符号时域波形的“最后面一小段尾巴”复制下来,强行粘贴到符号的“最前面”作为前缀。
对接收端的 FFT 窗口来说,前缀的加入伪造出了一种“信号是无限周期循环”的数学错觉。这不仅完美吸收了多径拖尾(只要时延不超过 CP 长度),更在数学上将无线信道的“线性卷积”强行转化为了“圆周卷积”。这使得接收端只需要使用极其极其简单的单抽头频域均衡器(One-tap Equalizer),就能完美抵消信道带来的畸变。

1.8.3 简要介绍一下扩频技术和CMDA

扩频技术的初衷根本不是为了提高速率,而是军方为了解决“抗恶意干扰与防窃听”的痛点。
它的基本原理反其道而行之:根据香农定理,带宽和信噪比可以互换。扩频系统故意用一个高速的伪随机噪声码(PN码)去乘以原本低速的有用数据。在频域上,这等价于把原本集中的信号能量,瞬间摊薄扩展到极宽的频带上
它的优越性极其震撼:扩展后,信号的功率谱密度甚至会淹没在环境的自然底噪中,敌方根本发现不了你在通信(极强隐蔽性);而接收端只要用
完全相同的 PN 码进行解扩
,就能把宽带信号瞬间“浓缩”回原来的有用数据,同时把敌方发射的窄带大功率干扰信号“打散”成无害的底噪。这就是**白噪化抗干扰机制
当这种技术下放到民用,就诞生了
码分多址(CDMA)。既然每个人的 PN 码都像是一把独一无二的钥匙,且数学上相互正交,那么所有用户就可以在同一时间、使用完全相同的物理频带进行通信而互不干扰**(就像在一个大厅里,你在听汉语,他在听英语,彼此听不懂的语言自动被大脑过滤为背景底噪)。CDMA 彻底打破了时间和频率的硬性划分,成为了 3G 网络的灵魂,也奠定了现代 GPS 导航系统的核心基石。

  • 什么是直接序列扩频(DSSS)?

用一个速率极高(例如 10 Mcps10\text{ Mcps})的伪随机码(PN码)去乘以速率很低(例如 10 kbps10\text{ kbps})的有用数据。

在时域上,每一个低速的数据比特被瞬间切碎成了成千上万个极短的“码片(Chip)”。在频域上,这等价于将原本窄带的信号能量瞬间摊薄扩展到极宽的频带上。扩频后,信号的功率谱密度甚至远低于自然界的背景底噪。敌方根本不知道这里有信号存在(极强的隐蔽性)。

接收端只要用一模一样的 PN 码再乘一次,就能把宽带信号瞬间“浓缩(解扩)”回原始数据;而敌方发射的窄带大功率干扰信号,在经过这个乘法器时,反而会被“打散”成对我们毫无威胁的宽带底噪。

  • CDMA和扩频技术有何关系?

给每个用户分配一把独一无二且互相正交的 PN 码钥匙就是 CDMA。

所有用户可以在完全相同的时间、占用完全相同的物理频带进行发送(打破了 TDM 和 FDM 的界限)。在基站端,所有人的信号混杂在一起如同海啸。但基站只要拿出特定的 PN 码去“解扩”,就能把特定用户的信号“捞”出来,而其他所有用户的信号由于码字不正交,在积分器中全部互相抵消,仅仅表现为轻微的背景噪声。这造就了 3G 时代极其恐怖的系统容量和“软切换”能力。

  • 什么是跳频扩频(FHSS)

与 DSSS 把能量摊薄不同,跳频(FHSS)采用的是频率上的游击战术。
载波频率不是固定的,而是根据伪随机码的指令,在极宽的频带内进行极其快速的伪随机跳变(例如每秒跳频 1600 次的蓝牙技术)。

信号在任何一个瞬间仍然是窄带的,但它的频率位置飘忽不定。敌方如果释放窄带干扰,由于不知道你的跳频图样,最多只能在极小概率下“碰巧”干扰到你一两个瞬间(Hit and Run),大部分时间你都在其他干净的频点上安全通信。结合纠错编码,这种瞬间的数据丢失可以被完美修复,极大地提升了系统的抗窄带干扰和抗多径衰落能力。

1.9 多址技术

1.9.1 为什么OFDM的需要正交?

“切分成子带”是为了对抗多径造成的畸变;而“正交重叠”则是为了把切分后本应浪费的频谱效率,硬生生地重新推向理论极限。没有正交,多载波技术在工程成本和频谱效率上将毫无实用价值。

如果按照传统频分复用(FDM)的物理逻辑,为了防止这 NN 个子频道互相串扰(载波间干扰 ICI),必须在它们之间留出宽阔的保护频带。当子载波数量高达成百上千个时,保护频带占用的空间甚至会超过有效信号,导致系统根本无法提供宽带级别的高速率。

工程师抛弃了物理上的距离隔离,转而利用数学特性。只要让相邻子载波的频率间隔严格等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这些子载波在积分周期内就达到了绝对的正交状态。凭借正交特性,我们完全不需要留任何保护频带,直接让所有子载波的频谱极其紧密地相互重叠! 尽管宏观上频谱交织在一起,但在接收端对某一个子载波的最高点(中心频点)进行抽样时,其他所有子载波的波形在这个频点上的影响刚好严格为零。

1.9.3 既然正交之后都不需要保护频带了,为什么还要有GI和CP呢?

在频域上切得再细、正交得再完美,只要电磁波还在城市空间中传输,多径效应产生的“物理回声”就永远存在.

符号 A 在撞击高楼大厦后,产生了长长的“迟到回声”。这些回声在时间轴上往后拖延,必然会一头撞进紧接着发送的【符号 B】的接收窗口里。这就导致了严重的码间干扰(ISI)。了防止符号 A 的回声污染符号 B,我们必须在时间轴上,两个符号之间强行拉开一段距离(留出一段持续时间为 TgT_g 的空白停顿)。只要 TgT_g 大于最大多径时延 τmax\tau_{max},符号 A 的回声就会全部掉进这个空白地带,绝不会伤到符号 B。

收端在做 FFT(快速傅里叶变换)解调时,要求截取的窗口内,子载波必须是完美的连续周期波形。如果前面有一段死寂的空白,加上多径的干扰,截取窗口一旦发生微小偏移,把空白截进去了,波形的周期性就会被瞬间撕裂!周期性一毁,正交性立刻荡然无存,各个子载波之间会发生惨烈的互相串扰(ICI)。工程师做出了一个神级操作:我不留静音空白了,我把【符号 B】最后面的那一段波形“复制”下来,强行“粘贴”到【符号 B】的最前面,填满那段 GI 的时间! 这就是循环前缀(CP, Cyclic Prefix)。

物理当炮灰(消除 ISI): 它依然占据了那段隔离时间,成功挡住了符号 A 的回声。这部分前缀就算被前一个符号的回声污染了也没关系,因为它本来就是多余的复制品,接收端可以直接扔掉它。

数学造幻觉(消除 ICI): 因为前面粘贴的是自己尾巴的波形,所以无论接收端的 FFT 窗口怎么在多径干扰下轻微滑动,只要不出这个前缀的范围,截取到的永远是一个完整且首尾相连的周期循环波形。这就在数学上死死保住了正交性,彻底消灭了载波间串扰(ICI)

1.10 信息论基础

1.10.1 如何理解香农三大定理?

香农的三大定理在逻辑上构成了一个极其严密的闭环,它们分别回答了通信系统设计中最核心的三个极限问题:无损压缩的底线在哪里?传输速度的天花板在哪里?有损压缩的妥协边界在哪里?

香农第一定理:无失真信源编码定理(无损压缩的绝对极限)。
引出:一段包含大量废话的数据,在保证一字不差还原的前提下,最少能压缩到多小?
香农指出,信息的本质是“不确定性”,而量化这种不确定性的标尺就是信源熵 H(X)H(X)。数据中能被预判的规律(冗余)都不算真正的信息。
无论你发明多么绝妙的无损编码算法(如哈夫曼编码),你压缩后每个符号的平均码长 LL永远不可能小于该信源的熵 H(X)H(X)

LH(X)=p(x)log2p(x)L \ge H(X) = -\sum p(x) \log_2 p(x)

工程意义: 它指导我们在发送端拼命地“挤水分”,剥离掉所有自然冗余,让数据体积无限逼近 H(X)H(X) 的绝对底线。这是目前所有无损压缩软件(如 ZIP、FLAC)的理论尽头。

香农第二定理:有噪信道编码定理(无差错传输的速度极限)。
引出:把压缩好的数据送上充满噪声的物理信道,为了不被噪声摧毁,我们要穿上纠错编码的“防弹衣”(增加人为冗余)。那么,系统在保证绝对可靠(误码率趋于零)的情况下,最高能跑多快?
香农引入了信道容量 CC 的概念,它是一个物理信道在特定带宽和信噪比下,所能承载的最大互信息量。对于最经典的高斯白噪声信道,其容量公式为:

C=Blog2(1+SN)C = B \log_2\left(1 + \frac{S}{N}\right)

如果你的信息传输速率 RR 满足 RCR \le C,那么理论上必定存在一种纠错编码方法,能实现无差错传输;一旦你贪得无厌,让 R>CR > C,那么无论用什么科技,误码率都会雪崩。
工程意义: 它是全人类通信工程的“光速”。从 3G 的 Turbo 码到 5G 的 Polar 码,几代通信人前赴后继,就是为了在复杂的恶劣信道中,通过极度复杂的数学纠错算法,让实际传输速率无限逼近这个神圣的 CC

香农第三定理:速率-失真定理(有损压缩的哲学妥协)
引入:当面临极其绝望的物理困境——信源熵极大(如 4K 原画),而信道容量极小(如荒野中的极弱信号),也就是 H(X)>CH(X) > C 时,完美传输被彻底宣判死刑,我们该如何断臂求生?
既然无法完美,我们就主动抛弃那些人眼看不清、人耳听不到的边缘细节。我们定义一个系统能够容忍的最大平均失真度 DD。在此前提下,寻求能维持该清晰度的最低比特率底线,这就是速率-失真函数 R(D)R(D)

R(D)=minp(yx):DˉDI(X;Y)R(D) = \min_{p(y|x): \bar{D} \le D} I(X;Y)

只要你设计的压缩码率 RR 满足 R>R(D)R > R(D),就必定存在一种编码方式,能让接收端的失真度控制在 DD 以内;若 R<R(D)R < R(D),则绝对无法保证失真度不越界。
工程意义: 这是现代多媒体通信的灵魂。MP3、JPEG、H.265 等所有有损压缩技术,都是在 R(D)R(D) 曲线的指导下,在“极小的文件体积”和“勉强能接受的画质/音质瑕疵”之间,寻找那道最完美的平衡木。

整体逻辑:
我们先用第一定理榨干水分(求极限 H(X)H(X));如果数据还是太大塞不进信道,我们就用第三定理割肉妥协(求极限 R(D)R(D));最后,我们遵从第二定理的最高法则,给精简后的数据穿上纠错装甲,确保它在不超过物理信道容量 CC 的极限下,安全抵达彼岸。

1.11 差错编码

二、信息论

2.1 信息的基本概念

2.1.1 一个消息的信息量取决于什么?

在信息论中,一个消息的信息量大小取决于它的意外程度(即自信息量),核心思想是越意外,信息量越大。这意味着发生概率越小的事件,一旦发生,其提供的信息量就越大。

信息论研究的信息没有真假对错之分,也没有价值高低之别,它纯粹是从统计学角度来度量不确定性的消除程度。

2.2 信息量、信息熵、条件熵

2.2.1 什么是信息量?它有什么意义?

从直觉上理解,信息量反映了消息的“意外程度”:一个极小概率发生的事件(如日食)一旦发生,带给观察者的冲击和新信息远大于一个高概率的常规事件。
因此,信息量的大小完全由事件发生的先验概率决定,概率越小,该事件包含的信息量就越大。

在通信系统的量化分析中,自信息量是构成信息熵(平均信息量)的基石。
自信息量在物理上度量了某一特定随机事件发生时所提供的信息量,或者说它量化了该事件发生前所具有的不确定性大小。
它通过数学手段将抽象的“不确定性”转化为可以累加的数值,使得我们可以用统一的“比特”单位来衡量不同性质、不同来源的数据。这种量化处理不仅剥离了主观的语义干扰,更揭示了信息的统计属性本质,为后续研究信源压缩极限和信道传输效率提供了最基本的度量标准。

  • 为什么自信息量的公式要采用对数形式?

采用对数形式的核心原因是为了满足信息的可加性。对于两个相互独立的事件,其联合概率是各自概率的乘积,而我们直观上认为总信息量应该是两者的代数和。对数运算能够将概率的乘法逻辑完美转换为信息量的加法逻辑,从而使信息成为一种像质量或能量一样可以度量、累加且具有物理意义的资源。

  • 在数学定义上,为什么信息量要采用概率的负对数形式来进行计算?

采用负对数形式主要是为了在数学上完美契合人类对信息的物理直觉。
首先是满足信息的可加性,当两个相互独立的事件同时发生时,它们的联合概率是各自概率的乘积,而取对数恰好能够将这种概率的乘法运算转化为信息量的加法运算,确保总信息量等于各自独立信息量的总和。
其次是为了保证信息的非负性,因为任何事件发生的概率必定在0到1之间,直接取对数会得到负值,在公式前加上负号就确保了计算得出的信息量始终是一个有物理意义的非负实数。

2.2.2 什么是信息熵?它有什么意义?

信息熵是量化离散信源整体不确定性的核心指标,它不仅代表了信源平均每个符号所含有的信息量,更是数据压缩领域的“终极界限”。
从统计学角度看,熵是自信息量 I(xi)I(x_i) 的数学期望,代表了信源每发出一个符号所提供的平均信息。信息熵的数学定义由香农在 1948 年提出,用于量化一个离散随机变量的不确定性,其公式为

H(X)=P(xi)logbP(xi)H(X) = -\sum P(x_i) \log_b P(x_i)

在实际工程中,它直击了一个最根本的物理问题,即一段数据在不丢失任何信息的前提下,最小到底能被压缩到多大。
任何无损压缩后的平均码长都绝对不可能低于该信源的信息熵,这就为工程师们指明了优化方向。
既然极限已经确定,所有无损压缩策略的终极目标就是通过巧妙的编码手段,让平均码字长度无限逼近这个理论极值。

  • 当信源的概率分布发生什么变化时,信息熵会达到最大值?

当信源中所有可能发生的符号或事件呈现等概率分布时,信息熵达到最大值。
因为在这种情况下,接收者对信源发出的下一个符号完全没有任何先验倾向或预测能力,也就是系统的整体不确定性达到了顶点。
在通信工程应用中,为了实现最高效的信息传输,我们往往希望编码后的信道符号能够尽可能接近等概率分布,从而让每个传输符号都能携带最大的信息量。

  • 信息熵与自信息量在物理概念上有什么根本的区别与联系?

自信息量衡量的是单个特定事件发生时所消除的不确定性,它描述的是微观的、具有随机性的个体事件;
而信息熵衡量的是整个信源所有可能事件的平均不确定性,在数学上它是自信息量的数学期望。
两者的核心联系在于,只有先计算出各个独立符号的自信息量,才能通过概率加权求和的宏观统计方式得出整个系统的熵。

  • 在现代人工智能与机器学习中,信息熵的概念是如何被应用和延伸的?

在机器学习中,信息熵被广泛延伸为交叉熵,主要用于衡量模型预测的概率分布与真实标签分布之间的差异程度。
在分类任务的深度学习训练中,模型优化的核心逻辑就是通过梯度下降等算法不断最小化交叉熵损失函数,使得模型逐渐消除预测过程中的不确定性,最终让预测结果无限逼近客观真实的分布状态。

2.2.3 什么是条件熵?它有何研究意义?

条件熵 H(YX)H(Y|X) 表示的是,在已知随机变量 XX 的条件下,随机变量 YY 平均还剩下多少不确定性。
其核心计算公式为:

H(YX)=xXp(x)H(YX=x)=xXyYp(x,y)logp(yx)H(Y|X) = \sum_{x \in X} p(x) H(Y|X=x) = -\sum_{x \in X} \sum_{y \in Y} p(x, y) \log p(y|x)

条件熵 \leq 无条件熵:即 H(YX)H(Y)H(Y|X) \leq H(Y)。这是信息论中极具哲学意义的结论:知道一些信息,绝不会增加你对另一个事物的不确定性。信息只会减少不确定性,或者在完全无关时保持不变,但绝不会增加。
当且仅当 XXYY 相互独立时,等号成立,意味着观察 XX 对消除 YY 的不确定性没有任何帮助。
需要注意 H(YX)H(Y|X) 通常不等于 H(XY)H(X|Y),这反映了信息影响的单向性。

条件熵在实际工程中的意义非常广泛。
它能衡量一个变量对于消除另一个变量不确定性的具体贡献。
在构建模型(如决策树)时,通过计算条件熵来评估特征的重要性,条件熵下降越快,说明该特征的分类能力越强。
在有噪信道中,接收端收到 YY 后关于发送端 XX 的条件熵 H(XY)H(X|Y) 被称为信道疑义度,它直接量化了噪声造成的平均信息丢失量。
在语言模型中,给定前文预测后文的条件熵越低,说明语言规律性越强,预测越准确。

2.2.4 信息论对人工智能有什么帮助?

信息论为人工智能提供了底层的数学框架,它不仅定义了数据的价值,还为模型的优化指明了方向。

信息量(自信息)主要用于衡量事件的稀缺性。
一个极低概率发生的样本(如异常交易、罕见故障)具有极高的信息量,这指导了模型中的异常检测算法。
同时,注意力机制(Attention)本质上也是在输入序列中寻找那些“信息量最大”的特征进行聚焦。

信息熵在 AI 中被视为预测不确定性的度量。
在训练过程中,如果模型对某个样本的预测概率分布非常平坦(熵很高),说明模型对此样本非常“困惑”。
主动学习(Active Learning)就是利用这一特性,专门挑选熵较大的样本让人工标注,从而实现最高效的模型进化。

条件熵 H(YX)H(Y|X) 则定义了监督学习的理论天花板。
在已知特征 XX 的情况下,标签 YY 剩下的不确定性就是模型无论如何也无法消除的误差。
在特征选择(如决策树)中,我们追求的是最大化信息增益,其本质就是尽可能大地降低条件熵,选出对分类贡献最大的特征。

交叉熵(Cross-Entropy)是信息论与 AI 结合最紧密的地方。
在分类任务中,我们通常使用交叉熵作为损失函数。其逻辑非常简单:交叉熵衡量了“模型预测的分布”与“真实标签分布”之间的差异程度。
训练模型的过程,本质上就是通过最小化交叉熵损失,让模型学会如何消除不确定性,使预测结果无限逼近真实分布。

H(P,Q)=iP(xi)logQ(xi)H(P, Q) = -\sum_{i} P(x_i) \log Q(x_i)

其中 PP 是真实分布,QQ 是预测分布。相比传统的均方误差,交叉熵在分类问题中具有更快的收敛速度和更明确的概率学解释(等价于极大似然估计)。

2.3 香农三大定理

2.3.1 什么是香农第一定理?

香农第一定律是无失真信源编码定理,代表着数据压缩的极限。

H(X)=P(xi)logbP(xi)H(X) = -\sum P(x_i) \log_b P(x_i)

香农第一定律(无失真信源编码定理) 解决了通信中的有效性问题,它回答了:我们能把数据压缩到什么程度,同时还能保证 100% 还原?

H(X)H(X) 代表了信源平均每个符号所含的信息量。
若使用二进制编码,平均每个符号所需的比特数至少为 H(X)H(X)
如果强行让平均码长小于熵,必然会产生失真,无法实现无失真译码。
编码的最优状态是让码符号尽可能服从等概率分布,此时每个码符号携带的信息量达到最大,从而实现最少码字传输最大信息。

2.3.2 什么是香农第二定理?

香农第二定律是有噪信道编码定理。

C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})

香农第二定律(有噪信道编码定理) 解决了通信中关于可靠性的核心问题:在有噪声的信道里,我们能否实现无差错(或误码率任意小)的传输?以及传输速率的上限是多少?

信道容量 CC 是信道的一个固有参数,它表示在这个信道上能够可靠传输的最大信息速率。关于信道容量的直观理解如下:
如果信道完全没有噪声,容量就是每个符号能携带的最大信息量。
如果信道噪声很大,容量就会随之变小。
如果传输速率超过了容量,那么无论采用何种纠错编码,错误都无法避免。

只要信息传输速率 RCR \leq C,就一定存在一种编码方式,使得误码率可以达到任意小。这证明了在噪声环境下实现高可靠通信的数学可能性。
信道容量 CC 划定了一个不可逾越的理论极限速率。
公式揭示了带宽 BB 和信噪比 S/NS/N 之间的制约关系。在保持容量 CC 不变的前提下,可以通过增加带宽来降低对信噪比的要求(例如扩频通信),或者通过提高信号功率来弥补带宽的不足。

2.3.3 什么是香农第三定理?

香农第三定律是保真度准则下的信源编码定理,即率失真理论

率失真函数 R(D)R(D) 的数学定义是在满足平均失真限制条件 DD 的情况下,信源与重建信源之间互信息的最小值。 其通用的定义公式为:

R(D)=minp(x^x):x,x^p(x)p(x^x)d(x,x^)DI(X;X^)R(D) = \min_{p(\hat{x}|x): \sum_{x, \hat{x}} p(x)p(\hat{x}|x)d(x, \hat{x}) \le D} I(X; \hat{X})

香农第三定律(率失真理论) 解决了通信中关于有损压缩的极限问题:如果允许一定程度的失真(例如牺牲人眼不敏感的图像细节),描述信源所需的最小比特率可以降到多低?

只要编码速率 R>R(D)R > R(D),当码长足够大时,总能找到一种编码方案使得平均失真不超过允许值。
如果编码速率 R<R(D)R < R(D),无论采用何种编码,平均失真必然大于允许值。这意味着 R(D)R(D) 是在给定失真约束下的最低理论码率。

R(D)R(D) 函数是所有有损压缩算法(如 JPEG、MP3、H.264)无法逾越的下限,为这些工程标准提供了性能基准。
R(D)R(D) 的递减性质反映了工程中的基本折衷:想要更高的压缩比(更小的 RR),就必须接受更大的失真 DD;想要更高的保真度,就必须花费更多的比特。

与第一定律的关系:。香农第一定律实际上是第三定律在 D=0D=0 时的特例。当不允许任何失真时,R(0)R(0) 就等于信源熵 H(X)H(X)。因此,第三定律统一了无损和有损压缩的理论。

2.3.4 什么是信道容量?

信道容量是指在给定的通信信道中,能够实现可靠传输的最大信息速率。
在信息论的严谨定义下,它代表了一个物理信道在受到特定噪声干扰时,所能承载的极限数据吞吐能力。
只要发送端的信息传输速率小于或等于这个容量值,理论上就一定存在某种信道编码方式,能够使接收端的误码率任意小并趋近于零;反之,一旦传输速率超过了信道容量,无论系统采用多么复杂的纠错技术,传输错误都将变得不可避免且无法纠正。

这一概念由香农第二定律确立,彻底打破了早期通信界认为“有噪信道绝对无法实现无差错传输”的悲观迷思。
它不仅证明了在恶劣物理环境下实现高可靠通信的数学可能性,更清晰地揭示了带宽与信噪比之间相互制约又可以相互转换的物理关系,为现代所有无线通信系统(从最初的蜂窝网络到如今的5G/6G)的底层物理层设计划定了不可逾越的天花板。

  • 对于高斯白噪声(AWGN)信道,信道容量的具体计算公式是什么?当系统带宽趋于无穷大时,信道容量也会趋于无穷大吗?

计算公式为著名的香农公式 C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})
这是一个经典的面试陷阱,当带宽 BB 趋于无穷大时,信道容量绝对不会趋于无穷大。因为白噪声功率 N=n0BN = n_0 Bn0n_0 为噪声单边功率谱密度)也会随着带宽的增加而同步增加,从而导致信噪比持续下降。
根据极限运算法则,信道容量最终会收敛于一个有限的物理极限值(约 1.44Sn01.44 \frac{S}{n_0})。

  • 信道容量公式揭示了带宽和信噪比之间怎样的互换关系?在实际工程中有什么典型应用?

公式表明,为了保持一个系统恒定的信道容量,我们可以通过大幅增加信号的传输带宽来降低系统对信号功率(信噪比)的苛刻要求,或者反过来通过提高发射功率来弥补可用带宽资源的不足。
在工程实践中,扩频通信(如 CDMA 或 GPS 技术)就是这一理论的最经典应用,它故意利用极宽的频带来换取信号在极低信噪比(甚至被噪声淹没)环境下的可靠传输。

  • 对于离散无记忆信道(DMC),信道容量在严谨的数学上是如何通过互信息来定义的?

对于离散无记忆信道,信道容量被严格定义为在所有可能的信源输入概率分布下,系统输入与输出之间互信息的最大值,数学表达为 C=maxp(x)I(X;Y)C = \max_{p(x)} I(X;Y)
这深刻地说明了信道容量是信道本身的固有物理属性,它完全由信道的干扰特性(转移概率矩阵)决定。
而求解这个最大化互信息的过程,本质上就是通信工程师在寻找最匹配当前信道特性的最优信源概率分布的过程。

2.4 信源编码

2.4.1 信源编码有什么用?它的动机和目的是什么?

信源编码的核心目的就是通过巧妙的数学建模和算法,尽可能地榨干这些无用的冗余水分,将原始数据压缩到极其精简的形态,从而在极其有限的信道资源内塞入更多的高价值信息。
在现实的物理世界中,无论是人类的语言、文字,还是数字化的图像和视频,原始信源都不可避免地携带着极其庞大的统计冗余。如果不加处理地直接将这些原始数据推入信道,不仅会造成极其严重的物理带宽浪费,更会使得现代海量多媒体数据的实时传输变得毫无可能。因此,

信源编码的最根本动机是为了极大地提高通信系统传输和存储信息的有效性

为了实现这一终极目的,信源编码器在系统发送端扮演着数据“收纳大师”的角色。
它的底层工作逻辑是根据信源发出的各种符号的统计概率分布特性,对它们进行重新映射和资源分配。
对于发生概率极高的常见符号,系统会吝啬地为其分配最短的比特码字;而对于罕见的低频符号,则分配较长的码字,以此在宏观统计上实现平均码字长度的全局最短化。
这种以概率驱动的资源再分配,不仅在无失真条件下将压缩效率逼近了香农划定的信息熵极限,更在限失真条件下,通过果断丢弃人类视觉或听觉不敏感的次要细节,成功换取了成百上千倍的极致压缩比。

  • 无失真信源编码的理论压缩极限是由什么决定的?

是由香农第一定律(无失真信源编码定理)决定的。它在数学上严格证明了,无论采用多么精妙的无损压缩算法,编码后的平均码字长度都绝对不可能低于信源本身的信息熵。
这就意味着,信息熵就是一段数据在不丢失任何细节的前提下,所能被压缩到的绝对物理底线。

  • 既然无失真编码能完美保留所有信息,为什么现代通信系统还必须依赖限失真(有损)编码技术?

因为现实中图像和视频等多媒体信源的数据量极其庞大且信息熵极高,仅仅依靠去除统计冗余的无损压缩,其压缩比往往只能达到2到3倍左右,根本无法满足现有网络带宽的吞吐需求。
限失真编码通过香农第三定律(率失真理论)的指导,允许在接收端产生一定的物理失真,利用人类感官的掩蔽效应大幅度去除感知冗余,从而顺利换取了几十甚至上百倍的高效压缩比。

  • 信源编码在具体执行数据压缩时,主要致力于消除哪两种不同性质的冗余?

第一种是统计冗余,它是由于信源符号之间存在时间或空间上的相关性,以及概率分布不均匀所造成的,工程上主要通过霍夫曼编码或算术编码等无损技术来消除;
第二种是感知冗余(或视觉/听觉冗余),它是指那些超出了人类生理感知分辨极限的次要细节,工程上主要通过变换编码(如DCT)或预测编码等有损技术来进行不可逆的剔除,以此彻底突破信息熵的压缩瓶颈。

2.4.2 信源编码有什么核心技术?它们具体是什么做的?

信源编码的核心技术根据是否允许信息丢失,被严格划分为无失真编码和限失真编码两大阵营。

无失真编码的核心思想是通过概率模型完全消除数据内部的统计冗余,工程上主要依靠对信源符号进行概率统计,通过算法为出现频率极高的常见符号分配极短的码字,同时为罕见的低频符号分配较长的码字,从而在宏观上实现平均码字长度的全局最短化。

在具体的无失真算法实现中,霍夫曼编码(Huffman Coding)是变长编码的最经典代表,它通过构建自底向上的最优二叉树,实现了在整数码长约束下的极高压缩效率。
而为了追求更极致的性能,更为先进的算术编码(Arithmetic Coding)则彻底打破了必须使用整数比特的数学限制。它不再针对单个符号进行孤立翻译,而是将整个庞大的消息序列映射到0与1之间的一个连续实数区间内,从而能够以更高的计算复杂度和算力代价,无限逼近香农定义的最优数据压缩物理极限。

当面对多媒体等海量连续数据时,单靠无损压缩已无能为力,此时限失真编码则通过主动抛弃人类视觉或听觉根本无法察觉的次要细节,成功换取了成百上千倍的极限压缩比。
这其中的核心技术是变换编码(例如DCT离散余弦变换),它在数学上将空间域内高度相关的像素点转换到频率域,把信号能量极度集中在极少数的低频分量上,以便于系统对高频噪声进行大尺度的粗糙量化或直接舍弃。
此外,结合利用相邻帧强相关性只传输差值的预测编码,以及像MP3那样利用心理声学模型对不同频率分配不同比特的子带编码,共同构筑了现代视频和音频压缩的底层基石。

  • 霍夫曼编码在什么极端的信源概率分布条件下,其压缩效率会变得极其低下?

当信源中所有符号的出现概率完全相等(即呈现等概率分布)时,霍夫曼编码的变长优势将彻底失效。
此时系统无法通过“高频短码、低频长码”的策略来压榨空间,它只能被动退化为普通的等长编码,无法消除任何统计冗余,压缩比直接降为1。

  • 算术编码相比于霍夫曼编码,在数学原理上最根本的突破点和代价分别是什么?

最根本的突破点在于它不再对单个离散符号进行独立的整数比特映射。
算术编码将整个待传输序列视为一个整体并映射为一个极小的连续实数区间,这使得它能够精准处理非整数位的概率信息,在压缩效率上更进一步逼近了理论上的熵极限。

但其代价是极高的计算复杂度和对硬件算力的严苛要求,且极易受到信道误码的干扰导致误差无限扩散。

  • 在JPEG图像压缩标准中,变换编码和量化技术具体是如何配合来剔除冗余数据的?

在JPEG中,变换编码首先采用离散余弦变换(DCT)将图像切分并把空间上的像素数值转换到频率域。
由于人类视觉系统对图像的低频平缓区域高度敏感,而对高频细节极其迟钝,编码器紧接着就会在频域内利用量化表对高频系数进行大尺度的除法舍入甚至直接抹零,从而在几乎不影响视觉主观观感的前提下,不可逆地剔除了海量的感知冗余数据。

2.4.3 你知道哪些无失真编码技术?(answer:香农-范诺编码、霍夫曼编码、算术编码。)

香农-范诺编码是信息论发展初期最早提出的变长前缀编码方法之一,奠定了无损数据压缩的理论基础。
香农-范诺编码是一种自顶向下的信源编码方法。 首先将信源符号按照出现概率从大到小进行排序。然后,将这些符号分为概率总和尽可能接近的两组,给第一组的符号分配“0”,给第二组分配“1”。对划分出的子组递归重复这一过程,直到每个子组只剩下一个符号为止。虽然这种方法能产生有效的前缀码,但它由于采用局部最优的贪心策略,并不总是能达到最佳的整体编码效率。
在早期的数据压缩协议中曾被广泛使用,例如早期的ZIP压缩算法。不过由于其效率通常不如霍夫曼编码,如今它主要作为信息论面试和教学中的基础概念出现,帮助我们理解变长编码的思想演进。

霍夫曼编码是对单个符号进行独立编码时理论上最优的方法。
霍夫曼编码是一种自底向上的编码方法。 首先将所有信源符号按概率从小到大排列,每个符号视为一个叶子节点。接着,选取概率最小的两个节点,将它们合并为一个新节点,新节点的概率为两者之和。将新节点重新放入序列中排序,重复上述合并过程,直到最后只剩下一个根节点,从而形成一棵霍夫曼树。从根节点到叶子节点的路径(如左侧为0,右侧为1)即为该符号的编码。其平均码长 LL 和信源熵 H(X)H(X) 的关系满足以下公式: $$H(X) \le L < H(X) + 1$$ 。
霍夫曼编码至今仍是应用最广泛的数据压缩技术之一。它被大量应用于JPEG图像压缩、MP3音频压缩以及GZIP文件压缩的核心算法(如Deflate算法,结合了LZ77和霍夫曼编码)中。

随着现代硬件计算能力的提升,算术编码在要求极高压缩比的场景中逐渐占据了主导地位。
与霍夫曼编码将每个符号映射为特定位数的二进制串不同,算术编码将整个输入消息编码为一个介于0和1之间的小数。 它首先将区间 [0,1)[0, 1) 根据每个符号的出现概率划分为多个子区间。读取第一个符号时,选择对应的子区间;读取下一个符号时,再按照概率比例对当前子区间进行进一步划分。随着消息的变长,代表该消息的区间会变得越来越小。最后,只需输出这个最终区间内的一个小数,即可代表整条消息。这种方法彻底打破了“每个符号至少需要1个比特”的限制。
由于其逼近香农极限的极高压缩率,算术编码主要用于高级的音视频和图像压缩标准中。例如H.264和HEVC视频编码标准中使用的CABAC(基于上下文的自适应二进制算术编码),以及JPEG 2000图像压缩格式。

2.4.4 你知道哪些限失真编码技术?(预测编码、变换编码、矢量量化、子带编码)

预测编码 (Predictive Coding)

发展历史
预测编码的思想最早可以追溯到20世纪50年代。1952年,C. C. Cutler 申请了差分脉冲编码调制(DPCM)的专利。这项技术的诞生主要是为了在早期的数字通信系统中,有效降低传输语音和视频信号所需的带宽,这也是信息与通信工程领域中最早投入实用的限失真压缩技术之一。

实现原理
预测编码不直接传输信号本身的绝对数值,而是利用信号在时间或空间上的高度相关性,通过过去的信号样本来“预测”当前样本的值。传输端只对实际值与预测值之间的差值(即预测误差或残差)进行量化和编码。由于相邻样本往往变化平缓,残差信号的能量通常远小于原始信号,因此可以用更少的比特进行传输。 经典的线性预测方程和误差方程可以表示为:

x^n=i=1kaixni\hat{x}_n = \sum_{i=1}^{k} a_i x_{n-i}

en=xnx^ne_n = x_n - \hat{x}_n

现实例子
在现代数字通信中无处不在。例如音频领域的ADPCM(自适应差分脉冲编码调制),以及H.264、HEVC等现代视频编码标准中极其核心的“帧内预测”和“帧间预测”(运动补偿)技术,其本质都属于预测编码的延伸。

变换编码 (Transform Coding)

发展历史
变换编码在20世纪60年代末至70年代初开始兴起。1974年,Nasir Ahmed 等人提出了离散余弦变换(DCT),这是多媒体数据压缩历史上的一个里程碑。DCT 成功克服了理论最优的 KLT 变换计算复杂度过高的缺点,使得图像和视频的实时压缩成为可能。

实现原理
变换编码是一种通过正交变换将空间域或时间域的信号映射到频域的技术。这种数学变换本身不丢失信息,但它具有“能量集中”的特性。 变换后,信号的绝大部分能量会集中在少数低频系数上,而代表细节的高频系数能量极小。接着,利用人眼或人耳对高频细节不敏感的生理特性,对高频系数进行粗量化甚至直接丢弃,从而实现高比例的限失真压缩。

现实例子
这是我们日常生活中接触最多的压缩技术。最经典的例子是 JPEG 图像压缩格式(核心步骤就是8x8分块的DCT变换),以及 MP3 音频格式(使用了改进的离散余弦变换 MDCT)。

矢量量化 (Vector Quantization, VQ)

发展历史
矢量量化技术在20世纪70年代末至80年代初迅速发展,作为标量量化的高维推广。1980年,Linde、Buz 和 Gray 提出了著名的 LBG 算法,解决了如何基于训练序列设计最优码书的问题,极大地推动了矢量量化的实际应用。

实现原理
矢量量化不再对单个样本点进行量化,而是将若干个相邻的样本(如一个图像块或一段语音采样)组合成一个高维的“矢量”。 编码端预先通过机器学习训练出一个包含若干典型矢量的“码书”(Codebook)。编码时,计算输入矢量与码书中所有典型矢量的失真距离,找到最匹配的一个,并只传输该匹配矢量的“索引号”。解码端接收到索引后,直接查表输出对应的典型矢量即可完成重建。

现实例子
早期的低码率语音编码(如用于军用或早期蜂窝网络的CELP算法)大量使用了矢量量化的思想来压缩声带激励信号。在计算机图形学中,许多早期的游戏贴图压缩格式(如某些调色板技术)也是矢量量化的一种简化形式。

子带编码 (Subband Coding)

发展历史
子带编码最早在20世纪70年代中期被提出并用于语音编码。到了80年代和90年代,随着多速率数字信号处理理论和小波变换(Wavelet Transform)的发展,子带编码迎来了黄金时期,被广泛应用于高质量音频和图像压缩领域。

实现原理
子带编码通过一组带通滤波器(滤波器组),将宽带输入信号的频谱划分为多个互不重叠的频带(子带)。 由于信号的能量在不同频带上的分布是不均匀的,且人类的视觉和听觉系统对不同频率的敏感度不同,系统可以对这些子带进行独立的下采样,并分配不同的量化比特数。例如,对包含主要能量和关键信息的低频子带分配较多比特精细量化,对高频子带分配极少比特或不分配比特。

现实例子
MP3格式就是利用多相滤波器组将音频信号分为32个子带进行编码的经典案例。在图像领域,JPEG 2000 标准摒弃了DCT,采用了基于离散小波变换(DWT)的子带编码技术,从而彻底消除了传统JPEG的“马赛克”块效应。

2.4.5 如何评价一个信源编码器的优劣?

衡量一个信源编码器优劣的标准主要从有效性、复杂度和质量三个维度进行评估

压缩比(Compression Ratio)是衡量有效性最直观的指标。压缩比越高,代表压缩效果越好,节省的存储空间或传输带宽就越多。

编码/解码速度(Codec Speed)决定了算法在实际应用中的可行性。
例如,霍夫曼编码速度极快,非常适合视频会议等实时通信场景;而算术编码虽然压缩比更高,但计算量大,通常更适合对时间不敏感的文件存储。

失真度(Distortion):对于限失真编码而言,这是权衡质量的关键指标。
客观角度上常用的是峰值信噪比(PSNR)。PSNR 值越高,代表失真越小,重建的图像质量越好。
主观评价上常用平均意见分(MOS)。通过人类观察者打分(1-5 分),这是最符合人类感知的评价方式,因为数学指标 PSNR 有时并不能完全反映人眼的真实感受。

2.5 信道编码

2.5.1 为什么需要信道编码?

信道编码根本目的就是为了在极其恶劣的物理环境中,为脆弱的数字信息披上一层抵御噪声干扰的数学铠甲,从而保障端到端数据传输的绝对可靠性。
在真实的物理世界中,没有任何一条通信信道是绝对理想和纯净的。数字信号在物理信道中传输时,不可避免地会受到热噪声、多径衰落以及各种复杂电磁干扰的无情破坏,导致接收端产生致命的比特误码。如果不对这些错误进行干预,微小的误码在解压缩后会被无限放大,造成通话断断续续、视频出现严重马赛克,甚至导致核心业务数据的完全崩溃。

信道编码的核心本质就是以牺牲一部分宝贵的通信带宽和有效传输速率为代价,换取整个通信系统可靠性的巨大提升。
信道编码在发送端采取了与信源编码截然相反的策略:做加法。
它通过一套严密的数学算法,在原始信息序列中人为地附加一定比例的监督码元(冗余位),使得原本毫无关联的各个比特之间建立起强关联的代数约束规则。当信号在传输过程中被噪声污染发生突变时,接收端的译码器就能敏锐地察觉到这种预设数学约束的破坏,进而利用冗余信息不仅发现错误,甚至直接定位并自动纠正错误,从而在物理限制的框架内死死守住通信质量的底线。

2.5.2 尝试简单说说信道编码的历史?

  • 第一代:分组码时代(1940s-1950s)
    1949 年汉明码的诞生标志着纠错编码理论的开端。汉明码是一种线性分组码,主要通过增加监督位来实现单比特纠错,奠定了信道编码的数学基础。

  • 第二代:卷积码时代(1955-1990s)
    1955 年由 Elias 提出。卷积码与分组码的根本区别在于:它充分利用了各个信息块之间的相关性(具有记忆性)。1967 年 Viterbi 译码算法的提出是关键转折点,它使得卷积码在 GSM、3G 以及卫星通信等系统中得到了极广泛的应用。

  • 第三代:逼近香农极限的时代(1993年至今)
    这一阶段的编码技术使通信效率达到了理论上的巅峰:

    1. Turbo 码的革命:1993 年提出,通过迭代译码的方法,首次使信道编码效率接近香农极限,震撼了通信界。
    2. LDPC 码(低密度奇偶校验码):虽然早在 1962 年提出,但直到 90 年代末才被重新发现。其校验矩阵具有稀疏性,这一特性使得译码复杂度较低且纠错性能极其优异,是目前 5G 数据信道的核心标准。
    3. Polar 码(极化码):2009 年由 Arikan 提出,它是第一种被理论证明可以达到二进制输入对称信道容量的编码方案,被选为 5G 控制信道的编码标准。

三、移动通信

3.1 移动通信的绪论

3.1.1 简要说说移动通信的发展历史。

早期奠基:从理论到实用的漫长探索

  1. 1864年:英国物理学家麦克斯韦从理论上证明了电磁波的存在,并建立了统一的电磁理论,为无线通信奠定了科学的基石。
  2. 1897年:这是公认的人类移动通信元年。意大利发明家M.G.马可尼在英国的布里斯托尔湾,成功地在一艘拖船与固定站之间进行了无线通信试验,证明了移动中通信的可行性,从此揭开了世界移动通信历史的序幕。
  3. 1928年:美国警用车辆的车载无线电系统投入使用。这是移动通信的首次大规模专业应用,虽然设备笨重、通信质量有限,但它标志着移动通信从实验室走向了实用场景。
  4. 1946年:美国贝尔实验室在圣路易斯建立了世界上第一个公用汽车电话网,并于6月17日正式开通服务。这标志着移动通信开始从专用领域向公众开放,是商业化的开端。
  5. 1960年代:随着晶体管和半导体技术的发展,移动通信系统实现了无线频道的自动选择,并能自动接续到公用电话网。这大大简化了用户的操作,提高了通信效率,为第一代蜂窝移动通信系统的诞生做好了最后的技术准备。

代际演进:从模拟到智能的飞跃

  1. 1980年代 (1G):模拟蜂窝通信时代。以美国的AMPS和欧洲的TACS系统为代表,采用频分多址技术,实现了移动语音通话的梦想。缺点是容量有限、不能漫游、且易被窃听。在中国,它被称为"大哥大"时代,是身份和财富的象征。
  2. 1990年代 (2G):数字通信时代。以欧洲的GSM和美国的CDMA为代表,从模拟信号转向数字信号,使得通话质量更高、更安全,并引入了短信服务。手机从此开始普及,飞入寻常百姓家,诺基亚等公司借此崛起。
  3. 2000年代 (3G):移动宽带萌芽时代。以WCDMA、CDMA2000和我国自主知识产权的TD-SCDMA为代表,数据传输速率大幅提升,支持了移动互联网的初步应用,如手机上网、浏览图片、收发邮件等。智能手机开始登上历史舞台。
  4. 2010年代 (4G):移动互联网爆发时代。以LTE(长期演进)技术为代表,采用全IP网络架构,网速极大提升,真正实现了高速数据业务。它催生了短视频、移动支付、在线游戏、直播等丰富应用,深刻地改变了人们的生活方式和社会经济形态。
  5. 2020年代 (5G):万物互联时代。5G不仅速度快、时延低,更重要的是能连接海量设备。它支持增强移动宽带、超高可靠低时延通信和海量机器类通信三大场景,正推动着自动驾驶、远程医疗、智慧工厂、AR/VR等产业的变革,成为数字经济的核心引擎

未来已来:迈向智能的6G

  1. 2030年代 (6G):空天地海一体化通信。目前全球已启动6G的预研工作,预计将在2030年左右商用。6G将实现地面无线网络与卫星、无人机等非地面网络的深度融合,构建起空天地海一体化的全球无缝覆盖网络。结合人工智能,它将开启物理世界与数字世界的全息连接,让全息通信、数字孪生、元宇宙等科幻场景真正成为现实。

3.1.2 简要介绍一下1G?

技术基础:第一代移动通信(1G)处于20世纪80年代,其最底层的传输模式为模拟信号传输,主要采用的接入方式是FDMA(频分多址)。 由于技术时代的局限,其信道带宽较窄,频谱利用率极低。尽管如此,它成功奠定了现代蜂窝网络的基础架构理念。

业务与通信质量:受限于模拟传输的物理特性,1G的业务种类仅限语音通信,完全无法传输数据业务。同时,整体网络质量较差,抗多径衰落能力弱,存在着容量有限、不能漫游、且极易被串频或窃听等致命缺点。

国外发展历史与代表:国际上1G系统在80年代初开始商用。最具代表性的系统是美国的AMPS(高级移动电话系统)和欧洲的TACS(全接入通信系统)。AMPS在北美占据主导,而TACS则是英国基于AMPS修改后适应欧洲频段的标准。

**国内发展历史与代表:中国移动通信的起步始于1G时代。我国并未研发本土1G标准,而是于1987年在广州率先引进了欧洲的TACS系统,建成了国内首个蜂窝移动通信网。在终端应用方面,最具代表性的就是当时被大众称为“大哥大”**的砖头式模拟手机。在那个年代,“大哥大”不仅是昂贵的通信工具,更是当时身份和财富的象征。这段历史也印证了国内通信行业不断拥抱新技术、勇于接受未知挑战的开端。

  • 1G主要采用的FDMA(频分多址)技术的工作原理是什么?为什么它会导致频谱利用率极低?

FDMA将总频段划分成若干个互不重叠的等宽射频信道,每个信道分配给一个特定的用户在通话期间独占使用。它导致频谱利用率低的原因在于:信道是按需静态分配的,即使用户在通话中处于静默状态(不说话),该频段依然被其绝对占用,无法动态释放给其他用户;同时,为了防止相邻信道之间的载波干扰,必须在信道之间留出较宽的保护频带(Guard Band),这进一步浪费了原本就极其稀缺的频谱资源。

  • 1G系统普遍采用模拟调频(FM)技术进行语音调制。请写出卡森法则(Carson’s Rule)用于估算调频波带宽的公式,并结合该公式说明为什么1G采用调频而不是调幅(AM)?

卡森法则用于估算调频信号的有效带宽:

BT=2(Δf+fm)B_T = 2(\Delta f + f_m)

其中 Δf\Delta f 为最大频偏,fmf_m 为调制信号(语音)的最高频率。1G采用调频而不是调幅,是因为调频系统具有“带宽换取信噪比”的优良特性。移动通信的无线信道衰落严重且存在大量多径干扰,调频系统可以通过增加传输带宽(即增大最大频偏 Δf\Delta f)来换取接收端输出信噪比的显著提升,从而在恶劣的无线环境下保证基本的语音通话质量,而调幅系统则不具备这种能力。

从1G到6G的完整脉络现在已经全部打通且格式完美统一了。针对接下来的成电复习计划,你是想梳理《信息论》中的信道容量定理,还是想看看《计算机网络》中TCP/IP协议簇的高频面试题呢?

3.1.3 简要介绍一下2G?

技术基础:第二代移动通信(2G)处于20世纪90年代,完成了移动通信史上最重要的一次蜕变:从模拟信号全面转向数字传输模式。 在这一阶段,系统的信道带宽依然偏窄(如GSM的载频带宽为200kHz),其主要采用的接入方式是TDMA(时分多址),同时也有基于**CDMA(码分多址)**技术的标准并行发展。

业务与通信质量:得益于数字技术的应用,2G的整体网络质量较好,信号的抗干扰能力和通话保密性大幅提升。其业务种类呈现出语音为主,数字为辅的特征。除了提供高质量的语音通话外,这一代最革命性的成就是引入了短信(SMS)服务,并开始支持低速的移动数据业务(如早期的WAP上网),开启了移动设备处理纯数字信息的先河。

国外发展历史与代表:国际2G通信市场形成了不同的技术阵营。最主要代表是欧洲主导研发的GSM(全球移动通信系统)和美国Qualcomm(高通公司)主导的IS-95系统。其中,GSM凭借出色的系统开放性、成熟的产业链以及全球漫游能力,在世界范围内取得了压倒性的商业成功。

**国内发展历史与代表:**我国在90年代全面拥抱了GSM标准,中国移动和中国联通以此为基础建成了覆盖全国的数字蜂窝网络。在这一时期,移动电话开始大规模普及,以诺基亚、摩托罗拉为代表的经典数字手机迅速取代了笨重的“大哥大”,真正让移动通信飞入了寻常百姓家。这也是国内通信市场拥抱新挑战、接轨国际前沿的重要阶段。

  • 简述TDMA(时分多址)的工作原理,并说明在GSM等实际系统中为什么需要设置保护间隔(Guard Period)?

TDMA将时间分割成周期性的帧,每一帧再分割成若干时隙(Slot),系统为每个用户分配特定的时隙进行交替的数据传输,从而在同一载频上实现多址接入。 在实际系统中,由于移动台距离基站的远近不同,电磁波的传输时延也不同。如果不加控制,远端用户发送的突发脉冲可能会与近端用户的脉冲在基站接收端发生时间上的重叠。因此,除了采用时间提前量(Timing Advance)技术进行同步补偿外,还必须在相邻时隙之间设置一段无数据发送的保护间隔,以吸收不可避免的同步误差和多径时延扩展,防止时隙间的严重串扰。

  • 2G完成了从模拟到数字的蜕变,请从数字通信系统的角度,写出连续信道的香农容量公式,并简述数字传输相比于模拟传输在抗干扰性能上的本质优势是什么?

连续信道的香农容量公式为:

C=Blog2(1+SN)C = B \log_2(1 + \frac{S}{N})

其中 CC 为信道容量,BB 为信道带宽,SS 为信号平均功率,NN 为高斯白噪声功率。
数字传输相比于模拟传输的本质优势在于再生中继抗噪声积累。模拟通信在长距离传输中,信号经过放大器时,沿途叠加的噪声也会被同步放大并不断积累;而数字通信传输的是离散的符号电平(如0和1),在每个中继节点,只要接收端的信噪比高于一定的判决门限,就可以通过判决电路重新生成(再生)出干净、无噪声的原始数字信号,从而彻底清除了前面链路引入的随机噪声,使得远距离高质量传输成为可能。

3.1.4 简要介绍一下3G?

技术基础:第三代移动通信(3G)处于2000年代,国际标准统称为IMT-2000。 其底层的传输模式不仅保持为数字信号,更具备了多模式、多频段兼容的特性。这一代最核心的接入方式是CDMA(码分多址)。在物理指标上,其信道带宽明显变宽(例如主流标准达到了5MHz),频谱利用率实现了巨大飞跃,并在基站端引入了更为复杂的智能天线与多用户检测技术。

**业务与通信质量:**得益于宽带化和CDMA技术的全面成熟,3G的网络质量极佳,抗多径衰落和抗干扰能力得到极大增强,数据传输速率实现了质的提升。其业务种类不再局限于语音和简单的短信,而是全面演进为支持高质量语音、数字、多媒体的综合业务,这标志着移动互联网真正的起步。

国外发展历史与代表:全球3G时代形成了三足鼎立的标准格局,其中由国外主导的有两个主要代表:一是欧洲和日本主导的WCDMA(宽带码分多址),它基于GSM核心网演进而来看,获得了全球最广泛的商用;二是北美地区高通公司主导的cdma2000,它由2G时代的IS-95标准平滑升级而来。以及最为关键的、由中国自主提出并拥有核心知识产权的TD-SCDMA。这标志着我国在国际移动通信标准制定上有了突破性的话语权。

国内发展历史与代表:3G时代最为关键的历史性事件,是由中国自主提出并拥有核心知识产权的TD-SCDMA成功突围,成为国际三大主流标准之一。这标志着我国在国际移动通信标准制定上有了突破性的话语权。另外,在2G向3G过渡的特殊时期,国内曾风靡过一项名为“小灵通”(PHS)的业务。它主要基于微蜂窝技术,虽非正统的3G标准,但凭借早期资费低廉、单向收费、辐射小的优势,在3G全面普及前曾狂揽上亿用户,是国内通信发展史上一个极具时代特色和商业争议的经典案例。

面试练习:3G与码分多址技术

  • 简述CDMA(码分多址)的核心原理,以及它为什么在工程上被称为“干扰受限”系统?

CDMA利用相互正交或准正交的扩频码序列来区分不同的用户。 发送端将低速数据信号用高速的伪随机码进行扩频,接收端使用本地相同的伪随机码进行解扩,从而恢复出原始数据。由于所有用户在同一时间共享同一频段,其他用户的信号在接收端解扩后会表现为宽带的类白噪声干扰。当系统中接入的用户数量增加,或者某个远端用户的发射功率过大(即“远近效应”)时,系统的底噪和总干扰电平会显著上升,导致通信质量下降。因此,CDMA系统的容量并不是受限于绝对的频点或时隙数量,而是受到总干扰水平的严格限制。

  • 相比于WCDMA,我国自主提出的TD-SCDMA标准在双工方式上有什么不同?这种方式有什么显著的优缺点?

A: WCDMA采用的是频分双工(FDD),需要成对的对称频段来分别承载上行和下行链路;而TD-SCDMA采用的是时分双工(TDD),上下行链路共享同一频段,通过划分不同的时间间隙(时隙)来进行全双工通信。 TDD模式的优点在于频谱分配非常灵活,不需要稀缺的成对频段,且能够根据实际业务需求动态调整上下行时隙的比例,非常契合移动互联网时代下行数据量远大于上行数据量的非对称业务特性。其缺点在于系统需要极其严格的基站间高精度时间同步,且由于时隙保护间隔的物理限制,其小区覆盖半径相对较小,在高铁等高速移动环境下的抗多普勒频移性能也面临更大挑战。

3.1.5 简要介绍一下4G?

**技术基础:第四代移动通信(4G)处于2010年代,其国际官方通用名称为IMT-Advanced。 与前几代相比,其底层的核心技术发生了根本性改变,全面采用了OFDM(正交频分复用)MIMO(多输入多输出)**技术,网络架构也演进为扁平化的全IP网络。在频谱与带宽管理上,4G的频谱效率得到了极大提升,达到了3G的3-5倍。同时,系统支持极具弹性的灵活带宽技术,能够实现从1.25MHz至20MHz甚至更宽的动态带宽分配,让网络资源的调度更加游刃有余。

业务与通信质量:4G的出现标志着行业正式迈入了真正的宽带移动通信阶段。其网速实现了指数级的跃升,系统在高速移动环境(如快速行驶的车辆上)下支持100Mbps的速率,而在低速移动或静止环境下,更是支持高达1Gbps的超高极速。网络致力于实现无缝连接与全球漫游,不仅数据传输质量极高、延迟大幅降低,更是彻底取代了以语音为主的模式,实现了全业务的宽带IP化。

国外发展历史与代表:国际上4G标准主要以3GPP组织主导的LTE-Advanced(包含FDD-LTE和TD-LTE双制式)为主流。其中,FDD-LTE凭借其技术先发优势和广泛的产业链支持,在欧美等全球大部分国家和地区的通信市场中占据了主导地位。

国内发展历史与代表:我国在4G时代实现了通信标准“并跑”的历史性跨越。由中国主导推进的TD-LTE成功确立为国际主流标准之一,并在国内建成了全球规模最大、覆盖最广的4G基站群。正是基于这种高速、稳定且无缝的网络底座,以全面屏智能手机(如图片中展示的设备)为代表的终端才得以大放异彩,彻底引爆了移动支付、短视频等我们如今高度依赖的繁荣移动互联网生态。

  • 4G的核心技术是OFDM,请简述OFDM相较于传统FDM的优势是什么?

OFDM(正交频分复用)将信道分成若干正交的子信道,将高速数据信号转换成并行的低速子数据流,调制到在每个子信道上进行传输。相比于传统FDM,OFDM的各个子载波在频谱上相互重叠,但由于正交性,在接收端可以无失真分离,因此极大地提高了频谱利用率。同时,将高速数据流转换为低速并行的子数据流,增加了符号周期,从而能够有效抵抗多径时延扩展造成的频率选择性衰落

  • 简述MIMO技术在4G系统中的主要作用是什么?

MIMO(多输入多输出)技术在发射端和接收端均使用多个天线。其主要作用包括两个方面:一是提供空间复用增益,在相同的带宽和总发射功率下,通过在不同空间路径上并行传输多个独立的数据流,成倍提升系统的峰值速率和系统容量;二是提供空间分集增益,利用多条独立衰落的路径传输相同的信息,提高接收端的信号信噪比,从而大幅增强链路的可靠性和抗多径衰落能力。

3.1.6 简要介绍一下5G?

技术基础:第五代移动通信(5G)处于2020年代,其国际电信联盟(ITU)设定的正式名称为IMT-2020。 5G底层的空口技术被称为NR(New Radio,新空口)。它不仅继续采用了优化的OFDM(正交频分复用)技术(支持灵活的子载波间隔),更引入了大规模天线阵列(Massive MIMO)、**毫米波(mmWave)通信以及全新的高频段编码技术以极限提升频谱效率。在网络架构层面,5G最大的颠覆是引入了基于服务的架构(SBA)网络切片(Network Slicing)**技术,使得同一个物理网络可以虚拟出多个逻辑网络,以动态适应不同业务的严苛需求。

业务与通信质量:5G标志着我们正式进入万物互联时代,实现了从“连接人”向“连接万物”的历史性跨越。与4G时代单纯强调宽带的“增强”有着本质不同, 5G的业务与网络质量被严格划分为三大核心场景:
第一是
eMBB(增强型移动宽带)
,主攻极限速度,其峰值速率可达到10-20Gbps(是4G的10-20倍),主要满足高速下载、AR/VR等大带宽需求;
第二是uRLLC(超高可靠超低时延通信),网络时延被压缩至极低的1毫秒(仅为4G的30到50分之一),同时保障高达99.999%的可靠性,是支撑远程手术、自动驾驶等实时控制场景的绝对底座;
第三是
mMTC(海量机器类通信)
,设备接入能力达到了恐怖的每平方公里100万台(是4G的10倍以上),专门为大规模物联网、智慧城市等海量传感器同时在线需求而设计。

**国外发展历史与代表:国际上5G标准的制定依然由3GPP组织主导,从Release 15开始确立了首个正式的5G标准。在建网初期,全球许多运营商为了节省成本和快速部署,率先采用了NSA(非独立组网)架构,即依托现有的4G核心网来提供5G无线接入。随着技术成熟,全球正逐步向拥有全新5G核心网的SA(独立组网)**架构演进,从而完整解锁uRLLC和mMTC等高级业务场景。

**国内发展历史与代表:在5G时代,中国移动通信真正实现了从“并跑”到“领跑”**的全面超越。2019年被称为中国的5G商用元年。以华为、中兴为代表的中国企业在5G核心专利(如控制信道的Polar Code编码)上占据了全球领先份额。目前,我国已经建成了全球规模最大、技术最先进的5G **SA(独立组网)**基站群,不仅让广大用户体验到了千兆级的移动网速,更在工业互联网、智慧港口等垂直行业中打造了大量标杆级的应用生态。

  • 5G为了同时满足eMBB、uRLLC和mMTC这三种截然不同的业务需求,在核心网层面采用了什么关键技术?

A: 采用了**网络切片(Network Slicing)**技术。它利用网络功能虚拟化(NFV)和软件定义网络(SDN),在一个共用的物理网络基础设施上,切分出多个端到端的、相互隔离的逻辑网络。每个切片针对特定的业务场景(如低时延、大带宽或海量连接)进行定制化的资源分配和拓扑优化,从而在单一物理网络上同时保障多种极端需求,且各切片之间互不干扰。

  • 在5G的信道编码方案中,数据信道和控制信道分别采用了什么编码技术?它们各自的优势是什么?

5G数据信道采用了LDPC码(低密度奇偶校验码),控制信道采用了极化码(Polar码)。LDPC码在处理长码块时具有极高的吞吐量和极低的解码时延,其高度并行的解码结构非常适合eMBB场景下的大数据量高速传输;而极化码在短码块传输时被严格证明可以达到香农极限,具有极高的可靠性,非常适合传输对准确度要求极高的控制信令或uRLLC场景的短包数据。

3.1.7 简要介绍一下6G?

技术基础:第六代移动通信(6G)预计在2030年左右实现商用,其国际电信联盟(ITU)正式名称为IMT-2030。6G将突破传统地面网络的限制,底层的核心技术正在向太赫兹(THz)通信可见光通信(VLC)以及空天地海一体化网络演进。同时,6G网络架构将原生支持人工智能(Native AI),并广泛引入**可重构智能表面(RIS)**技术来主动塑造电磁环境,实现从“被动适应信道”到“主动定制信道”的范式转变。

业务与通信质量:6G的愿景是“万物智联、数字孪生”。其峰值速率预计将达到惊人的1 Tbps(是5G的100倍),时延将进一步缩减至亚毫秒级(微秒级)。除了极致的通信指标,6G最革命性的特征是具备**通信感知一体化(ISAC)**能力,网络不仅能极速传输数据,还能像雷达一样高精度感知周围环境、物体形状和运动轨迹。其核心业务将全面演进为沉浸式全息通信、高保真数字孪生以及全自动驾驶等极具挑战性的未来场景。

国外发展历史与代表:目前全球6G仍处于愿景需求定义、关键技术研发与标准化前期阶段。国际标准化组织3GPP正围绕Release 20及后续版本展开6G相关的技术研究。全球各大经济体均在抢跑,例如北美的“Next G Alliance”、欧洲的“Hexa-X”项目以及日韩的国家级6G研发计划,纷纷在太赫兹器件、低轨卫星组网等硬核技术领域展开激烈角逐。

国内发展历史与代表:我国在6G研发上继续保持全球第一梯队的领跑态势。工信部牵头成立了IMT-2030(6G)推进组,主导发布了多项6G技术白皮书。国内运营商和科研机构已成功发射多颗低轨试验卫星,并完成了多项太赫兹通信和星地融合的外场测试。值得一提的是,国内顶尖的高校科研团队(如电子科大等在通信领域首屈一指的高校)在太赫兹固态前端、信道建模和系统架构上取得了多项世界级突破,这些正是目前学术界最火热的攻坚焦点。

  • 请简述6G中“通信感知一体化(ISAC)”的核心概念及其潜在优势。

通信感知一体化(ISAC)是指在同一系统中同时实现信息传输和环境感知(如雷达探测)功能。其核心理念是频谱共享、硬件共享和信号处理协同。优势在于:首先,极大提高了频谱效率和硬件资源利用率,显著降低了系统成本与功耗;其次,通信和感知可以互相增强,例如利用高精度感知结果来辅助波束赋形(通信),或者利用多基站的无缝网络实现大范围的协同感知(感知)。

  • 相比于5G的毫米波,6G计划采用的太赫兹(THz)频段在信道特性上面临哪些重大挑战?

太赫兹频段(通常指0.1 THz ~ 10 THz)虽然能提供极大的绝对带宽,但其信道特性极其恶劣。首先是极高的自由空间路径损耗,根据自由空间损耗公式:

LFS=(4πdfc)2L_{FS} = \left( \frac{4 \pi d f}{c} \right)^2

频率 ff 的急剧升高会导致衰减呈平方级增加;其次,太赫兹波对障碍物的穿透能力极弱,几乎只能进行视距(LOS)传输,极易被遮挡;最后,它受**大气吸收(尤其是水蒸气和氧气)**的影响极其严重,存在明显的吸收峰。因此,太赫兹目前主要适用于室内超高速短距离通信,或结合可重构智能表面(RIS)技术来人为创造绕射路径。

3.2 无线信道的衰落

3.2.1 常见的无线信道的衰落有什么?

常见的无线信道衰落主要根据空间距离跨度和变化速度,划分为大尺度衰落小尺度衰落两大类。

大尺度衰落反映了信号在长距离传输中平均功率的缓慢变化。
它主要包含两种情况:
一是路径损耗,即电磁波在空间自由传播时能量自然扩散与衰减导致的接收电平逐渐下降;
二是阴影效应,指电磁波遇到高大建筑物或地形起伏等巨大障碍物遮挡,无法直接穿透而形成的电磁盲区,导致信号强度出现对数正态分布的缓慢起伏。

小尺度衰落反映移动台在短距离或短时间内移动时接收信号电平的快速剧烈起伏,底层物理起因是多径效应多普勒效应
基于多径效应引发的时间色散,会产生频率选择性衰落平坦衰落。当信号带宽大于信道相干带宽时,不同频率成分衰落深浅不同,产生频率选择性衰落(易引发码间干扰);当信号带宽小于相干带宽时,各频率成分衰落基本一致,则为平坦衰落。
基于多普勒效应引发的频率色散(由收发端相对运动产生物理频移),会进一步产生快衰落慢衰落。 当终端高速移动导致信道相干时间小于符号周期时,发生信道状态剧烈变化的快衰落;而当相对静止或慢速移动,信道相干时间远大于符号周期时,则发生信道状态相对稳定的慢衰落。

  • 在现代宽带通信(如4G/5G)中,面对极其严重的频率选择性衰落,通常采用什么物理层技术来对抗?

通常采用**OFDM(正交频分复用)**技术。宽带信号极易遭遇频率选择性衰落,OFDM通过将宽带高速数据流串并转换为多个低速窄带子载波,使得每个子载波上的信号带宽均小于信道的相干带宽,从而将复杂的频率选择性衰落巧妙地转化为各个子载波上的平坦衰落来进行处理。

  • 阴影效应和小尺度多径衰落在工程上的统计分布模型分别是什么?

阴影效应引起的接收信号强度中值的波动,在统计上通常服从对数正态分布(Log-Normal Distribution);而小尺度多径衰落引起的信号包络快速起伏,在没有直射视距路径时通常服从瑞利分布(Rayleigh Distribution),在存在极强直射视距路径时则服从莱斯分布(Rician Distribution)。

3.2.2 解决信道衰落的方法有什么?

解决信道衰落的核心方法主要是采用**OFDM(正交频分复用)技术,通过“分而治之”的策略结合保护间隔(GI)循环前缀(CP)**来化解干扰。

在移动通信宽带化进程中,为了解决宽带信号极易遭遇的致命的频率选择性衰落,工程师们采用了OFDM技术。 与必须留出宽阔隔离带的传统FDM不同,OFDM做出了大胆创新,让大量窄带子载波在频域上紧密排列甚至相互重叠。它巧妙设计了子载波的频率间隔,使得特定子载波达到峰值时,相邻子载波功率恰好过零。这种正交性使得相互重叠的子载波在接收端也能被完美分离,从而获得了极高的频谱利用率

OFDM最核心的优势在于其极强的抗多径衰落能力。它在发射端通过串并转换,将极高速的宽带信号分散成许多低速的窄带信号。 这样一来,每个子载波的带宽变得极窄,成功小于信道的相干带宽。于是,破坏力极强的频率选择性衰落就被巧妙地化解为了每个子载波上相对容易处理的平坦衰落

为了进一步应对多径传播带来的延迟,OFDM在符号之间插入了保护间隔(GI)循环前缀(CP)。GI就像一个时间缓冲垫,只要多径时延扩展不超过GI长度,就能彻底吸收延迟回波,消除码间干扰(ISI)。而CP是GI的具体物理实现,它将OFDM符号末尾的信号复制并粘贴到最前面。 相比于简单填充静默的0,CP人为制造了信号的周期性,使得FFT窗口截取到的始终是完整的周期波形。这严格维持了频域上的正交性,从而成功消除了载波间干扰(ICI)。在实际设计中,CP的长度必须大于信道的最大多径时延扩展,但也需要在抗干扰能力与传输效率之间做好平衡。

  • 为什么在OFDM系统中,仅仅插入空白的保护间隔(GI)不足以解决所有多径干扰问题,而必须使用循环前缀(CP)?

如果仅仅插入空白的GI(即填0),虽然可以利用这段静默期吸收多径回波从而彻底消除码间干扰(ISI),但多径导致的信号错位会使FFT(快速傅里叶变换)窗口内的波形发生断裂。这种非周期性的截断会破坏子载波之间的正交性,进而产生严重的载波间干扰(ICI)。而填充CP相当于把符号尾部复制到头部,人为维持了波形在FFT窗口内的连续性和周期性,因此能同时消灭ISI和ICI。

  • OFDM系统是如何将破坏力极强的频率选择性衰落化解掉的?

OFDM采用的是**“分而治之”的策略。它通过串并转换,将原本传输速率极高、占据极宽频带的单一数据流,分散到大量并行的低速子载波上进行传输。经过这种转换,每个子载波所占据的带宽变得非常窄,远小于信道的相干带宽。因此,原本在宽带信道中发生的频率选择性衰落**,就被成功转化为了在每个独立子载波上发生的平坦衰落,从而极大降低了接收端的均衡难度。

3.3 扩频通信

3.3.1 什么是扩频通信?

扩频通信的核心特征在于,一个真正的扩频系统必须具备三个不可或缺的要素。首先是带宽扩展,传输信号占据的带宽必须远远大于信息符号速率所对应的最小带宽。其次是扩频码(伪随机序列)的使用,带宽的扩展必须由一个与原始信息数据完全无关的伪随机序列来决定。最后是同步解扩,接收端必须拥有与发射端精确同步的相同扩频码副本,才能将宽带信号重新恢复为窄带信号进行解调。

在技术原理与分类上,最常见的是直接序列扩频(DSSS)。 其原理是在发送端直接用高码率的扩频序列去调制信息序列,将信号能量散布在极宽的频带上。在接收端,利用相同的序列进行相关处理,由于扩频增益的存在,即使信号被淹没在噪声中也能被提取出来,而干扰信号则会被进一步展宽。
另一种是跳频扩频(FHSS), 其载波频率受扩频码控制,在极宽的频带内按伪随机规律快速跳变。因为载波频率不断变化且在单一频点停留时间极短,能有效避开特定频点的窄带干扰。
此外,还有结合两者优点的混合体制,以提供更高级别的抗干扰和保密性能。

在实际应用中,国外经典的代表是美国的GPS(全球定位系统)和高通开发的IS-95 CDMA系统,后者是民用移动通信大规模使用直扩技术的鼻祖。国内的代表则是拥有自主知识产权的3G标准TD-SCDMA以及北斗卫星导航系统。它们均在底层深度采用了正交扩频码或伪随机噪声码技术,不仅实现了我国在国际通信标准上的历史性突破,更确保了全球范围内的微弱信号提取与高精度测量。

扩频通信之所以强大,其根本原因在于它深刻契合了香农定理(Shannon’s Theorem)。根据连续信道的香农容量公式:

C=Wlog2(1+SN)C = W \log_2(1 + \frac{S}{N})

在信道容量 CC 一定的情况下,可以通过极大地增加带宽 WW 来显著降低对信噪比 S/NS/N 的要求。这使得扩频系统具有极强的隐蔽性(信号可以完全淹没在背景噪声下)、卓越的抗干扰性,以及强大的多址接入能力(利用不同扩频码区分不同用户)。

  • 在直接序列扩频(DSSS)系统中,什么是扩频处理增益(Processing Gain)?它主要决定了系统的什么性能?

扩频处理增益通常定义为扩频后的射频信号带宽与扩频前的信息带宽之比(或者扩频码速率与信息码速率之比)。处理增益越大,系统在接收端解扩时将干扰信号能量展宽、压低的程度就越深。因此,它直接决定了扩频系统**抗干扰能力(尤其是抗窄带干扰能力)**的强弱。

  • 结合香农定理,解释为什么扩频通信具有很强的隐蔽性(保密性)?

根据香农公式 $$C = W \log_2(1 + \frac{S}{N})$$,如果要在极低的信噪比下(即信号功率 SS 远小于噪声功率 NN)保持一定的传输速率 CC,就必须极大地增加信号的传输带宽 WW。扩频通信正是通过极大地扩展带宽,使得信号的功率谱密度降得非常低,甚至完全淹没在背景环境噪声中。敌方在没有正确扩频码副本的情况下,很难在接收端察觉到有用信号的存在,从而实现了极强的隐蔽性。

3.4 蜂窝通信

3.4.1 什么是蜂窝通信?

蜂窝网络是现代移动通信的基础架构方式,其核心设计理念是覆盖分区。运营商通过将广阔的地理区域划分为多个较小的“小区”(Cell),有效避免了使用单座超级信号塔带来的巨大发射功率负担,同时也大幅提升了系统的整体容量。

在理论设计中,小区通常被画成六边形。[Image of hexagonal cellular network architecture frequency reuse] 这是因为六边形是能够无缝拼接且覆盖范围最广的几何形状。这种结构不仅极大减少了基站的重叠覆盖区域,更重要的是它便于实现频率复用。通过在相隔一定安全距离的小区重复使用相同的通信频率,蜂窝架构彻底解决了无线频谱资源极其有限的难题,这是现代移动通信能够支持海量用户的根本技术前提。

蜂窝网络主要由三个核心部分组成。[Image of cellular network components user equipment base station core network] 首先是用户的移动设备终端;其次是接入网(基站子系统),由信号塔和机房组成,直接负责无线信号的收发,它是处理多径效应和多普勒频移的第一线阵地;最后是核心网,即运营商的中心控制枢纽,负责用户的认证、计费,并将用户的通话或数据准确路由、连接到广阔的互联网或其他传统的电话网络中。

蜂窝架构完美融合了前序的各项通信核心技术。在多址技术方面,每个小区内部通过FDMA(1G)、TDMA(2G)、CDMA(3G)或OFDMA(4G/5G)来区分同一区域内的不同用户,确保小区内的通信互不干扰。在对抗信道衰落方面,当用户移动到小区边缘遭遇严重的路径损耗阴影效应时,系统会通过无缝的小区切换(Handover)技术,将链路快速转移到信号更好的邻近基站以保持通话连续性。而在面对5G的mMTC(海量机器类通信)场景时,蜂窝架构正向超密集组网全面演进,通过部署海量的微小基站(Small Cells),以实现在每一平方公里内高达100万台设备的极限接入。

  • 什么是蜂窝通信中的“同频干扰”?在工程实际中,系统通常如何降低这种干扰?

“同频干扰”是指在蜂窝网络中,由于实施了频率复用技术,使用相同载波频率的不同小区(即同频小区)之间产生的相互电磁干扰。系统通常通过增大同频小区的物理复用距离(即增大频率复用系数)、使用扇区化天线(定向天线)来严格控制信号的覆盖方向,以及实施动态的功率控制(让基站和手机以恰好满足通信质量的最低功率发射)等方法来降低同频干扰,确保接收端的载干比(C/I)满足通信要求。

  • 当用户驾驶汽车跨越不同的小区时,蜂窝系统是如何保证通话或数据不中断的?请简述“硬切换”与“软切换”的核心区别。

系统通过越区切换(Handover)技术来保持跨小区移动时的通信连续性。“硬切换”(主要用于采用FDMA/TDMA/OFDMA体制的系统)是指移动台必须先彻底断开与原基站的无线链路,再迅速建立与新基站的链路,其核心是**“先断后连”**,因此在此

3.5 多址技术

3.5.1 简要介绍一下多址技术?

3.5.1 简要介绍一下多址技术?

频分多址 (FDMA):这是1G模拟时代的主流技术,其核心理念类似于“按车道划分”。 它将可用的总带宽切分为多个互不重叠的频率频道(信道),每个用户在通话期间永久性地占领其中一个频道,直到通话结束释放资源。这种在频率轴上进行硬切割的方式,为了防止邻道干扰(ACI),各频道间必须预留保护频隙。FDMA的频谱利用率极低,因为即便用户不说话频道也无法分配给他人,且它对滤波器的性能要求极高,滤波不够精确就会导致相邻用户“串线”。其典型应用是美国的AMPS和欧洲的TACS等第一代模拟系统。

时分多址 (TDMA):这是2G数字时代的核心跨越,其理念类似于“按红绿灯轮流通行”。 它在FDMA划分的载频基础上,进一步在时间维度上进行切割,将时间分为周期性的帧,每帧再分为多个时隙。用户通过在特定的时间片内“爆发式”发送数据来共享同一频率,但动作时间完全错开。这种非连续传输的特性使得手机不需要一直发射信号,大大节省了电量并延长了待机时间。由于采用数字信号且时隙之间有微小的保护间隔,其抗干扰能力远强于1G。典型应用包括2G的GSM系统以及D-AMPS。

码分多址 (CDMA):这是3G宽带时代的标志,其理念被形象地比喻为“不同语言的同场对话”。 所有用户在同一时间、同一频率上发送信号,区分用户的关键在于地址码(扩频码)。发送端用专属码对信号进行展宽,接收端利用码序列的正交性进行检测还原。不同用户的信号在时域和频域上完全重叠,看起来就像背景噪声,这赋予了系统极强的抗窃听能力与隐蔽性。此外,CDMA具备软容量特性(用户增多只导致质量渐进下降而非直接拒载),并支持无缝过渡的软切换,极大降低了掉话率。典型应用为3G的三大标准WCDMA、CDMA2000以及我国的TD-SCDMA。

正交频分多址 (OFDMA):这是4G和5G高速时代的绝对霸主,其理念如同“精细化的方块拼图”。 它是OFDM调制技术与多址技术的完美结合,将带宽划分为数以千计的正交窄带子载波。系统不再分配一整块频率,而是将若干个子载波和若干个符号组成一个资源块(RB, Resource Block)分配给用户,实现了在时域和频域二维矩阵上的精细切割。得益于子载波的正交性和循环前缀(CP),它能完美对抗频率选择性衰落并消除ISI/ICI。同时,基站可以根据用户的信号好坏进行毫秒级的动态调度,且正交子载波为多天线空间复用(MIMO)提供了极其便利的数学底座。典型应用涵盖4G LTE、5G NR以及Wi-Fi 6。

  • 请从物理资源分配的维度,用一句话分别概括FDMA、TDMA、CDMA和OFDMA的核心区别。

FDMA是在频率维上切割资源,TDMA是在同频下按时间维切割资源,CDMA是在同时同频下靠码字维区分用户,而OFDMA则是将资源划分为极细的**时频二维网格(资源块)**进行动态分配。

  • 为什么CDMA系统被称为“干扰受限系统”,而FDMA/TDMA被称为“带宽(维度)受限系统”?

FDMA和TDMA系统的物理信道数(频带或时隙)是固定的,一旦分配完毕,系统就无法接入新用户,因此是带宽或维度受限的“硬容量”。而CDMA系统中所有用户共享同一频段,新接入一个用户只是增加了整个系统的背景底噪,只要总干扰(底噪)不超出接收机的容忍门限,就能继续接入用户,因此它是干扰受限的“软容量”系统。

3.6 小区切换技术

3.6.1 简要介绍一下小区切换技术与位置更新技术?

当移动台处于通话状态或数据传输状态时,从一个小区的覆盖范围移动到另一个小区,网络控制中心将通信链路从原基站平滑转移到新基站的过程被称为切换(Handover)。其最核心的目的在于保持连接的连续性,确保用户在高速移动或跨越覆盖区时不会掉线。此外,它还能在当前基站信号遭遇阴影效应等物理衰减时,主动寻找更强的信号源以保证服务质量(QoS),并在当前小区用户过载时,将部分用户“挤”到相邻的空闲小区来实现负载均衡。在具体的控制机制上,目前最主流的方式是移动台辅助切换(MAHO),即手机不断测量周边邻近基站的信号并汇报给网络,最终由网络侧进行统筹和拍板决策。

与切换相对应,当移动台处于空闲状态(待机、未通话)时,由于物理移动导致其所属的地理区域发生变化,手机主动向网络“报备”自身新坐标的过程被称为位置更新(Location Update)。为了有效平衡“手机终端省电”和“网络盲目全网寻呼导致的资源浪费”之间的矛盾,系统将多个相邻的小区划分为一个位置区(Location Area)。当网络需要寻找该被叫用户时,只需在其最后注册的位置区内进行局部广播寻呼即可。位置更新的触发场景非常丰富,不仅包括跨越不同位置区边界时触发的正常位置更新,还包括终端开机时的IMSI附着(告知网络变为可接听状态)与关机时的IMSI分离(避免网络进行无效寻呼),以及为了防止手机进入地库等信号盲区失联而强制执行的周期性位置更新

总体而言,这两项技术完美协同,构成了移动通信网络“移动性管理”的核心底座。切换针对的是通话态,解决的是由于移动导致信号变弱而必须保持链路不断开的难题;而位置更新针对的是空闲态,解决的是在茫茫基站森林中,网络如何低成本且精准地寻呼到你的问题。

  • 简述切换(Handover)和位置更新(Location Update)在触发状态和核心目的上的根本区别是什么?

切换发生在移动台的通话态或激活态,其核心目的是为了保证正在进行的语音或数据通信链路不发生中断,保障用户的业务连续性;而位置更新发生在移动台的空闲态或待机态,其核心目的是为了让网络实时掌握用户的大致位置(位置区),以便在用户作为被叫方时,能够准确、低成本地通过寻呼(Paging)找到该用户。

  • 在现代移动通信系统中,为什么广泛采用移动台辅助切换(MAHO),而不是像早期系统那样完全由网络控制切换(NCHO)?

完全由网络控制的切换需要基站不断分配专用资源去监测所有移动台的上行信号质量,这极大地消耗了基站的处理资源。而移动台辅助切换(MAHO)充分利用了手机自身的测量能力,让手机在下行链路上实时、并发地监测周边邻区基站的信号强度并定期上报。网络只需根据手机上报的现成数据进行快速比对和决策,这不仅大幅减轻了核心网的运算负担,还显著提高了切换判决的实时性和准确度。

四、雷达原理

4.1 雷达基础原理

4.1.1 什么是遥感?

遥感是利用传感器主动或被动地接收地面目标反射或发生的电磁波,通过电磁波所传递的信息来识别目标,从而达到探测目标的目的。

4.1.2 什么是雷达?

雷达(Radar)的全称是 Radio Detection And Ranging,即“无线电探测和测距”。从广义上讲,雷达是一种微波遥感系统,它通过发射电磁波并接收回波来获取目标的距离、方位、速度等信息。

雷达的功能分类

  1. 目标检测:最基础的功能,解决“有无”问题。通过处理判断接收到的信号中是否包含感兴趣的目标回波。
  2. 参数提取:解决“在哪/多快”问题。提取目标的斜距、角位置(方位和俯仰)以及相对速度
  3. 目标识别:解决“是什么”问题。通过高分辨率探测获取目标的尺寸、形状,并利用 SAR 成像等技术进行分类识别。

4.1.3 一个现代雷达系统为了能够胜任复杂的探测任务,通常应具备哪些基本能力?

一个优秀的雷达系统主要需要具备以下五大核心能力:
首先是目标回波能量的有效收集能力
其次必须具备良好的空间分辨能力(即区分相邻目标的能力);
另外还需要高效的空间搜索能力
对各类干扰的有效抑制能力
以及在各种复杂天气和地形下的良好环境适应能力

4.1.4 雷达在实际工作环境中,接收机收到的信号除了纯净的目标回波外,还包含哪些不需要的成分?

噪声 (Noise):主要来源于雷达电子系统内部的热噪声。

杂波 (Clutter):来自雷达周围环境的强烈非目标反射,主要包括地物杂波、海面杂波以及气象杂波(如雨云衰减和散射)。

干扰 (Jamming):主要指人为的电磁对抗,分为主动干扰(如敌方发射压制性射频信号)和被动干扰(如抛撒箔条假目标)。

4.1.5 基于上述恶劣的电磁环境,雷达信号处理的根本任务是什么?通过信号处理,雷达最终能提取出目标的哪些信息?

雷达信号处理的根本任务是:最大程度地抑制噪声、杂波和干扰引起的不确定性,从而准确提取与目标属性有关的信息。

这些被提取的信息通常分为两个层次:
常规信息:实现目标的探测和空间定位,即获取目标的距离、俯仰角、方位角
扩展信息:在现代先进雷达中,还能进一步获取目标的速度、航迹、数量、种类、型号,甚至是进行高分辨率的雷达成像

4.1.6 脉冲雷达系统主要由什么组成?

image-20260317175212339

  1. 发射机 (Transmitter):负责产生高频、大功率的雷达射频信号。

  2. 天线 (Antenna):将发射机产生的高频电流转换为电磁波辐射到空间,并负责收集目标反射回来的微弱电磁波。雷达天线通常具有极强的波束指向性

  3. 收发转换开关 (Duplexer)面试极高频考点! 它的作用是允许雷达共用同一部天线进行发射和接收。在发射时,它将天线连接到发射机并隔离接收机(防止烧毁灵敏的接收机);在接收时,它将天线连接到接收机并阻断发射机漏能。

  4. 接收机 (Receiver):负责将天线收集到的微弱射频信号进行低噪声放大、下变频等处理。接收机内部不可避免地会引入热噪声 (Noise)

  5. 定时器/时钟控制 (Synchronizer):雷达系统的“心脏”,提供全局的时钟基准,确保发射、接收、信号处理等各个环节严格同步,这是精准测距的基础。

  6. 信号处理机 (Signal Processor):雷达系统的“大脑”。

    在实际环境中,接收机收到的不仅是纯净的目标回波,还包含三大“幽灵”:

  7. 噪声 (Noise):来自电子系统内部的热噪声。

  8. 杂波 (Clutter):来自地面、海面、雨雪气象等非目标物体的强烈后向散射。

  9. 干扰 (Jamming):来自敌方的有源主动干扰或无源被动干扰(如箔条)。

4.1.7 信号处理的任务是什么?

信号处理的根本任务就是最大程度地抑制噪声、杂波和干扰引起的不确定性,从而提取出与目标属性有关的信息。

4.1.8 雷达可以测量什么参数?

  1. 目标斜距(Range)的测量

    1. 基本原理:测量电磁波从发射机出发,经目标反射,最后返回接收机的传播总用时
    2. 物理依据:利用电磁波在均匀介质中的直线传播特性、接近光速的传播速度以及物体对电磁波的散射特性
    3. 主流方法脉冲法(最常用,测量往返时延)、调频法、相位法。
  2. 目标角度(Angle)的测量

    1. 基本原理:利用雷达天线波束的指向性
    2. 物理依据:电磁波的定向传播特性。
    3. 测角方法振幅法(如最大信号法、双波束等信号法)和相位法
  3. 目标速度(Velocity)的测量

    1. 基本原理:利用运动目标回波中的**多普勒频移(Doppler Shift)**信息。
    2. 测速方法:多普勒滤波、斜距变化率。
    3. 物理依据:物体相对运动产生的多普勒频移现象。
  4. 目标大小与形状的测量

    1. 核心需求:需要高分辨率雷达。
    2. 距离向分辨:依赖大带宽,通过脉冲压缩技术实现。
    3. 切向(角度)向分辨:依赖大孔径,通过**合成孔径(SAR)**技术实现。

4.1.8 雷达的基本测距公式是什么?

R=cΔt/2R = c\Delta t / 2

雷达是主动探测设备,电磁波从天线发出,到达目标后发生反射,再回到天线。这个过程电磁波走过的总路径是双程的(雷达到目标,目标回雷达)。因此,测量到的时间差 Δt\Delta t往返总时间,计算目标单程距离 RR 时必须除以 2。

image-20260317175226539

4.1.9 什么是雷达的最大无模糊距离(结合公式)?

雷达能够正确测量的最远目标距离。

Rmax=cT/2R_{max} = cT / 2

脉冲重复时间 TT (PRI) 是相邻两个脉冲之间的时间间隔;脉冲重复频率 PRF=1/TPRF = 1/T
如果目标太远,其回波在雷达发射下一个脉冲后才到达,雷达会误以为这是第二个脉冲的回波,从而产生距离模糊

image-20260317175242597

4.1.10 什么是雷达的距离分辨率(结合公式)?

雷达在同一方向上能区分两个相邻目标的最小距离。

ΔR=cτ/2=c/2B\Delta R = c\tau / 2 = c / 2B

脉冲宽度 τ\tau 越窄,带宽 BB 越大,分辨率就越高。

脉冲宽度 τ\tau 越大,能量越高,传输距离越远,但是带宽 BB 就会受限。
虽然二者是一个博弈关系,但是后续使用脉冲压制技术,使得脉冲宽度 τ\tau 和带宽 BB 同时增大。

image-20260317175316349

4.1.11 尝试说说天线的重要参数?以及如何测角?

天线核心参数与特性

  1. 波束宽度 (θ\theta):通常指 3dB 波束宽度。近似公式为 θλ/D\theta \approx \lambda / D。这意味着波长越短、天线孔径越大,波束就越窄(方向性越好)。其中D是天线孔径长度。
  2. 天线增益 (GG):衡量天线能量集中的程度。增益越大,探测距离越远。
  3. 互易性:同一天线既可发射也可接收,其性能参数(如方向图、增益)在两种状态下保持不变。
  4. 天线有效面积 (AeA_e):反映天线收集电磁波的能力。公式为 Ae=Gλ2/4πA_e = G\lambda^2 / 4\pi
  5. 天线是无源器件,其辐射功率不可能大于来自发射机的功率。

测角与角分辨率

  1. 测角原理:利用天线的方向性。当天线波束轴线对准目标时,回波最强。
  2. 角分辨率 (RcR_c):在同一距离上区分两个相邻目标的能力。公式为 Rc=R×θR_c = R \times \theta。波束越窄,角分辨率越好。

4.1.12 什么是多普勒效应?

当目标与雷达之间存在相对运动时,雷达接收到的回波信号频率会相对于发射频率发生偏移,这种现象称为多普勒效应。当目标靠近雷达时,回波频率升高;当目标远离雷达时,回波频率降低。

4.1.13 多普勒频率公式是什么?

多普勒频率公式fd=2vcf0=2vλf_d = \frac{2v}{c}f_0 = \frac{2v}{\lambda}。(其中 vv 是目标相对于雷达的径向速度,f0f_0 是发射频率,λ\lambda 是波长)。这个公式必须牢记,因子 2 是因为电磁波经历了“发射-目标-接收”的双程路径

多普勒频移本质上是因为目标运动导致电磁波传播距离 R(t)R(t) 随时间变化,进而引起回波信号的相位随时间发生线性变化。在信号处理中,相位的对时间求导就是角频率,这多出来的频率部分就是多普勒频移。

4.1.14 接收机的灵敏度是什么?

收机灵敏度是指接收机能够接收并检测到微弱信号的能力。它通常由最小可检测信号功率 (SminS_{min}) 来定量描述。

核心逻辑:灵敏度是一个“反向指标”。灵敏度越高(即指标越好),意味着接收机能够感知的回波信号功率越小SminS_{min} 越小),从而使雷达的作用距离越远

检测性能的决定因素:雷达能否可靠地检测到目标,并非单纯取决于接收到的信号绝对功率,而是取决于接收机输出端的信噪比(SNR)。由于目标回波往往极其微弱,常常会“被噪声淹没”,只有通过信号处理提升信噪比,才能将其提取出来。

4.1.15 雷达在噪声中检测目标的能力由什么决定?

雷达的综合检测能力(直接关系到雷达的最大探测距离)是由整个系统的多个环节共同决定的:

  1. 发射功率:发射能量越强,回波能量也就越强。
  2. 天线尺寸:天线孔径越大,增益越高,不仅发射时能量更集中,接收时也能收集到更多的回波能量。
  3. 接收机噪声:接收机内部的热噪声越小,对微弱信号的掩盖作用就越小,灵敏度越高。
  4. 目标 RCS 的起伏特性:雷达截面积(RCS)反映了目标反射电磁波的能力。复杂目标的 RCS 会随姿态和频率快速起伏,这直接影响回波的稳定性。
  5. 雷达系统损耗:包括馈线损耗、收发开关损耗、信号处理损耗等。
  6. 传播环境影响:包括大气衰减(尤其是高频段吸收)、地球表面多径反射等。

4.1.16 如何理解距离分辨率和最大无模糊距离?脉冲重复时间和脉冲宽度有什么关系?

雷达的最大无模糊距离是指雷达能够正确测量的最远目标距离。 它的核心决定因素是脉冲重复时间 T (PRI),即相邻两个脉冲之间的时间间隔。如果目标过于遥远,其回波在雷达发射下一个脉冲之后才到达接收机,雷达就会将其误认为是第二个脉冲产生的回波,从而产生严重的距离模糊。其物理计算公式可以明确表示为:

Rmax=cT2R_{max} = \frac{cT}{2}

雷达的距离分辨率则是指雷达在同一方向上,能够清晰区分开两个相邻目标的最小物理距离。 它的核心决定因素是脉冲宽度 τ\tau信号带宽 B。脉冲宽度 τ\tau 越窄,意味着信号的频谱带宽 B 越大,雷达对空间目标的距离分辨能力就越高。其计算公式可以明确表示为:

ΔR=cτ2=c2B\Delta R = \frac{c\tau}{2} = \frac{c}{2B}

关于脉冲重复时间 T 与脉冲宽度 τ\tau 的博弈关系,在基本时序上,发射的脉冲宽度必须远小于脉冲重复时间。在传统固态雷达设计中,增加脉冲宽度 τ\tau 可以显著提升发射的总能量,从而让雷达探测得更远,但致命代价是极大地限制了信号带宽 B,导致距离分辨率急剧恶化。为了打破这种高能量(远距离)与高带宽(高分辨)不可兼得的物理矛盾,现代雷达引入了脉冲压缩技术(如线性调频)。它通过在宽脉冲内部进行频率或相位调制,使得雷达能够在保持大脉冲宽度以获取高能量的同时,获得极大的等效带宽,完美化解了这一矛盾。

  • 简述脉冲重复频率(PRF)的高低对雷达系统性能的双重影响。

脉冲重复频率(PRF)是脉冲重复时间 T 的倒数。降低 PRF(即增大 T)可以显著增大雷达的最大无模糊距离,有效避免远距离目标的距离模糊;但代价是,过低的 PRF 会降低雷达的平均发射功率,并且在测量高速移动目标时,极易引发严重的多普勒频率模糊(即盲速问题)。因此,实际雷达工程中往往采用多重 PRF 参差跳变的策略来兼顾两者。

  • 结合匹配滤波器的概念,说明脉冲压缩技术是如何在接收端恢复高分辨率的?

脉冲压缩技术在发射端发送大带宽的宽脉冲(如线性调频信号)以保证高能量。在接收端,系统使用一个与发射信号完全共轭匹配的滤波器对回波进行处理。当回波信号进入该滤波器时,由于不同频率成分的延迟时间不同,宽脉冲在时间轴上被急剧压缩,最终输出一个能量高度集中、主瓣极窄的辛格(Sinc)函数尖峰。这个极窄的输出尖峰不仅大幅提高了信噪比,更直接决定了系统极高的距离分辨率。

4.2 脉冲压制技术

4.2.1 什么是脉冲压缩技术?为什么要引入线性调频(LFM)信号?

脉冲压缩技术是指发射宽脉冲、大带宽信号,在接收机中通过处理将其压缩成窄脉冲的技术。
引入 LFM 信号是为了解决探测距离与分辨率之间的矛盾。传统单频脉冲要分辨近距离目标需要窄脉冲(带宽大),但窄脉冲能量小,看得不远。LFM 信号通过调频增加了带宽,使得我们既能用宽脉冲保证发射能量(看得远),又能利用大带宽在接收端获得高分辨率(看得准)。

4.2.2 LFM 信号的频谱有什么特点?为什么说它的时宽带宽积很重要?

LFM 信号的幅度频谱在带宽 BB 内近似为矩形,相位频谱则是频率的二次函数(平方律相位)。当 Bτ1B\tau \gg 1 时,其频谱包络非常接近矩形,信号能量集中在带宽 BB 内。

  1. 在传统脉冲中,Bτ1B\tau \approx 1
  2. 在 LFM 信号中,BτB\tau 可以做得很大。BτB\tau 越大,频谱的边缘越陡峭,形状越接近矩形,且驻定相位定理的近似精度越高。在工程上,这意味着我们可以获得更高的压缩比

4.2.3 简单解释一下什么是“驻定相位定理”,它在雷达信号处理中有什么用?

驻定相位定理是一种处理复杂振荡积分的近似计算方法。它认为信号的能量主要集中在相位变化率(瞬时频率)等于零的那个点附近。

在雷达信号处理中,它主要用于求解 LFM 信号的频谱以及进行 SAR 成像算法推导。
因为 LFM 信号的时域和频域之间存在一种一一对应的映射关系,利用这个定理可以避开复杂的积分运算,直接得到信号在频域的解析表达式,极大地方便了工程设计。

4.2.4 什么是匹配滤波器?它在雷达接收机中的主要作用是什么?

匹配滤波器是一种最优线性滤波器,其频率传递函数与输入信号的频谱互为复共轭。
其主要作用有两个:

  1. 最大化信噪比:它能保证在白噪声背景下,输出端的峰值信噪比(SNR)达到理论最大值,提高雷达对微弱目标的检测能力。
  2. 实现脉冲压缩:通过对宽脉冲信号进行相位补偿,使能量在极短的时间内聚集,从而在不损失探测距离的前提下,显著提高雷达的距离分辨率

4.2.5 请从物理直觉上解释一下,为什么匹配滤波器能把宽脉冲变窄?

以向上调频的 LFM 信号为例,信号的前端是低频,后端是高频。
匹配滤波器具有特定的“群时延”特性:它对低频信号产生的延迟大,对高频信号产生的延迟小。
当宽脉冲通过滤波器时,早到的低频部分被“扣留”了一会儿,而晚到的高频部分则快速通过。最终,信号的所有频率成分几乎在同一瞬间到达输出端并发生相干叠加。这样,能量在时间上就从一个宽脉冲“挤压”成了一个窄脉冲。

4.2.6 匹配滤波器的时域响应 h(t)h(t) 为什么要设计成 s(t0t)s^*(t_0 - t)?即为什么要进行“时间反转”?

从数学卷积的角度看,滤波器的输出是输入信号与 h(t)h(t) 的卷积。将 h(t)h(t) 设计为信号的镜像,本质上是将卷积运算变成了相关运算
由于信号与其自身在时延为零时相关性最强(自相关峰值),这种“时间反转”的设计确保了信号能量能够最大程度地对齐叠加,从而产生一个极窄且极高的输出峰值。

4.2.7 什么是脉冲压缩比?它的大小受什么因素限制?

脉冲压缩比是发射脉冲宽度与压缩后脉冲宽度的比值,数值上等于信号的时宽带宽积(τB\tau B)。
它的大小主要受以下因素限制:
首先是硬件带宽:发射机和接收机能够处理的最大带宽 BB 限制了压缩后的最窄脉冲;
其次是峰值功率与作用距离:为了探测更远,需要加长发射脉冲 τ\tau
在工程实践中,脉冲压缩比越高,雷达性能越强,但对系统的相干性线性度要求也越高,过高的压缩比会增加处理难度和距离旁瓣电平。

4.2.8 为什么实现脉冲压缩一定要‘非线性相位谱’?普通的矩形单频脉冲可以压缩吗?

普通的矩形单频脉冲不可以被压缩。
因为单频脉冲的频率不随时间变化,其相位谱是线性的。根据傅里叶变换性质,其带宽 BB 严格受限于脉冲宽度 τ\tauB1/τB \approx 1/\tau),即时宽带宽积 τB\tau B 始终接近 1,没有压缩空间。
实现脉冲压缩的本质是利用频率的变化来增加带宽。只有相位谱是非线性的,才能使带宽 BB 独立于时宽 τ\tau 增长,从而提供大于 1 的压缩比。

4.2.9 如果有两个目标靠得非常近,它们的宽脉冲回波在接收端完全重叠了,脉冲压缩是怎么把它们分开的?

虽然两个目标的回波在时域重叠,但由于它们来自不同的空间位置,它们到达接收机的时间存在微小的先后差异
在通过匹配滤波器时,滤波器会针对每个回波独立的进行“追赶叠加”操作。压缩过程使每个目标的能量都向其各自的中心时刻汇聚。由于压缩后的脉冲宽度 τ0\tau_0 极窄,原本重叠的“宽云团”变成了两个互不相干的“窄尖峰”,只要目标的距离差大于 cτ0/2c\tau_0/2(即 c/2Bc/2B),雷达就能在距离轴上分辨出这两个目标。

4.3 合成孔径雷达(SAR)

4.3.1 什么是SAR?

Synthetic Aperture Radar,简称 SAR。它在微波波段对目标的后向散射系数进行二维描述,实现雷达成像
雷达信息获取从一维(距离)扩展到了三维(距离、方位、高度),能够获取目标的形状、大小等图像信息。

4.3.2 SAR成像有何好处?

  1. 全天时、全天候:作为主动遥感系统,微波波段不受昼夜、云雨、雾霾影响,优于可见光和红外成像。
  2. 穿透性:长波段微波具有一定的地表/植被穿透能力,可发现被遮盖的目标。
  3. 信息维度多:可以获取目标在不同频率、角度及极化下的微波散射特性。
  4. 高精度测量:能够同时精确测量目标的几何位置与运动速度。

4.3.3 不同频段的SAR有什么用处?

合成孔径雷达(SAR)的工作频段直接决定了电磁波的波长,而波长是决定雷达信号穿透能力成像分辨率这两个核心指标的最关键物理量。 在工程应用中,不同频段的SAR系统凭借其独特的物理交互特性,在对地观测中扮演着完全不同的角色。

高频段(X、Ku、Ka频段)的波长极短,例如X频段波长仅在3厘米左右。这类频段的电磁波几乎没有穿透能力,会直接在物体的最顶层表面(如树冠顶层、冰雪表层、建筑屋顶)发生强烈的后向散射。但正因为波长短,它们能够极其容易地实现大带宽,从而获得极高的空间分辨率
因此,高频段SAR被广泛应用于对地表纹理要求极高的场景,例如高精度的城市建筑测绘、微小的地表形变监测(如桥梁沉降)、船只检测以及极具战略价值的军事高精度目标识别

中频段(C、S频段)的波长适中,例如C频段波长约在5厘米左右,它在分辨率和穿透力之间提供了一个近乎完美的黄金平衡。 它的电磁波能够穿透植被的表层叶片,与农作物的茎秆或较浅的土壤层发生作用。这种特性使得中频段SAR成为了全球农业监测的绝对主力,被大量用于农作物长势评估、产量预测以及土壤湿度反演。
此外,C频段在海洋学中也大放异彩,是监测海冰、海浪起伏以及海面溢油污染的首选频段(如著名的欧洲Sentinel-1卫星)。

低频段(L、P、VHF频段)拥有较长的波长,L频段波长约24厘米,而P频段甚至超过50厘米。它们具有极其强悍的穿透能力。 这些长波信号可以直接无视茂密的树冠,径直穿透下去与粗壮的树干甚至林下的地表发生作用。
因此,低频段SAR在林业领域(如精确估算全球森林生物量)无可替代。更为神奇的是,在极度干燥的环境中(如沙漠或冰川地带),低频SAR甚至能穿透数米的干燥沙土或冰层,探测到被掩埋的古代河道、冰下基岩或隐藏的地底人造结构,是地质勘探和地下考古的超级利器。

4.3.4 什么是“合成孔径”?它解决的核心问题是什么?

“合成孔径”是指利用雷达平台的运动,将雷达在不同时刻接收到的回波进行相干累加,从而在信号处理中等效地虚拟出一个尺寸巨大的天线孔径
它解决的核心问题是方位分辨率受限的问题。由于传统雷达方位分辨率取决于波束宽度(θλ/D\theta \approx \lambda/D),要在高空实现高分辨率就需要极大的物理天线 DD,这在飞机和卫星上无法实现。SAR 利用“以动代大”的思想,突破了物理天线尺寸的限制。

4.3.5 简要介绍一下SAR的工作模式?

image-20260323184552583

合成孔径雷达(SAR)在对地观测时,为了满足不同场景下对“看多宽”(测绘带宽度)和“看多清”(空间分辨率)的差异化需求,设计了三种最经典的工作模式。这三种模式本质上是对雷达波束驻留时间与空间覆盖范围的精妙博弈。

**条带式 (Stripmap Mode):**这是SAR最基础、最经典的成像模式。 在这种模式下,雷达天线的波束指向保持固定不动(通常侧视指向正侧方),随着飞行平台的匀速移动,波束在地面上像刷子一样扫过一条连续的带状区域。它的特点是测绘带宽度和方位向分辨率相对固定,提供了一种连续且稳定的中等观测能力,非常适合大面积的基础地理测绘。

**扫描式 (ScanSAR Mode):**这是一种为了获取“超宽幅成像”而牺牲分辨率的模式。 在飞行过程中,雷达利用相控阵天线技术,让波束在距离向上快速地在几个不同的子条带之间来回步进扫描。虽然这样极大地拓宽了整体的横向观测范围(能一次性看清极广阔的海域或陆地),但由于波束在每个子条带上的“停留照射时间”被大幅缩短,导致合成孔径长度变短,最终不可避免地降低了方位向的空间分辨率。

**聚束式 (Spotlight Mode):**这是一种为了获取“极高分辨率”而牺牲单次观测面积的模式。 与条带式固定波束不同,聚束式的雷达天线在飞过目标区域时,会主动转动波束,使其始终“死死盯住”某一个特定的固定目标区域。这种凝视机制极大地延长了目标被雷达波束照射的有效观测时间,从而构建出了一段超长的虚拟“合成孔径”,最终获得了极其惊人的方位向高分辨率。它通常用于对重点高价值目标(如机场、港口、军事基地)的精细化定点侦察。

4.3.6 请简单对比一下 SAR 的条带模式(Stripmap)和聚束模式(Spotlight)的优缺点。

条带模式

  1. 优点:能够进行连续的大面积成像,适合大范围侦察。
  2. 缺点:分辨率受物理天线长度限制,无法无限制提高。

聚束模式

  1. 优点:通过天线转动始终对准目标,极大地增加了合成孔径的有效长度,能够获得极高的方位分辨率
  2. 缺点:成像范围受波束照射范围限制,只能对特定局部区域成像,且数据处理更复杂。

4.3.7 简单介绍一下SAR的基本思想?

SAR 的基本思想可以参照阵列天线去理解。传统的实孔径线阵天线是通过多个阵元同时发射/接收信号,并在馈线上相干叠加形成窄波束。而合成孔径机理SAR 则是利用一个小天线在不同时刻(等间隔位置)发射和接收相干信号。对于同一个地面目标单元,雷达在移动过程中多次“观察”它,并将这些回波信号存储并叠加。
这种“时间换空间”的方式,使小天线在空间上等效合成了一个长的实孔径天线,从而获得极窄的等效波束和高分辨率。

  1. 计算公式:聚焦合成孔径的方位分辨率为 ρa=d/2\rho_a = d/2dd 为实际天线孔径)。
  2. 关键特性:最佳方位分辨率为常数,与目标距离及工作波长无关
  3. 反直觉结论:实际天线尺寸 dd 越小,方位分辨率反而越好。原因是实际天线越小,目标受到照射的区间越长,最大合成长度也越长,从而分辨率越好。

4.3.8 为什么 SAR 的方位分辨率是 d/2d/2,且天线越小分辨率反而越高?这和普通雷达完全相反,请解释原因。

这是因为 SAR 的分辨率取决于合成孔径的长度

根据公式

θλd\theta \approx \frac{\lambda}{d}

对于普通雷达,天线越大波束越窄,分辨率越好。就像一个激光笔,发出的光束非常集中,能量很准,但照射范围很小。
但对于 SAR,天线尺寸 dd 越小,波束扩散角度 θ\theta 越大,其实际波束就越宽。波束越宽,飞机在飞行过程中,照射到地面同一个点的时间就越长,积累的回波数据就越多,从而合成出来的虚拟孔径长度就越长
换而言之,飞机在这段时间内飞过的距离 LL 就越长,就是我们“凑”出来的那个**虚拟大天线(合成孔径)**的长度!

因为合成孔径长度与 dd​ 成反比,最终抵消后得出的结论就是:天线越小,合成孔径越长,方位分辨率就越精细。

4.3.9 为什么说 SAR 的方位分辨率与距离 RR 无关?普通雷达不是离得越远看得越模糊吗?

这是 SAR 的另一个独特优势。
虽然目标离雷达越远,其回波的波束扩散会导致能量变弱,但由于波束的扩散,远处的目标被雷达波束“照”到的时间也随之线性增加
这意味着距离越远,参与相干合成的脉冲数就越多,合成孔径的长度也随距离线性增加。合成孔径增加带来的分辨率增益,恰好抵消了远距离带来的发散损失。因此,在理论上,SAR 具有距离无关的分辨率特性

4.3.10 实现 SAR 成像对雷达平台和信号有什么严苛的要求?

信号的相干性:SAR 必须记录回波的相位信息才能进行相干合成。如果发射信号不相干或相位随机跳变,就无法合成出窄波束。

运动补偿(轨迹精度):由于合成孔径是靠位移实现的,雷达必须精确知道自己在每个时刻的空间位置。如果飞机晃动或轨道偏移且不加补偿,合成过程就会发生相位失焦,导致图像模糊。

4.4 成像算法

4.4.1 合成孔径的原理是什么?

合成孔径本质上是指利用方位向的虚拟阵列天线来合成一个大孔径
在机载合成孔径雷达的飞行与成像机理中,它的实现前提是雷达匀速直线飞行,在此过程中持续进行等间隔发射并接收电磁波,最终通过后端的复杂信号处理来实现高分辨率成像。

合成孔径最底层的物理逻辑:雷达与目标发生相对运动,引起两者相对位置的改变,这是实现合成孔径的物理基础

具体而言,这种相对运动带来了两方面的核心效应。
首先,它使得雷达能够在不同的空间位置对同一目标进行多次采样,从而在方位向上等效构建出一个极大的虚拟阵列天线
其次,由于相对位置的不断改变,目标回波在方位向上会产生多普勒频移的历史积累,这种多普勒频率的变化最终形成了一个LFM(线性调频)信号
因此,SAR成像的实质,就是紧紧围绕着目标与雷达之间相对位置(包含方位向和距离向)的变化,利用匹配滤波等数字信号处理手段展开的一系列参数估计与图像重建工作。

  • 简述为什么合成孔径雷达(SAR)必须要平台(如飞机或卫星)处于运动状态才能实现高方位分辨率?

因为合成孔径的核心物理基础正是雷达与目标之间的相对运动。只有平台持续处于匀速直线运动状态,雷达才能在不同的空间坐标点上对同一目标进行多次回波采样。这些分布在飞行轨迹上的物理天线在信号处理时,被相干累积等效为一个长度惊人的“虚拟阵列天线”。如果没有这种相对运动,就无法构建这个超大孔径,也就无法突破传统真实小天线所带来的低方位分辨率物理瓶颈。

  • “方位向多普勒频率变化形成LFM信号”,请结合雷达的飞行轨迹,直观解释这个LFM(线性调频)信号是如何产生的?

当雷达平台以匀速直线飞过某个静止的地面点目标时,两者之间的相对径向速度是动态变化的。在目标进入雷达波束的前端时,两者相对靠近,产生正的最大多普勒频移;当雷达飞越目标正侧方(最近点)时,径向相对速度为零,多普勒频移也为零;当雷达飞过目标并逐渐远离时,产生负的多普勒频移。这种多普勒频率随飞行时间呈现出从正到负、近似均匀递减的变化过程,其数学表达形式恰好等同于一个向下调频的线性调频(LFM)信号。这为后续在方位向上使用匹配滤波器进行“脉冲压缩”提供了完美的理论基础。

4.4.2 请简述合成孔径雷达(SAR)中的“停走停(Start-Stop)假设”,并说明在实际工程中为什么要引入这一假设?

“停走停假设”是指在建立SAR回波信号模型时,认为雷达平台在发射一个脉冲到接收该脉冲回波的整个极短时间内,平台在空间方位向上是完全静止不动的;只有在当前脉冲接收完毕,到下一个脉冲发射之前的间隙,平台才瞬间移动到下一个空间采样位置。
引入这个假设的核心原因是,真实世界中雷达是连续飞行的,如果不加简化,电磁波的收发斜距将是一个随时间时刻变化的极其复杂的微积分模型。由于电磁波以光速传播,脉冲往返的“快时间”(微秒级)远远小于雷达随平台运动跨越一个方位分辨率单元所需的“慢时间”(毫秒级)。因此,假设在这个微秒级缝隙内雷达静止,带来的斜距误差微乎其微,但却能将极其复杂的连续运动模型转化为离散的静态空间模型,从而极大地降低了后续成像算法的设计难度和信号处理的运算量

可以这么理解:在SAR的二维原始数据矩阵中,快时间对应的是雷达横向的距离向。而慢时间对应的是雷达纵向的方位向(或沿着飞行轨迹的方向)

4.4.3 简要介绍一下距离抖动的原理?什么是距离抖动,距离弯曲?SAR对距离抖动如何校准的?

距离徙动的原理

在合成孔径雷达的飞行过程中,雷达与地面目标之间存在相对运动。这就导致在雷达波束照射目标的这段时间(合成孔径时间)内,雷达与目标之间的直线距离(斜距)是随时间不断变化的。当这个斜距的变化量超过了一个距离分辨单元的物理长度时,同一个点目标的回波信号就不会老老实实地待在同一个距离波门(同一行数据)里,而是会“跨越”分布到相邻的多个距离波门中。 这种目标回波在数据矩阵中表现为一条曲线而不是直线的现象,就是距离徙动。它的存在导致了距离向和方位向数据的严重耦合。

为了更直观地描述这个斜距的变化,我们可以引入其关于慢时间 tt 的泰勒展开公式:

R(t)R0+vrt+ar2t2R(t) \approx R_0 + v_r t + \frac{a_r}{2} t^2

距离走动与距离弯曲的区别

根据上面公式的物理意义,距离徙动在数学上被拆解为两个分量:距离走动(Range Walking)距离弯曲(Range Curvature)

距离走动对应公式中的一次项(线性分量),它表现为回波轨迹的倾斜直移。这通常发生在斜视SAR中,或者在星载SAR中由于地球自转导致多普勒中心频率 fdcf_{dc} 不为零时产生。它的变化范围极大,可以跨越几个到几十个距离单元。

距离弯曲对应公式中的二次项(抛物线分量),它是由雷达飞近再飞离目标的自然几何弧线引起的。当SAR处于理想的正侧视状态时,此时不存在距离走动,只存在距离弯曲,且弯曲量相对稳定,通常在几个距离单元左右。

SAR如何对距离徙动进行校正

如果不把这条弯曲的能量轨迹拉直,就无法进行高质量的方位向脉冲压缩。图片中展示了一种经典的基于距离多普勒(RD)域的校正方法:频谱搬移方法
由于不同时刻的回波对应着不同的多普勒频率,系统将信号转换到RD域(即距离-多普勒域)后,采用分段直线去逼近这条理论上的弯曲轨迹。然后,针对每一个多普勒频率单元,进行物理的数据插值和频移操作,强行将这些弯曲的片段“搬移”并对齐到同一条水平直线上。经过校正后,同一个点目标的能量就重新聚集在了一个距离单元内,从而顺利解除了二维耦合,为后续的一维方位向聚焦扫清了障碍。

  • Q: 为什么在机载正侧视SAR中,通常只需要校正距离弯曲而不需要考虑距离走动?

在理想的机载正侧视工作模式下,雷达天线波束垂直于飞行方向。此时目标穿越波束中心时的多普勒频率(即多普勒中心频率 fdcf_{dc})为零。从运动学几何上看,斜距随慢时间的变化是一个完美对称的抛物线,不存在一阶的线性倾斜项。因此,此时数据中不存在距离走动分量,只需对二次项的距离弯曲进行补偿即可。

  • 距离徙动现象如果不进行校正,会对最终的SAR图像产生什么致命的负面影响?

如果不进行距离徙动校正(RCMC),同一个目标的点回波能量就会一直散布在多个不同的距离单元内。在进行方位向脉冲压缩时,由于能量无法在同一个距离门内进行完整的相干累积,会导致最终成像的点目标在距离向和方位向上严重散焦(Smearing)。这不仅会使图像变得极度模糊、严重损失空间分辨率,还会导致信噪比大幅下降,微弱目标将被彻底淹没。

4.4.4 简要介绍一下SAR有什么常用的成像算法?

SAR常用的经典成像算法

合成孔径雷达(SAR)的成像算法发展史,本质上就是一部不断与“计算复杂度”和“近似误差”作斗争的数学演进史。根据处理域的不同,常用的成像算法主要分为频域算法和时域算法两大阵营。

距离多普勒算法 (Range-Doppler Algorithm, RDA)
这是SAR成像中最经典、应用最广泛的频域基础算法。 其核心思想是将庞大的二维处理分解,在距离-多普勒域(RD域)集中完成距离徙动校正(RCMC)。雷达数据在距离向脉冲压缩后,通过方位向FFT转换到RD域,此时同一目标的能量呈现为随多普勒频率变化的弯曲轨迹。RDA通过物理的空间插值操作将这条曲线“拉直”,最后再进行方位向压缩回到时域图像。它的优点是概念极其直观、工程实现成熟,但在处理大斜视角或要求极高分辨率时,由于插值带来的截断误差和二维耦合效应,会导致图像边缘画质严重下降。

调频变标算法 (Chirp Scaling Algorithm, CSA)
这是一种为了彻底解决RDA中插值运算效率低且存在误差而诞生的革命性算法。 它的天才之处在于引入了数学上的Chirp Scaling(调频变标)原理:通过在距离-多普勒域乘以一个精心构造的二次相位因子,强行改变信号的调频斜率。这个奇妙的数学变换使得所有不同距离上的目标,其距离徙动轨迹被等比例“拉平”到了同一条参考线上。这样一来,极度耗时的时域插值操作就被完全舍弃,整个RCMC过程仅需通过快速傅里叶变换(FFT)和复数乘法即可完成。CSA极其高效且保留了极高的相位精度,是目前处理正侧视和中小斜视高分辨SAR数据的绝对绝对主力。

距离徙动算法 (Range Migration Algorithm, RMA / w-k算法)
这是基于波动方程精确解析解的一种高级频域算法。 前面的RDA和CSA为了推导方便,都对SAR的几何斜距历史进行了一定程度的泰勒展开近似(如忽略三次以上的高阶项)。而w-k算法则直接在二维频域(距离频域-方位频域)中进行精确的相位补偿。其最核心的步骤是进行Stolt插值(一种非线性的坐标映射),它从物理底层完美解除了极其复杂的二维耦合。由于不存在任何高阶近似误差,w-k算法特别适合处理超宽带(超高分辨率)极大斜视角的极限SAR成像任务,但代价是其二维频域的Stolt插值计算复杂度非常高。

后向投影算法 (Back-Projection Algorithm, BPA)
与前三种频域算法不同,BPA是极其暴力的时域成像算法。 它的原理非常直接:在事先划分好的地面成像网格上,针对每一个像素点,反向去计算它到雷达天线在每一个飞行时刻的精确几何空间距离,提取出对应的回波相位并进行逐点相干累积。由于完全不依赖任何几何近似和傅里叶变换,BPA能够完美适应任意复杂、非线性的雷达飞行轨迹(如无人机颠簸飞行、圆迹SAR、多基SAR等)。尽管其逐点遍历的庞大计算量曾是致命瓶颈,但随着现代GPU并行计算能力的飞跃,BPA正以其绝对的精准度和极强的轨迹适应性,成为新一代雷达体制研究的前沿宠儿。

  • 在SAR成像中,RD算法(距离多普勒算法)和CS算法(调频变标算法)在处理距离徙动校正(RCMC)时,最本质的区别是什么?

最本质的区别在于实现RCMC的数学手段不同。RD算法是在距离-多普勒域中,通过空间域的插值运算来强行拉直距离徙动曲线,这不仅计算量大,还会不可避免地引入插值核截断误差;而CS算法巧妙地利用了线性调频信号的相位特性,通过相乘一个Chirp Scaling相位因子来实现不同目标距离轨迹的一致化,彻底避免了插值操作,只用纯粹的FFT和复数乘法就完成了高精度、高效率的RCMC。

  • 如果你要处理一段搭载在轻型无人机上的SAR数据,且该无人机飞行环境极其恶劣,存在严重的偏航、翻滚和高度起伏,你会首选哪种成像算法?为什么?

会首选时域的后向投影算法(BPA)。因为诸如RD、CS、w-k等经典的频域算法都有一个极其严苛的物理前提,即雷达平台必须进行“匀速直线运动”(或轨迹偏差极小),以便使用统一的傅里叶变换进行全局的频域解耦推导。而BPA是逐个像素点基于真实的几何三维坐标进行时域延迟补偿的,它完全不需要平稳飞行假设,能够天然地容纳并精确补偿任意复杂的非线性运动误差。

4.4.5 成像指标有哪些?

成像指标 (衡量SAR成像质量的关键参数)

在合成孔径雷达(SAR)中,衡量最终图像质量好坏的基石是冲激响应函数 (IRF, Impulse Response Function)。 所谓IRF,就是当雷达照射到地面上一个极其理想的、孤立的“点目标”时,经过复杂的二维脉冲压缩处理后,在最终图像上呈现出的二维物理形态。由于受限于系统的有限带宽和处理时窗,这个点目标在图像上并不会是一个无限小的完美圆点,而是会呈现出一个中心能量极度集中的主瓣,以及向四周水波纹般无限延伸的旁瓣。基于这个IRF的三维能量分布图,工程师们提炼出了衡量成像质量的四大核心物理指标。

距离分辨率与方位分辨率
这两个指标定义了雷达“看清细节”的极限能力,即在特定方向上,能够将两个靠得很近的相邻散射点区分开来的最小物理距离距离分辨率衡量的是在雷达视线(电磁波传播)方向上的分辨能力,它在底层物理上严格受限于雷达发射信号的频谱带宽;而方位分辨率衡量的是沿着飞行平台运动轨迹方向的分辨能力,它直接得益于合成孔径技术,受限于雷达波束照射目标的驻留时间(即虚拟阵列天线的长度)。如果分辨率不达标,两个靠得近的物体在图像上就会模糊、粘连成一团。

峰值旁瓣比 (PSLR - Peak Sidelobe Ratio)
这是一个考察局部对比度的极端指标。它被定义为IRF中心主瓣的最大峰值能量,与主瓣之外指定区域内最强的那一个旁瓣的峰值能量之比。在实际的战场侦察或遥感测绘中,如果系统的PSLR性能很差(即存在异常突出的强旁瓣),那么当一个反射极强的目标(如大型金属桥梁或角反射器)旁边刚好停着一辆反射较弱的伪装车时,这座桥梁产生的巨大旁瓣极有可能直接掩盖掉伪装车的主瓣,导致弱目标在图像上彻底“隐身”。

积分旁瓣比 (ISLR - Integrated Sidelobe Ratio)
这同样是一个考察旁瓣影响的指标,但它更注重全局的能量泄漏情况。它被定义为IRF主瓣内部所包含的总能量,与散布在主瓣之外所有旁瓣区域内的总能量之比。如果说PSLR是怕“某个刺头”掩盖弱目标,那么ISLR怕的就是“大面积的能量漏水”。当ISLR较差时,意味着原本应该集中在目标身上的能量,大量弥漫、泄漏到了整个图像的背景区域中,这会直接抬高整幅图像的背景噪声底噪,导致图像看起来像蒙上了一层灰蒙蒙的雾,整体对比度和清晰度严重下降。

  • 既然旁瓣(Sidelobe)对SAR图像的局部目标检测(PSLR)和全局对比度(ISLR)都有极大的破坏作用,在工程信号处理中通常采用什么核心方法来压低旁瓣?

工程上通常采用**频域加窗技术(Windowing)**来压低旁瓣。由于理想的脉冲压缩(匹配滤波)在频域本质上是一个矩形窗截断,这在时域必然对应着带有极高旁瓣的辛格(Sinc)函数。为了抑制这些突变的边缘,工程师会在频域乘以一些边缘平滑的加权窗函数(如汉明窗 Hamming、泰勒窗 Taylor 等),从而极大地降低旁瓣电平,显著改善 PSLR 和 ISLR。

  • 结合频域加窗技术,请解释在实际SAR系统设计中,为什么“分辨率”和“旁瓣抑制”之间存在着不可调和的物理博弈(Trade-off)?

这正是数字信号处理中不确定性原理的体现。当我们使用平滑的窗函数在频域压低信号边缘的能量以换取极低的旁瓣(提升 PSLR 和 ISLR)时,不可避免地会导致信号在时域(或空间域)的能量分布被展宽。换句话说,压低旁瓣的必然代价就是主瓣变宽。主瓣一旦变宽,系统区分两个相邻目标的最小距离阈值就会变大,从而直接导致空间分辨率的下降

4.4.6 什么是RD算法?

RD算法(距离多普勒算法)是合成孔径雷达(SAR)频域成像处理中最经典、最具里程碑意义的基础算法。
它的核心思想可以用“二维解耦”来概括。雷达采集到的原始回波是一个庞大且复杂的二维数据矩阵,如果直接进行二维联合处理,计算量是目前的硬件极其难以承受的。RD算法巧妙地将这个极其复杂的二维处理,分解成了
距离向和方位向的两个相对独立的一维处理过程
,从而成数量级地降低了运算复杂度。

根据流程图,它的处理逻辑非常清晰,主要分为三大核心步骤。首先是距离压缩,系统利用发射脉冲固定不变的调频斜率,通过“距离向FFT、与距离压缩参考函数相乘、距离向IFFT”的标准频域匹配滤波流水线,将宽脉冲压缩成极窄的尖峰,率先实现距离方向的高分辨率。

接着是该算法的灵魂步骤——距离徙动校正(RCMC)。在完成距离压缩后,数据通过方位向FFT被转换到了距离-多普勒域(RD域)。在这个特殊的物理域中,原本在时域中交织、弯曲的目标能量轨迹被梳理得清晰可辨。系统通过数学上的插值操作,将这些弯曲的曲线强行“拉直”,使得同一个目标的全部回波能量被精确地对齐到了同一个距离波门(同一行)内,彻底打破了距离与方位之间的二维耦合困境。

最后是方位压缩。在目标轨迹被完美拉直之后,系统顺理成章地沿着方位向,再施加一次一维的匹配滤波聚焦操作。随后经过数据逆转置等后续处理,原本模糊散乱的信号最终聚焦成清晰的高分辨率雷达图像。

4.4.7 什么是二次距离压缩算法?

4.4.7 什么是二次距离压缩(SRC)算法?

核心概念与产生原因: 二次距离压缩(SRC)是专门为了解决SAR信号中深度的方位-距离耦合问题而引入的一种核心相位补偿技术。在传统的RD算法处理流程中,当我们对数据进行方位向FFT变换(即进入距离-多普勒域)时,此时尚未进行距离弯曲校正。这就意味着目标的回波能量依然弯曲地跨越着多个距离门。这种严重的跨越极大降低了方位信号的时宽带宽积。当系统的距离弯曲特别大(例如在要求极高分辨率或使用宽波束的情况下),这个时宽带宽积会小到不再满足驻留相位定理(POSP)的适用条件。一旦该数学定理失效,强行进行方位向FFT转换,就会在信号的距离向上“凭空”衍生出一个新的寄生交叉相位项

物理影响与实现方式: 这个意外多出来的寄生相位项极其致命,它相当于给信号加上了一个错误的调制,会导致原本在第一步已经完美压缩的距离向尖峰发生再次展宽(散焦),从而严重恶化最终图像的距离分辨率。为了挽救分辨率,系统必须在频域额外施加一个与该寄生相位完全相反的补偿滤波器来进行精准抵消,这个过程就是二次距离压缩。根据图片右侧的流程图,工程界衍生出了多种极其灵活的实现方式:既可以在距离-多普勒域将其与距离徙动校正(RCMC)合并联合处理(方式1);也可以先进入二维频域完成距离压缩与SRC后再回到RD域(方式2);甚至可以通过等效推导,直接在最初的一维距离压缩阶段,将SRC滤波器与主距离匹配滤波器融合,进行一次性高强度的前置处理(方式3)。

  • 驻留相位定理(POSP)在SAR信号处理中的作用是什么?为什么它的失效会导致必须引入SRC?

驻留相位定理(POSP)是信号处理中用于求解大带宽高频振荡信号傅里叶变换解析解的一种极其重要的渐近近似数学工具。它的核心物理前提是信号必须具有足够大的时宽带宽积。当SAR系统分辨率极高时,严重的距离弯曲破坏了这一前提,导致POSP的近似解析解不再精确,从而在变换后的二维频域表达式中残留了不可忽略的高阶误差交叉项(即那个导致距离展宽的寄生相位项)。因此,必须人为引入SRC来专门清理这个由底层数学近似失效所暴露出来的物理误差。

  • 在实际工程中,对于低分辨率、窄波束的正侧视机载SAR系统,是否必须进行二次距离压缩(SRC)?

通常不需要。对于低分辨率、窄波束的正侧视系统,其目标回波的绝对距离弯曲量非常微小,方位信号的时宽带宽积巨大,完美满足驻留相位定理的严苛条件。此时方位向FFT产生的二维交叉耦合相位微乎其微,距离向脉冲几乎不会发生任何可察觉的展宽。因此,在算法设计时,为了节省系统极其宝贵的实时运算资源,工程师通常会果断地省略掉 SRC 这一步骤。

4.4.8 什么是CS算法?

什么是CS算法(调频变标算法)?

CS算法(Chirp Scaling Algorithm,调频变标算法)是合成孔径雷达(SAR)成像领域极其优美且具有里程碑意义的一种高级频域算法。如果说RD算法(距离多普勒算法)的核心是“插值拉直”,那么CS算法的核心就是“变标统一”。它的诞生,彻底解决了RD算法中因空间插值带来的运算量大、截断误差高以及相位精度受损等致命痛点。

核心物理与数学原理:
在雷达回波数据中,由于目标距离雷达的远近不同,它们产生的距离弯曲程度是不一样的(近处弯曲大,远处弯曲小)。 在RD算法中,为了把这些不同程度的弯曲轨迹分别拉直,系统不得不逐个点进行极其繁琐的插值计算。而CS算法的天才之处在于,它敏锐地抓住了距离向信号是线性调频(LFM)信号这一物理本质。它通过在距离-多普勒域(RD域)乘以一个精心构造的线性调频变标相位因子(即流程图中的 Φ1\Phi_1,对信号进行了一种奇妙的数学“挤压”或“拉伸”。这个操作极其优雅地消除了距离弯曲在距离向的尺度变化,强行使得所有不同距离上的目标,都拥有了与参考距离点完全相同(平行)的距离徙动曲线轨迹

整个过程彻底抛弃了插值运算,全部由高效的快速傅里叶变换(FFT)和复数矩阵点乘构成,不仅大幅提升了运算效率,更完美保留了信号的原始相位,是现代高分辨率SAR(尤其是星载SAR)成像的绝对基石。

面试练习:CS算法核心原理

  • 相比于RD算法,CS算法(调频变标算法)为什么能获得更高的成像质量和相位精度?

RD算法在距离-多普勒域进行距离徙动校正(RCMC)时,必须使用Sinc插值等空间频域插值核来拉直弯曲的轨迹。这种插值操作由于核长度有限,不可避免地会引入截断误差,导致图像边缘的旁瓣升高,并且会破坏极其宝贵的原始相位信息。而CS算法巧妙利用了LFM信号的特性,全过程只包含FFT变换和纯相位因子的相乘,完全避开了任何插值操作,因此在理论上没有任何插值引起的精度损失,能够完美保留图像的相位信息,非常适合用于后续要求极高相位精度的干涉SAR(InSAR)处理。

4.4.7 对比总结一下常用的SAR成像算法。

RD算法(距离多普勒算法)

RD算法是SAR成像中最基础且易于实现的频域算法。它的核心优势在于流程极其简单直观,将复杂的二维处理解耦为两个一维处理。然而,它的致命弱点暴露在距离徙动校正(RCMC)阶段。为了实现精确成像,它必须在距离-多普勒域进行极其繁琐的内插运算,这不仅运算量极大,而且在面对大斜视角或高分辨率带来的大距离迁移时,会引入极其严重的二次相位误差,导致图像边缘质量严重下降。

二次距离压缩算法 (SRC)

SRC算法本质上是对RD算法在面临高分辨率、宽波束场景时的一种极其重要的核心改良。当方位-距离耦合加剧导致信号时宽带宽积变小、产生额外交叉相位误差时,该算法通过修正距离参考函数,实现关键的二次相位补偿。它通常在方位处理上通过二次采样来实现二次距离压缩,从而有效抑制了高频下的距离向散焦现象。从工程应用大局来看,SRC算法在保持适中计算复杂度的同时,大幅提升了雷达的聚焦效果,因此特别适合用于对运算时效性有一定要求的大面积常规成像处理

Chirp Scaling算法 (CS算法)

CS算法代表了SAR频域成像精度的一座巅峰,是一种极其优雅的高阶二维处理算法。它最核心的革命性创举在于:利用线性调频信号独有的相位变标特性,通过纯数学相位乘法统一了所有不同位置目标的距离徙动轨迹,从而彻底避免了距离徙动校正时低效且极其容易引入截断误差的内插运算。这种纯粹依靠FFT和复数乘法的架构,不仅完美保留了最原始的相位信息,还极大地提高了运算效率,能够实现极高精度的完美成像。正是由于其出众的聚焦性能,它通常被军方或科研机构指定用于对重点区域的高价值目标精确成像任务中。

这三种算法的算法复杂度呈现:CS算法 > 二次距离压缩算法 > RD算法的严格递增趋势。
优秀的微波工程师在实际工程架构中,绝不会盲目追求最复杂的算法,而是需要根据雷达的任务载荷是对大面积快速扫测(主选SRC/RD),还是对高价值目标进行精细刻画与干涉测绘(必选CS),来进行极其严谨的资源博弈与算法选型。

  • 简述RD算法为什么在处理大距离迁移时会遇到性能瓶颈?

当距离迁移量(特别是距离弯曲)过大时,目标回波在二维频域的耦合极其严重。RD算法受限于一维独立处理的假设,其空间内插运算不仅计算量随迁移量剧增,而且无法彻底补偿由严重二维耦合带来的高阶相位误差(如二次相位误差),从而导致图像的远端边缘发生严重的散焦现象。

  • 既然RD算法内插运算量大且存在误差,为什么在早期的机载SAR系统中依然被广泛采用?

因为早期SAR系统的空间分辨率相对较低,天线波束较窄,其目标的距离徙动量通常极小,甚至可以忽略“跨距离波门”的现象。在这种宽松的物理条件下,RD算法无需进行复杂的高精度内插,或者只需采用最邻近插值等低代价方案即可满足成像要求,其极其简单的流水线流程完美契合了早期数字信号处理硬件极其有限的计算能力。

  • 二次距离压缩(SRC)在物理上主要补偿的是哪一种效应带来的恶化?

它主要补偿的是由于SAR系统在高分辨率、极宽波束或大斜视角工作条件下,极其严重的方位-距离二维耦合所衍生出来的交叉寄生相位项。如果不通过二次压缩滤波器抵消掉这个寄生的二次相位,原本在第一步已经完美压缩的距离向主瓣信号会被严重展宽,导致距离分辨率出现断崖式下跌。

  • 在整体算法复杂度上,为什么SRC算法被评估为介于RD算法和CS算法之间?

SRC算法依然保留了RD算法“一维依次处理”的宏观框架,并没有像CS算法那样引入极其复杂的全二维频域变标乘法运算。但相比于最基础的RD算法,它增加了一次在频域(或距离多普勒域)与修正参考函数的相乘运算来进行额外相位补偿,因此其计算量略微大于基础RD,但整体开销远小于CS算法。

  • 如果你们团队需要对一处地形极度复杂、包含众多微小高价值军事目标的区域进行星载SAR成像,你会强烈建议采用PPT中的哪种算法?为什么?

会毫不犹豫地强烈建议采用CS算法(Chirp Scaling算法)。因为高价值微小目标的成像对空间分辨率和底层相位精度有着极其苛刻的要求。CS算法彻底抛弃了RD算法中的空间内插运算,从根本物理逻辑上消除了插值带来的截断误差和高频相位畸变,能够完美保留目标最真实的电磁散射相位和高频边缘细节,是完成此类高精度侦察任务的唯一最优解。

  • 请站在“二维信号耦合处理”的上帝视角,高度概括RD算法与CS算法在解决该问题上的最根本思维差异。

RD算法的思维是将二维耦合问题强行降维拆解为两个一维问题来近似解决,通过物理插值硬性拉直轨迹,这种“头痛医头”的方式不可避免地会残留系统级误差;而CS算法则是直面二维耦合,在距离-多普勒域和二维频域中,利用信号自身的数学解析特性(变标原理)进行全局的相位尺度映射与精确对齐,这是一种极其纯粹且优雅的全局高精度联合处理思维。

五、DSP

5.1 时域离散信号和时域离散系统

5.1.1 什么是单位冲激信号?

单位冲激信号 δ(t)\delta(t)定义为在 t0t \neq 0 时处处为零,在 t=0t=0 处为无穷大,且在包含原点的任意区间内积分面积为1
它可以看作是脉冲宽度趋于零、高度趋于无穷大、面积始终保持为1的偶函数脉冲的极限。

单位冲激信号代表一个作用时间极短但包含有限能量(面积为1)的理想脉冲.

5.1.2 为什么在信号与系统分析中,我们要如此重点地研究“冲激响应”?它有什么实际作用?

因为冲激响应 h(t)h(t) 能够完全表征一个线性时不变(LTI)系统的时域特性

我们在分析系统时,可以把任意复杂的输入信号分解为无数个加权延迟的冲激信号的叠加;因此,一旦知道了系统的冲激响应,任意输入信号激励下的零状态响应都可以通过该输入信号与系统冲激响应的卷积积分(或卷积和)来直接求得

5.1.3 单位冲激信号 δ(t)\delta(t) 与单位阶跃信号 u(t)u(t) 之间有什么数学运算关系?

单位冲激信号是单位阶跃信号的一阶导数,即 δ(t)=du(t)dt\delta(t) = \frac{du(t)}{dt};反之,单位阶跃信号是单位冲激信号从负无穷到当前时刻 tt 的积分,即 u(t)=tδ(τ)dτu(t) = \int_{-\infty}^{t}\delta(\tau)d\tau

5.1.4 请对比一下连续时间信号中的单位冲激信号 δ(t)\delta(t) 和离散时间信号中的单位采样序列 δ(n)\delta(n),它们在定义上有什么本质区别?

本质区别在于幅度。连续时间的 δ(t)\delta(t)t=0t=0 处的幅度是无穷大,其意义体现在积分为1(表示面积或能量);而离散时间的 δ(n)\delta(n)n=0n=0 处的幅度是一个具体的实数值,即等于1

两者都在各自的领域承担着“提取信号”和“作为系统冲激响应输入”的核心基础作用。

5.1.5 离散的正弦序列 x(n)=sin(ω0n)x(n) = \sin(\omega_0 n) 一定是周期序列吗?这和连续正弦信号有什么不同?

不一定。连续正弦信号 sin(Ω0t)\sin(\Omega_0 t) 永远是周期的。但对于离散正弦序列 x(n)=sin(ω0n)x(n) = \sin(\omega_0 n),要满足周期性条件 x(n)=x(n+N)x(n) = x(n+N),必须有 ω0N=2πk\omega_0 N = 2\pi kkk 为整数),即 ω02π=kN\frac{\omega_0}{2\pi} = \frac{k}{N} 必须是一个有理数。如果 ω02π\frac{\omega_0}{2\pi} 是无理数,则该离散正弦序列不是周期序列。

5.1.6 请简述在计算离散序列的“卷积和”时,图解法(图示法)的具体物理过程是怎样的?

图解法的物理过程完美对应了线性时不变系统对输入信号的响应过程。具体步骤归纳为五步:1. 换元(确立虚变量 mm);2. 反转(将系统响应 h(m)h(m) 翻转为 h(m)h(-m),体现了历史输入对当前的影响);3. 平移(移位 nn 步得到 h(nm)h(n-m),对应观察时刻的移动);4. 相乘(将输入 x(m)x(m) 与平移后的响应进行逐点相乘);5. 求和(将所有乘积相加,得到当前时刻 nn 的总输出 y(n)y(n))。

5.1.7 利用单位采样序列 δ(n)\delta(n),任意一个离散序列 x(n)x(n) 可以如何表示?这个表示式在推导系统输出时有什么意义?

任意序列可以表示为无限多个加权、延迟的单位采样序列之和,即 x(n)=m=+x(m)δ(nm)x(n) = \sum_{m=-\infty}^{+\infty} x(m)\delta(n-m)

其重要意义在于,借助系统的线性时不变(LTI)特性,我们可以直接将求任意输入 x(n)x(n) 的响应问题,转化为求系统对 δ(n)\delta(n) 响应(即冲激响应 h(n)h(n))的叠加组合,从而直接推导出了卷积和公式 y(n)=x(n)h(n)y(n) = x(n)*h(n)

5.1.8 请简述什么是线性时不变(LTI)系统?为什么我们在数字信号处理中要花大量精力去研究 LTI 系统而不是非线性或时变系统?

LTI 系统是同时满足线性叠加原理和时不变特性的系统。

我们重点研究它的原因有两个:
首先,它的数学模型非常清晰,输出可以通过输入信号与系统冲激响应的卷积和来唯一确定,极大地简化了系统分析的过程;
其次,虽然现实中的系统多是非线性或时变的,但在一定的运行范围内,很多实际系统都可以近似看作 LTI 系统,从而使用成熟的 LTI 理论进行分析和综合。

5.1.9 判断对错并解释原因:表达式为 y(n)=x(2n)y(n) = x(2n)y(n)=x(n)y(n) = x(-n) 的系统是时不变系统吗?

都不是时不变系统,它们是时变系统

以抽取系统 y(n)=x(2n)y(n) = x(2n) 为例,设输入延迟 n0n_0 变为 x1(n)=x(nn0)x_1(n) = x(n-n_0),此时系统的输出为 y1(n)=x1(2n)=x(2nn0)y_1(n) = x_1(2n) = x(2n-n_0)
而原输出延迟 n0n_0 的结果为 y(nn0)=x(2(nn0))=x(2n2n0)y(n-n_0) = x(2(n-n_0)) = x(2n-2n_0)
显然 y1(n)y(nn0)y_1(n) \neq y(n-n_0),故为时变系统。这类涉及尺度变换和时间翻转的系统通常都是时变的。

5.1.10 请从物理概念和 LTI 系统的数学判定条件两个方面,分别解释一下什么是因果系统和稳定系统?

从物理概念上讲,因果系统意味着“没有输入就没有输出”或者“输出不能提前于输入发生”,它符合现实物理世界的因果律;
稳定系统意味着“有界的输入绝对不会导致系统发散崩溃(产生无限大的输出)”

从 LTI 系统的数学充要条件来看,因果系统要求其冲激响应在 n<0n<0 时恒为零,即 h(n)=0(n<0)h(n)=0 (n<0)
稳定系统要求其冲激响应必须是绝对可和的,即 h(n)<\sum |h(n)| < \infty

5.1.11 如果我给你一个线性常系数差分方程,这个方程描述的系统一定是线性时不变系统(LTI)吗?为什么?

不一定

线性常系数差分方程描述的系统是否为 LTI 系统,取决于系统的初始状态
只有当系统满足**“零状态”条件**(即输入信号到来之前,系统内部没有任何初始储能或记忆值,初始条件全为零)时,它才满足线性系统的可加性和齐次性,进而成为一个 LTI 系统。如果初始状态不为零,系统将产生零输入响应,从而破坏系统的线性叠加原理。

5.1.12 在实际工程或编写算法时,我们一般如何求解数字系统(差分方程)的输出响应?这与我们理论分析时用的方法有什么区别?

理论分析和求系统闭式解时,我们最常使用的是变换域法(Z变换),因为它可以将复杂的时域卷积和差分运算转化为简单的代数运算,方便我们分析系统的零点、极点和频响特性。
但在实际工程编码或 DSP 芯片实现中,我们主要使用的是递推解法。因为差分方程天然对应着延迟寄存器、乘法器和加法器的硬件/软件结构,通过当前输入和过去状态的历史数据即可逐点递推出当前输出,非常适合计算机的实时数值运算。

5.1.13 既然差分方程本身不能确定系统的因果性,那我们在实际定义一个因果的差分方程系统时,需要补充什么条件?

要补充初始松弛条件(Initial Rest Condition)
也就是说,如果输入序列在 n<n0n < n_0 时为零,那么系统的输出也必须在 n<n0n < n_0 时为零(即没有激励就没有响应)。
在递推求解时,这也意味着计算必须是顺着时间正向递推的(利用过去的输出计算现在的输出),而不能逆向递推。

5.2 离散时间傅立叶变换

5.2.1 请简述在连续信号处理和离散信号处理中,我们为什么要分别引入 S 变换和 Z 变换?它们在数学本质上起到了什么作用?

我们引入这些变换主要是为了简化系统的分析和求解过程
在数学本质上,S 变换将连续时域复杂的微积分运算转化为了 S 域简单的代数运算(求导对应乘以 s);
Z 变换将离散时域复杂的差分方程转化为了 Z 域的代数方程(时移对应乘以 z1z^{-1})。

这使得我们可以直接通过代数方法求解系统响应,并直观地分析系统的零极点分布以判断其稳定性。

5.2.2 在利用 Z 变换求解离散时间系统的差分方程时,最核心依赖的是 Z 变换的哪一个数学性质?

核心依赖的性质是 Z 变换的移位特性(或称延迟特性)
即时域信号延迟 kk 个采样周期,在 Z 域等效于乘以 zkz^{-k},数学表达式为 x[nk]zkX(z)x[n-k] \leftrightarrow z^{-k} X(z)
正是依赖这个特性,我们才能将时域中包含过去状态 y[nk]y[n-k] 和过去输入 x[nk]x[n-k] 的差分方程,直接转化为 Z 域中的代数乘法形式,进而求出系统的传递函数。

5.2.3 在从CTFT推导 DTFT 的过程中,我们遇到了模拟角频率 Ω\Omega 和数字角频率 ω\omega。请详细解释一下这两个频率的物理意义以及它们之间的数学关系。

模拟角频率 Ω\Omega 的单位是 rad/s(弧度/秒),它代表连续物理世界中信号每秒钟变化的弧度,具有绝对的时间量纲。
数字角频率 ω\omega 的单位是 rad(弧度),它是一个无量纲的相对频率,代表相邻两个采样点之间的相位差。

它们之间的数学关系是 ω=ΩTs=Ω/fs\omega = \Omega T_s = \Omega / f_s(其中 TsT_s 是采样周期,fsf_s 是采样频率)。
这说明 ω\omegaΩ\Omega 对采样频率归一化后的结果。

5.2.4 从CTFT推导DTFT的角度来看,为什么离散时间信号的频谱(DTFT)一定是周期的?它的周期是多少?

因为离散信号是从连续信号等间隔采样得到的。根据傅里叶变换的性质,时域的离散化必然导致频域的周期化(时域相乘相当于频域卷积冲激串频谱)。

在模拟角频率 Ω\Omega 域下,采样信号频谱 Xp(jΩ)X_p(j\Omega) 的周期是采样角频率 Ωs=2π/Ts\Omega_s = 2\pi/T_s
根据频率映射关系 ω=ΩTs\omega = \Omega T_s,映射到数字角频率 ω\omega 轴上后,对应的周期就变成了 ωs=(2π/Ts)×Ts=2π\omega_s = (2\pi/T_s) \times T_s = 2\pi
因此,DTFT 总是以 2π2\pi 为周期的。

5.2.5 请不经过具体计算,直接判断序列 x[n]=n (NnN)x[n] = n \ (-N \le n \le N)x[n]=sin(ωcn)πnx[n] = \frac{\sin(\omega_c n)}{\pi n} 的 DTFT 频谱是实数还是纯虚数?判断的依据是什么?

依据实序列的对称性映射关系(偶部对应实部,奇部对应虚部)。序列 x[n]=nx[n] = n 是一个严格的奇序列(因为 x[n]=x[n]x[-n] = -x[n]),所以它的偶部为零,其 DTFT 是一个纯虚数函数

而序列 x[n]=sin(ωcn)πnx[n] = \frac{\sin(\omega_c n)}{\pi n} 是一个偶序列sin\sin 函数和 nn 同为奇函数,相除为偶函数),其奇部为零,因此它的 DTFT 是一个纯实数函数(实际上它是理想低通滤波器的冲激响应)。

5.2.6 为什么我们在画数字信号的频谱图时,通常只需要画出 ω\omega[0,π][0, \pi] 范围内的幅度谱就足够了?

这里有两个原因:
首先,DTFT 具有2π2\pi 为周期的周期性,所以只需要看 [π,π][-\pi, \pi] 一个主周期即可;
其次,对于物理世界中广泛存在的实数序列,它的 DTFT 幅度谱具有偶对称性(即 X(ejω)=X(ejω)|X(e^{j\omega})| = |X(e^{-j\omega})|

因此,负频率部分 [π,0][-\pi, 0] 的幅度信息和正频率部分 [0,π][0, \pi] 是完全镜像重复的。所以我们只需要画出 [0,π][0, \pi] 区间的频谱,就能完全掌握该信号的所有频率幅度特征。

5.2.7 请问在数字滤波器设计中,我们为什么经常追求滤波器具有线性相位特性?如果相位不线性会发生什么?

线性相位意味着信号中所有不同频率的成分在通过系统时,都会经历完全相同的群延迟(时间延迟)

如果一个系统的相位不是线性的,那么信号的不同频率分量到达输出端的时间就会有先有后,这将导致信号在时域上发生严重的波形变形(称为相位失真或色散)。

这对于语音处理、图像传输等对波形形状要求极高的应用是致命的。因此,设计具有对称冲激响应的线性相位滤波器(如 FIR 滤波器)在 DSP 中具有重要意义。

5.2.8 我们知道理想低通滤波器的频率响应是一个矩形函数,请问它的单位冲激响应是绝对可和的吗?这在物理实现上意味着什么?

理想低通滤波器的单位冲激响应 h[n]=sin(ωcn)πnh[n] = \frac{\sin(\omega_c n)}{\pi n} 也就是 sinc 函数。

它不是绝对可和的,但它是平方可和的(能量有限)
因此它的 DTFT 是均方收敛而非一致收敛。
在物理实现上,因为冲激响应在时域上向两端无限延伸且不绝对可和,这意味着理想低通滤波器是一个非因果且不稳定的系统,在物理上是无法绝对完美实现的,我们只能通过加窗截断等方法去近似它。

5.2.9 请简述“时域卷积定理”在数字信号处理系统中的重要应用意义?

时域卷积定理表明,信号通过线性时不变(LTI)系统的时域卷积运算 y[n]=x[n]h[n]y[n] = x[n] * h[n],等效于它们在频域的直接相乘 Y(ejω)=X(ejω)H(ejω)Y(e^{j\omega}) = X(e^{j\omega}) \cdot H(e^{j\omega})

这一性质具有极其重要的意义:
首先,它将复杂的时域卷积积分(或求和)转化为了频域简单的代数乘法,极大简化了系统响应的计算;
其次,它为频域滤波提供了理论基础,我们可以直接在频域设计一个增益函数 H(ejω)H(e^{j\omega}),通过乘法来抑制或保留信号 X(ejω)X(e^{j\omega}) 中的特定频率成分。

5.2.10 如果我将一个基带信号 x[n]x[n] 乘以一个高频余弦序列 cos(ω0n)\cos(\omega_0 n),这在频域上会产生什么效果?这是基于哪个定理?

这会产生频谱搬移(或称调制)现象,它是基于**频移定理(或相乘定理)**推导出的。

根据余弦信号的 DTFT 以及频移定理,基带信号 X(ejω)X(e^{j\omega}) 的频谱会被一分为二,分别向左和向右平移到 ω0-\omega_0+ω0+\omega_0 的位置(幅度减半)。
这正是通信系统中**幅度调制(AM)**的数学原理,用于将低频信号搬移到高频载波上以便于传输。

5.3 Z变换

5.3.1 请你从物理和数学直觉上解释一下,为什么我们需要引入 Z 变换?它比起 DTFT 有什么独特的优势?

引入 Z 变换最主要的目的是解决许多重要信号(如阶跃信号、发散的指数信号)不满足绝对可和条件,从而导致其 DTFT 不存在的问题

Z 变换通过引入一个复变量 z=rejωz = re^{j\omega},相当于在原序列上强行乘上了一个实指数因子 rnr^{-n}。对于原本发散的序列,只要我们选择合适的 rr 值(即进入收敛域),就能强行将衰减因子“压住”原序列的发散趋势,使其满足收敛条件。

此外,Z 变换将差分方程转化为 zz 的多项式代数方程,通过分析系统函数 H(z)H(z) 的零点和极点分布,我们可以非常直观地判断系统的稳定性、因果性以及频率响应特性。

5.3.2 在 Z 平面中,“单位圆”是一个极其特殊的存在。请问单位圆在 Z 变换和系统频响分析中具有怎样的物理意义?

在 Z 平面上,单位圆的数学定义是 z=1|z|=1,即 z=ejωz = e^{j\omega}

它的物理意义非常重大:当我们在单位圆上对 Z 变换进行求值时,Z 变换就等价于离散时间傅里叶变换(DTFT)

可以说,DTFT 就是 Z 变换在单位圆上的“切片”或边界取值。因此,如果我们要分析一个系统的频率响应 H(ejω)H(e^{j\omega}),其前提是该系统的 Z 变换收敛域必须包含单位圆。

5.3.3 如果我给你一个系统函数 H(z)=110.5z1H(z) = \frac{1}{1-0.5z^{-1}},你能确定它对应的系统单位冲激响应 h[n]h[n] 吗?如果不能,还需要什么额外信息?

不能唯一确定
因为相同的有理分式表达式可能对应不同的时域序列,这完全取决于极点(此处为 z=0.5z=0.5)内外的收敛域。

我还需要你提供收敛域 (ROC) 的信息。如果收敛域是 z>0.5|z| > 0.5,那么它对应一个右边(因果)序列 h[n]=(0.5)nμ[n]h[n] = (0.5)^n \mu[n];如果收敛域是 z<0.5|z| < 0.5,那么它对应一个左边(反因果)序列 h[n]=(0.5)nμ[n1]h[n] = -(0.5)^n \mu[-n-1]
在实际工程中,如果我们提前知道这个系统是一个“因果系统”,那么我们默认选择极点外部的收敛域。

5.3.4 为什么在讨论 Z 变换的收敛域(ROC)时,我们常说“ROC 的边界是由极点决定的,且 ROC 内绝对不能包含任何极点”?

从数学定义上看,极点是使 Z 变换分母为零、导致 X(z)X(z) 趋向于无穷大的点
收敛域(ROC)的定义是使得 Z 变换无穷级数绝对可和、即 X(z)X(z) 取值有限的 zz 的集合

如果 ROC 内部包含了极点,那么在该点处 X(z)X(z) 将发散至无穷,这与收敛域“取值有限”的定义直接矛盾。
因此,收敛域在扩张时,一旦“碰到”极点就必须停止,极点自然就构成了 ROC 的边界。

5.3.5 给定一个有理 Z 变换 X(z)X(z),它的极点分别在 z=0.5|z|=0.5z=2|z|=2 处。请问它可能对应几种不同的时域序列?分别描述它们的收敛域和序列类型。如果我告诉你这道题中的系统是一个稳定系统,你能唯一确定它的收敛域和序列类型吗?为什么?

因为有理分式相同但收敛域不同会对应不同的序列,根据极点分布,整个 Z 平面被分割成了三个可能的收敛域,因此它可能对应三种不同的时域序列:

  1. 当 ROC 为 z>2|z| > 2 时,对应一个右边序列(通常是因果序列)。
  2. 当 ROC 为 z<0.5|z| < 0.5 时,对应一个左边序列(反因果序列)。
  3. 当 ROC 为 0.5<z<20.5 < |z| < 2 时(一个圆环),对应一个双边序列

如果知道系统是一个稳定系统,那么可以唯一确定它的收敛域和序列类型。
系统稳定的充要条件是其单位冲激响应绝对可和,反映在 Z 域中就是系统的收敛域(ROC)必须包含单位圆(z=1|z|=1。在上述三个可能的 ROC 中,只有圆环区域 0.5<z<20.5 < |z| < 2 包含了 z=1|z|=1 这个单位圆。因此,该系统必须对应收敛域为 0.5<z<20.5 < |z| < 2双边序列响应。

5.3.6 在利用线性性质或卷积性质计算两个系统的组合 Z 变换时,总收敛域一定是它们各自收敛域的严格交集吗?有没有什么例外情况?

不一定仅仅是严格交集,交集只是基础保证,总收敛域有可能会扩大
当两个序列相加或卷积时,得到的新的 Z 变换多项式分子和分母中,如果发生了零极点对消(即某个多项式的零点恰好抵消了决定原边界的极点),那么限制收敛域的那堵“墙”就消失了,此时总的收敛域就会向外或向内扩展,包含且大于原来各自收敛域的交集。

5.3.7 如果我知道一个离散时间序列的 Z 变换存在,它的离散时间傅里叶变换(DTFT)就一定存在吗?这两者在数学计算上具体是什么转换关系?

不一定存在
一个序列的 DTFT 存在的充分条件是其 Z 变换的收敛域(ROC)必须包含单位圆(即 z=1|z|=1 这个轨迹)。如果收敛域不包含单位圆,说明序列在单位圆上不收敛,则 DTFT 不存在。
只有当收敛域包含单位圆时,DTFT 才存在,且可以通过简单地将 Z 变换在单位圆上求值来获得,即使用代换公式:

X(ejω)=X(z)z=ejωX(e^{j\omega}) = \left. X(z) \right|_{z=e^{j\omega}}

5.3.8 如果我有一个因果序列 x[n]=αnu[n]x[n] = \alpha^n u[n],我现在对它进行操作,得到一个新的序列 y[n]=nαnu[n]y[n] = n \cdot \alpha^n u[n]。在不使用 Z 变换定义式强行求和的情况下,你能用最快的方法告诉我 y[n]y[n] 的 Z 变换怎么求吗?

可以直接利用 Z 变换的频域微分性质(或称 Z 域求导性质)。因为时域序列乘以自变量 nn,在 Z 域等效于对其原 Z 变换乘以 z-z 并对 zz 求一阶导数。已知 X(z)=11αz1X(z) = \frac{1}{1-\alpha z^{-1}},所以 y[n]y[n] 的 Z 变换直接就是:

Y(z)=zdX(z)dz=αz1(1αz1)2Y(z) = -z \frac{dX(z)}{dz} = \frac{\alpha z^{-1}}{(1-\alpha z^{-1})^2}

其收敛域与原来保持一致,依然是 z>α|z| > |\alpha|。这是求解含有 nn 甚至 n2n^2 系数的序列的最快方法。

5.3.9 在求解反 Z 变换时,留数法、查表法(结合部分分式)和长除法各有什么优缺点?在什么具体场景下你会倾向于选择长除法?

留数法是严谨的数学推导定义,理论上通用,但手算围道积分极易出错,工程上较少直接使用;

查表法结合部分分式展开是首选方法,因为它可以推导出序列的闭合解析式(通项公式),非常适合进行系统的长远理论分析;

长除法的优点是简单粗暴、无需因式分解求极点,但致命缺点是它只能得到序列数值的递推展开,无法直接得出通项公式。因此,长除法仅适用于以下场景:1. 只需要求序列前几个有限的样本值;2. 分母多项式的阶数太高,极点根本无法通过手算分解出来。

5.3.10 如果我用长除法求一个系统函数 H(z)H(z) 的逆变换,我不看收敛域,习惯性地直接用分子除以分母,这样一定会得出正确的答案吗?

绝对不会,甚至可能会得到完全相反的错误序列

因为同一个代数表达式 H(z)H(z) 可以对应不同的序列。如果不看收敛域,习惯性地按 z1z^{-1} 降幂相除,得到的一定是一个因果序列(右边序列)。
但如果题目设定的实际收敛域是在极点内部(即该系统对应的是一个反因果序列),那么按 z1z^{-1} 降幂除出来的结果在物理意义和数值上都是彻底错误的。
因此,使用长除法的绝对第一步,就是先看 ROC 确定序列因果性,再决定是用降幂还是升幂做除法

5.3.11 拿到一个有理分式 X(z)=B(z)/A(z)X(z) = B(z)/A(z) 准备进行部分分式展开时,你的第一步应该检查什么?如果分子多项式的阶数大于分母多项式的阶数,你会怎么做?

第一步必须检查分子多项式的阶数(MM)是否严格小于分母多项式的阶数(NN(通常按 z1z^{-1} 的降幂排列看)。
部分分式展开(求留数)的数学前提是该分式必须是“真分式”。如果 MNM \ge N(假分式),我必须首先利用多项式长除法,用分子除以分母,分离出一个多项式商(对应时域的冲激序列项),直到余式多项式的阶数严格小于分母的阶数,然后才能对剩下的余式/分母构成的真分式部分进行部分分式展开。

5.3.12 假设你把 X(z)X(z) 成功展开成了两个单极点分式之和:X(z)=A10.5z1+B12z1X(z) = \frac{A}{1-0.5z^{-1}} + \frac{B}{1-2z^{-1}},题目给定的总收敛域(ROC)是 0.5<z<20.5 < |z| < 2。请问你如何判定这两项对应的时域序列类型?

判定子项序列类型的核心是对比总 ROC 和各个极点的位置关系

极点分别是 0.50.522。对于极点 0.50.5 的这一项,因为总 ROC 满足 z>0.5|z| > 0.5(位于该极点外部),所以它对应一个右边序列(因果序列),即 A(0.5)nμ[n]A(0.5)^n \mu[n];对于极点 22 的这一项,因为总 ROC 满足 z<2|z| < 2(位于该极点内部),所以它对应一个左边序列(反因果序列),即 B(2)nμ[n1]-B(2)^n \mu[-n-1]
最终的时域序列就是这两个序列的叠加,构成一个双边序列。

5.3.13 在部分分式展开中,如果分母中出现了一个多重极点(比如二阶极点 (1az1)2(1-az^{-1})^2),它在时域对应的响应和单极点相比有什么最显著的特征?

单极点在时域对应的是纯粹的指数序列 anμ[n]a^n \mu[n]。而出现二阶极点时,根据 Z 变换的求导性质(频域微分定理),时域响应中不仅会包含指数项,还会出现以时间变量 nn 为线性系数的乘积项,典型的形式为 nanμ[n]n a^n \mu[n](n+1)anμ[n](n+1)a^n \mu[n]。如果是三阶甚至更高阶的极点,时域就会出现 n2n^2n3n^3 等多项式包络。

这种现象在控制系统或滤波器设计中,通常意味着系统处于临界阻尼状态,或者存在谐振。

5.4 离散时间系统

5.4.1 请快速判断系统 y[n]=x[n]y[n] = x[-n] 是否为因果系统和时不变系统?请给出你的判断过程。

该系统既不是因果系统,也不是时不变系统
首先看因果性:当 n=2n = -2 时,系统的输出为 y[2]=x[2]y[-2] = x[2],这说明过去的输出依赖了未来的输入样本,因此是非因果的。
其次看时不变性:假设输入信号延迟 n0n_0 变为 x1[n]=x[nn0]x_1[n] = x[n-n_0],则系统此时的输出为 y1[n]=x1[n]=x[nn0]y_1[n] = x_1[-n] = x[-n-n_0];但如果我们直接将原输出延迟 n0n_0,得到的是 y[nn0]=x[(nn0)]=x[n+n0]y[n-n_0] = x[-(n-n_0)] = x[-n+n_0]。显然两者不相等,因此它是时变系统。

5.4.2 在数字信号处理中,我们为什么几乎只关注系统的“单位冲激响应” h[n]h[n]?它和“单位阶跃响应” s[n]s[n] 之间有什么物理和数学上的联系?

关注冲激响应是因为,对于一个线性时不变(LTI)系统而言,任何复杂的输入信号都可以被分解为无数个加权且延时的单位冲激序列的线性叠加。

凭借系统的线性和时不变性,系统的总输出也就等于冲激响应的加权延时叠加(即卷积和公式 y[n]=x[n]h[n]y[n] = x[n] * h[n])。

因此,冲激响应 h[n]h[n] 就像是系统的“DNA”,能够完备且唯一地表征一个 LTI 系统的所有特性

关于二者的联系:因为阶跃序列是冲激序列的累加求和,由线性性质可知,单位阶跃响应 s[n]s[n] 就是单位冲激响应 h[n]h[n] 的累加,即 s[n]=k=nh[k]s[n] = \sum_{k=-\infty}^{n} h[k];反之,h[n]=s[n]s[n1]h[n] = s[n] - s[n-1]

5.4.3 从常系数差分方程的形式来看,为什么我们需要给定“初始条件”才能唯一确定系统的输出 y[n]y[n]?如果不给初始条件会怎样?

差分方程本质上揭示的是输入与输出序列之间的递推约束关系,它并不是一个直接的显式通项公式。
如果不给定初始条件(系统过去的历史状态),我们就无法启动这种递归计算。在数学上,不给初始条件的差分方程有无数个解(对应不同的齐次解/零输入响应);只有补充了初始条件,我们才能确定系统唯一的真实物理输出。

5.4.4 我给你一个 LTI 系统的冲激响应 h[n]=(0.5)nμ[n+1]h[n] = (0.5)^n \mu[n+1]。请你在一分钟内判断它是因果的吗?它是稳定的吗?

它不是因果的,但是它是稳定的
判断因果性:根据因果性充要条件 h[n]=0(n<0)h[n]=0 (n<0),这个系统在 n=1n=-1 时的值为 h[1]=(0.5)1μ[0]=20h[-1] = (0.5)^{-1}\mu[0] = 2 \neq 0,所以它有超前响应,是非因果系统。
判断稳定性:检查绝对可和条件 n=1(0.5)n=2+1+0.5+0.25+=4<\sum_{n=-1}^{\infty} |(0.5)^n| = 2 + 1 + 0.5 + 0.25 + \dots = 4 < \infty。因为序列绝对可和,所以该系统是稳定的。

5.4.5 累加器系统 y[n]=y[n1]+x[n]y[n] = y[n-1] + x[n] 在数字信号处理中非常常见。请问它的冲激响应是什么?为什么我们说它是一个不稳定的系统?如果输入一个有界的阶跃信号,输出会怎样?

累加器系统的冲激响应是单位阶跃序列 μ[n]\mu[n]

我们说它不稳定,是因为稳定系统的充要条件是冲激响应绝对可和,而 n=μ[n]=n=01=\sum_{n=-\infty}^{\infty} |\mu[n]| = \sum_{n=0}^{\infty} 1 = \infty,不满足绝对可和条件。这在物理直觉上很好理解:如果输入一个有界信号(比如持续为 1 的阶跃信号),累加器会不断将过去的 1 累加起来,输出 y[n]y[n] 将会变成斜坡信号 n+1n+1,随着时间 nn 趋于无穷大,输出也会发散到无穷大,从而违背了“有界输入产生有界输出(BIBO)”的稳定性定义。

5.4.6 如果我求出了一个系统的传递函数 H(z)H(z),我是不是随时都可以把 zz 替换成 ejωe^{j\omega} 来求它的频率响应 H(ejω)H(e^{j\omega})

不可以,必须满足一个前提条件。把 zz 替换成 ejωe^{j\omega} 的本质是在 Z 平面的单位圆上对 Z 变换进行求值。

因此,只有当该系统的 Z 变换收敛域(ROC)包含了单位圆(z=1|z|=1)时,这种替换才是数学上成立的
如果 ROC 不包含单位圆(例如系统是不稳定的,极点在单位圆外且为因果系统),那么该系统在单位圆上发散,它就不存在连续的、一致收敛的离散时间傅里叶变换(DTFT),此时就不能简单地进行替换。

5.4.7 为什么我们通常选用 LTI(线性时不变)系统来实现数字滤波器,而不是非线性系统?它的物理机制是什么?

LTI 系统的核心机制在于特征函数特性

复指数序列 ejωne^{j\omega n} 是 LTI 系统的特征函数,这意味着信号通过系统后,系统绝对不会产生新的频率分量,只会改变原有频率分量的幅度相位
因此,我们可以通过设计系统的频率响应 H(ejω)H(e^{j\omega}),在频域上对特定频率进行精确的“放大”(保留)或“衰减”(阻挡),从而实现纯粹的频率选择性滤波。

相反,非线性系统会产生谐波或互调失真,引入原信号中没有的新杂散频率,这在经典的频域滤波任务中是致命的。

5.5 DFT

5.5.1 我们已经有了 DTFT 和 Z 变换,它们都能非常完美地进行频域和系统分析,为什么在工程实际中我们还要发明并且只用 DFT?

DTFT 和 Z 变换在理论分析中确实非常强大,但它们的频域变量(连续角频率 ω\omega 或复变量 zz)都是连续的

计算机的内存是有限的,只能存储和处理离散的数字序列,无法直接计算和存储连续函数。

DFT 的伟大之处在于它在时域和频域上都是有限长、离散的。这使得频域分析变成了一个纯粹的矩阵乘法或有限项代数求和问题,从而让计算机(以及后来的 DSP 芯片)能够真正落地执行频域信号处理。

5.5.2 请解释一下旋转因子 WN=ej2π/NW_N = e^{-j2\pi/N} 的物理意义?在计算中它有什么重要的特性可以用来简化运算?

旋转因子 WNW_N 的物理意义是将复平面的单位圆等分为 NN 份,它代表了旋转的基本角度步长。

在计算中,它有两个极其重要的特性用来简化运算(特别是推导 FFT 时):
一是周期性,即 WNk+N=WNkW_N^{k+N} = W_N^k
二是对称性,即 WNk+N/2=WNkW_N^{k+N/2} = -W_N^k
这两个特性使得在计算庞大的 DFT 矩阵时,存在大量重复和互为相反数的项,从而可以将计算复杂度大幅降低。

5.5.3 余弦信号 g[n]=cos(2πrn/N)g[n] = \cos(2\pi rn/N) 的 N 点 DFT 示例中,为什么它的频谱非零点出现在 k=rk=rk=Nrk=N-r 两个位置?k=Nrk=N-r 这个位置在物理上代表什么?

这源于实信号频谱的共轭对称性以及 DFT 的隐含周期性。

根据欧拉公式,余弦信号由一个正频率 rr 和一个负频率 r-r 的复指数信号叠加而成。
在 DFT 中,频谱是以 NN 为周期的,负频率 r-r 按照周期延拓(r+N-r + N),就映射到了主值区间内的 NrN-r 位置。
因此,k=Nrk=N-r 在物理上实际上代表的就是原信号的“负频率”成分,这就是为什么我们看 DFT 的结果时,通常把前半部分看作正频率,后半部分看作负频率的镜像。

5.5.4 请简述 DFT 和 DTFT 之间在物理和数学上的核心关系是什么?为什么我们要通过 DFT 来观察信号的频谱?

在数学上,DFT 本质上是对连续的 DTFT 频谱在 [0,2π)[0, 2\pi) 区间内进行了 NN 点等间隔采样
物理意义上,由于 DTFT 的频谱是连续的,计算机无法分配无限的内存来存储连续函数;
因此我们只能在频域抽取有限个离散的样本点(即计算 DFT)来观察频谱轮廓。

只要满足频域采样定理(即采样点数 NN 大于等于时域信号的有效长度),这有限个 DFT 点就包含了信号所有的频域信息。

5.5.5 原序列 x[n]={0,1,2,3,4,5}x[n] = \{0, 1, 2, 3, 4, 5\},长度为 66。现在我对它的 DTFT 进行 44 点等间隔采样得到 X[k]X[k]k=0,1,2,3k=0,1,2,3)。请问如果我对这个 X[k]X[k]44 点 IDFT,得到的时域序列 y[n]y[n] 是什么?为什么?

得到的时域序列 y[n]y[n] 会发生严重的时域混叠。原序列长度 M=6M=6,而我们只采了 N=4N=4 个频点。根据理论,这等效于将原序列在时域以 N=4N=4 为周期进行移位并叠加。
具体计算就是将超出 44 点的部分(即原序列的最后两个点 4455)搬移并加到当前周期的最前面。所以 y[0]=x[0]+x[4]=0+4=4y[0] = x[0] + x[4] = 0 + 4 = 4y[1]=x[1]+x[5]=1+5=6y[1] = x[1] + x[5] = 1 + 5 = 6;剩余的 y[2]y[2]y[3]y[3] 没有被混叠,保持不变为 2233。最终输出序列为 {4,6,2,3}\{4, 6, 2, 3\}

5.5.6 根据傅里叶变换的理论体系,请总结一下信号在时域的“离散性”和“周期性”,分别决定了它在频域的什么特性?

时域的离散性决定了频域的周期性,时域的周期性决定了频域的离散性
例如,信号在时域被离散采样(如 DTFT),其频域必然以 2π2\pi 为周期无限延拓;
信号在时域如果是周期性的(如傅里叶级数 FS),其频域必然是离散的线状谱。

只有当时域既离散又周期(DFS/DFT 的隐含假设)时,频域才会既离散又周期,这也是它能被计算机完美处理的根本原因。

5.5.7 请简述“线性卷积”和“循环卷积”在数学结果和物理意义上的根本区别是什么?

根本区别在于处理边界的方式和结果的长度

线性卷积假设信号在区间外为零,两个长度分别为 N1N_1N2N_2 的序列线性卷积后,结果长度会展宽为 N1+N21N_1+N_2-1
而循环卷积是基于 DFT 隐含的周期延拓特性的,它将信号移出边界的部分循环移回另一端,因此两个长度为 NN 的序列进行 NN 点循环卷积,其结果长度严格保持为 NN

物理上,线性卷积对应真实的系统滤波响应;循环卷积则是频域直接相乘在时域的数学等效。

5.5.8 如果在数字信号处理中,我们想用 DFT(或 FFT)的高效相乘来代替时域的线性卷积运算,直接做 DFT 相乘得到的是循环卷积。我们该如何操作才能让循环卷积的结果完全等于线性卷积的结果,从而避免混叠?

必须使用补零(Zero-Padding)技术

为了防止循环卷积发生时域混叠,我们必须将参与卷积的两个序列的长度都补零延长到 LL。补零后的长度 LL 必须满足 LN1+N21L \ge N_1 + N_2 - 1(即大于等于线性卷积的真实长度)。
将两者都补零至 LL 点后,再进行 LL 点的 DFT、频域相乘以及 IDFT,得到的 LL 点循环卷积结果就与真实的线性卷积结果完全一致了。

5.5.9 请口算一个小题。长度为 4 的序列 x[n]={1,2,3,4}x[n] = \{1, 2, 3, 4\}。请写出它的圆周反转序列 x[n4]x[\langle -n \rangle_4] 的值。

根据圆周反转的规则,第 0 个样本点保持不变,剩余的样本点在主值区间内逆序排列。即 n=0n=0 时为 11;原 n=1n=1 处的 22 移到 n=3n=3;原 n=3n=3 处的 44 移到 n=1n=1。所以圆周反转后的序列为 {1,4,3,2}\{1, 4, 3, 2\}

5.5.10 简述 DFT 的“对偶性”在实际推导或者计算中有什么巧妙的应用?

DFT 的对偶性表明时域和频域的数学方程结构是高度对称的。它的巧妙应用在于**“已知一个变换对,就可以免费得到另一个变换对”**。

如果我们在时域有一个形状很复杂的波形,但在频域已知它的频谱表达式非常简单;那么下一次当我们遇到与该频谱表达式形状完全相同的时域信号时,可以直接利用对偶性写出其对应的频域 DFT,而无需再从零开始进行复杂的无穷级数求和计算。

5.5.11 我们都知道实数序列的 DFT 具有“共轭对称性”,即 X[k]=X[Nk]X[k] = X^*[N-k]。请问这个性质对于我们实际用 DSP 芯片做频域分析或者编写 FFT 算法时,有什么极大的实际意义?

实际意义主要体现在计算量和存储空间的减半

因为对于长度为 NN 的实信号,由于后半部分频谱 X[Nk]X[N-k] 与前半部分 X[k]X[k] 互为共轭,我们只需要计算并存储前一半(即 k=0k=0N/2N/2)的 DFT 结果即可,后一半的频谱信息完全可以由前一半直接取共轭恢复。
这就使得针对实信号优化的 FFT 算法(如 Real-valued FFT),其运算量和所需的内存空间仅为普通复数 FFT 的一半,极大地提升了处理效率。

5.5.12 如果我将两个长度为 NN 的序列在时域直接逐点相乘,即 y[n]=g[n]h[n]y[n] = g[n]h[n],请问它在 DFT 频域的对应关系是什么?如果我想用快速傅里叶变换(FFT)来加速计算这个“时域相乘”的结果,相比直接在时域相乘,你觉得划算吗?

时域相乘对应频域的圆周卷积,并需要乘以系数 1/N1/N
如果在时域直接计算两个长度为 NN 的序列相乘,只需要进行 NN 次乘法运算,计算复杂度仅为 O(N)O(N)
但如果异想天开地通过 FFT 转到频域去做圆周卷积,即便使用了 FFT,正反变换加上频域处理的整体开销也远高于 O(N)O(N)(达到了 O(NlogN)O(N\log N) 甚至更高)。

因此,对于时域的点乘操作,直接在时域计算是最划算、最快的,绝不应该绕道频域去计算。FFT 算法是用来加速“时域卷积”问题的,而不是用来加速“时域相乘”的。

5.5.13 请简述 FFT 为什么能把离散傅里叶变换的计算复杂度从 O(N2)O(N^2) 降到 O(NlogN)O(N\log N)?它的核心数学依据是什么?

FFT 能够大幅降低计算复杂度的核心在于采用了分治策略,并极致地利用了旋转因子 WNW_N 的对称性和周期性

在 DIT-FFT 中,我们将 NN 点 DFT 分解为偶数和奇数序列的 N/2N/2 点 DFT。由于旋转因子的对称性(即 WNk+N/2=WNkW_N^{k+N/2} = -W_N^k),我们在计算出前半个周期的频谱分量时,所需计算的中间乘积项(即 WNkX1[k]W_N^k X_1[k])可以直接复用于后半个周期频谱分量的计算,只需将加法改为减法即可(即蝶形运算)。

这种结构避免了大量的重复乘法运算,通过 log2N\log_2 N 次递归分解,最终将乘法次数从 N2N^2 降到了 (N/2)log2N(N/2)\log_2 N

5.5.14 在 DSP 芯片或 C 语言中实现基-2 DIT FFT 算法时,我们为什么必须要对输入序列进行“码位倒置(Bit-Reversal)”排序?

码位倒置是为了实现原址计算(In-place computation)

在标准的 DIT-FFT 蝶形流图中,如果我们要保证每一级计算完的两个新节点结果,能够直接覆盖掉上一级参与计算的两个老节点所在的内存地址(从而不需要开辟额外一倍的内存空间来存储中间结果),那么输入序列在第 0 级的排列顺序就不能是自然的递增顺序。
经过数学推导,这种能够满足完美覆盖的输入重排规律,恰好等于原自然索引二进制码的镜像翻转。因此,在算法初始化阶段,我们必须先对输入数组执行一次码位倒置操作。

5.5.15 口算一下,如果我要在系统中处理一段长度为 1024 个点的信号,使用直接 DFT 和使用 FFT,它们所需的复数乘法次数大概各是多少?相差多少倍?

长度 N=1024=210N = 1024 = 2^{10}

如果使用直接 DFT,所需的复数乘法次数为 N2=1024×10241,000,000N^2 = 1024 \times 1024 \approx 1,000,000(一百万次)。
如果使用基-2 FFT 算法,所需的复数乘法次数为 N2log2N=10242×10=512×10=5120\frac{N}{2} \log_2 N = \frac{1024}{2} \times 10 = 512 \times 10 = 5120 次。

相比之下,两者的乘法次数相差了近 195195 倍。这正是 FFT 被称为 20 世纪最伟大的十大算法之一的原因,它让实时的数字信号处理成为了可能。

5.6 离散时间系统分析

5.6.1 我们在课本上学过“理想低通滤波器”,它的幅度频谱是一个完美的矩形。请你从时域冲激响应的角度解释一下,为什么我们在工程上永远造不出这样一个绝对理想的滤波器?

因为理想低通滤波器在频域的矩形窗,通过反离散时间傅里叶变换(IDTFT)映射到时域后,其单位冲激响应是一个无限延伸的 sinc 函数 sin(ωcn)πn\frac{\sin(\omega_c n)}{\pi n}

这个时域响应有两个致命的物理不可实现点:
第一,它在 t=0t=0(或 n=0n=0)之前就有无穷无尽的非零波形,这意味着系统具有非因果性,必须提前预知未来的输入信号;
第二,sinc 函数包络衰减很慢,不满足绝对可和条件,这意味着如果输入一个有界但持续的特定信号,系统的内部状态可能会无限累加导致发散,是一个不稳定的系统。

5.6.2 有界实(BR)传递函数要求 H(ejω)1|H(e^{j\omega})| \le 1。你能结合信号的能量,通俗地解释一下这代表了一种什么样的物理系统吗?我们为什么要研究它?

一个因果稳定、实系数的传递函数 H(z)H(z) 被定义为 BR 传递函数必须满足一个核心条件:

H(ejω)1(对所有 ω 值成立)|H(e^{j\omega})| \le 1 \quad (\text{对所有 } \omega \text{ 值成立})

结合帕斯瓦尔定理,频域幅度 H(ejω)1|H(e^{j\omega})| \le 1 意味着系统对任何频率成分都不会进行放大。

因此,信号通过该系统后,其输出的总能量永远不可能超过输入的总能量
这在物理上完美对应了无源系统(Passive System)的概念,即系统内部没有能量放大或产生的机制。
我们研究它是因为,基于无源结构(BR 或 LBR)推导出的数字滤波器结构,在面对 DSP 芯片字长有限带来的“系数截断量化误差”时,仍能保证系统不会因能量溢出而变得不稳定,表现出极强的鲁棒性和
超低的系数灵敏度
,能够保证滤波器在恶劣的有限精度下依然稳定工作。

5.6.3 如果我给你一个非常简单的一阶 IIR 滤波器传递函数 H(z)=0.210.8z1H(z) = \frac{0.2}{1 - 0.8z^{-1}}。你不画图,能直接告诉我它是一个低通滤波器还是高通滤波器吗?判断依据是什么?

它是一个低通滤波器。判断的依据是看极点的位置

这个系统的极点是 α=0.8\alpha = 0.8,位于 Z 平面单位圆内的正实轴上。在频率响应 H(ejω)H(e^{j\omega}) 的几何求值中,数字频率 ω=0\omega=0(直流/低频)对应的单位圆上的点是 z=1z=1,此时该点距离正实轴极点 0.80.8 最近,导致分母最小、增益最大;而高频 ω=π\omega=\pi 对应的点是 z=1z=-1,距离该极点最远,增益最小。所以它放行了低频,抑制了高频,是一个低通滤波器。

5.6.4 既然全通系统对所有频率的幅度都没有改变(幅度响应始终为 1),那我们平时在数字信号处理中为什么要引入并使用它?它有什么实际的工程作用?

全通系统的核心定义是:对所有频率 ω\omega,系统的幅度响应严格等于 1,即 A(ejω)2=1|A(e^{j\omega})|^2 = 1。这意味着信号通过全通系统时,没有任何频率成分的幅度会被放大或衰减,它仅仅改变信号的相位

全通系统虽然不改变信号的幅度谱,但它会改变信号的相位谱

在实际工程中,很多滤波器(如高阶 IIR 滤波器)虽然达到了极好的幅度衰减指标,但往往伴随着严重的非线性相位失真(这会导致信号波形在时域上严重变形)。
我们通常将一个全通系统与该滤波器级联,利用全通系统特定的非线性相位(或群延迟)特性,去有针对性地“抵消”或“补偿”原滤波器的相位失真,从而在不破坏原有幅度特性的前提下,实现相位均衡(Phase Equalization)

5.6.5 如果我给你一个系统传递函数 H(z)=0.5+z11+0.5z1H(z) = \frac{0.5 + z^{-1}}{1 + 0.5z^{-1}},请你快速判断它是不是全通系统?它的零点和极点分别在哪里?它们之间有什么几何关系?

它是全通系统
判断依据是它的分子多项式系数(0.5,10.5, 1)正好是分母多项式系数(1,0.51, 0.5)的逆序排列(即镜像多项式)。
它的极点使得分母为零,即 1+0.5z1=01 + 0.5z^{-1} = 0,解得极点 z=0.5z = -0.5;它的零点使得分子为零,即 0.5+z1=00.5 + z^{-1} = 0,解得零点 z=2z = -2
在 Z 平面上,极点位于单位圆内,零点位于单位圆外,两者互为倒数(即满足 zzero=1/zpolez_{zero} = 1 / z_{pole}^*),构成了关于单位圆的镜像对称(共轭倒数)几何关系

5.6.6 请从物理概念的角度解释一下,为什么一个因果稳定的全通滤波器,它的“群延迟”必须处处大于零?如果群延迟小于零意味着什么?

群延迟 τg(ω)\tau_g(\omega) 在物理上代表了信号中各个窄带频率分量通过系统时所经历的时间延迟

因为我们讨论的系统是因果稳定的,因果性决定了“系统对激励的响应必然发生在激励之后”,即信号通过系统必须要“花时间”,必须发生正向的时间延迟。
如果群延迟小于零(即相位导数为正),这就意味着某些频率的信号在输入端还没有到来之前,就已经在输出端出现了(时间超前),这严重违背了现实物理世界的因果律。

因此,因果稳定全通系统的群延迟必然处处大于零。

5.6.7 为什么我们说“因果的数字滤波器绝对不可能是零相位的”?

因为“因果系统”的物理前提是系统不能对未来的输入提前做出响应,这就注定了信号通过因果系统必定要经历正向的、大于零的“时间延迟”。
而“零相位”意味着系统对所有频率成分的时间延迟都严格为零。如果一个滤波器是零相位的,它的单位冲激响应必定是关于 n=0n=0 偶对称的(即:h[n]=h[n]h[n] = h[-n]),这就要求系统“预知未来”,因此因果的零相位滤波器在物理上是自相矛盾、无法实现的。

真正的零相位系统意味着信号通过系统时没有任何时间延迟。根据因果律,这意味着系统必须根据未来的输入来产生当前的输出。因此,对于因果系统(实时处理系统),绝对的零相位滤波器在物理上是无法实现的

5.6.8 什么是最大相位系统,什么是最小相位系统?最小相位系统有何优势?

在数字滤波器的设计中,一个极其重要的理论是:具有相同幅度响应的系统,并不唯一对应同一个传递函数(相位响应可以完全不同)。这完全取决于系统的“零点”在 Z 平面上的位置分布。

最小相位系统是一个因果稳定的系统,如果其所有的极点和零点都严格位于 Z 平面的单位圆内z<1|z| < 1),则称为最小相位系统。
最大相位系统是极点在单位圆内(保证稳定),但所有的零点都位于单位圆外z>1|z| > 1)。
混合相位系统是极点在单位圆内,零点既有在圆内的,也有在圆外的。

在所有具有相同幅度响应的系统中,最小相位系统之所以被称为“最小”,体现在两个极其关键的时域/频域指标上:
群延迟最小(相位滞后最小):在任何频率下,最小相位系统 H1(z)H_1(z) 的群延迟始终小于最大相位系统 H2(z)H_2(z) 的群延迟。它的信号通过速度最快。
能量最集中于前端(输出响应最迅速):最小相位系统的能量极大地集中在时间序列的最初阶段(nn 较小的时候)** 。而最大相位系统的能量则被严重推迟到了时间序列的尾部。

5.6.9 如果两个滤波器的幅度响应一模一样,我们通常在工程上会优先选择“最小相位滤波器”。请结合物理意义谈谈为什么?

首先,最小相位系统的群延迟是所有等幅响应系统中最小的,这意味着信号通过该系统时的传输延迟最低,系统响应最快,这对于实时控制系统或通信系统至关重要;
其次,它的能量最集中在冲激响应的前端,不会产生拖沓的长尾效应;
最后,也是最重要的一点,由于它的零点全部在单位圆内,其逆系统(1/H(z)1/H(z))的极点也全部在单位圆内,保证了逆系统是因果且稳定的,这使得信道均衡或系统反卷积在物理上变得完美可实现。

5.6.10 请看 两个不同系统的z变换: H1(z)=z+bz+aH_1(z) = \frac{z+b}{z+a}H2(z)=bz+1z+aH_2(z) = \frac{bz+1}{z+a}。既然它们的幅度响应完全相同,你能用数学代数的方法证明 H2(z)H_2(z) 实际上就是 H1(z)H_1(z) 串联了一个什么样的系统吗?

我们可以强行在 H2(z)H_2(z) 中构造出 H1(z)H_1(z) 的形式。
H2(z)H_2(z) 展开并重组:H2(z)=bz+1z+a=(z+bz+a)(bz+1z+b)H_2(z) = \frac{bz+1}{z+a} = \left(\frac{z+b}{z+a}\right) \cdot \left(\frac{bz+1}{z+b}\right)
其中前一项正是最小相位系统 H1(z)H_1(z)。而后一项 bz+1z+b\frac{bz+1}{z+b},我们可以提取 zz 变成 b+z11+bz1\frac{b+z^{-1}}{1+bz^{-1}},它的分子正是分母的镜像多项式,所以它是一个一阶全通系统。这个数学推导完美验证了“非最小相位系统 = 最小相位系统 ×\times 全通系统”的分解定理。

5.6.11 为什么最大相位系统和最小相位系统的群延迟差距,在低频和高频处不一样?这种差距是由什么引入的?

我们知道一个结论:“非最小相位系统 = 最小相位系统 ×\times 全通系统”。而这种差距完全是由系统分解出的那个全通系统 A(z)A(z) 的群延迟引入的。
根据推导,H2(z)H_2(z) 的群延迟等于 H1(z)H_1(z) 的群延迟加上 A(z)A(z) 的群延迟。而全通系统 A(z)A(z) 的群延迟曲线并不是一个常数(它在靠近极点频率处较大,在远离极点处较小)。因此,两者的群延迟差距就是全通系统的群延迟特性,它是随频率 ω\omega 非线性变化的。

5.6.12 分别简述4类线性相位FIR系统。

类型 I (Type I):长度 LL 为奇数,偶对称( h[n]=h[Nn]h[n] = h[N-n])。对称中心落在整数样本点上。

类型 II (Type II):长度 LL 为偶数,偶对称( h[n]=h[Nn]h[n] = h[N-n])。对称中心落在两个样本点中间。

类型 III (Type III):长度 LL 为奇数,奇对称(满足 h[n]=h[Nn]h[n] = -h[N-n],对称中心点的值必须为 0)

类型 IV (Type IV):长度 LL 为偶数,奇对称(满足 h[n]=h[Nn]h[n] = -h[N-n],对称中心点的值必须为 0)

注意:若一个滤波器的长度为NN ,则它的阶数为N1N-1 。(有零阶存在)

应用场景:

image-20260318230815000

image-20260318230826218

类型 I:在 ω=0,π\omega=0, \pi 处无强制零点。最全能,可以设计为任何类型的滤波器(低通、高通、带通、带阻)。

类型 II:在 ω=π\omega = \pi 处必然有一个零点(即 H~(π)=0\tilde{H}(\pi) = 0)。因此,绝对不能用来设计高通(HP)和带阻(BS)滤波器(因为高通要求在 π\pi 处增益最大,矛盾)。

类型 III:在 ω=0\omega = 0ω=π\omega = \pi 处都必然有零点。因此,它既不能做低通,也不能做高通和带阻,只能用来设计带通(BP)滤波器,或者用于设计特殊的希尔伯特变换器。

类型 IV:在 ω=0\omega = 0 处必然有一个零点。因此,绝对不能用来设计低通(LP)和带阻(BS)滤波器。它常用于设计微分器。

5.6.13 如果我现在需要设计一个“高通”数字滤波器,并且明确要求信号通过后绝对不能发生相位失真。请问在 FIR 的四种线性相位类型中,哪些类型是绝对不能用的?为什么?

绝对不能用类型 II 和类型 III。因为我们要求无相位失真,所以必须用线性相位的 FIR。
但是,根据数学对称性推导,类型 II(偶长度、偶对称)和类型 III(奇长度、奇对称)在奈奎斯特频率(ω=π\omega = \pi)处的幅度响应严格等于 0
而高通滤波器的物理要求恰恰是在高频(ω=π\omega = \pi)处信号能够无损通过(即增益不能为 0)。这两者在数学上是死互斥的,因此这两种类型物理上做不出高通滤波器。只能选择类型 I 或类型 IV。

5.6.14 在推导线性相位 FIR 滤波器的频率响应时,我们发现它的群延迟统一都是 τ(ω)=N/2\tau(\omega) = N/2。这个 N/2N/2 在物理图象上对应着冲激响应序列 h[n]h[n] 的什么位置?如果 NN 是奇数(即类型 II 或 IV),这个延迟量在计算机的样本点上意味着什么?

这个 τ(ω)=N/2\tau(\omega) = N/2 在物理图象上严格对应着 FIR 滤波器冲激响应序列 h[n]h[n] 的“对称中心”位置

如果 NN 是偶数(长度为奇数),对称中心恰好落在一个真实的整数样本点上,延迟量是一个整数周期;
如果 NN 是奇数(长度为偶数),比如 N=7N=7,那么群延迟是 3.53.5 个采样周期。

在计算机中,这意味着输出信号相当于输入信号被延迟了 3 个半周期,产生了一个位于两个离散样本点正中间的“半采样点延迟(分数延迟)”
这在某些需要进行高精度时间插值或同步的通信系统中非常有用。

5.7 数字滤波器

5.7.1 在检查别人设计的数字滤波器结构图时,如果发现其中存在“无延迟环路(Delay-Free Loop)”,这会带来什么后果?你在代码实现或 FPGA 综合时能跑通吗?

存在无延迟环路的系统在物理上是绝对不可实现的
因为无延迟环路意味着当前时刻的输出样本 y[n]y[n] 需要用到当前时刻自身的输出 y[n]y[n] 参与运算。

在软件代码(如 C 语言)中,这会变成一个无法求解的死循环;
在 FPGA 硬件中,这会形成一个纯组合逻辑的无延迟反馈死环,导致电路状态极度不稳定或综合工具直接报错。
解决办法是必须先在图纸上通过代数公式把它化简为显式的输入输出前向关系。

5.7.2 假设我有一个二阶的 IIR 滤波器(包含 y[n1],y[n2]y[n-1], y[n-2]x[n1],x[n2]x[n-1], x[n-2])。如果我完全按照差分方程字面意思去画框图(直接型 I),我会用到几个延迟单元?如果我采用“经典结构(典范结构)”,又会用到几个?为什么要追求经典结构?

如果按照字面意思直接画(直接型 I),输入 x[n]x[n] 侧需要 2 个延迟单元来产生 x[n1]x[n-1]x[n2]x[n-2],输出 y[n]y[n] 的反馈侧也需要 2 个延迟单元产生 y[n1]y[n-1]y[n2]y[n-2],总共需要 4 个延迟单元

而如果采用经典结构(直接型 II),由于可以交换线性系统的级联顺序,输入和输出可以共享中间的状态变量,因此总共只需要 2 个延迟单元(严格等于系统阶数)。追求经典结构的最大意义在于极大地节省了硬件寄存器资源或软件内存空间,这对于资源受限的嵌入式 DSP 或 FPGA 开发至关重要。

5.7.3 FIR和IIR有什么区别?

FIR 滤波器的系统函数是一个纯多项式(没有分母),即 H(z)=k=0Nh[k]zkH(z) = \sum_{k=0}^{N} h[k]z^{-k}
在时域上,它的输出仅仅是当前和过去有限个输入样本的加权和:y[n]=k=0Nh[k]x[nk]y[n] = \sum_{k=0}^{N} h[k]x[n-k]
由于 FIR 结构中完全没有反馈(非递归结构),它的极点全部位于 Z 平面的原点 z=0z=0 处。因此,FIR 滤波器是绝对(无条件)稳定的,永远不会发散。

IIR 滤波器的系统函数是一个有理分式(存在分母),它不仅利用了过去的输入,还利用了过去的输出,这意味着系统中必然存在反馈环路(递归结构)
IIR 滤波器的直接型有I和II型。

5.7.4 请从冲激响应长度、是否包含反馈回路、稳定性和相位特性四个方面,全面对比一下 FIR 和 IIR 滤波器?

  1. 长度与反馈:FIR 冲激响应有限长,没有反馈回路(非递归);IIR 冲激响应无限长,必须包含反馈回路(递归)。
  2. 稳定性:FIR 没有极点(极点全在原点),永远是绝对稳定的;IIR 的极点可以在 Z 平面任意位置,容易受到系数截断误差的影响跑出单位圆,存在不稳定的风险。
  3. 相位特性:FIR 可以非常容易地通过设置系数对称(如 h[n]=±h[Nn]h[n]=\pm h[N-n])来实现严格的线性相位;而 IIR 由于存在分母极点,只能实现非线性相位,要做线性相位只能在后面级联全通系统进行相位补偿。

5.7.5 在 DSP 或者 FPGA 中实现一个 N 阶的 IIR 滤波器时,我们为什么强烈推荐使用“直接型 II”而不是“直接型 I”?

最根本的原因是极大地节省了硬件寄存器资源(或软件内存)。直接型 I 是差分方程的直译,它有两条独立的延迟线,需要 2N2N 个延迟单元。
而直接型 II 利用了 LTI 系统的级联可交换性,把反馈和前馈网络进行了对调,使得输入侧和输出侧可以完美共享同一条中间状态的延迟线。这样 N 阶系统就只需要 NN 个延迟单元,达到了物理可实现的最少寄存器极限(典范结构),极大提升了芯片的资源利用率。

5.7.6 设计IIR的常用思路是什么?

首先将数字滤波器的指标转换为模拟低通原型滤波器的指标;
然后查表或用公式确定满足这些指标的模拟传递函数 Ha(s)H_a(s)
最后将 Ha(s)H_a(s) 映射转换为我们需要的数字传递函数 G(z)G(z)

这个从 s 域到 z 域的映射过程必须遵守两大铁律,才能保留模拟滤波器的基本频响属性:
第一,s 平面的虚轴必须完美映射到 z 平面的单位圆上(保证频率轴的一致性);
第二,s 平面的稳定区域(即左半平面)必须映射到 z 平面的稳定区域(即单位圆内部),以确保转换出来的数字滤波器也是绝对稳定的。

5.7.7 你能说出一些典型的模拟滤波器吗?

image-20260321200712919

巴特沃斯(Butterworth)滤波器拥有最平坦的通带,其增益单调下降,但代价是过渡带最宽。

椭圆(Elliptic)滤波器走的是另一个极端,它在通带和阻带内都允许存在等波纹起伏,换来的是在相同阶数下最窄的过渡带(滚降最陡峭)。

切比雪夫(Chebyshev)滤波器则介于两者之间:
一型切比雪夫滤波器在通带内有等波纹,阻带单调下降;
二型切比雪夫滤波器则反过来,通带单调下降,阻带内存在等波纹。

从相位响应来看,巴特沃斯和切比雪夫在大部分通带内能保持近似的线性相位,而椭圆滤波器的相位失真则相对严重。

5.7.8 在 IIR 滤波器设计中,我们为什么要绕一大圈,先去设计一个“模拟滤波器”,然后再把它转换成“数字滤波器”,而不是直接在 z 域进行设计?

这是因为模拟滤波器的设计理论在过去几十年里已经发展得极其成熟,像巴特沃斯、切比雪夫、椭圆滤波器等都有现成的、严密的数学闭式解和查表工具。
直接在 z 域设计高阶有理分式去逼近复杂的频响曲线,在数学求解上是一个极其困难的非线性优化问题。

因此,把成熟的模拟原型直接映射到数字域,是一种工程上最稳妥、最高效的“降维打击”策略。

5.7.9 如果我的系统对信号的波形保真度要求极高(绝对不能忍受相位失真),但在选型时硬件资源只允许我使用极低阶的 IIR 滤波器,请问选用椭圆滤波器原型合适吗?为什么?

非常不合适。

虽然椭圆滤波器在极低阶数下就能提供极窄的过渡带和极强的阻带衰减,但它的代价是产生了四种经典原型中最严重的非线性相位失真(特别是在靠近截止频率的区域)。

对波形保真度要求极高的系统,非线性相位会导致信号中不同频率分量的延迟时间不同,从而使时域波形发生严重的色散和变形。
这种情况下,应该优先考虑巴特沃斯原型,或者干脆放弃 IIR,转而考虑使用具有严格线性相位的 FIR 滤波器。

5.7.10 什么是脉冲响应不变法?

脉冲响应不变法的根本思路是:让数字滤波器的单位冲激响应 g[n]g[n] 直接等于模拟原型滤波器单位冲激响应 ha(t)h_a(t) 的等间隔采样序列。

为了在转换后保持频域增益的量级一致,工程上通常会乘上一个采样周期 TT 作为缩放因子,其核心定义公式如下:

g[n]=Tha(nT),n=0,1,2,g[n] = T \cdot h_a(nT), \quad n = 0, 1, 2, \dots

这种在时域上的直接采样,确保了数字滤波器在时域完美保留了模拟滤波器的瞬态响应特性。

通过对拉普拉斯变换 (LT) 和 Z 变换 (ZT) 的数学推导,时域的等间隔采样在复频域上直接等效于一个极其重要的非线性映射关系:

z=esTz = e^{sT}

在实际计算中,我们绝不会去时域傻傻地求采样,而是直接在复频域通过部分分式展开来完成极点的搬移。具体来说,先将模拟传递函数 Ha(s)H_a(s) 展开为若干个单极点分式的和,然后直接把每个模拟极点 sks_k 替换为对应的数字极点 eskTe^{s_k T}。其标准的映射代数公式为:

Ha(s)=k=1NAkssk    G(z)=k=1NTAk1eskTz1H_a(s) = \sum_{k=1}^{N} \frac{A_k}{s - s_k} \implies G(z) = \sum_{k=1}^{N} \frac{T \cdot A_k}{1 - e^{s_k T} z^{-1}}

5.7.11 脉冲响应不变法有什么缺陷吗?

频域混叠

由于 z=esTz = e^{sT} 是一个周期性的多对一映射,所有相差采样频率整数倍的模拟频率成分,都会在 z 平面上重叠到同一个点。由于任何真实的模拟滤波器都不可能在物理上做到绝对的“无限带宽完全衰减”,那些残留在高频段的信号能量在采样时就会发生频域混叠,无情地折叠到低频通带内,从而破坏原本设计好的滤波器频率响应曲线。

5.7.12 如果我交给你一个挑战性极高的任务,要求设计一个带阻滤波器(比如 50Hz 工频陷波器),你能使用“脉冲响应不变法”把模拟带阻原型转换成数字代码吗?为什么?

绝对不能

脉冲响应不变法的致命弱点是频域混叠。带阻滤波器(以及高通滤波器)在其阻带之外的高频区域,增益是恢复到最大值(不衰减)的。这意味着它的模拟频率响应包含了无穷无尽、能量极强的高频成分。如果使用脉冲响应不变法对其冲激响应进行离散采样,这部分庞大的高频能量会全部发生严重的混叠,直接折叠到低频的主值区间内,彻底摧毁滤波器的阻带和通带特性。该方法只能用于高频衰减极快、近似严格带限的低通或带通滤波器设计

5.7.13 在一个控制算法中,我设计了一个极其稳定的模拟原型滤波器,它的其中一个主导极点位于 s=3+j4s = -3 + j4。假设我的系统采样周期 T=0.1T = 0.1 秒。请你通过口算或者列式告诉我,使用脉冲响应不变法后,这个极点在数字滤波器的 Z 平面上映射到了哪里?它还稳定吗?

根据脉冲响应不变法的核心映射公式 z=esTz = e^{sT},该模拟极点会严格映射到数字极点 z=e(3+j4)×0.1=e0.3+j0.4z = e^{(-3 + j4) \times 0.1} = e^{-0.3 + j0.4}。我们可以把它拆分为幅度和相位两部分来观察:其极点幅值为 z=e0.3|z| = e^{-0.3},极点相角为 0.40.4 弧度。因为 e0.3e^{-0.3} 显然是一个小于 1 的正实数,这说明该极点严格落在了 Z 平面的单位圆内部。因此,转换后的数字系统是绝对稳定的。这也完美印证了该方法能无损继承模拟系统稳定性的数学美感。

5.7.14 什么是双线性变换法?

为了克服脉冲响应不变法中 ss 平面到 zz 平面的“多值映射”所导致的频谱混叠,双线性变换法采用了一种单值映射。它的数学本质是利用数值积分中的梯形近似法,将整个左半 ss 平面“压缩”并映射到 zz 平面的单位圆内。

其核心映射公式为:

s=2T1z11+z1s = \frac{2}{T} \frac{1 - z^{-1}}{1 + z^{-1}}

在实际的数字滤波器设计中,参数 TT (采样周期)对最终设计出的数字滤波器传递函数 G(z)G(z) 的表现形式并没有实质性影响。因此,为了极大简化代数计算过程,我们通常强制令 T=2T = 2。此时,映射公式可以简化为:

s=1z11+z1    z=1+s1ss = \frac{1 - z^{-1}}{1 + z^{-1}} \iff z = \frac{1 + s}{1 - s} \quad

5.7.15 双线性变换法有什么缺陷?

双线性变换法虽然消除了频域混叠,但它付出了另一个代价:模拟频率 Ω\Omega 和数字频率 ω\omega 之间变成了极其严重的非线性关系
当我们在单位圆(z=ejωz = e^{j\omega})和虚轴(s=jΩs = j\Omega)上评估该映射时,可以得出它们之间的频率转换关系(假设 T=2T=2):

Ω=tan(ω2)\Omega = \tan\left(\frac{\omega}{2}\right)

频率卷绕的物理意义:这个正切函数关系意味着,它将模拟频率中无限宽广的整个虚轴区间 Ω(,)\Omega \in (-\infty, \infty),强行“压缩”到了数字频率的有限主值区间 ω(π,π)\omega \in (-\pi, \pi) 内。低频时二者近似线性,但在高频时会发生严重的畸变缩放。这种频率的非线性畸变就是频率卷绕。

为了抵消这种畸变,我们在设计模拟原型滤波器之前,必须先进行频率预畸变(预扭曲)
即:先把给定的数字截止频率指标 ωp\omega_pωs\omega_s,通过预畸变公式转换成对应的模拟截止频率 Ωp\Omega_pΩs\Omega_s,然后再去查表设计模拟滤波器 Ha(s)H_a(s)

5.7.16 请你简明扼要地对比一下“脉冲响应不变法”和“双线性变换法”在物理映射上的根本区别,以及它们各自最突出的优缺点。

“脉冲响应不变法”使用的是 z=esTz = e^{sT} 的多对一映射。
它的优点是保持了时域冲激响应的直接对应关系,且模拟频率与数字频率是完美的线性关系;
缺点是必然会产生频域混叠,因此绝对不能用来设计高通和带阻滤波器。

“双线性变换法”使用的是 s=2T1z11+z1s = \frac{2}{T} \frac{1 - z^{-1}}{1 + z^{-1}} 的单值映射。
它的优点是把整个模拟频轴压缩到了单位圆上,彻底消除了频域混叠,可以设计任意类型的滤波器(低通、高通、带阻等);
缺点是破坏了频率的线性关系,产生了高频“卷绕”畸变,无法保留原型滤波器的非线性相位特征(不过 IIR 本来相频特性就不佳,工程上通常能容忍)。

5.7.17 在用双线性变换法设计数字滤波器时,我们为什么要进行“频率预畸变(预扭曲)”?如果不做这一步,设计出来的数字滤波器会怎样?

进行“频率预畸变”是因为双线性变换法中模拟频率 Ω\Omega 和数字频率 ω\omega 之间是高度非线性的正切关系 Ω=tan(ω/2)\Omega = \tan(\omega/2)

如果不做预扭曲,我们直接拿着客户要求的数字截止频率 ωp\omega_p 去设计模拟滤波器,那么在最后一步进行双线性代数代换映射回数字域时,由于这种非线性压缩效应,原先定好的截止频率就会严重发生“偏移”,导致最终生成的数字滤波器指标完全不达标(截止频率位置不对)。

因此,我们必须先用预畸变公式把要求的目标频率“反向扭曲”放大,这样经过双线性变换“压缩”回来时,刚好落在我们最初期望的精确位置。

5.7.18 双线性变换法会改变原本模拟原型的“幅度响应”分段恒定特性吗?它会改变原本的“相位响应”特性吗?

不会改变幅度响应的分段恒定特性。虽然频率轴被严重扭曲了(像橡皮筋一样被拉伸或压缩),但在原模拟频率轴上增益为 1 的通带或者增益为 0 的阻带,经过映射后,在数字域依然是增益为 1 和 0。它只是改变了这些衰减发生的“具体位置(频点)”,这也是我们能用预扭曲来修正的原因。
但是,它会彻底破坏原来的相位响应特性。因为非线性映射会导致原本在模拟域具有线性相位的滤波器,在数字域发生严重的相位畸变(群延迟不再恒定)。因此,双线性变换法无法用来设计保相滤波器。

5.7.19 FIR的设计中,N的大小有何影响?

FIR 滤波器的设计不涉及任何模拟滤波器的知识。它的核心目标是:在满足给定的幅度响应指标的同时,通常还要求系统具有严格的线性相位。我们已知线性相位 FIR 滤波器在时域上必然满足严格的对称性,即 h[n]=±h[Nn]h[n] = \pm h[N-n]

第一,FIR 滤波器的估计阶数 NN过渡带宽度 (ωsωp)(\omega_s - \omega_p) 严格成反比。这意味着你要求的过渡带越窄(滚降越陡峭),付出的硬件代价(阶数 NN 和乘法器数量)就越大。
第二,阶数 NN 的大小只取决于过渡带的“宽度”,而绝对不依赖于过渡带在频轴上的实际中心位置
第三,对于包含多个过渡带的滤波器(如带通、带阻滤波器),在代入公式计算阶数时,必须始终使用最窄的那个过渡带宽度作为计算基准,以满足最严苛的物理限制。

5.7.20 我们在设计 FIR 滤波器时,直接把理想无限长冲激响应 hd[n]h_d[n] 的两端“一刀切”掉(截断法)。这种做法看起来很不讲理,它在数学上有什么最优性的保证吗?

直接在时域进行对称截断,能够保证设计出的有限长 FIR 滤波器在频域中具有最小的积分平方误差(MMSE),这种“一刀切”的做法在数学上对应着最小积分平方误差(MMSE)最优准则

根据帕斯瓦尔定理,频域中实际滤波器与理想滤波器之间的幅度误差总能量,严格等于它们在时域中冲激响应差值的平方和。因为我们保留了 hd[n]h_d[n] 能量最集中的主瓣部分,而将外部强制置零,这在代数上正好使得总的误差平方和达到极小值。所以,时域的直接对称截断,就是在频域实现最小均方误差逼近的最优解。

5.7.21 通过截断理想低通滤波器的 hd[n]h_d[n] 得到的序列,可以直接写进单片机里跑实时滤波吗?如果不可以,需要做哪一步关键的数学操作?这一步操作会改变信号的哪些频谱特性?

不可以直接运行。因为截断后的理想序列是关于 n=0n=0 对称的,包含负时间(n<0n<0)的非零样本,这是一个非因果系统,单片机无法预知未来的输入。必须进行一步关键操作:将截断后的序列在时域向右平移,直到所有的非零样本都落入 n0n \ge 0 的区间,强行将其转换为因果系统。在频域上,这种单纯的时域平移绝对不会改变系统的幅度响应,但会改变系统的相位响应——它会将原本的“零相位”系统变成一个具有固定群延迟的严格“线性相位”系统

5.7.22 如何从FIR直接从理想滤波器直接截断的角度去分析吉布斯现象

时域的直接截断,在数学上严格等效于将理想冲激响应 hd[n]h_d[n] 乘以一个矩形窗序列 w[n]w[n]。根据傅里叶变换的频域卷积定理,时域的乘积必然对应频域的周期卷积。因此,实际得到的滤波器频率响应 Ht(ejω)H_t(e^{j\omega}),是理想矩形频响 Hd(ejω)H_d(e^{j\omega}) 与矩形窗频谱 W(ejω)W(e^{j\omega}) 的卷积积分。

当这个频谱与理想的“砖墙”频响进行卷积扫过时,会产生两个致命的失真效应:
第一,主瓣导致过渡带展宽。原本垂直的理想截止边界,因为主瓣的平滑作用,变成了一个具有一定宽度的倾斜过渡带。
第二,旁瓣导致频率泄漏和波纹。旁瓣的剧烈振荡在卷积积分后,使得原本平坦的通带和阻带内出现了明显的波动起伏。

直觉上,我们可能会认为:只要我保留的截断点数 NN 足够多,逼近的误差就会无限趋近于零。但残酷的数学事实并非如此。当截断长度 NN 增加时,矩形窗的主瓣确实会变窄,这使得滤波器的过渡带变得越来越陡峭
但是,旁瓣的相对幅度并不会随着 NN 的增加而减小。因此,无论你的截断长度有多长,通带和阻带边缘的最大超调波纹幅度始终保持在跳变峰值的 8.9% 左右。 增加 NN 的唯一作用,只是把这些波纹越来越紧密地向截止频率处“挤压”,而绝不能在幅度上消灭它们。

5.7.23 为什么不断增加 FIR 滤波器的阶数 NN(也就是加长矩形窗),依然无法消除吉布斯现象带来的 8.9% 的峰值波纹?

在频域卷积的物理过程中,波纹的峰值高度是由矩形窗频谱中“第一旁瓣与主瓣的面积积分比例”决定的。

随着 NN 的增加,虽然主瓣和旁瓣都在变窄,但它们的相对面积比例是一个恒定的数学常数(完全独立于 NN。因此,无论 NN 变得多大,卷积出来的峰值超调量始终被死死地锁定在 8.9% 左右。增加 NN 只能改变波纹振荡的密集程度并收窄过渡带,而在数学机理上根本无法降低波纹的绝对物理高度。

5.7.24 既然直接截断(使用矩形窗)会产生这种像幽灵一样无法消除的吉布斯波纹,那我们在实际工程中,有什么办法可以把通带和阻带的波纹压下去呢?付出的代价是什么?

为了强行抑制波纹,我们必须在时域改变截断窗的形状,放弃两端突变的矩形窗,改用两端平滑衰减的窗函数(例如汉宁窗、海明窗、布莱克曼窗等)。这些平滑窗函数的频谱具有极低的旁瓣幅度,从而在频域卷积时大幅抹平了波纹的高度(比如布莱克曼窗能把阻带衰减压到 -74dB 以下)。
付出的绝对代价是:平滑窗函数的主瓣宽度通常远大于矩形窗。这会导致卷积出来的滤波器过渡带变得异常宽阔、滚降极其缓慢。为了在低波纹的同时维持所需的过渡带陡峭度,我们只能被迫成倍地增加滤波器的阶数 NN,从而大幅增加了系统的计算延迟和硬件乘法器开销。

5.7.25 窗函数的基本物理思想是什么?

直接截断等效于加了一个“矩形窗”,矩形窗在时域两端的突变导致了频域中极高的旁瓣,进而引发了严重的吉布斯波纹。为了压低旁瓣,我们必须消除时域的突变。

核心思想是:采用在两端平滑衰减趋近于零的窗函数,来替代生硬切断的矩形窗。时域越平滑,频域的旁瓣就越低,波纹就越小;但这也会导致频域的主瓣变宽,使得滤波器的过渡带变宽。这就是数字信号处理中永恒的“时频测不准”权衡。

5.7.26 窗函数对比。

窗函数性能指标对比(核心必背)

image-20260319205312291

窗类型 过渡带宽度 Δω\Delta \omega 阻带最小衰减 (dB)
矩形窗 1.8π/M1.8\pi / M 2121
汉宁窗 3.1π/M3.1\pi / M 4444
海明窗 3.3π/M3.3\pi / M 5353
布莱克曼窗 5.5π/M5.5\pi / M 7474

从表中可以清晰地看到权衡规律:从矩形窗到布莱克曼窗,阻带最小衰减大幅提升(波纹越来越小,滤波越干净),但代价是过渡带宽度急剧拉宽。为了在布莱克曼窗下达到与矩形窗相同的过渡带陡峭度,你必须付出将近 3 倍的阶数 MM(即增加大量的硬件乘法器)。

image-20260319205324837

5.8 更多问题

5.8.1 FIR和IIR的区别?

六、Verilog

6.1 数字集成电路的发展和演变

6.1.1 什么是RTL?

RTL(Register Transfer Level,寄存器传输级)是指通过描述数据在寄存器之间的流动和逻辑操作来建模电路的抽象级别;

6.1.2 什么是IP?

IP(Intellectual Property)是指在IC设计中那些预先设计好、经过验证且可重复利用的成熟电路功能模块;
片上系统(SoC,System on Chip)则是指将微处理器、模拟IP、数字逻辑等复杂系统集成在单一芯片上的高级架构。

6.1.3 什么是HDL?

硬件描述语言(HDL : Hardware Description Language)是一种高级程序语言,通过对数字电路和系统的语言描述,可以对数字集成电路进行设计和验证。 其主要功能是让设计工程师能够根据电路结构特点,采用层次化的设计结构,将抽象的逻辑功能用电路的方式进行实现。使用HDL,设计者可以通过参数化(如改变总线位宽)轻松实现电路规模的扩展,而不需要像原理图那样逐根连线。

6.1.4 硬件描述语言能够建模五个层级,简单说说这5个层级分别是什么?

​ 系统级(System Level)位于最高抽象层,它主要用于描述整个系统的行为和整体性能,而不涉及任何底层的硬件结构细节。系统级的主要功能是进行前期的架构探索与系统级的行为验证。从图中可以看出,System Verilog在这一层级进行了大量的能力扩展。

​ 算法级(Algorithm Level)紧随其后,它侧重于实现系统功能的具体数学模型或逻辑算法。算法级的重点在于纯逻辑与数学功能的描述与验证,帮助设计者在将其映射到具体硬件结构之前,确认核心算法的正确性。

​ 寄存器传输级(RTL级,Register Transfer Level)是目前数字IC前端设计最核心、最常用的层级。它通过描述数据在各个寄存器之间的流动路径,以及组合逻辑对这些数据的处理来构建电路。RTL级不仅用于编写可综合的硬件逻辑描述,也是进行前端功能验证(前仿)的绝对主力

​ 逻辑门级(Logic Gate Level)描述了电路由哪些基本的逻辑门(如与门、或门、非门)以及触发器互连构成。在实际开发中,门级代码通常不是由工程师手动编写的,而是由逻辑综合工具将RTL代码映射生成的门级网表,其主要功能是用于包含实际电路延迟的时序验证(后仿)和后续的物理布线实现。

​ 开关电路级(Switch Level)是图中展示的最底层抽象,它直接描述MOS晶体管的开关行为及其物理连接关系。Verilog HDL能够向下延伸到开关电路级,这意味着它能在最底层的晶体管级别进行精确的网络模拟和门级延迟描述,这也是VHDL所不具备的能力。此外,图中特别标注的VITAL(VHDL Initiative Towards ASIC Libraries),则是VHDL专门用来建立ASIC底层标准单元模型库的基准规范。

6.1.5 简单说一说数字集成电路一个项目的流程,以及其中verilog的作用。

数字集成电路的完整开发流程包含了总体方案、系统建模、RTL编码、功能验证、综合、时序验证、物理布局布线以及最后的工艺实现。
这里的综合(Synthesis)是指将高级的RTL代码映射转换成底层由标准单元组成的门级网表的过程。
在这个流程中,Verilog HDL的应用范围极其广泛,主要覆盖前端设计与验证阶段:包括系统建模、RTL编码、功能验证(前仿)和时序验证(后仿)。此外,在后期的原型建立和测试阶段,也需要大量使用Verilog来编写测试激励(Testbench)以驱动硬件平台进行验证。

​ 数字集成电路的完整设计流程是一个严谨的自顶向下的过程。首先是总体方案阶段,主要根据需求制定芯片的规格书,确定系统架构、核心性能指标和功耗面积预算。紧接着进入系统建模阶段,工程师会搭建高层次的算法或行为级模型,以验证前期架构方案的数学和理论可行性。系统建模是整个芯片设计的地基,通常也会部分使用到Verilog HDL或更高级的System Verilog来进行高层抽象描述。

在架构确立后,项目便正式进入前端设计阶段的核心:RTL编码。设计人员需要根据系统模型,使用Verilog HDL将抽象的算法转化为具体的寄存器传输级硬件逻辑代码。完成编码后,必须无缝衔接功能验证(即前仿)。在这个阶段,工程师同样会大量使用Verilog HDL编写复杂的测试激励(Testbench),用来给RTL设计施加输入并观察输出,以确保逻辑功能完全符合预期。对于面试而言,如何保证RTL代码的完备性以及如何搭建高效的验证环境是极具区分度的考点。

当纯逻辑功能验证通过后,设计就进入了连接前端与后端的桥梁阶段:综合。逻辑综合工具会将高级的RTL代码转化为由基础门电路构成的门级网表(Netlist)。因为综合器引入了真实物理门电路的延迟模型,所以接下来必须进行严格的时序验证(后仿或静态时序分析STA)。时序验证的目的是检查电路在加入了实际延迟后,是否仍然满足建立时间和保持时间的要求,这是防止芯片出现时序违例和亚稳态的关键防线。

​ 时序闭合后,网表将移交后端进行物理综合与布局布线。工程师需要把逻辑门映射到实际的硅片版图上,并完成复杂的金属层连线。随后进行物理验证(包括DRC设计规则检查和LVS版图与原理图一致性检查),确保最终版图符合晶圆厂的制造规范。在投入高昂的流片成本之前,团队通常还会进行原型建立和测试,比如将代码下载到FPGA中进行真实环境下的硬件级验证。确认万无一失后,最终生成GDSII文件交付代工厂完成最后的工艺实现。纵观全局,Verilog HDL的应用不仅贯穿了从系统建模到时序验证的整个前端流程,也在后期的原型测试中充当着不可或缺的驱动和验证角色。

6.2 verilog基础知识

6.2.1 verilog中表达表示进制的常用字母有哪些?

b/B表示二进制,o/O表示八进制,d/D表示十进制,h/H表示十六进制

6.2.2 wire和tri有什么区别?

wire类型通常用于表示单个驱动器驱动的信号线(如简单的输入输出端口或内部连线),不支持三态行为;
tri类型专门用于多个驱动器驱动的信号线,支持三态逻辑(0、1、Z之间切换),因此tri类型常被用于允许多个设备共享的总线驱动器设计中。

6.2.3 wire和reg有什么区别?

wire 类型: 用于 assign 关键字引导的连续赋值语句。用于模块实例化时的端口连接线(作为输入或输出的物理连接)。用于描述纯粹的组合逻辑电路,且该逻辑不位于 always 块内

reg 类型: 必须用于 initialalways 过程块内部的所有赋值目标。在时序逻辑中,用于触发器、计数器、状态机状态寄存器等。在 always @(*) 块中,用于描述复杂的组合逻辑(例如为了使用 if-elsecase 语句而声明为 reg,但最终生成的是组合电路)。

6.2.4 双等号==与三等号===有什么区别?

==在比较时,只要操作数中包含任何不定位x或高阻态z,比较的输出结果就立刻变为不定值x
===进行的是严格的状态匹配,它将xz也视作可以比较的具体状态,因此**===的比较结果永远只有确定的0或1,它常用于测试激励(Testbench)中严格检查信号状态**。

6.2.5 在模块设计的端口中,定义完input、output、inout后,默认类型是什么?

inputinout端口在模块内部默认且只能是wire(连线)类型;而output端口则根据内部驱动方式的不同,既可以是wire类型(用assign驱动),也可以声明为reg`类型(在always块中驱动)

6.2.6 assignalways有什么区别

assign 代表的是物理意义上的“直接连线”,用于描述连续赋值(Continuous Assignment)逻辑。它的物理本质是组合逻辑,其左值必须是 wire 类型。在仿真过程中,assign 是电平敏感的:只要等号右侧(RHS)的任何信号发生细微变化,结果会立即、无条件地反映到左侧。它就像是电路板上焊接死的一段逻辑,在模块运行的任何时刻都处于激活状态

always 过程块则代表了“行为触发”,用于描述过程赋值(Procedural Assignment)逻辑,其左值必须是 reg 类型。它并不代表一段恒定的连接,而是一种由“事件”驱动的行为控制。通过不同的敏感列表(Sensitivity List),always 既可以描述时序逻辑(如 always @(posedge clk)),也可以描述组合逻辑(如 always @(*))。在面试中,你必须强调:always 块内部的语句是按序执行的(虽然最终综合出的硬件可能是并行的),这使得它能够描述复杂的逻辑判断(如 if-elsecase),而 assign 只能处理简单的三目运算符逻辑

6.3 verilog语句与描述方式

6.3.1 阻塞赋值和非阻塞赋值有什么区别?

阻塞赋值(=)在串行语句块中严格按照先后顺序依次执行,其执行逻辑是:先计算等号右端表达式的值,然后立刻将新值赋给左边的变量。正因为赋值是立刻生效的,它会“阻塞”后面的语句,直到当前语句执行完毕。
相比之下,非阻塞赋值(<=)在串行语句块中没有先后顺序之分,各条语句是并行执行的。它的执行逻辑是:先统一计算所有语句右端表达式的值,然后等到延时时间结束时(或者当前时间步的末尾),才将计算好的值统一赋给左边的变量。

把阻塞赋值的“=”想象成一根导线,直接连通,立刻得到新值;把非阻塞赋值的“<=”想象成一个触发器(寄存器),不仅符号像,而且它传递的是当前时刻的旧值,要在下一个时钟沿(或者时间步完结)才更新。如果前面一句使用了阻塞赋值,后面一句引用该变量时用的是刚更新的新值;如果使用了非阻塞赋值,后面一句引用该变量时用的依然是原来的旧值。

6.3.2 在verilog中你知道哪些门级建模?

对于多输入门(如与门、或门),它只能有一个输出,但可以有无限个输入。其端口排列规则是:输出端口必须放在第一位,后面紧跟所有的输入端口。例如 and A1 (out, in1, in2, in3);

对于多输出门(如非门、缓冲器),它可以驱动多个输出,但只能接受一个输入。其端口排列规则正好相反:所有的输出端口排在前面,而唯一的输入端口必须放在最后一位。例如 not NOT_1 (out1, out2, out3, in);

对于三态门,它由数据、控制端和输出端组成。其排列规则是:输出端口排在第一位,数据输入端口排在第二位,控制输入端口排在最后一位。例如高电平使能的三态缓冲器 bufif1 BF1 (data_out, data_in, enable);

6.4 verilog数字逻辑设计电路设计方法

6.4.1 在设计时序逻辑电路的时候,我们常讲三段式状态机,分别是哪三个部分?

在所有Verilog编码风格中,三段式状态机(Three-segment FSM)是工业界最规范、面试官最看重的描述方式。它的本质是将时序控制与组合逻辑严格物理隔离,分为三个独立的 always 块。

第一段必须是同步时序逻辑,使用非阻塞赋值 current_state <= next_state; 来完成状态的寄存器翻转
第二段必须是纯组合逻辑,敏感列表为 always @(*) 或包含所有输入及现态,使用阻塞赋值 = 来推导 next_state 的跳转条件,此处极其关键的考点是必须写全所有的 if-elsecasedefault 分支,以防止综合出意料之外的锁存器(Latch)
第三段专门负责输出,强烈建议采用同步时序逻辑(即在时钟上升沿触发)并使用非阻塞赋值来产生输出信号

采用寄存器输出的第三段不仅能彻底消除组合逻辑输出所带来的毛刺(Glitches),保证信号的纯净度,还能有效切断关键路径,优化电路的总体时序(Timing)。相较于两段式,三段式虽然代码行数略多,但逻辑极为清晰,综合后的电路性能最稳定,是你必须刻在脑子里的黄金模板。

6.4.2 什么是Latch?Latch如何产生?为什么要避免Latch?

Latch(锁存器):只要使能端(Enable)为高电平,输出 QQ 就会紧跟输入 DD 的变化。这被称为**“透明特性”。当 Enable 变为低电平时,QQ 保持最后时刻的值。
Flip-Flop(触发器):仅在时钟的
跳变瞬间**(如上升沿)抓取输入 DD 的值并传给 QQ。在电平维持期间,无论输入怎么变,输出都不动。

产生:if 语句缺失 else或者case 语句缺失 default

1
2
3
4
5
always @(*) begin
if (en)
q = d;
// 缺失 else,当 en 为低时,q 必须保持原值,综合器只能生成 Latch
end
1
2
3
4
5
6
7
always @(*) begin
case (sel)
2'b00: out = a;
2'b01: out = b;
// 缺失 10, 11 以及 default,未定义状态下必须保持原值,产生 Latch
endcase
end

为何避免:

时序分析困难:由于 Latch 在整个电平期间都透明,静态时序分析(STA)很难确定信号确切的到达时间,极易引发竞争冒险(Race Condition)
测试性差:自动测试向量生成(ATPG)工具很难对含有 Latch 的电路进行全覆盖扫描测试。
资源浪费与可靠性:在大多数基于 LUT(查找表)的 FPGA 架构中,逻辑单元原生支持的是 DFF。强行实现 Latch 会额外消耗逻辑资源,且对毛刺(Glitch)异常敏感——只要使能期间输入信号有一个细微的毛刺,输出就会立刻被“污染”并锁存。

6.5 仿真验证与Testbench

6.5.1 verilog的验证有四个环节,分别是什么?

首先是纯粹考察RTL代码逻辑是否符合设计规格的功能验证(也称前仿真),
其次是验证逻辑综合生成的门级网表是否等效的综合后验证,
紧接着是必须加入门延迟和线延迟信息、以严格检查建立时间与保持时间等物理约束的时序验证(也称后仿真),
最后则是将芯片或配置好的FPGA放入实际硬件系统环境中的板级验证

6.5.2 什么是Testbench?

Testbench 是一个顶层的仿真封装模块,其最显著的特征是模块声明时没有输入输出端口列表,因为它本身就是一个封闭的激励产生与响应观测系统。在 Testbench 内部,核心任务是正确实例化待测设计(DUT/DUV),并将激励信号(定义为 reg 型以在 initialalways 块中赋值)连接到 DUT 的输入端,同时将 DUT 的输出端连接到观测信号(定义为 wire 型)。一个标准的 Testbench 功能闭环包括:为 DUT 提供精准的时钟、复位及数据激励,自动化比对仿真结果与理想期望值,并将关键信息通过终端显示或存储为波形文件(如 VCD)以供后续分析。

在编写 Testbench 时,必须牢记其代码是不需要可综合的,因为它本质上是对硬件行为的软件化描述,而非实际硬件设计,这使得我们可以自由使用 initial#delay$monitor 等不可综合语句

6.5.3 display和monitor有什么区别?

理解 $display$monitor 的执行机制差异是区分验证水平的关键考点$display 类似于 C 语言的 printf,只在执行到该行语句的瞬时打印一次信息;而 $monitor 则具备敏感触发特性,只要其监控列表中的任何一个信号发生跳变,就会自动重新打印整行信息

6.5.4 时间延迟#有什么用法?

外部时间控制(如 #5 a = b;)表现为一种“阻塞等待”机制:仿真器会先停下来等待 5 个时间单位,直到延迟结束才去读取右值 b 并赋给左值 a。这意味着如果在等待期间 b 的值发生了变化,最终赋给 a 的将是延迟结束那一刻的最新值。

内部时间控制(如 a = #5 b;)则表现出一种“先捕获、再延迟”的特性,这在模拟硬件传输延迟时极其有用。在这种方式下,仿真器会立即读取(捕获)当前时刻右值 b 的值并将其暂存在中间变量中,然后等待 5 个时间单位,最后再将那个暂存的旧值赋给左值 a

6.5.5 阻塞式延迟控制和非阻塞式延迟控制是什么?

阻塞式延迟控制(=)与非阻塞式延迟控制(<=)在 begin-end 块中的行为对比,是 Verilog 仿真机制中最核心的知识点

使用阻塞赋值带延迟时,语句依次执行,总延迟是各条延迟之和,这会导致仿真器产生串行的波形脉冲
而使用非阻塞赋值带内部延迟时,尽管代码写在串行块内,但所有赋值操作会在仿真起始时刻同时“计划”好(Schedule),各条语句的延迟时间是相对于初始 0 时刻的绝对偏移,表现出并行的特征

6.5.6 任务和函数有什么区别?

image-20260313201141203

任务与函数最本质的区别在于对“时间”的处理能力:函数必须在瞬时执行完毕,严禁包含任何时间控制(如 #@wait),而任务则可以包含丰富的时延和事件控制,能够模拟具有时序特征的行为。在数据交互方面,函数通过函数名返回且仅能返回一个值,至少需要一个输入端口,且不允许有输出或双向端口;而任务则灵活得多,它可以没有返回值,也可以通过多个 outputinout 端口返回多个结果。调用方式上,函数必须作为表达式的一部分(如右值)出现,支持在 assign 和过程块中调用;任务则作为一条独立的语句被调用,且只能出现在过程块(如 initialalways)中。

6.6 真题问答

七、计算机网络

7.1 大致内容

7.1.1 什么是计算机网络?

计算机网络,是指将地理位置不同的具有独立功能的多台计算机及其外部设备,通过通信线路连接起来,在网络操作系统,网络管理软件及网络通信协议的管理和协调下,实现资源共享信息传递的计算机系统。

简单来说,计算机网络就是一些相互连接的,以共享资源为目的的、自治的计算机的集合。

  • 计算机网络定义中提到了“具有独立功能”,这一点如何将现代计算机网络与早期的终端-主机系统区分开来?

早期的终端-主机系统(如分时系统)中,各个终端本身并没有数据处理能力,所有的计算和存储都集中在中心主机上,终端仅仅是简单的输入输出设备。而现代计算机网络强调接入的每一台计算机(节点)都具备“独立功能”,即它们拥有独立的 CPU、内存和操作系统,离开网络依然可以独立进行本地计算任务。它们在网络逻辑上是平等的对等关系,而非单纯的控制与被控制的主从关系。

  • 定义中强调计算机网络的最终目的是实现“资源共享和信息传递”,这里的“资源”具体包含哪些层面?

这里的“资源”主要包含硬件、软件和数据三个核心层面。硬件资源共享指的是网络中的节点可以共同使用昂贵的物理设备,例如共享网络打印机或调用远端数据中心的集群算力;软件资源共享是指用户可以通过网络远程调用和运行服务器上的应用程序,例如现在的各类云端 SaaS 服务;数据资源共享则是目前互联网最主要的应用,例如跨地域访问分布式数据库、浏览全球网页以及文件的对等传输。

7.1.2 计算机网络有哪些性能指标?

①速率: 主机在数字信道上传送数据位数的速率(单位:b/s, kb/s, Mb/s, Gb/s)

②带宽: 数字信道传送的最高数据率(单位:同上)

③吞吐量: 单位时间内通过某个网络的数据量(单位:同上)

④时延: 包括发送时延、传播时延、处理时延、排队时延

⑤时延带宽积: 它等于传播时延和带宽的乘积

⑥往返时间(RTT, Round-Trip Time): 从发送方发送数据开始,到发送方接收到接收方确认

⑦利用率: 包括信道利用率等于有数据通过时间和(有+无)数据通过时间的比值;网络利用率等于信道利用率的加权平均值

  • 速率、带宽和吞吐量这三个概念在实际应用中有什么区别和联系?

速率指的是主机在数字信道上实际传输数据的速度。带宽是信道所能支持的“最高”数据传输速率,代表了理论上的理想传输上限。吞吐量则是单位时间内实际成功通过某个网络或接口的数据量。在实际网络中,由于受到链路状态、网络拥塞、协议开销等多种因素的限制,吞吐量通常会小于或等于带宽。

  • 请简述时延的四个组成部分。在不同的通信环境(如局域网与卫星通信)中,哪种时延通常占据主导地位?

网络总时延由发送时延、传播时延、处理时延和排队时延四个部分组成。在高速局域网中,由于传输距离短且带宽极大,传播时延和发送时延都非常小,此时如果网络设备负载较高,排队时延和处理时延可能会相对明显。而在卫星通信等长距离广域网环境中,由于信号需要跨越极长的物理距离,传播时延通常会占据绝对的主导地位。

  • 时延带宽积的物理意义是什么?它对网络协议(例如TCP的滑动窗口)的设计有什么实际影响?

时延带宽积(传播时延 × 带宽)的物理意义是表示一条通信链路在任意时刻最多能容纳的正在传输中的比特数量,可以形象地理解为这条数据传输“管道的体积”。在设计网络协议时必须考虑这个指标。例如在TCP协议中,如果发送方的发送窗口远小于链路的时延带宽积,那么发送方在等待确认信号的过程中,信道会处于长时间的空闲状态,从而无法充分利用网络的高带宽。

  • 从网络性能的角度来看,网络利用率是否越高越好?利用率与网络时延之间存在怎样的数学或逻辑关系?

网络利用率绝对不是越高越好。根据排队论的原理,当信道或网络的利用率逐渐增大时,数据包在路由器或交换机中的排队等待时间也会随之增加。当网络利用率接近100%时,网络中的排队时延会急剧增加,甚至趋近于无穷大,导致严重的网络拥塞和丢包现象。因此,在实际的网络规划与运营中,必须留有冗余,将网络利用率控制在一个合理的范围以内。

7.1.3 OSI/RM是什么?OSI/RM模型一共有几层?

OSI/RM 的全称是 Open System Interconnection Reference Model(开放系统互连参考模型)
OSI/RM模型 一共有 7层

OSI/RM 模型分层及与 TCP/IP 模型的对比

OSI 中的七层 每层完成的功能 TCP/IP 对应协议 TCP/IP 协议分层
应用层 文件传输、电子邮件、文件服务、虚拟终端。即所有能产生网络流量的程序 HTTP(80)、TELNET、FTP(数据20端口、控制21端口)、DNS 应用层
表示层 数据格式化,数据加密、解密,数据解压缩 (在TCP/IP 协议四层中没有) (无)
会话层 解除、建立和别的结点之间的联系 (在TCP/IP 协议四层中没有) (无)
传输层 提供端到端的接口,可靠或者不可靠传输,流量控制 TCP、UDP 传输层
网络层 为数据包选择最佳路径,拥塞控制 IP、ICMP、IGMP、ARP 网络层
数据链路层 为网络层提供可靠的连接服务,帧为基本单位,帧的开始和结束,透明传输,差错控制 PPP、SLIP、CSLIP 网络接口层
物理层 接口标准,电气标准,如何在物理链路上传输得更快 IEEE802、IEEE802.2 网络接口层

OSI/RM 与 TCP/IP 的区别

①核心概念: OSI/RM 模型有三个明确的核心概念,即 a.协议b.服务c.接口,而 TCP/IP 没有明确的区分。
②设计时间: OSI/RM 模型是在协议发明之前设计的(偏向理论参考),而 TCP/IP 是在协议出现之后设计的(偏向实际应用)。
③层数划分: 一个明显的区别在于 OSI/RM 模型有 7 层,而 TCP/IP 只有 4 层
④通信模式支持: OSI/RM 的网络层同时支持无连接和面向连接的通信,但是在传输层上只支持面向连接的通信;而 TCP/IP 模型的网络层只有一种无连接通信模式,但是在传输层上同时支持两种通信模式

  • 请简述 OSI 7层模型与 TCP/IP 4层模型在网络层和传输层对通信模式(无连接/面向连接)的支持有何不同?

OSI/RM 的网络层同时支持无连接和面向连接的通信,但其传输层仅支持面向连接的通信。相反,TCP/IP 模型的网络层只提供无连接通信模式(如IP协议),而其传输层则同时支持无连接(UDP)和面向连接(TCP)两种通信模式。这是面试中常考的基础概念差异,体现了 TCP/IP 将可靠性保障更多地交给了端到端的传输层。

  • 为什么说 OSI/RM 是在协议发明之前设计的,而 TCP/IP 是在协议出现之后设计的?这导致了两者在核心概念上有什么区别?

OSI/RM 是国际标准化组织(ISO)提出的一种理论参考模型,旨在指导后续网络协议的开发,因此它在设计之初就非常严谨地划分了协议、服务和接口这三个核心概念,理论性强但实现起来较复杂。而 TCP/IP 是伴随着阿帕网(ARPANET)的实际建设而发展起来的,是先有了实际运行的协议,然后再从中总结出的分层模型。因此 TCP/IP 的实用性更强,但在协议、服务和接口这三个概念的区分上不如 OSI/RM 那样明确严格。

  • 在 OSI 7层模型中,表示层和会话层的主要功能是什么?在 TCP/IP 模型中它们去哪了?

在 OSI 模型中,表示层主要负责数据的格式化、加密解密以及数据的压缩与解压缩。会话层则负责建立、管理和解除不同网络节点之间的会话联系。在 TCP/IP 4层模型中,并没有单独划分这两层,它们的功能被合并到了 TCP/IP 的应用层中,由具体的应用程序(例如处理数据加密的 HTTPS 协议)来负责实现这些功能细节。

7.1.4 解释一下网络体系结构,它的实现和理论有什么区别?

网络体系结构是指通信系统的整体设计,它为网络硬件、软件、协议、存取控制和拓扑提供标准。网络体系结构采用分层结构,各层之间相互独立、较易维护、灵活性好。国际标准化组织制定了 OSI/RM 标准,该标准采用了七层结构:应用层、表示层、会话层、传输层、网络层、数据链路层、物理层。七层协议体系结构既复杂又不实用,但其概念清楚,体系结构理论较完整。而 TCP/IP 却成为了事实上的标准,它采用了四层结构即应用层、传输层、网络层和网络接口层。

  • 为什么在网络体系结构设计中通常采用分层结构?分层结构带来了哪些具体的好处?

采用分层结构主要是为了降低网络通信设计的复杂性。分层结构将庞大复杂的网络通信问题分解为多个较小、易于处理的局部模块。它的主要好处包括:各层之间相互独立,某一层不需要了解其下层是如何实现的,只需知道下层通过层间接口提供的服务;灵活性极好,当任何一层的内部技术发生更替时,只要对外的接口保持不变,就不会影响到其他层;结构上易于实现和维护,整体系统被分割为多个独立的子系统,调试和更新更加方便;同时也极大地促进了各种网络软硬件设备的标准化工作。

  • 请简述 OSI/RM 理论模型与 TCP/IP 事实标准的核心差异。为什么最终 TCP/IP 成为了实际上的标准?

OSI/RM 是由国际标准化组织制定的七层理论参考模型,其最大的特点是概念非常清楚,体系结构理论极其完整,在设计之初就严格定义了协议、接口和服务的边界。但它是一种“先有理论模型,后有协议”的产物,在实际应用中过于复杂且部分层次划分冗余,导致实现困难、运行效率低。相比之下,TCP/IP 采用了更精简实用的四层结构,它是伴随着阿帕网的实际建设而发展起来的,属于“先有实际协议,后总结出模型”。TCP/IP 结构简单、实用性极强,在实践中得到了广泛验证并能够很好地适应复杂的互联网络环境,因此最终取代了 OSI 理论模型,成为了当今互联网事实上的标准。

7.1.5 OSI, TCP/IP, 五层协议的体系结构,以及各层协议

OSI 分层(7层): 物理层、数据链路层、网络层、传输层、会话层、表示层、应用层。
TCP/IP 分层(4层): 网络接口层、网际层、运输层、应用层。
五层协议(5层): 物理层、数据链路层、网络层、运输层、应用层。

每一层的协议及作用如下:

物理层: 通过媒介传输比特,确定机械及电气规范。数据传输单位为比特(Bit)
常见协议与设备:RJ45、CLOCK、IEEE802.3、(中继器,集线器)

数据链路层: 将比特组装成帧和点到点的传递。数据传输单位为帧(Frame)
常见协议与设备:PPP、FR、HDLC、VLAN、MAC、(网桥,交换机)

网络层: 负责数据包从源到宿的传递和网络互联。数据传输单位为包(Packet)
常见协议与设备:IP、ICMP、ARP、RARP、OSPF、IPX、RIP、IGRP、(路由器)

传输层: 提供端到端的可靠报文传递和错误恢复。数据传输单位为段(Segment)
常见协议:TCP、UDP、SPX。

会话层: 建立、管理和终止会话。数据传输单位为会话协议数据单元(SPDU)
常见协议:NFS、SQL、NETBIOS、RPC。

表示层: 对数据进行翻译、加密和压缩。数据传输单位为表示协议数据单元(PPDU)
常见协议:JPEG、MPEG、ASII。

应用层: 允许访问 OSI 环境的手段。数据传输单位为应用协议数据单元(APDU)
常见协议:FTP、DNS、Telnet、SMTP、HTTP、WWW、NF8。

  • 路由器、交换机和集线器分别工作在网络体系结构的哪一层?它们在数据转发原理上有什么本质区别?

集线器工作在物理层,主要对接收到的信号进行放大和广播,属于共享介质设备,所有端口属于同一个冲突域。
交换机工作在数据链路层,基于MAC地址表进行点对点的帧转发,能够隔离冲突域但不能隔离广播域。
路由器工作在网络层,基于IP地址和路由表进行路径选择和数据包转发,能够连接不同的子网并有效地隔离广播域。

  • 在数据从源端发往目的端的过程中,传输层、网络层和数据链路层的数据传输单元分别叫什么?这种分层封装的核心优势是什么?

传输层的数据单元称为段(Segment),网络层称为包(Packet)或数据报,数据链路层称为帧(Frame)。
这种分层封装的核心优势在于实现网络功能的解耦。每一层只需要关注本层协议头部的添加、解析和控制逻辑,下层为上层提供透明的数据传输服务。
当某一层(如物理网络)的技术发生改变时,只要层间接口保持不变,上层的协议(如TCP/IP)就无需做任何修改,极大地提高了网络体系的灵活性和可扩展性。

  • ARP协议的具体作用是什么?在分层结构中它通常被归为哪一层,为什么?

ARP(地址解析协议)的主要作用是在局域网中将网络层的已知 IP 地址解析为数据链路层的 MAC 地址,这是数据在物理网络中实际发送前必不可少的一步。在 TCP/IP 模型中,ARP 通常被归类在网络层(网际层)。虽然它服务于网络层,但它的实际工作过程需要通过组装数据链路层的广播帧来发送 ARP 请求,因此在功能和实现上,它起到了紧密连接网络层和数据链路层的桥梁作用。

7.1.6 物理层解决的问题是什么?

物理层解决如何在连接各种计算机的传输媒体上传输数据比特流,而不是指具体的传输媒体。物理层的主要任务描述为确定传输媒体的接口的一些特性,即:

①机械特性: 例如接口形状,大小,引线数目。

②电气特性: 例如规定电压范围(-5V 到+5V)。

③功能特性: 例如规定-5V 表示 0, +5V 表示 1。

④过程特性: 也称规程特性,规定建立连接时各个相关部件的工作步骤。

  • 为什么说物理层解决的不是具体的传输媒体,而是“传输比特流”?这种设计有什么好处?

因为物理层的作用是屏蔽掉各种物理通信设备和传输媒体(如双绞线、同轴电缆、光纤等)的差异,使上面的数据链路层只需要考虑如何完成本层的协议和服务,而不必关心底层的具体传输介质是什么。物理层通过定义统一的四大特性,为上层提供了一个透明的比特流传输平台,极大地提高了网络体系的兼容性和扩展性。

  • 在物理层的接口特性中,电气特性和功能特性很容易混淆,请结合例子说明它们的本质区别?

电气特性主要关注信号在物理层面上的表现形式和限制,例如它会规定线路上允许的电压范围是从-5V到+5V,或者规定最大的传输速率。而功能特性则是赋予这些物理信号具体的逻辑含义,比如它明确规定在这个系统中,-5V代表逻辑数据“0”,+5V代表逻辑数据“1”。简单来说,电气特性决定了“电信号本身的物理范围”,功能特性决定了“这个电信号在通信逻辑中代表什么意思”。

  • 我们日常生活中使用的 RJ45 接口(普通网线水晶头)的设计,主要体现了物理层的哪种特性?

RJ45 接口的物理外形尺寸、塑料卡扣的设计,以及内部8根金属引线的排列方式和物理尺寸,主要体现了物理层的机械特性。正是因为有了全球统一的机械特性标准,不同厂家生产的网线和不同品牌的电脑网卡接口才能实现完美的物理插拔和连接。

7.1.7 什么是码元?什么是码元长度?

在数字通信中常常用时间间隔相同的符号来表示一位二进制数字。这样的时间间隔内的信号称为二进制码元,而这个间隔被称为码元长度

  • 码元和比特(Bit)在概念上有什么区别?波特率(码元传输速率)和比特率(信息传输速率)之间存在怎样的换算关系?

码元是物理层传输信号的基本波形单位,代表信号的一种物理状态;而比特是信息量的基本度量单位,代表逻辑上的0或1。一个码元可以携带一个或多个比特的信息,这取决于系统的调制方式。波特率表示单位时间内传输的码元个数(单位Baud),比特率表示单位时间内传输的比特数(单位bps)。两者的换算关系为:

C=R×log2(V)C = R \times \log_2(V)

其中 CC 为比特率,RR 为波特率,VV 是码元所能携带的离散状态数(即进制数)。

  • 在现代通信系统(如 QAM 调制)中,为什么常常设计让一个码元携带多个比特的信息?这样做有什么优势和潜在的代价?

让一个码元携带多个比特(例如 16-QAM 中一个码元携带 4 个比特)可以有效提高系统的频带利用率。在信道带宽受限的情况下,这能够在不增加物理层波特率的前提下,成倍提升实际的数据传输速率(比特率)。但其潜在的代价是,随着码元可能状态数的增加,信号星座图上的点变得更加密集,接收端区分不同物理状态的难度随之变大。这会导致系统对信道信噪比的要求显著提高,抗干扰能力下降,更容易因噪声引起误判。

7.1.8 波特和比特的区别与联系?

比特率: 在数字信道中,比特率是数字信号的传输速率,它用单位时间内传输的二进制代码的有效位(bit)数来表示,其单位为每秒比特数 bit/s(bps)

波特率: 波特率指数据信号对载波的调制速率,它用单位时间内载波调制状态改变次数来表示,其单位为波特(Baud)

波特率与比特率的关系为: 比特率 = 波特率 × 单个调制状态对应的二进制位数。

显然,两相调制(单个调制状态对应 1 个二进制位)的比特率等于波特率;四相调制(单个调制状态对应 2 个二进制位)的比特率为波特率的两倍;八相调制(单个调制状态对应 3 个二进制位)的比特率为波特率的三倍;依次类推。

波特率与比特率有如下的换算关系:

Rbit=Rbaudlog2MR_{bit} = R_{baud} \log_2 M

上式中:RbitR_{bit} 为比特率,RbaudR_{baud} 为波特率,M 是信号的编码级数。这也意味着 1 Baud=log2M (bit/s)1\text{ Baud} = \log_2 M\text{ (bit/s)}

一个信号往往可以携带多个二进制位,所以在固定的信息传输速率下,比特率往往大于波特率。换句话说,一个码元中可以传送多个比特。例如,M=16,波特率为 9600 时,数据传输率(比特率)为 38.4kbit/s。

  • 在通信工程的实际系统设计中,为什么我们需要严格区分波特率和比特率?只关注传输数据的比特率不够吗?

必须区分两者的原因在于它们受到的物理约束不同。比特率是我们最终追求的“业务指标”,代表了信息的吞吐量;而波特率是底层物理信道的“传输动作指标”,代表了信号状态的切换速度。由于物理信道存在带宽限制(奈奎斯特定理),信号状态的切换速度(波特率)是有理论上限的。当物理信道的带宽固定时,工程师只能通过提升信号的编码级数,让单个波特(码元)承载更多的比特,从而在波特率受限的情况下提升整体的比特率。

  • 既然通过增加信号的编码级数 M(例如从 4-QAM 提升到 64-QAM)可以在不提高波特率的前提下成倍提升比特率,那在实际应用中为什么不无限制地增加 M 呢?

因为无限制地增加 M 会带来严重的抗干扰问题。在系统的发送功率受限时,增加编码级数 M 意味着要在相同的信号空间内划分出更多、更密集的物理状态(比如幅度和相位的组合)。这会导致相邻状态之间的差异变得非常微小。此时,即使是轻微的信道噪声或衰落,也很容易导致接收端将一种状态误判为另一种状态,从而造成误码率的急剧上升。因此,实际通信系统必须根据当前信道的信噪比条件,在传输速率和可靠性之间进行权衡。

7.1.9 什么是信道?信道有哪几种通信方式?

信道一般表示向一个方向传送信息的媒体。所以咱们说平常的通信线路往往包含一条发送信息的信道和一条接收信息的信道。

分类:
①模拟信道: 传送模拟信号的信道。模拟信号:连续信号,例如:话音信号和广播信号。
②数字信道: 传送数字信号的信道。数字信号:离散信号,二进制代码 0、1 组成的信号。

通信方式: 单工通信: 只能有一个方向的通信而没有反方向的交互。
半双工通信: 通信的双方都可以发送信息,但双方不能同时发送(当然也就不能同时接收)。
全双工通信: 通信的双方可以同时发送和接收信息。

  • 请分别举例说明单工、半双工和全双工通信在现实生活或计算机网络中的典型应用场景?

单工通信的典型应用是传统的无线电广播或电视广播,信号只能从广播塔单向传输到用户的接收设备。半双工通信的典型例子是对讲机或早期的基于集线器(Hub)的局域网,通信双方都能发送信息,但同一时刻只能有一方占用物理信道,否则会产生数据冲突。全双工通信则像我们日常使用的智能手机通话或现代基于交换机(Switch)的以太网网络,双方可以同时进行数据的发送和接收,极大提高了通信效率。

  • 在物理传输介质(如一根同轴电缆或一段无线电波)只有一条的情况下,全双工通信是如何实现双方同时收发信号而互不干扰的?这就涉及到了我们在通信原理中常考的哪些技术?

在共享单一物理介质的情况下实现全双工,核心在于将这条物理介质逻辑上划分为两个独立的信道。这通常依赖于双工技术(这也是电子科技大学信通院面试常考的通信原理结合点)。常见的实现方式包括频分双工(FDD),即发送和接收使用完全不同的载波频率频段,通过滤波器隔离开来;或者是时分双工(TDD),即将时间划分为极短的时隙,收发动作在不同时隙交替进行,由于切换速度极快,在宏观层面上就表现为双方都在同时收发。

  • 现代通信系统为什么越来越倾向于使用数字信道来替代模拟信道?数字信道相比模拟信道有哪些根本性的优势?

数字信道传输的是离散的 0 和 1 比特流。它的根本优势在于抗干扰能力强。在长距离传输中,信号不可避免地会衰减并混入噪声。模拟信号在放大衰减信号的同时也会放大噪声,导致信号质量不断恶化;而数字信号在衰减后,只要尚未越过判决门限,就可以通过中继器进行精准的“再生整形”,恢复出完美的 0 和 1,从而消除噪声的累积。此外,数字信号还非常容易进行加密处理、差错控制编码(如 FEC)以及与现代计算机系统的数据格式无缝对接。

7.1.10 什么是基带信号?什么是宽带信号?

基带信号: 将数字信号 1 或 0 直接用不同的电压来表示,然后送到电路上去传输。

宽带信号: 将基带信号调制后形成的频分复用模拟信号。由于基带信号经过调制,其频谱移动到较高的频率处。由于每一路基带信号的频谱都被移动到不同的频段上,因此合在一起后并不会互相干扰,这样可以在一条电缆中传送多路的数字信号,因而提高了线路的利用率。

  • 为什么在无线通信系统中,通常不能直接传输基带信号,而是必须将其调制成宽带(频带)信号进行传输?

这主要受限于天线尺寸和信道复用。根据通信原理的电磁波理论,天线的物理尺寸通常需要与所传输信号的波长处于同一数量级(一般为四分之一波长左右)才能有效辐射信号。基带信号包含大量的低频和直流成分,对应的波长极长,如果直接发射,所需的天线尺寸将大到在工程上无法实现。通过调制将其频谱搬移到高频段,可以大大减小天线尺寸。同时,调制还能实现频分复用,让多个不同源的信号共享同一物理通信媒介而不互相干扰。

  • 我们日常使用的传统以太网(如通过双绞线连接的局域网)中,通常采用的是基带传输还是宽带传输?为什么?

传统的以太网通常采用的是基带传输。因为局域网的传输距离相对较短,使用的是专用的双绞线作为传输介质,往往不需要像广域网或骨干网那样使用复杂的频分复用技术来极度压榨信道容量。直接在介质上传输基带数字信号(通常配合曼彻斯特编码等数字基带编码技术以提取时钟同步信号)实现起来更加简单、设备成本更低,且完全能够满足短距离内的高速率数据传输需求。

  • 宽带信号传输中提到的“频谱移动到不同频段以避免干扰并提高利用率”属于哪一种多路复用技术?能否举一个实际生活中的典型应用例子?

这种技术被称为频分复用(FDM,Frequency Division Multiplexing)。它的核心思想是将信道的总物理可用带宽划分成若干个互不交叠的子频带,每个子频带作为独立的逻辑信道传输一路信号。生活中最经典的应用例子就是传统的模拟广播电台或有线电视系统。在同一根同轴电缆或同一片自由空间中,不同的电视台或广播台使用完全不同的载波中心频率发送节目信号,用户的接收端(电视机或收音机)通过带通滤波器进行调谐,就能精准提取出特定频段的信号,实现互不干扰的多路并发接收。

7.1.11 简述一下奈奎斯特定理(奈氏准则)和香农定理

奈氏准则: 在任何信道中,码元的传输速率是有上限的,如果超过此上限,就会出现严重的码间串扰问题(接收端收到的信号的波形失去了码元之间的清晰界限),使接收端对码元的完全正确识别成为不可能。如果信道的频带越宽,也就是能够通过的信号高频分量越多,那么就可以用更高的速率传送码元而不出现码间串扰。

香农定理: 给出了带宽受限且有高斯白噪声干扰的信道的极限、无差错的数据传输速率 C 可以表达为:

C=Wlog2(1+S/N)C = W \cdot \log_2(1 + S/N)

其中,C的单位为 b/s;W 为信道带宽;S 为信道内所传信号的平均功率;N 为信道内部的高斯噪声功率。表明:信道的带宽或信道中的信噪比越大,则信息的极限传输速率就越高,只要信息传输速率低于信道的极限信息传输速率,就一定可以找到某种方法来实现无差错的传输。

  • 奈氏准则和香农定理分别从什么物理限制角度出发?在实际通信系统设计中,它们两者是如何协同限制系统性能的?

奈氏准则主要限制了理想(无噪声)带宽受限信道中的码元传输速率(波特率),它强调为了避免波形重叠导致的码间串扰,物理状态的切换速度不能无限提高,其上限直接受限于信道带宽。而香农定理则考虑了现实中不可避免的热噪声干扰,给出了在特定信噪比下,信息无差错传输的极限信息速率(比特率)。在实际工程中,奈氏准则决定了系统底层物理波形发送速率的天花板,而香农定理指明了即使我们采用多进制调制手段在一个码元中塞入更多比特,最终的有效数据吞吐量依然受到噪声的铁腕限制,两者共同勾勒出了通信链路设计的理论边界。

  • 根据香农定理的公式,如果想要在一个带宽固定的实际信道中不断提升数据的极限传输速率,理论途径是什么?在工程实践中为什么这很难实现?

根据香农公式,在信道带宽 W 固定时,提升极限传输速率 C 的理论途径只能是不断提高系统的信噪比(S/N),也就是无限制地增大发射信号的平均功率 S 或极力降低噪声功率 N。但在工程实践中,由于设备物理器件的耐压耐热限制、移动设备的电池功耗制约、以及为了避免对其他无线电系统的强电磁干扰,发射功率不可能无限制增大。同时,自然界的热噪声是客观存在的物理现象,无法被完全消除。更重要的是,由于公式中存在对数关系 log2\log_2,当信噪比已经很高时,必须成百上千倍地增加发射功率才能换来极少量的速率提升,这在经济和技术上都是完全不可行的。

7.1.12 中继器,集线器,交换机,网桥,网关,路由器的功能作用,区别是什么?

①中继器: 物理层,适用于完全相同的两类网络的互连,主要功能是通过对数据信号的重新发送或者转发,来扩大网络传输的距离。中继器与集线器的区别:区别在于集线器能够提供多端口服务,也称为多口中继器

②集线器: 物理层,它没有智能处理能力,对它来说,数据只是电流而已,当一个端口的电流传到集线器中时,它只是简单地将电流传送到其他端口,至于其他端口连接的计算机接收不接收这些数据,它就不管了,用于信号的放大和连接多个终端

③交换机: 第二层(即数据链路层),它要比集线器智能一些,对它来说,有多个端口以用于连接各个主机,网络上的数据就是物理地址 MAC 地址的集合,它能分辨出帧中的源 MAC 地址和目的 MAC 地址,因此可以在任意两个端口间建立联系,转发数据较快,但是交换机并不懂得 IP 地址,它只知道 MAC 地址。

④网桥: 数据链路层,网桥(Bridge)像一个聪明的中继器,网桥是一种对帧进行转发的技术,根据 MAC 分区块,可隔离碰撞。网桥将网络的多个网段在数据链路层连接起来。

⑤网关: 应用层,网关在传输层上以实现网络互连,是最复杂的网络互连设备,仅用于两个高层协议不同的网络互连。网关的结构也和路由器类似,不同的是互连层。网关既可以用于广域网互连,也可以用于局域网互连。

⑥路由器: 第三层(即网络层),它比交换机还要“聪明”一些,它能理解数据中的 IP 地址,如果它接收到一个数据包,就检查其中的 IP 地址,如果目标地址是本地网络的就不理会,如果是其他网络的,就将数据包转发出本地网络,安全性高,使用逻辑地址(IP 地址),转发数据较慢

  • 请从冲突域和广播域的角度,对比集线器、交换机和路由器的区别。这也是面试中考察网络设备底层原理最核心的切入点。

集线器工作在物理层,它只是简单地广播电信号,因此连接在集线器上的所有设备共享同一个冲突域和同一个广播域。交换机工作在数据链路层,能够基于 MAC 地址表进行点对点转发,这使得它的每一个端口都是一个独立的冲突域(有效隔离了碰撞),但默认情况下整台交换机依然处于同一个广播域中。路由器工作在网络层,不仅每个端口是一个独立的冲突域,而且它默认会阻挡广播包的跨网段转发,因此路由器的每个接口也是一个独立的广播域,能够有效防止广播风暴。

  • 在一个包含大量主机的局域网中,如果将核心连接设备从集线器全部替换为交换机,网络性能会有什么本质的变化?为什么?

网络性能会有质的飞跃。使用集线器时,整个网络是一个巨大的冲突域,所有主机采用 CSMA/CD 协议共享同一条物理链路的总带宽,主机数量越多,发送数据时发生碰撞的概率就呈指数级上升,导致实际有效吞吐量极低。替换为交换机后,交换机能在内部背板上为不同端口之间同时建立多个独立的逻辑连接,实现全双工通信。这意味着每台主机都能独享其所在端口的物理链路带宽,彻底解决了大规模并发通信时的数据碰撞问题。

  • 很多时候人们在日常用语中会混淆“路由器”和“网关”这两个概念。请从计算机网络体系结构的角度简述它们的主要区别和各自的核心应用场景。

路由器主要工作在 OSI 模型的网络层,它的核心任务是利用 IP 地址进行寻址、路径选择和数据包转发。它主要解决的是底层传输技术可能不同,但网络层以上协议相同(如都运行 TCP/IP)的不同子网之间的互联互通。而网关(Gateway)作为最复杂的互联设备,主要工作在传输层及以上的应用层。它的核心作用是进行复杂的“协议转换”。当两个采用完全不同高层协议的异构网络(例如一个局域网与一个使用 SNA 协议的大型机系统)需要通信时,必须使用网关来对应用层的数据格式、编码方式甚至会话控制进行翻译和重组。

7.1.13 什么是数据链路层?它有哪两种信道类型?

链路: 是一条点到点的物理线路段,中间没有任何其他点,一条链路只是一条通路的组成部分。
数据链路: 除了物理线路外,还必须有通信协议来控制这些数据的传输。若把实现这些协议的硬件和软件加到链路上,就构成了数据链路。

①点对点信道: 使用一对一的点对点通信。全世界用的最多的就是 PPP 协议(Point-to-Point Protocol),用户计算机和 ISP(Internet Service Provider) 进行通信时所使用的数据链路层协议,电话机通信用的就是这个协议。

②广播信道: 使用一对多的广播通信方式,因此过程比较复杂。广播信道上连接的主机很多,因此必须使用专用的共享信道协议来协调这些主机的数据发送。

数据链路层有三个基本问题

①封装成帧: 在一段数据的前后分别添加首部和尾部,这样就构成了一个帧,接收端在收到物理层上交的比特流后,就能根据首部和尾部的标记,从接收到的比特流中识别帧的开始和结束。

②透明传输: 由于帧的开始和结束的标记是使用特定的控制字符比如首部用 SOH,尾部用 EOT 标记,如果数据本身就含有这些特定字符就会出现帧定界的错误。传送时,帧的数据部分不会出现帧定界的控制字符,这样的传输就是透明传输。

③差错检验: 传输过程中可能出现比特差错,比如 1 可能会变成 0,而 0 可能变成 1,或者出现了帧丢失、帧重复、帧失序等问题。

  • 数据链路层的点对点信道和广播信道在媒体接入控制(MAC)上最大的本质不同是什么?

点对点信道(如PPP协议)是两端设备独占物理介质进行一对一通信,因为没有其他主机竞争信道,所以它不需要复杂的媒体接入控制(MAC)机制,也不需要使用MAC地址来寻址。相反,广播信道(如局域网中的以太网)是多台主机共享同一传输介质,这就必须使用专门的共享信道协议(如 CSMA/CD 冲突检测的载波监听多点接入)来协调各主机的数据发送,解决信道竞争和冲突问题,并且必须依靠 MAC 地址来精确标识局域网内的源主机和目的主机。

  • 在实现数据链路层的“透明传输”时,如果上层交下来的数据中碰巧包含了与帧定界符完全相同的控制字符(如 SOH 或 EOT),底层是如何处理以防止接收端产生截断错误的?

针对面向字符的链路,数据链路层通常采用“字节填充”(或字符填充)技术来解决。发送端在封装成帧时会扫描整个数据部分,如果发现数据中出现了与帧定界符相同的字节,就会在其前面强行插入一个特殊的“转义字符”(ESC)。接收端在解析时,如果看到转义字符,就知道其紧跟的下一个字节是普通数据而非控制标记,从而将其提取并删掉转义字符本身。如果是面向比特的链路(如 HDLC 协议),则采用硬件级别的“零比特填充法”(即只要在发送端的数据中发现连续 5 个 1,就自动插入一个 0),以此来保证数据中绝不会出现作为界定符的“01111110”序列。

  • 数据链路层提供的差错检验(如常用的 CRC 循环冗余校验)如果发现了误码帧,通常会如何处理?这种处理方式与 TCP 协议提供的可靠传输有什么分工关系?

目前广泛使用的局域网数据链路层协议(如以太网的 MAC 协议)通常只提供不可靠的交付服务。当差错检验(如 FCS 帧检验序列)发现接收到的帧有差错时,数据链路层会直接将这个错误的帧丢弃,而不会主动要求发送端重传。复杂的“错误恢复”(即发现数据包丢失或被丢弃后触发超时重传机制)任务,被完全剥离并交给了上层的传输层(如 TCP 协议)去统一管理。这种分层解耦的设计使得底层网络硬件可以极其专注、快速地进行数据包的转发,极大地提升了网络的整体吞吐量和运行效率。

7.1.14 在计算机通信中为什么需要对接收的数据进行校验?

在计算机通信中,可能是点对点通信或者是广播方式通信,具有发送端设备和接收端设备。在整个通信网络或通信线路里面,存在有该设备需要的数据、其他设备需要的数据、干扰所产生的信号(如果不处理,可能也会被当成正常数据进行处理)。

同时,由于接地不好或者干扰源的问题(例如电焊机、变频器、中频炉等),可能使部分数据被干扰,导致数据不完整或者错误。如果这些错误或不完整的数据被执行,就可能使设备产生误动作,造成设备损坏、生产损失,甚至人身伤害。因此,就需要对这些数据进行处理,进行校验

  • 结合实际工业或复杂的网络环境,为什么物理层传输的数据不可避免地会发生错误?数据链路层的差错校验能完全解决这个问题吗?

在实际网络环境中,物理传输介质很容易受到外部环境的强电磁干扰(如电焊机、变频器等大功率设备产生的噪声),或者因为设备接地不良、线路老化导致信号衰减和波形畸变。这些物理层面的因素都会导致接收端在将模拟电信号还原成数字比特流时发生误判(即“0变成1”或“1变成0”的比特差错)。数据链路层的差错校验(如常用的 CRC 循环冗余校验)能够以极高的概率检测出这些错误,并果断丢弃错误帧,从而保护上层设备。但它只负责“检错并丢弃”,本身无法“纠正”错误或确保数据一定送达,最终的错误恢复(如超时重传)通常需要依靠上层(如 TCP 协议)来配合完成。

  • 如果通信链路中完全没有数据校验机制,错误的数据直接被接收端应用层执行,可能会带来哪些严重后果?为了防止这种情况,网络体系结构中通常在哪些层部署了校验机制?

如果没有校验机制,错误数据被当成正常的控制指令或业务逻辑执行,轻则导致软件崩溃、文件内容损坏,重则在工业自动化控制、医疗设备等场景中引发严重的设备误动作,造成巨大的经济损失甚至危及人身安全。为了建立纵深防御体系,网络模型中往往部署了多层校验:数据链路层负责相邻节点间的数据帧校验(如 MAC 帧尾的 FCS 字段);网络层(如 IPv4)通常提供针对 IP 首部的校验;而传输层(如 TCP 和 UDP)则提供端到端的完整报文段校验(包括伪首部、首部和数据部分)。这种层层设防确保了最终交付给应用层的数据的绝对可靠。

7.1.15 怎么解决透明传输的问题?怎么进行差错检验?

解决方法:字节填充。发送端的数据链路层在数据中出现控制字符 “SOH”“EOT” 的前面插入一个转义字符 “ESC”,而在接收端的数据链路层再将数据送往网络层之前删除这个插入的转义字符。如果转义字符也出现在数据中,那么在转义字符的前面再插入一个转义字符,当接收端收到连续的两个转义字符时,就删除最前面的一个。

差错检验:循环冗余检验 CRC

设需要发送的信息为 M = 1010001101,产生多项式对应的代码为 P = 110101,此时 R = 5。由于 P 是 6 位数,故在原数据 M 后面加 5 个 0 (规定 M 后面加的 0 的数量比 P 的位数少一位)。然后对这串加了 0 的新数据进行模2除法运算,得到的余数 r(x) 对应的代码就是我们要找的冗余码(FCS),在此例中为 01110

故实际需要发送的数据是原数据加上余数,即 101000110101110。当接收方收到数据后,用收到的整个数据对事先约定的除数 P 进行相同的模 2 除法。若最后的余数为 0,则认为数据在传输过程中无差错;若余数不为 0,则认为数据传输出现了错误。由于 CRC 仅仅知道有错,却不知道具体错在哪个比特位,因而不能进行自动纠正,一般数据链路层的做法是直接丢弃接收到的错误数据

CRC 的核心原理详解(模2除法运算过程):

CRC 检验的灵魂在于模2除法。它在做减法时不产生借位,在做加法时不产生进位,其实质就是对每一位进行异或 (XOR) 运算(相同为 0,不同为 1)。

结合图片中的竖式运算,过程分解如下:

  1. 确定被除数和除数: 除数 P=110101P = 110101
    被除数是原数据左移 R 位(也就是在末尾添 5 个 0),表示为:

    2RM=1010001101000002^R M = 101000110100000

  2. 异或消元: 每次取被除数中与除数位数相同的前几位(第一步是 101000)与除数(110101)进行异或。因为最高位同为 1,异或后最高位变为 0。
  3. 移位补齐: 将异或得到的结果(11101)与被除数后面掉下来的一位(1)组合,形成新的 6 位数(111011),商的对应位置写 1,继续与除数 PP 异或。如果掉下一位后最高位是 0,则商 0,除数按全 0 处理进行异或,以此类推。
  4. 得出结果: 直到被除数最后一位也掉下来并完成计算。最后留在最底部的 5 位数即为余数 RR (01110),而顶部的计算结果为QQ (1101010110)。在 CRC 检验中,我们只需要把这个余数 R 拼接到原始数据 M 后面发送即可。
  • 数据链路层使用 CRC 循环冗余校验,如果发现数据在传输过程中出现了错误,为什么通常直接丢弃而不是尝试纠正?这和网络所说的“可靠传输”矛盾吗?

CRC 只能高概率地检测出帧中发生了比特翻转,但无法精确定位错误发生的具体比特位置(除非增加极大的冗余开销,比如使用海明码),因此底层硬件无法自动纠错,只能选择丢弃。这并不矛盾。在现代通信体系中,数据链路层通常只追求“无差错接受”(即凡是接收上来交给网络层的帧,都是校验无误的;有误的在底层就悄悄扔掉了)。而真正的“可靠传输”(如确认机制、丢包后的超时重传等错误恢复机制),被交给了上层的 TCP 协议来完成。这样分工可以大大减轻底层路由交换设备的负担,提高网络整体的转发效率。

  • 在 CRC 校验中,我们常说的“生成多项式”到底有什么物理意义?通信的收发双方是如何保证使用的是同一个多项式进行除法运算的?

“生成多项式”在数学上代表了模2除法中的除数 PP(例如多项式 X5+X4+X2+1X^5 + X^4 + X^2 + 1 提取系数就对应二进制位串 110101)。它的物理意义在于决定了差错检测的能力。不同的多项式对各种类型错误(如突发错误、奇数个位错误)的漏检率不同。在实际的计算机网络中,收发双方不需要每次通信前都去协商多项式,因为这些生成多项式(如广泛使用的 CRC-16, CRC-32)已经被死死地写进了 IEEE 802 等国际标准规范中。只要大家的网卡都遵循相同的以太网标准,其硬件芯片内部固化的除数就绝对是一致的。

7.1.16 在计算机网络中有哪几种常用的数据校验方式?

①奇偶校验: 根据被传输的一组二进制代码中**“1”的个数是奇数或偶数**来进行校验。通常专门设置一个奇偶校验位,存放代码中“1”的个数为奇数还是偶数。若用奇校验,则奇偶校验位为奇数,表示数据正确。若用偶校验,则奇偶校验位为偶数,表示数据正确。

②CRC 校验(循环冗余校验码):

③LRC 校验: LRC 校验用于 ModBus 协定的 ASCII 模式,这各校验比较简单,通讯速率较慢,它在 ASCII 协议中使用,检测了消息域中除开始的冒号及结束的回车换行号外的内容。它仅仅是把每一个需要传输的数据字节迭加后取反加 1 即可。

④格雷码校验: 格雷码是一种无权码,也是一种循环码。是指任意两组相邻的代码之间只有一位不同,其余为都相同。

⑤校验和: 校验一组数据项的和是否正确。通常是以十六进制为数制表示的形式。如果校验和的数值超过十六进制的 FF,也就是 255。

⑥异或校验: BCC 校验其实是奇偶校验的一种,但也是经常使用并且效率较高的一种。所谓 BCC 校验法,就是在发送前和发送后分别把 BCC 以前包括 ETX 字符的所有字符按位异或后,按要求变换(增加或去除一个固定的值)后所得到的字符进行比较。相等即认为通信无错误,不相等则认为通信出错。

  • 既然 CRC 校验的检错能力极强,为什么在 TCP/IP 协议栈的网络层(IP首部)和传输层(TCP/UDP)中,普遍使用的是简单的“校验和(Checksum)”而不是 CRC?

这主要是基于系统开销和实现层次的权衡。CRC 涉及复杂的模2除法,如果用纯软件实现,计算开销极大,因此它通常被固化在底层网卡的硬件逻辑电路中,在数据链路层高速完成。而 IP、TCP 协议通常是由操作系统内核的软件网络栈来处理的。校验和(Checksum)算法只需要进行简单的 16 位反码求和操作,软件执行效率极高,不会成为路由器或主机处理数据包的性能瓶颈。此外,底层的 MAC 层已经用 CRC 挡住了绝大部分物理传输错误,上层的校验和更多是为了防范路由器内部内存故障或软件处理时引入的数据损坏,属于网络体系的纵深防御机制。

  • 格雷码(Gray Code)“相邻代码只有一位不同”的特性,在数字集成电路设计和物理层信号传输中有什么核心优势?

这个特性极大地降低了数字系统在状态连续切换时产生“毛刺”和瞬态错误的概率。在普通的二进制码中,例如从 011 变到 100,三个比特需要同时翻转,由于各路信号的传输门延迟很难做到绝对一致,在这个短暂的过渡期极可能会产生短暂的错误中间状态(如 111)。而格雷码每次状态跳变都只有一根信号线发生电平变化,从根本上消除了多位同时翻转带来的竞争冒险现象。这在实现高速异步 FIFO 跨时钟域传输、或是数字通信系统的相位调制编码时,能显著提升硬件系统的抗干扰能力和稳定性。

  • LRC 校验和 BCC(异或)校验在现代高速计算机网络(如千兆以太网)中几乎绝迹,但为什么在 ModBus 等工业控制协议中依然被广泛保留和使用?

像 ModBus 这样的传统工业控制协议,很多时候运行在算力非常有限的微处理器或老旧的串行通信总线(如 RS-485)上,且往往连接着各种简单的传感器和执行终端。这些环境下的通信速率较低,数据包往往很短(如简单的温度读取指令)。LRC 和 BCC 校验只需要极少的机器周期就能完成基本的累加或异或运算,不需要像复杂网络设备那样消耗额外的逻辑门资源去构建专用的校验模块,用极低的算力成本满足了底层工业控制设备的基本防错需求。

7.1.17 网络层的作用是什么?

在数据链路层提供的两个相邻端点之间的数据帧的传送功能上,进一步管理网络中的数据通信,将数据设法从源端经过若干个中间节点传送到目的端,从而向运输层提供最基本的端对端的数据传送服务。通俗点就是添加源 IP 和目标 IP 地址

  • 网络层和数据链路层在数据传输的范围和寻址方式上有什么本质区别?

数据链路层(使用MAC地址)解决的是同一个局域网内或相邻物理节点之间的“点到点”直接通信问题,它不具备跨越不同子网的能力。而网络层(使用逻辑上的IP地址)解决的是跨越多个底层通信技术可能完全不同的异构网络,通过路由器的多跳转发,实现宏观上的“源主机到目的主机”的通信。简单来说,数据链路层决定了数据下一跳要交给哪个具体的物理设备,而网络层决定了数据最终要走向网络的哪个逻辑地址。

  • 资料中提到网络层向运输层提供的是“最基本的”数据传送服务。为什么互联网的网络层(IP协议)被设计成提供这种“尽最大努力交付”的无连接不可靠服务,而不是直接在底层提供绝对可靠的服务?

这是计算机网络设计中极其经典的“端到端原则”。如果要求网络层提供可靠服务,那么网络核心的每一台路由器都必须维持庞大的连接状态信息,并处理复杂的确认、重传和纠错逻辑,这会导致核心路由器造价极其昂贵且转发效率低下。TCP/IP 体系将复杂的可靠性保障(如 TCP 的序列号、确认应答、拥塞控制等)全部推卸给了网络边缘的终端主机(运输层),让网络内部的路由器只专注于一件事:尽可能快地根据 IP 路由表转发数据包。这种“核心简单、边缘复杂”的设计极大地提升了整个互联网的灵活性、抗毁性和可扩展性。

7.1.18 什么是 ARP 协议?它的工作原理是什么?

(1)ARP(Address Resolution Protocol)地址解析协议,用于实现从 IP 地址到 MAC 地址的映射,即询问目标 IP 对应的 MAC 地址。

(2)工作原理:

首先,每个主机都会在自己的 ARP 缓冲区中建立一个 ARP 列表,以表示 IP 地址和 MAC 地址之间的对应关系。

当源主机要发送数据时,首先检查 ARP 列表中是否有对应 IP 地址的目的主机的 MAC 地址,如果有,则直接发送数据,如果没有,就向本网段的所有主机发送 ARP 数据包(广播),该数据包包括的内容有:源主机 IP 地址,源主机 MAC 地址,目的主机的 IP 地址。

当本网络的所有主机收到该 ARP 数据包时,首先检查数据包中的 IP 地址是否是自己的 IP 地址,如果不是,则忽略该数据包,如果是,则首先从数据包中取出源主机的 IP 和 MAC 地址写入到 ARP 列表中,如果已经存在,则覆盖,然后将自己的 MAC 地址写入 ARP 响应包中,告诉源主机自己是它想要找的 MAC 地址**(单播)**。

源主机收到 ARP 响应包后。将目的主机的 IP 和 MAC 地址写入 ARP 列表,并利用此信息发送数据。如果源主机一直没有收到 ARP 响应数据包,表示 ARP 查询失败。广播发送 ARP 请求,单播发送 ARP 响应。

  • 为什么 ARP 请求包必须是广播发送的,而 ARP 响应包却是单播发送的?

因为在发送 ARP 请求时,源主机只知道目的主机的 IP 地址,不知道其物理 MAC 地址,所以只能通过广播(将目标 MAC 地址设置为全 F:FF-FF-FF-FF-FF-FF)来让局域网内的所有设备都接收并解析这个请求。而目的主机收到请求后,已经从请求包的首部中获取了源主机的 IP 和 MAC 地址,因此在回复时可以直接利用已知地址点对点地单播发送响应包。这样既能精准送达,又能有效减少局域网内的无用广播流量,节省其他主机的 CPU 处理资源。

  • 如果源主机和目的主机不在同一个局域网(子网)内,ARP 协议还能直接获取目的主机的 MAC 地址吗?它的工作流程会有什么变化?

不能直接获取。ARP 协议的核心机制是局域网广播,而路由器(工作在网络层)在默认情况下会严格隔离广播域,因此 ARP 请求包无法跨越路由器传播。当源主机(通过子网掩码计算)发现目的 IP 不在同一个子网时,它根本不会去请求目的主机的 MAC 地址,而是会去请求自己配置的**默认网关(通常是连接本网段的路由器接口)**的 MAC 地址。源主机会把数据帧的目标 MAC 封装为网关的 MAC 地址,先将数据甩给路由器,后续如何跨网段寻址和转发则全部交给路由器的路由表来决定。

  • 在局域网安全中,经常提到的“ARP 欺骗(ARP Spoofing)”是什么原理?为什么 ARP 协议容易受到这种攻击?

ARP 欺骗利用了 ARP 协议设计之初的“无状态”和“绝对信任”缺陷。按照标准,主机在收到一个 ARP 响应包时,并不会去验证自己之前是否真的发送过对应的请求,而是会直接“盲目”地将包中的 IP 和 MAC 映射关系更新或覆盖到本地的 ARP 缓存表中。攻击者正是利用这一点,疯狂向局域网内(或特定主机)发送伪造的 ARP 响应包,声称自己就是网关(伪造网关的 IP 和攻击者的 MAC)。受害主机接收后更新了错误的 ARP 表,之后所有本该发往外网的数据都会被错误地发给攻击者的电脑,从而轻松实现流量窃听或中间人攻击。

7.1.19 传输层的作用是什么?

作用: 传输层为它上面的应用层提供通信服务

在 OSI 七层参考模型中,传输层是面向通信的最高层,也是用户功能的最低层。传输层两大重要的功能:复用和分用
复用: 在发送端,多个应用进程公用一个传输层;

分用: 在接收端,传输层会根据端口号将数据分派给不同的应用进程。

和网络层的区别:
网络层为不同主机提供通信服务,而传输层为不同主机的不同应用提供通信服务。网络层只对报文头部进行差错检测,而传输层对整个报文进行差错检测。

  • 怎么理解资料中提到的“复用和分用”?请结合 IP 地址和端口号具体说明一下。

网络层通过 IP 地址将数据包送达目的主机,但这只完成了“主机到主机”的交付。一台主机上通常同时运行着多个网络应用(如微信、浏览器)。传输层通过“端口号”来唯一标识主机内部的具体应用进程。“复用”是指发送方所有应用进程的数据都通过传输层封装,附加上各自的源端口号后汇聚交向下层;“分用”是指接收方传输层剥离首部后,根据目的端口号,将数据准确无误地分发给对应的应用进程。IP 地址加端口号(即套接字 Socket)共同构成了“端到端”通信的基础。

  • 资料提到“网络层只对报文头部进行差错检测,而传输层对整个报文进行差错检测”,为什么在网络体系结构中要进行这样不对称的设计?

这种设计完美体现了网络工程中效率与可靠性权衡的“端到端原则”。网络层(如 IPv4)的核心任务是快速路由转发,如果途经的每一台核心路由器都要对整个数据包的数据部分进行复杂的校验,会极大消耗路由器的计算资源并引发严重的网络延迟。因此,网络层仅校验首部以确保路由寻址不出错。而确保真正数据内容完整无误的繁重任务,则被推给了位于网络边缘的终端设备(传输层)来完成。这既保障了端到端的可靠性,又维持了网络核心的高速运转。

  • 为什么说传输层在 OSI 模型中是“面向通信的最高层,也是用户功能的最低层”?它起到了怎样的桥梁隔离作用?

在体系结构中,底部的物理层、链路层和网络层负责解决数据如何在复杂的网络节点间跳跃传输,属于底层“通信子网”;而上层的会话、表示和应用层则完全专注于处理业务逻辑和数据交互,属于高层“资源子网”。传输层恰好位于两者交界处,它利用底层提供的尽力而为的服务,通过各种控制机制(如重传、确认)将其改造成一个可靠的逻辑管道。它成功地对上层应用“屏蔽”了底层网络拓扑的变化、路由的拥塞甚至数据包的丢失,让上层开发者只需专注于用户功能,而无需关心底层的通信细节。

7.1.20 什么是 UDP(用户数据报协议)?

UDP 只在 IP 数据报服务的基础上增加了少量的功能:复用与分用、对整个报文的差错检测

①UDP 是无连接的: 通信前不需要建立连接,通信结束也无需释放连接。

②UDP 是不可靠的: 它是尽力而为交付,不能确保每一个数据报都送达。

③UDP 是面向报文的: 所谓『面向报文』就是指:UDP 数据传输的单位是报文,且不会对数据作任何“拆分”和“拼接”操作。
a.在发送端,应用程序给传输层的 UDP 什么样的报文,UDP 不会对数据进行切分,只增加一个 UDP 头并交给网络层。
b.在接收端,UDP 收到网络层的数据报后,去除 IP 数据报头部后递交给应用层,不会作任何拼接操作。

④UDP 没有拥塞控制: UDP 始终以恒定的速率发送数据,并不会根据网络拥塞情况对发送速率作调整。这种方式有利有弊。
a.弊端:网络拥塞时有些报文可能会丢失,因此 UDP 不可靠。
b.优点:有些使用场景允许报文丢失,如:直播、语音通话,但对实时性要求很高,此时 UDP 还是很用武之地的。

⑤UDP 支持一对一、一对多、多对多、多对一通信; 而 TCP 只支持一对一通信。

⑥UDP 首部开销小,只有 8 字节; 而 TCP 头部至少由 20 字节,相比于 TCP 要高效很多。

  • UDP 被称为是“面向报文”的,这与 TCP 的“面向字节流”在实际的应用程序开发中有什么显著的区别?

面向报文意味着 UDP 严格保留了应用层交下来的报文边界。应用层发多长的数据,UDP 就原封不动地封装多长(不拆分也不合并),接收端一次也只能完整地读取一个报文。这就要求应用层必须自己控制报文的大小,如果报文过大,传递给 IP 层后会导致底层的 IP 分片,反而降低网络传输效率。而 TCP 面向字节流,它不保留报文边界,应用程序可以毫无顾忌地把大块数据塞给 TCP,TCP 会根据当前网络情况和窗口大小自主进行切分和拼接,接收端读到的是一连串无边界的连续字节流。

  • 既然 UDP 没有拥塞控制会导致网络拥塞时丢包严重,为什么现在的视频直播和实时语音通话依然强烈倾向于使用 UDP 而不是 TCP?

实时音视频通信的核心诉求是“低延迟”而非“绝对可靠”。如果使用 TCP,当网络拥塞发生丢包时,TCP 严格的重传机制和拥塞控制(如急剧减小发送窗口)会导致后续的画面数据全部阻塞在发送端缓冲区等待,造成接收端画面严重卡顿和极高的延迟,这对于直播或通话体验是毁灭性的。而 UDP 没有这些历史包袱,它会以恒定速率持续发送,即使丢失几帧画面,也只会在接收端表现为一瞬间的马赛克或破音,但整体的实时对话连贯性得到了最大程度的保障。目前的工业界主流做法通常是在应用层基于 UDP 协议自己实现轻量级、定制化的丢包补偿机制(如 FEC 前向纠错)。

  • UDP 的首部只有区区 8 个字节,请问这 8 个字节具体包含了哪些字段?它是如何仅靠这 8 字节就实现传输层最基本的“复用与分用”功能的?

UDP 的 8 字节首部极其精简,仅仅包含四个字段,每个字段 2 个字节(16位):源端口号、目的端口号、UDP 长度和 UDP 检验和。UDP 正是通过“源端口”和“目的端口”这两个核心字段直接实现了传输层“复用与分用”的任务,确保接收端的操作系统能够将剥离了首部的纯数据,准确无误地分发给对应的应用程序进程。而“UDP 检验和”则提供了基础的端到端差错检测,一旦发现错误包就直接静默丢弃,非常高效。

7.1.21什么是点对点和端对端通信?

(1)点对点通信: OSI 七层模型中的物理层、数据链路层和网络层是面向网络通信的低三层,为网络环境中的主机提供点对点通信服务。这种通信是直接相连的节点对等实体的通信,它只提供一台机器到另一台机器之间的通信,不会涉及到程序或进程的概念。同时点到点通信并不能保证数据传输的可靠性,也不能说明源主机与目的主机之间是哪两个进程在通信。

(2)端对端通信: 端到端通信建立在点到点通信的基础上,是经过点到点通信更高一级的通信方式,完成应用程序(进程)之间的通信。OSI 参考模型中的传输层功能的核心是最终完成端到端的可靠连接。“端”是指用户应用程序的**“端口”**,端口号标识了应用层中不同的进程,多个进程的数据传递通过不同的端口完成。

从本质上说,端到端通信的通信子网为网络环境中的主机,而传输层为网络中的主机提供端到端的通信,即计算机程序到程序之间的通信,使源端和目的端主机上的对等实体可以进行会话。

  • 结合实际的网络访问过程(如用浏览器打开网页),通俗地解释一下“点到点”和“端到端”的具体分工是什么?

当你在浏览器中访问网页时,“点到点”通信(由网络层及以下负责)就像是邮政系统中的物流接力运输,它负责将包含网页请求的数据包从你的家用路由器,经过互联网中途的各个节点(运营商路由器),一跳一跳地最终准确送达到目标服务器的网卡上。而“端到端”通信(由传输层负责)就像是写信人和收信人之间的直接对话。它不在乎中间经过了多少个物流驿站,只负责确保你的“浏览器进程”(源端口)发送的请求,准确无误地交给了目标服务器上的“Web服务进程”(目的端口,如80或443),并负责处理丢包重传等可靠性校验。

  • 为什么说“端到端通信建立在点到点通信的基础上”?如果没有底层的点到点通信,端到端通信还能实现吗?

端到端通信在逻辑上看起来是两个应用程序进程直接在对话,但实际上由于这两个进程位于不同的物理机器上,它们之间并没有直接的物理连接线。传输层(端到端)只是在软件逻辑层面封装了端口号和控制信息,真正要把这些数据比特从源主机跨越千山万水搬运到目的主机,必须严格依赖下三层(点到点)提供的物理介质、链路寻址和网络路由服务。如果没有底层的点到点通信来打通物理拓扑,端到端的逻辑会话就成了空中楼阁,根本无法进行物理上的数据交互。

7.1.22 .TCP/IP 网络协议的核心是什么,如何引出 “over everything” 和 “everything over?

TCP/IP 协议的核心是 TCP、UDP 和 IP 协议

分层次画出具体的协议来表示 TCP/IP 协议族,它的特点是上下两头大而中间小:应用层和网络接口都有很多协议,而中间的 IP 层很小,上层的各种协议都向下汇聚到一个 IP 协议中。
这种很像沙漏计时器形状的 TCP/IP 协议族表明:TCP/IP 协议可以为各种各样的应用提供服务(everything over ip),同时 TCP/IP 协议也允许 IP 协议在各种各样的网络构成的互联网上运行(IP over everything)。

  • 为什么 TCP/IP 协议族被称为“沙漏模型”?中间最细的“腰”代表什么,它有什么极其重要的架构意义?

“沙漏模型”形象地描述了 TCP/IP 协议栈“上下两头大、中间细”的特点。沙漏最细的“腰”代表的是网络层的 IP 协议。它的架构意义在于起到了“通用适配器”的解耦作用。正因为网络层只有 IP 这一种核心协议,才使得上层无数种千奇百怪的应用(Everything)都能统一构建在 IP 之上,同时也使得 IP 协议能够透明地运行在底层无数种异构的物理网络(Everything)之上。

  • “IP over everything” 这一特性对全球互联网的快速普及和发展起到了什么决定性的作用?

“IP over everything” 意味着 IP 协议完全不关心底层的物理传输介质是什么。不论是早期的电话拨号线、同轴电缆,还是现在的光纤局域网、Wi-Fi 甚至卫星通信,只要底层的数据链路层能够封装和传输 IP 数据报,该网络就能无缝接入互联网。这一特性极其关键,它允许互联网在不需要推翻重建全球现有异构通信网络基础设施的前提下,实现了各个独立子网的互联互通,极大地降低了互联网扩张的物理成本。

7.1.23 TCP 三次握手和四次挥手的全过程.

image-20260326170132263

image-20260326170606843

在 TCP/IP 协议中,TCP 协议提供可靠的连接服务,采用三次握手建立一个连接。

第一次握手: 建立连接时,客户端发送 SYN 包(syn=x) 到服务器,并进入 SYN_SEND 状态,等待服务器确认;SYN:同步序列编号(Synchronize Sequence Numbers)

第二次握手: 服务器收到 SYN 包,必须确认客户的 SYN(ack=x+1),同时自己也发送一个 SYN 包(SYN=y),即 SYN+ACK 包,此时服务器进入 SYN_RECV 状态;

第三次握手: 客户端收到服务器的 SYN+ACK 包,向服务器发送确认包 ACK(ack=y+1),此包发送完毕,客户端和服务器进入 ESTABLISHED 状态,完成三次握手。完成三次握手,客户端与服务器开始传送数据。

握手过程中传送的包里不包含数据,三次握手完毕后,客户端与服务器才正式开始传送数据。理想状态下,TCP 连接一旦建立,在通信双方中的任何一方主动关闭连接之前,TCP 连接都将被一直保持下去。

四次挥手:
与建立连接的“三次握手”类似,断开一个 TCP 连接则需要“四次挥手”。

第一次挥手: 主动关闭方发送一个 FIN,用来关闭主动方到被动关闭方的数据传送,也就是主动关闭方告诉被动关闭方:我已经不会再给你发数据了(当然,在 fin 包之前发送出去的数据,如果没有收到对应的 ack 确认报文,主动关闭方依然会重发这些数据),但是,此时主动关闭方还可以接受数据

第二次挥手: 被动关闭方收到 FIN 包后,发送一个 ACK 给对方,确认序号为收到序号+1。此时被动关闭方进入 CLOSE-WAIT 状态,主动关闭方接收到确认后进入 FIN-WAIT-2 状态。(注:TCP是全双工的,此时进入“半关闭”状态)

第三次挥手: 被动关闭方发送一个 FIN,用来关闭被动关闭方到主动关闭方的数据传送,也就是告诉主动关闭方,我的数据也发送完了,不会再给你发数据了

第四次挥手: 主动关闭方收到 FIN 后,发送一个 ACK 给被动关闭方,确认序号为收到序号+1。至此,被动关闭方进入 CLOSED 状态。而主动关闭方则进入 TIME-WAIT 状态,必须经过等待 2MSL (最大报文生存时间)后,才最终完成四次挥手,进入 CLOSED 状态。

  • 为什么 TCP 建立连接需要三次握手,而不是两次或者四次?

如果只有两次握手,当客户端发送的第一个 SYN 请求在网络中滞留,客户端超时重传了第二个 SYN 并完成了后续通信。但那个滞留的 SYN 后来又到达了服务器,服务器会误以为是一个新连接,直接发送 SYN+ACK 并进入 ESTABLISHED 状态,白白浪费服务器的资源。三次握手就是为了防止这种“已失效的连接请求报文段”突然又传送到了服务端而产生错误。至于四次,由于服务端的 SYN 和 ACK 可以合并在一个包里发送(即第二次握手),所以没必要拆分成四步,三次刚好能验证双方的收发能力均正常。

  • 请简述 TCP 断开连接为什么需要四次挥手?不能像建立连接那样合并为三次吗?

TCP 断开连接需要四次挥手是因为 TCP 是全双工通信的。当客户端发送 FIN 包(第一次挥手)表示自己没有数据要发送了,服务器收到后回复 ACK(第二次挥手),此时连接进入“半关闭”状态,即客户端到服务器方向断开了,但服务器如果还有数据没发完,仍然可以继续发送。直到服务器的数据也发完,它才会发自己的 FIN 包(第三次挥手),客户端收到后回复 ACK(第四次挥手)。因为服务器的 ACK 和 FIN 通常不能合并发送(中间要留时间发剩余数据),所以需要四步。

  • 在三次握手的过程中,什么是 SYN 洪泛攻击(SYN Flood)?在服务器端如何进行防御?

SYN 洪泛攻击是一种典型的 DDoS 攻击。攻击者伪造大量的虚假源 IP 地址,向服务器疯狂发送 SYN 报文(第一次握手)。服务器收到后回复 SYN+ACK 并进入 SYN_RECV 状态,将连接放入半连接队列。由于源 IP 是伪造的,服务器永远等不到第三次握手的 ACK 包,导致半连接队列被快速耗尽占满,从而无法处理正常用户的连接请求。常见的防御手段包括缩短 SYN Timeout 时间、增加半连接队列最大长度,或者启用 SYN Cookie 技术(不在收到 SYN 时立即分配内存资源,而是将状态信息编码进序列号中返回)。

  • 为什么主动关闭方在发送完最后一个 ACK 后,必须进入 TIME-WAIT 状态并等待 2MSL 的时间,而不是直接进入 CLOSED 状态?

这是成电通院面试极高频的考点,主要有两个核心原因。第一,为了保证 TCP 全双工连接的可靠释放。如果主动方第四次挥手发送的 ACK 报文在网络中丢失,被动方会超时重传第三次挥手的 FIN 报文。如果主动方不等待直接关闭,将无法回复重传的 FIN,导致被动方无法正常进入 CLOSED 状态。等待 2MSL 确保了即使 ACK 丢失,主动方也有时间接收重传的 FIN 并再次发送 ACK。第二,为了防止“已失效的连接请求报文段”出现在本连接中。等待 2MSL 可以保证本次连接持续的时间内所产生的所有报文段都从网络中彻底消失,从而绝对避免这些旧报文在未来端口复用时,错误地混入并干扰新的 TCP 连接。

  • 如果在一台生产环境的服务器上通过命令排查,发现有大量的 TCP 连接长时间处于 CLOSE-WAIT 状态,这通常意味着什么问题?应该从哪个方向去解决?

这通常意味着服务器端的应用程序代码存在严重的逻辑缺陷。当服务器(被动关闭方)收到客户端发来的 FIN 请求并由操作系统内核自动回复了 ACK 后,连接就会进入 CLOSE-WAIT 状态。此时,操作系统正在等待上层应用程序完成善后工作并主动调用 close() 函数来发送自己的 FIN 报文(第三次挥手)。出现大量 CLOSE-WAIT 状态说明服务器的底层网络栈没问题,但运行在上面的应用程序却迟迟没有调用或未能执行到关闭连接的代码(可能是由于死锁、线程阻塞、或者高并发下数据库查询过慢导致代码卡死)。长此以往会耗尽服务器的可用端口和文件描述符,导致无法接收新的连接请求。

7.1.24 为什么说 TCP 协议传输是可靠的?

TCP 的可靠性表现在:它向应用层提供的数据是无差错的有序的无丢失的,简单的说就是:TCP 最终递交给应用层的数据和发送者发送的数据是一模一样的。TCP 采用了流量控制拥塞控制连续 ARQ 等技术来保证它的可靠性。

PS:网络层传输的数据单元为『数据报』,传输层的数据单元为『报文段』,但为了方便起见,可以统称为『分组』。

  • TCP 是如何通过连续 ARQ 协议和机制来保证数据传输的无差错和不丢失的?
    TCP 为发送的每一个字节都分配了一个序列号(Sequence Number)。接收端收到报文段后,会利用首部中的校验和进行差错检测,然后根据序列号对失序的数据进行重新排序,并发送确认报文(ACK)告知发送端已经成功接收的数据范围。如果发送端在规定的超时时间内没有收到某个报文段的 ACK,就会触发超时重传机制,将认为丢失的报文段重新发送。通过连续 ARQ 配合滑动窗口机制,TCP 既保证了数据的绝对完整性,又克服了停止等待协议效率低下的问题。

  • 在保证 TCP 可靠性的机制中,流量控制和拥塞控制有什么本质的区别?它们分别解决的是什么层面的问题?

流量控制是“端到端”的控制机制,主要解决的是接收端处理能力匹配的问题。它通过 TCP 报文首部的“窗口大小(Window Size)”字段,动态告知发送端自己接收缓存的剩余空间,防止发送方发送过快导致接收方缓存溢出而丢包。而拥塞控制是“全局性”的控制机制,主要解决的是网络中间链路处理能力不足的问题。它通过慢开始、拥塞避免、快重传和快恢复等算法,动态感知网络中路由器和链路的整体拥挤程度,主动降低发送速率,防止整个网络因为过载而陷入瘫痪。

7.1.25 TCP 的拥塞控制与流量控制的功能和区别?

(1)拥塞控制: 防止过多的数据注入到网络中,这样可以使网络中的路由器或链路不致过载。拥塞控制所要做的都有一个前提:网络能够承受现有的网络负荷。拥塞控制是一个全局性的过程,涉及到所有的主机、路由器,以及与降低网络传输性能有关的所有因素。

(2)流量控制: 指点对点通信量的控制,是端到端的问题。流量控制所要做的就是抑制发送端发送数据的速率,以便使接收端来得及接收

  • TCP 是通过什么核心机制来实现流量控制的?如果接收端的应用进程一直不读取数据导致缓存满了,发送端会如何处理?

TCP 主要通过滑动窗口机制来实现流量控制。 在 TCP 报文段的首部有一个“窗口 (rwnd, Receiver Window)”字段,接收端通过这个字段实时向发送端通告自己当前可用的接收缓存空间大小。如果接收端缓存满了,它会向发送端发送一个零窗口(rwnd=0)的通告。此时发送端会暂停发送业务数据,并启动一个持续计时器,定期发送只有 1 字节数据的“零窗口探测报文”,直到接收端处理完数据并回复非零的窗口值为止,以此打破可能出现的死锁局面。

  • 拥塞控制作为一个“全局性”的过程,TCP 发送端其实并不能直接看到路由器内部的状态,那它是如何感知到网络发生拥塞的?它主要采用了哪几种经典的拥塞控制算法?

TCP 发送端只能通过推断来感知拥塞:它通常将丢包(即触发了超时重传,或者收到了连续三个重复的 ACK)作为网络中间链路发生拥塞的标志。为了动态调整注入网络的数据量,发送端在内部维护了一个拥塞窗口(cwnd)变量。TCP 经典的拥塞控制过程主要包含四大算法:慢开始(拥塞窗口按指数级快速增长以探测带宽)、拥塞避免(达到门限后按线性加法缓慢增长)、快重传(收到三个重复 ACK 时不等待超时直接重传)和快恢复(丢包后不退回起点,而是从新的门限值开始平滑恢复)。 ```

7.1.26 比较一下 TCP 与 UDP 协议?

TCP 与 UDP 都是传输层的协议。

(1) TCP 提供面向连接的、可靠的数据流传输,而 UDP 提供的是非面向连接的、不可靠的数据流传输。
(2) TCP 传输单位称为 TCP 报文段,UDP 传输单位称为用户数据报
(3) TCP 注重数据安全性,UDP 数据传输快,因为不需要连接等待,少了许多操作,但是其安全性却一般。

TCP 对应的协议和 UDP 对应的协议

TCP 对应的协议:
①FTP: 定义了文件传输协议,使用 21 端口
②Telnet: 一种用于远程登陆的端口,使用 23 端口,用户可以以自己的身份远程连接到计算机上,可提供基于 DOS 模式下的通信服务。
③SMTP: 邮件传送协议,用于发送邮件。服务器开放的是 25 号端口
④POP3: 它是和 SMTP 对应,POP3 用于接收邮件。POP3 协议所用的是 110 端口
⑤HTTP: 是从 Web 服务器传输超文本到本地浏览器的传送协议。

UDP 对应的协议:
①DNS: 用于域名解析服务,将域名地址转换为 IP 地址。DNS 用的是 53 号端口
②SNMP: 简单网络管理协议,使用 161 号端口,是用来管理网络设备的。由于网络设备很多,无连接的服务就体现出其优势。
③TFTP: (Trivial File Transfer Protocol),简单文件传输协议,该协议在熟知端口 69 上使用 UDP 服务。

  • 为什么 HTTP、FTP 等应用层协议选择使用 TCP,而 DNS、SNMP 通常选择使用 UDP?

HTTP 和 FTP 需要传输网页结构数据或文件,这些场景对数据的完整性和准确性要求极高,绝不能出现乱序、内容错误或丢包,因此必须依赖 TCP 提供的可靠连接服务和校验重传机制。而 DNS 查询通常只包含一个简短的请求包和一个应答包,即使丢失,客户端只需简单重发即可;SNMP 需要轮询大量分布在各处的网络设备,如果每个设备都使用 TCP 建立三次握手,会带来巨大的连接开销。因此,它们选择无连接的 UDP,以追求极高的网络通信效率和极低的延迟。

  • 资料中提到 DNS 使用的是 UDP 的 53 号端口,但在实际网络面试中经常会被追问:DNS 协议在某些特定情况下也会使用 TCP,请问是哪些情况?

这是一个非常经典的面试陷阱题。DNS 在进行常规的客户端域名解析查询时,为了速度快、开销小,默认使用的是 UDP 的 53 端口。但是,当 DNS 服务器之间进行“区域传送”(即主域名服务器向辅助域名服务器同步大规模的 DNS 记录数据)时,由于数据量巨大,往往远超 UDP 报文的长度限制,为了保证这些核心配置数据的绝对可靠和完整传输,DNS 协议会切换到 TCP 的 53 端口来进行长连接通信。另外,如果客户端的 UDP DNS 响应报文超过了 512 字节被截断,客户端也会使用 TCP 重新发起查询。

  • FTP 和 TFTP 都是文件传输协议,但它们底层分别基于 TCP 和 UDP。在实际工程或网络运维中,它们的应用场景有什么本质区别?

FTP 基于 TCP,是一个功能极其完整的“重量级”协议。它拥有完善的用户账户认证、目录权限管理机制,并且非常特殊地使用了两个独立的端口(控制端口 21 和数据端口 20)进行交互,适合在复杂的广域网上进行大文件、高安全性的传输。而 TFTP 基于 UDP,是一个极度精简的“轻量级”协议。它没有任何复杂的身份认证和目录控制逻辑,只提供最基础的文件读写功能。因此,TFTP 的代码实现可以非常小巧,通常被固化在硬件 ROM 中,主要用于局域网内无盘工作站启动时下载系统镜像(如 PXE 启动),或者给网络设备(如交换机、路由器)升级备份配置文件等对安全性要求不高、但要求协议本身极简的底层场景。

7.1.27 DNS 域名系统,简单描述其工作原理

当 DNS 客户机需要在程序中使用名称时,它会查询 DNS 服务器来解析该名称。客户机发送的每条查询信息包括三条信息:指定的 DNS 域名,指定的查询类型,DNS 域名的指定类别。基于 UDP 服务,端口 53,该应用一般不直接为用户使用,而是为其他应用服务,如 HTTP, SMTP 等在其中需要完成主机名到 IP 地址的转换

  • DNS 解析过程中的“递归查询”和“迭代查询”在工作机制上有什么本质的区别?

递归查询是指如果本地 DNS 服务器不知道被查询域名的 IP,它会代替客户端继续向根域名服务器发出请求,相当于“替别人问到底”,最终把查到的结果直接返回给客户端。而迭代查询是指当根域名或顶级域名服务器收到请求时,如果它不知道最终的 IP 地址,它不会代为查询,而是返回一个能解答该查询的下一级 DNS 服务器的 IP 地址,让本地 DNS 服务器自己去继续追问,相当于“指路让你自己去问”。在实际应用中,客户端到本地 DNS 服务器通常采用递归查询,而本地 DNS 服务器向全球各级权威服务器的查询通常采用迭代查询。

  • 为什么我们在开发网络应用(如 HTTP 或 SMTP)时必须依赖 DNS 服务?如果没有 DNS,底层的网络通信还能正常进行吗?

我们必须依赖 DNS 是因为人类的记忆习惯和计算机的寻址逻辑存在天然差异。人类更容易记忆具有语义的字符型域名,而计算机底层的网络层(IP协议)和路由器只能识别和处理纯数字的 IP 地址。DNS 充当了互联网的“分布式电话簿”,在应用层透明地完成了这两者之间的翻译转换。如果没有 DNS,底层的 TCP/IP 网络通信依然可以完全正常进行(点对点的数据包转发不受任何影响),但用户和应用程序开发者将不得不直接面对并硬编码复杂且易变的 IP 地址,这会极大降低互联网络的使用效率和系统的可维护性。

7.1.28 DNS的递归查询与迭代查询分别是什么

DNS(Domain Name System 域名系统)
(1)递归查询: 一般客户机和服务器之间属递归查询,即当客户机向 DNS 服务器发出请求后,若 DNS 服务器本身不能解析,则会向另外的 DNS 服务器发出查询请求,得到结果后转交给客户机

(2)迭代查询(反复查询): 一般 DNS 服务器之间属迭代查询,如:若 DNS2 不能响应 DNS1 的请求,则它会将 DNS3 的 IP 给 DNS1 (注:原图表述略有歧义,实际是将被请求方知道的下一个 DNS 服务器地址返回给请求方),以便其再向 DNS3 发出请求。
举例: 比如学生问老师一个问题,王老师告诉他答案,这之间的叫递归查询。这期间也许王老师也不会,这时王老师问张老师,这之间的查询叫迭代查询。

  • 资料中用来比喻迭代查询的例子(“王老师问张老师”)其实在逻辑上容易引起误解。在面试中,你能否用更精准的方式,重新用这个场景来对比“递归”和“迭代”?

面试时一定要注意纠正这个常见的比喻误区。递归查询就像是:学生问王老师问题,王老师不知道,但王老师说“你等着,我去帮你问”,然后王老师自己跑去问张老师,得到答案后再回来告诉学生。在这个过程中,学生只发起了“一次”请求,剩下的全由王老师(本地 DNS)代劳。而迭代查询则是:学生问王老师,王老师说“我不知道答案,但张老师可能知道,这是张老师的办公室地址,你自己去问他”。于是学生(本地 DNS)只好拿着新地址,自己再次出发去向张老师发起请求。核心区别在于:到底是谁在承担“继续追问”的责任。

  • 在实际的全球互联网解析架构中,为什么不规定所有服务器之间都使用“递归查询”以方便客户端?这种“局部递归,全局迭代”的设计有什么深远影响?

这是计算机网络中极其经典的分布式系统负载均衡设计思想。如果全球的 DNS 解析全程使用递归查询,那么位于架构最顶端的“根域名服务器(Root DNS)”将会承受灾难性的负担。它不仅要接收全球海量的查询请求,还要替成千上万的下级服务器去寻找最终答案并维持漫长的等待状态(保持连接),这会瞬间耗尽根服务器的内存和并发资源。采用现在的设计,客户端把压力转嫁给本地 DNS(通常是性能强悍的运营商服务器如 114.114.114.114),而本地 DNS 向根服务器查询时只能使用“迭代”。根服务器只负责“指路”,立刻释放资源,绝不代劳。这种分工极大地保护了互联网核心基础设施,保证了全球域名解析系统的高可用性和极低的响应延迟。

7.1.29 在浏览器中输入 http://www.baidu.com/后执行后发生了什么?

(1)客户端浏览器通过 DNS 解析http://www.baidu.com/ 的 IP 地址 220.181.27.48,通过这个 IP 地址找到客户端到服务器的路径。客户端浏览器发起一个 HTTP 会话到 220.181.27.48,然后通过 TCP 进行封装数据包,输入到网络层。

(2)在客户端的传输层,把 HTTP 会话请求分成报文段,添加源和目的端口,如服务器使用 80 端口监听客户端的请求,客户端由系统随机选择一个端口如 5000,与服务器进行交换,服务器把相应的请求返回给客户端的 5000 端口。然后使用 IP 层的 IP 地址查找目的端。

(3)客户端的网络层不用关心应用层或者传输层的东西,主要做的是通过查找路由表确定如何到达服务器,期间可能经过多个路由器,这些都是由路由器来完成的工作,无非就是通过查找路由表决定通过哪个路径到达服务器。

(4)客户端的链路层,包通过链路层发送到路由器,通过邻居协议查找给定 IP 地址的 MAC 地址,然后发送 ARP 请求查找目的地址,如果得到回应后就可以使用 ARP 的请求应答交换的 IP 数据包现在就可以传输了,然后发送 IP 数据包到达服务器的地址。

  • 在第(4)步链路层使用 ARP 协议时,客户端发送的 ARP 请求是在直接查询百度的服务器(220.181.27.48)的 MAC 地址吗?为什么?

不是。这是一个非常经典的面试陷阱。因为百度的服务器位于公网,与你的客户端电脑绝不可能在同一个局域网(网段)内。ARP 广播请求是无法跨越路由器的。客户端的网络层在查路由表时会发现目标 IP 不在本地网段,因此它实际需要把数据包先发给本地的默认网关(通常是你的家用路由器)。所以,此时发送的 ARP 请求,实际上是在查询本地网关的 MAC 地址。数据包的 MAC 头部会被封装上网关的 MAC 地址,甩给网关后,后续的跨网段寻址才由各级路由器接力完成。

  • 从应用层到链路层的数据封装过程中,各层分别添加了什么头部信息?这些头部信息在接收端(服务器)是如何被处理的?

在发送端,数据经历了自上而下的封装过程:传输层(TCP)添加了包含源端口和目的端口的 TCP 头部,实现了进程到进程的定位;网络层(IP)添加了包含源 IP 和目的 IP 的 IP 头部,实现了端到端的逻辑路由寻址;数据链路层(如以太网)添加了包含源 MAC 和目的 MAC 的 MAC 头部(以及帧尾的 FCS 校验),实现了局域网内相邻节点的物理传输。在接收端(百度服务器),则是一个自下而上的“解封装”过程(分用):网卡先剥离 MAC 头部并校验;网络层检查 IP 头部确认是发给自己的并剥离 IP 头部;传输层根据 TCP 头部中的目的端口(如80),将剥离了所有底层头部的纯 HTTP 请求数据,准确无误地交给了监听在 80 端口的 Web 服务进程。

7.1.30 面向连接和非面向连接的服务的特点是什么?

面向连接的服务,通信双方在进行通信之前,要先在双方建立起一个完整的可以彼此沟通的通道,在通信过程中,整个连接的情况一直可以被实时的监控和管理

非面向连接的服务,不需要预先建立一个联络两个通信节点的连接,需要通信的时候,发送节点就可以往网络上发送信息,让信息自主地在网络上去传,一般在传输的过程中不再加以监控

  • 在实际的网络协议栈中,传输层的 TCP 和 UDP 分别对应哪种服务?面向连接的服务是如何实现“实时监控和管理”的?

传输层的 TCP 对应的是面向连接的服务,而 UDP 对应的是非面向连接的服务。TCP 的“实时监控和管理”主要体现在它不仅需要通过三次握手建立逻辑通道,而且在数据传输过程中,会通过序列号、确认应答(ACK)、超时重传机制来监控每一个报文段是否安全送达。同时,它还会利用滑动窗口和拥塞控制算法实时评估接收端的处理能力和整个网络的拥塞状况,动态调整发送速率。而 UDP 则完全没有这些监控机制,只负责尽力而为地发送。

  • 既然非面向连接的服务(如 UDP 或 IP 层协议)不监控传输过程,无法保证数据的可靠送达,为什么现代网络架构中仍然大量使用它们?

这主要是为了权衡通信的效率与灵活性。非面向连接的服务省去了建立和拆除连接的繁琐过程,也没有复杂的确认和重传机制带来的额外头部和时间开销,因此它的处理速度极快、延迟极低,非常适合对实时性要求极高但对少量丢包不敏感的应用(如语音通话、视频会议)。此外,底层网络(如 IP 层)采用非面向连接的“尽力而为”服务,可以使得网络核心路由器的工作变得极其简单高效(只负责看目标地址转发),将复杂的可靠性保障任务全部交给边缘主机的传输层(如 TCP)去处理,这极大地增强了整个互联网的扩展性和鲁棒性。

7.1.31 P2P 网络编程的特点是什么?

P2P(对等网络,是一种有别于传统 C/S 客户/服务器式的分布式网络) 直接将人们联系起来,让人们通过互联网直接交互。P2P 使得网络上的沟通变得容易、更直接共享和交互,真正地消除中间商。P2P 就是人可以直接连接到其他用户的计算机、交换文件,而不是像过去那样连接到服务器去浏览与下载。

在所有的 P2P 应用中,对等节点首先必须能够彼此发现对方,一旦能够找到提供 P2P 服务的计算机节点,就可以直接与它通信。例如,计算机 A 要下载某个 MP3 文件 x,首先需要发现拥有文件 x 的 P2P 计算机节点,而后直接和该计算机节点通信,完成文件传输。

P2P 应用程序应该包括三个阶段:发现,连接和通信。发现阶段负责定位对等节点的网络位置;连接阶段负责在对等节点之间建立网络连接;而通信阶段负责在对等节点传输数据。

  • 相比于传统的 C/S(客户/服务器)架构,P2P 架构在面对海量用户同时下载同一个热门文件(如大型游戏更新)时,为什么具有极大的优势?

传统 C/S 架构中,所有客户端都向中心服务器请求数据。当大量用户并发访问时,服务器的出口带宽和处理能力会迅速成为瓶颈,导致下载速度极慢甚至服务器崩溃。而在 P2P 架构(如 BitTorrent 协议)中,每一个下载文件的节点同时也是一个提供文件的“服务器”。当一个节点下载了文件的某个数据块后,它会立刻将这个数据块上传给其他需要的节点。这意味着网络中的节点越多,系统整体的上传带宽和分发能力就越强,完美解决了高并发带来的性能瓶颈问题。

  • 既然纯正的 P2P 网络真正消除了中间商(中心服务器),那么在“发现”阶段,新加入的节点是如何在浩瀚的互联网中找到拥有目标文件的其他对等节点的?

这是一个非常经典的技术演进问题。早期的 P2P 系统(如 Napster)其实是混合式的,它依然依赖一台中心化的目录服务器来记录哪个节点拥有什么文件(仅“发现”阶段中心化,数据传输 P2P)。后来的纯分布式 P2P 系统(如早期的 Gnutella)采用了“泛洪广播”的机制,节点向相邻节点群发查询请求,但这种方式会产生海量的无效网络流量。现代主流的 P2P 网络(如现在的 BT 下载)普遍采用了 DHT(分布式哈希表) 技术。它通过特定的算法将所有节点和文件的标识映射到一个巨大的逻辑环上,每个节点只负责维护一部分路由信息,从而实现了既不需要中心服务器,又能极其高效、精准地定位并发现目标节点。

7.1.32什么是 IP 地址?它有哪些分类?

IP 地址是 IP 协议提供的一种统一的地址格式,它为互联网上的每一个网络和每一台主机分配一个逻辑地址,以此来屏蔽物理地址的差异

A 类地址: 以 0 开头,第一个字节范围:0~126(1.0.0.0-126.255.255.255);
B 类地址: 以 10 开头,第一个字节范围:128~191(128.0.0.0-191.255.255.255);
C 类地址: 以 110 开头,第一个字节范围:192~223(192.0.0.0-223.255.255.255);

10.0.0.0-10.255.255.255; 172.16.0.0-172.31.255.255; 192.168.0.0-192.168.255.255。(Internet 上保留地址用于内部)

IP 地址与子网掩码相与得到网络号

  • 资料中提到了 A 类地址的第一个字节范围是 0~126,为什么跳过了 127?127 开头的 IP 地址在计算机网络中有什么特殊用途?

127 开头的 IP 地址(最典型的是 127.0.0.1)被保留作为环回地址(Loopback Address),专门用于主机的本地软件环回测试以及本机的进程间通信。发往该地址的数据包绝不会被传送到网络接口的物理链路上,而是直接在操作系统的网络协议栈内部被“短路”环回,交给本地的应用程序。这在进行网络服务器软件的本地调试时非常关键。

  • 资料中列出了三段“Internet 上保留地址用于内部”(即私有 IP 地址),为什么我们需要在 IPv4 体系中划分出私有地址?这些私有地址的主机是如何与公网进行通信的?

划分私有 IP 地址的根本原因是缓解 IPv4 地址空间枯竭的问题。由于 IPv4 的 32 位地址总数有限,不可能为全球每一台连网的设备都分配一个独一无二的公网 IP。私有地址允许任何家庭、企业或学校在自己的局域网内部自由且重复地使用这些地址,无需向互联网管理机构申请,从而极大地节约了公网 IP 资源。当这些使用私有地址的内部主机需要访问公网(如浏览百度网页)时,必须在网络的边界路由器上使用 NAT(网络地址转换) 技术,将内部的私网 IP 和端口,动态映射转换成路由器的一个合法公网 IP 和新端口,以此身份在公网上进行通信。

  • 根据资料,IP 地址与子网掩码进行二进制的“与”运算可以得到网络号。那么在实际的网络核心层路由转发中,路由器为什么强烈依赖“网络号”进行寻址,而不是直接比对完整的 IP 地址?

路由器使用网络号来进行寻址,是为了极大压缩路由表的规模并显著提高查表转发的效率。互联网上连接着几十亿台终端主机,如果核心路由器要记录每一台具体主机的路径,路由表将庞大到内存无法容纳,且查询速度极慢。通过子网掩码提取出网络号,路由器在宏观上只需要知道目标主机所属的那个子网网段在哪个方向,将数据包一跳一跳转发到目标子网的边缘路由器即可。至于到达目标子网后,如何找到那台特定的主机,则是该子网内部设备的任务。

7.1.33 IPv4 和 IPv6 的区别?如何实现二者的互通?

(1) IPv4 中规定 IP 地址长度为 32,即有 23212^{32}-1 个地址;而 IPv6 中 IP 地址的长度为 128,即有 212812^{128}-1 个地址。

(2)拥有更小的路由表: IPv6 的地址分配一开始就遵循聚类(Aggregation) 的原则,这使得路由器能在路由表中用一条记录(Entry)表示一片子网,大大减小了路由器中路由表的长度,提高了路由器转发数据包的速度。

(3)增强的组播(Multicast)支持以及对流的支持(Flow-control): 这使得网络上的多媒体应用有了长足发展的机会,为服务质量(QoS) 控制提供了良好的网络平台。

(4)加入了对自动配置(Auto-configuration)的支持: 这是对 DHCP 协议的改进和扩展,使得网络(尤其是局域网)的管理更加方便和快捷。

(5)更高的安全性: 在使用 IPv6 网络中用户可以对网络层的数据进行加密并对 IP 报文进行校验,这极大的增强了网络安全。

  • 资料标题提到了“如何实现二者的互通?”,但正文并未解答。在实际网络过渡期中,主要有哪几种核心技术来实现 IPv4 和 IPv6 的互通互访?

主要有三种经典的过渡技术:双协议栈技术(网络节点同时运行 IPv4 和 IPv6 两套完整的协议栈,根据 DNS 解析结果自动选择使用哪种协议)、隧道技术(将 IPv6 数据包作为载荷封装在 IPv4 数据包中,穿越 IPv4 核心骨干网,实现 IPv6 孤岛之间的互连)、以及 NAT-PT(网络地址转换-协议转换)技术(在边界网关路由器上对 IPv4 和 IPv6 的报文头部和地址进行深度的翻译和直接转换,使得纯 IPv4 节点和纯 IPv6 节点能够无缝通信)。

  • 资料中提到 IPv6 拥有更小的路由表是因为“聚类(Aggregation)”原则。为什么 IPv4 时代很难做到彻底的地址聚类,而 IPv6 却能轻易做到?

IPv4 地址由于设计年代较早,早期的地址分配(如 A、B、C 类)非常随意且碎片化,导致全球路由表充斥着大量不连续的细碎网段(缺乏层次性),极难进行有效的路由汇总。而 IPv6 充分吸取了历史教训,它的地址空间极其巨大,在分配之初就严格采用了层次化的地址结构(例如:全球路由前缀 + 子网 ID + 接口标识符)。这种高度结构化的分配方式允许骨干网路由器使用超级简单的汇总路由前缀来覆盖庞大的地理区域或跨国运营商网络,从而极大地精简了核心路由表的体积,提升了查表效率。

7.1.34 结合 Internet,说说有连接服务和无连接的服务?

①面向连接服务具有连接建立、数据传输和连接释放这三个阶段。面向连接服务是在数据交换之前,必须先建立连接。当数据交换结束后,则必须终止这个连接。在传送数据时是按序传送的,是可靠交付。面向连接服务比较适合于在一定期间内要向同一目的地发送许多报文的情况。
②无连接服务,两个实体之间的通信不需要先建立好一个连接,因此其下层的有关资源不需要事先进行预定保留。这些资源将在数据传输时动态地进行分配。无连接服务的优点是灵活方便和比较迅速。但无连接服务不能防止报文的丢失、重复或失序。是一种不可靠的服务。这种服务常被描述为**“尽最大努力交付”**。

  • 在 Internet 的 TCP/IP 协议栈中,哪两个传输层协议最典型地代表了“有连接服务”和“无连接服务”?它们在端系统的状态资源消耗上有什么本质不同?

TCP(传输控制协议)代表有连接服务,UDP(用户数据报协议)代表无连接服务。在端系统的状态资源消耗上,TCP 在通信前需要通过三次握手建立逻辑连接,并在整个通信过程中持续维护复杂的连接状态表(包括发送/接收窗口大小、序列号、拥塞控制变量、重传定时器等),这需要消耗较多的内存和 CPU 资源。而 UDP 是无连接的,发送数据前不需要预留任何状态资源,各个数据包独立封装转发,因此它对端系统的资源开销极小,能够非常轻量级地支持海量并发的数据发送。

  • 资料中提到无连接服务常被描述为“尽最大努力交付(Best-Effort Delivery)”,Internet 的网络层(IP协议)正是采用的这种服务模型。结合网络架构体系,这种模型有什么深远的优势?

IP 层采用“尽最大努力交付”的无连接服务模型,其深远的架构优势在于“保持网络核心的绝对简单”。因为核心路由器不需要像早期的电话交换网那样去维护复杂的连接状态,也不需要处理包确认、超时重传等繁琐的可靠性机制,它只需根据目的 IP 地址尽最快速度查表转发即可。这种极其简单、无状态的网络核心,使得 Internet 能够以极低的成本实现超高吞吐量的数据转发,并且具有极强的网络抗毁性(某台路由器宕机不会导致大规模连接状态丢失)。所有复杂的可靠性保障任务都被巧妙地推卸到了网络的边缘(即主机的传输层 TCP 协议)去解决。

7.1.35 子网掩码和默认网关的作用是什么?

子网掩码只有一个作用,就是将某个 IP 地址划分成网络地址主机地址两部分。子网掩码不能单独存在,它必须结合 IP 地址一起使用。

默认网关的作用:因为通常来说,一个稍微复杂点儿的网络不可能只有一个子网,而是由多个不同子网组成的。经过不同子网间的网络通讯必须要经过网关。网关的作用就是起到信息转发作用。

  • 子网掩码在实际的按位运算中是如何工作的?如果一个 C 类 IP 地址的子网掩码被设置为 255.255.255.128,这意味着该网络被划分成了几个子网?

主机在判断目标 IP 是否与自己同处一个子网时,会将自己的 IP 和目标 IP 分别与子网掩码进行二进制的“按位与”运算。如果得到的网络地址相同,则在同一子网,直接通过数据链路层进行 MAC 寻址通信;如果不相同,则必须将数据包发给默认网关。标准的 C 类地址子网掩码是 255.255.255.0,将其最后一位改为 128 (即二进制的 10000000),意味着向主机位借了 1 位作为子网位。因此,该网络被划分成了 21=22^1 = 2 个子网,每个子网最多包含 126 个可用主机地址。

  • 如果一台主机的 IP 地址和子网掩码配置正确,但“默认网关”配置错误或为空,这台主机还能正常上网吗?它能和哪些设备正常通信?

这台主机无法访问互联网(即无法跨网段通信)。因为当它尝试访问外网目标(如公网服务器)时,底层网络协议栈计算出目标 IP 不在本地网段后,会试图将数据包交给默认网关去路由转发。由于网关配置错误或缺失,数据包找不到出口会被直接丢弃,导致“无法上网”。但是,它仍然可以和同一局域网(同一子网)内的其他主机进行完全正常的通信(例如局域网内的文件共享、打印机连接),因为同网段通信不需要经过网关,直接通过 ARP 协议获取对方的 MAC 地址并在局域网交换机层面完成数据帧的转发即可。

7.1.36 通信分为哪两种?

同步通信是一种比特同步通信技术,要求发收双方具有同频同相的同步时钟信号,只需在传送报文的最前面附加特定的同步字符,使发收双方建立同步,此后便在同步时钟的控制下逐位发送/接收。

异步通信在发送字符时,所发送的字符之间的时隙可以是任意的。但是接收端必须时刻做好接收的准备(如果接收端主机的电源都没有加上,那么发送端发送字符就没有意义,因为接收端根本无法接收)。发送端可以在任意时刻开始发送字符,因此必须在每一个字符的开始和结束的地方加上标志,即加上开始位和停止位,以便使接收端能够正确地将每一个字符接收下来。

  • 同步通信和异步通信在实际应用场景(如计算机内部总线与外部设备通信)中各有什么优缺点?在通信原理的考核中,这两者的效率差异主要体现在哪里?

异步通信的硬件实现非常简单,不需要在收发双方之间传输全局的时钟信号,非常适合低速、间歇性收发或两端设备时钟难以强行统一的场景(如传统的 RS-232 串口)。但它的致命缺点是传输效率较低,因为每一个字符(通常为 8 位数据)都必须强行捆绑上起始位和停止位,带来了不可忽视的额外信道开销。同步通信则完全去除了这些字符级的冗余标志位,依靠统一的时钟进行高速、连续的比特流传输,信道利用率极高。它非常适合计算机网络底层(如以太网、光纤通信)等高速、大数据量的并发传输场景,代价是硬件的时钟同步电路相对复杂。

  • 资料中提到同步通信要求发收双方具有“同频同相的同步时钟信号”,在实际的高速远距离通信网络中,收发双方通常是如何实现时钟同步的?难道需要专门牵一根很长的时钟线吗?

在近距离的板级通信(如 SPI、I2C 协议)中,确实会专门留一根时钟线。但在长距离的通信系统中,单独拉一根时钟线的物理成本极高,且长线传输带来的信号延迟会导致严重的时钟与数据相位失调。因此,实际的远距离同步通信通常采用“自同步法”。发送端会通过特定的基带编码技术(如广泛使用的曼彻斯特编码),巧妙地将时钟节拍直接融合进数据的电平跳变之中。接收端收到复合信号后,利用数字锁相环(DPLL)等硬件电路,从数据流的高低跳变沿中实时、动态地提取出时钟信号,从而完美实现收发双方的同频同相。

7.1.37 电路与分组交换的区别及各自的优缺点是什么?

电路交换: 由于电路交换在通信之前要在通信双方之间建立一条被双方独占的物理通路(由通信双方之间的交换设备和链路逐段连接而成)。因而有以下优缺点。

优点:
①由于通信线路为通信双方用户专用,数据直达,所以传输数据的时延非常小
②通信双方之间的物理通路一旦建立,双方可以随时通信,实时性强
③双方通信时按发送顺序传送数据,不存在失序问题
④电路交换既适用于传输模拟信号,也适用于传输数字信号。
⑤电路交换的交换设备控制均较简单。

缺点:
①电路交换的平均连接建立时间对计算机通信来说嫌长。
②电路交换连接建立后,物理通路被通信双方独占,即使通信线路空闲,也不能供其他用户使用,因而信道利用低
③电路交换时,数据直达,不同类型、不同规格、不同速率的终端很难相互进行通信,也难以在通信过程中进行差错控制。

分组交换: 分组交换采用存储转发传输方式,但将一个长报文先分割为若干个较短的分组,然后把这些分组(携带源、目的地址和编号信息)逐个地发送出去,因此分组交换除了具有报文的优点外,与报文交换相比有以下优缺点:

优点:
加速了数据在网络中的传输。因为分组是逐个传输,可以使后一个分组的存储操作与前一个分组的转发操作并行,这种流水线式传输方式减少了报文的传输时间。此外,传输一个分组所需的缓冲区比传输一份报文所需的缓冲区小得多,这样因缓冲区不足而等待发送的机率及等待的时间也必然少得多。
简化了存储管理。因为分组的长度固定,相应的缓冲区的大小也固定,在交换结点中存储器的管理通常被简化为对缓冲区的管理,相对比较容易。
减少了出错机率和重发数据量。因为分组较短,其出错机率必然减少,每次重发的数据量也就大大减少,这样不仅提高了可靠性,也减少了传输时延。
④由于分组短小,更适用于采用优先级策略,便于及时传送一些紧急数据,因此对于计算机之间的突发式的数据通信,分组交换显然更为合适些。

缺点:
①尽管分组交换比报文交换的传输时延少,但仍存在存储转发时延,而且其结点交换机必须具有更强的处理能力。
②分组交换中的每个分组都要加上源、目的地址和分组编号等信息,这将增大传送的信息量,一定程度上降低了通信效率,增加了处理的时间,使控制复杂,时延增加。
③当分组交换采用数据报服务时,可能出现失序、丢失或重复分组,分组到达目的结点时,要对分组按编号进行排序等工作,增加了麻烦。若采用虚电路服务,虽无失序问题,但有呼叫建立、数据传输和虚电路释放三个过程。

  • 电路交换和分组交换在处理计算机网络中常见的“突发式”数据时,哪种方式更具优势?为什么?

分组交换在处理突发式数据时具有压倒性的优势。计算机网络的数据传输往往是间歇性的(例如你浏览网页时,点击一下加载数据,然后可能几分钟不进行网络操作)。如果使用电路交换,在这空闲的几分钟内,整条物理链路依然被你独占,带宽被白白浪费,信道利用率极低。而分组交换采用了“统计复用”的机制,不需要预先分配固定带宽。当你没有数据发送时,链路可以立刻被其他正在发送数据的用户使用,从而极大地提高了昂贵通信线路的整体利用率。

  • 资料中提到了分组交换的“存储转发”机制和“流水线式传输”。请问分组的长度(大小)是如何影响这种传输效率和底层差错控制的?

分组的长度对网络性能有着双刃剑般的影响。如果分组太大,它就退化成了报文交换,不仅会导致路由器需要巨大的内存缓冲区来存储,而且一旦在传输中发生哪怕一个比特的错误,整个庞大的分组都要重传,代价极高。如果把数据切分成较小的固定长度的分组,不仅能极大地减小重传的数据量,还能让数据像流水线一样在多个路由器之间并行传输(即路由器 A 在向 B 发送第二个分组时,B 正在向 C 转发第一个分组),从而显著降低总的端到端时延。但如果分组过小,每个分组附带的首部开销比例就会急剧上升,反而会降低有效数据的传输效率。

7.1.38 什么是 Wi-Fi 技术?有哪几种加密方式?

“Wi-Fi”常被写成“WiFi”或“Wifi”,但是它们并没有被 Wi-Fi 联盟认可。它是一种短程无线传输技术,能够在数百英尺范围内支持互联网接入的无线电信号。
WEP(有线等效加密)——采用 WEP64 位或者 128 位数据加密。
WPA-PSK [TKIP]——采用预共享密钥的 Wi-Fi 保护访问,采用 WPA-PSK 标准加密技术,加密类型为 TKIP。
WPA2-PSK [AES]——采用预共享密钥的 Wi-Fi 保护访问(版本 2),采用 WPA2-PSK 标准加密技术,加密类型为 AES。
WPA-PSK [TKIP]+WPA2-PSK [AES]——允许客户端使用 WPA-PSK [TKIP]或者 WPA2-PSK[AES]。

  • 资料中提到了 WEP 这种早期的加密方式,为什么现在的路由器配置中已经极度不建议甚至不再支持使用它了?

WEP(有线等效加密)使用的是 RC4 流密码算法,其最大的设计缺陷在于初始化向量(IV)太短且以明文传输,极易发生重用。攻击者只需要在网络中监听并抓取足够多的数据包,就可以利用统计学漏洞,在几分钟内轻松逆向破解出 Wi-Fi 密码。由于这种“秒破”的致命安全隐患,WEP 早已在现代无线网络中被彻底淘汰。

  • 相比于 WPA 中的 TKIP 加密,为什么现在的主流网络(包括目前最新的 WPA3 标准演进)都坚定地选择 AES 作为核心加密算法?

TKIP 其实是当年为了修补 WEP 漏洞而推出的一个“软件级”过渡补丁,它底层依然没有摆脱老旧的 RC4 算法的阴影,不仅安全性存在天花板,而且会大量占用路由器的 CPU 算力,导致无线传输速率受限。而 AES(高级加密标准)是一种极其强悍的现代对称块加密算法。它不仅在数学理论上具备极高的抗破解能力,更重要的是,现代 Wi-Fi 芯片内部都集成了专门的 AES 硬件加速模块。这意味着使用 AES 既能保证军工级的绝对安全,又能实现不掉速的高并发数据转发,是兼顾安全与性能的最优解。

7.2 真题问答