通信原理

一、绪论

通信系统的宏观视角与终极标尺

本章的核心逻辑是回答两个问题:通信系统长什么样?我们用什么尺子去衡量它到底好不好?

一、 通信系统的基本物理模型
无论多么复杂的 5G 还是卫星通信,其底层架构永远逃不出这个极简模型:
信源 \rightarrow 发送设备 \rightarrow 信道(+噪声源) \rightarrow 接收设备 \rightarrow 信宿

  • 信道与噪声: 信道是传输的介质(光纤或空气),而噪声源是所有破坏者的统称。我们在后续章节中所有的调制、复用、编码,本质上都是在发送设备和接收设备中做文章,目的只有一个:对抗信道中的噪声与衰落

二、 衡量通信系统的终极标尺:有效性与可靠性
这是考研复试绝对的必考点。任何通信系统的设计,本质上都是在这两个指标之间做极其痛苦的妥协与折中。

  • 模拟通信系统:
    • 有效性(省不省空间):信号占用的频带宽度 BB 来衡量。带宽越窄,有效性越好。
    • 可靠性(听不听得清): 用接收端最终的输出信噪比 (S/NS/N) 来衡量。信噪比越大,可靠性越好。
  • 数字通信系统(核心重点):
    • 有效性(跑得快不快):
      • 码元传输速率 RBR_B(波特率): 每秒传输的符号个数,单位是 Baud。
      • 信息传输速率 RbR_b(比特率): 每秒传输的二进制比特数,单位是 bps。
      • 转换关系:Rb=RBlog2MR_b = R_B \log_2 MMM 为进制数。这就是多进制调制能提高比特率的数学根基)。
      • 频带利用率 η\eta 单位带宽内能跑多高的速率,η=Rb/B\eta = R_b / B (或 RB/BR_B / B),这是评估系统效率最客观的标尺。
    • 可靠性(错得少不少): * 误码率 PeP_e 错判的码元数占总码元数的比例。
      • 误信率 PbP_b 错判的比特数占总比特数的比例。

通信原理中考虑的主要问题是什么?

任何现代通信系统的设计与技术演进,本质上都是在解答以下五个直击灵魂的工程问题:

  • (1) 信号的携带效率(信源与调制): 寻找能够高效地携带信息的信号形式。这对应了我们要如何把 0 和 1 映射为波形(如 QAM、PSK),以便在每一个符号里塞入更多的数据。
  • (2) 信道的完美匹配(有效性): 寻找适合于特定信道传输,并能充分利用信道资源的信号波形。这要求我们必须死死盯住波形的频域特点、带宽占用以及功率消耗。这就是为什么面对多径信道我们要用 OFDM,面对深空信道我们要用 MFSK。
  • (3) 极致的抗击打能力(可靠性): 采取有效抑制噪声与其他干扰以保障传输质量的措施。这直接引出了香农第二定理的落地——我们如何通过信道编码(如汉明码、卷积码)穿上“数学防弹衣”,以及如何通过分集接收和扩频技术在绝境中求生。
  • (4) 硬件的工程妥协(可行性): 追求具体可行并尽量简单的技术方法。理论再完美,如果在发射端和接收端无法用电路实现也是徒劳。例如,我们放弃矩阵乘法改用极其廉价的移位寄存器(LFSR)来实现循环码,利用 FFT 算法来拯救庞大的 OFDM 射频硬件阵列。
  • (5) 现实的终极约束(经济性): 考虑系统的成本。一切抛开成本谈性能的技术都是耍流氓。这也是为什么在 4G 手机的上行链路中,为了省电(降低射频功放成本),工程师被迫放弃了完美的 OFDM,转而使用 SC-FDMA。

数字通信系统和模拟通信系统的区别是什么?

模拟通信系统是利用连续变化的模拟信号(如连续的幅度或频率)来传递信息的系统。它的工作逻辑是“所见即所得”,波形直接映射信息的变化。其最大优势是结构简单且占用频带极窄(如单路模拟语音仅需 4kHz)。但其致命缺陷在于抗干扰能力差:信号在长途传输中衰减后必须依靠中继放大器,这会不可逆转地等比例放大混入的背景噪声,导致严重的“噪声积累”。

数字通信系统则是利用离散的数字信号(通常是“0”和“1”的脉冲流)来传递信息的系统。它将连续信息经抽样、量化和编码转化为二进制比特流后发送。其核心技术突破在于极强的抗干扰与再生能力:中继站采用“门限判决”,只要脉冲未被彻底扭曲,就能清除噪声并重新生成纯净的新脉冲,彻底斩断了噪声的积累链条。

​ 数字通信系统与模拟通信系统相对比,有着许多突出的优点,如下所述:
(1) 数字信号状态有限,容易再生。因而,利用反复转发可以避免噪声积累,保持高的完好度。在长距离传输中,借助中继再生使得信号质量不受距离的限制。
(2) 数字信号易于分辨,即使在强噪声下,仍可能出现低误码率的传输。
(3) 数字电路成本低,可大规模集成,而且稳定性好,易于调试。
(4) 数字信号易于进行差错控制,可以实施更多的传输可靠性措施。
(5) 数字信号易于压缩与加密处理。
(6) 不同种类的信源数据,如语音、图片、文字、软件等,易于形成统一的传输序列,共用数字通信系统。
(7) 便于计算机与网络通信。

​ 不过,数字通信也有下面的缺点:
(1) 一般而言,传输数字信号比传输模拟信号需要更多的带宽。
(2) 数字通信系统需要更复杂的同步系统。

​ 随着通信技术及其应用的发展,以及与之关联的微处理器技术、计算机软件技术、数字信号处理技术与大规模集成电路技术的快速进展,数字系统的优点更为突出,其缺点也正被逐步解决。因此,数字通信系统成为主要的通信系统。

简要介绍一下数字通信系统的结构

image-20260308212915011

结合系统框图,我们可以更细致地理解各功能单元的工程意义:

  • 信源编码单元: 一般对数字序列实现压缩编码,以降低消息中的冗余度。
    • 工程本质: 提高传输有效性(节省带宽)。
  • 加密单元: 为信息传输提供保密性。
    • 工程本质: 安全性,主要防止非授权用户获取信息或注入错误信息。
  • 信道编码单元: 通过在待传输的数字信号中有意识地加入特殊数据位(如奇偶校验位等),使符号间形成一些确定关系。
    • 工程本质: 增强传输的可靠性(接收端可据此发现并纠正错误)。
  • 复用单元: 将用户的多种消息信号合并在一起传输。
    • 工程本质: 提高信道利用率(如 TDM、FDM)。
  • 多址接入单元: 使多个用户可以从不同的地址进入同一信道,共享通信资源。
    • 工程本质: 解决多用户竞争接入问题(如 CDMA、OFDMA)。
  • 频谱扩展(扩频)单元: 通过展宽传输信号的频谱,使其抗干扰能力与保密性提高。
    • 工程本质: “以带宽换信噪比”,同时也是一种常用的多址接入技术。

如何理解复用与多址?二者的区别是什么?

在回答这个问题时,最有效的方法是先用形象比喻切入,再用技术维度总结。

一、 核心概念:形象化理解

  • 复用 (Multiplexing) —— “信号的内部打包

    • 比喻: 像一个快递站内,工作人员把多件寄往同一个城市的包裹,装进一个巨大的集装箱。
    • 定义: 发生在发送端内部,将多个低速信号合并成一个高速复合信号,共用一根物理链路。
    • 目的: 提高单一信道的利用率,实现“共享物理链路”。
  • 多址 (Multiple Access) —— “资源的外部抢占

    • 比喻: 像多辆车从不同位置出发,都要进入同一条高速公路入口,必须有一套交通规则(如红绿灯)来决定谁先走、走哪条道,防止相撞。
    • 定义: 解决分布在不同地理位置的多个用户,如何有序地接入并共享同一个公共通信资源(如基站)的问题。
    • 目的: 区分不同用户,实现“共享基站/资源”。

二、 二者的核心区别

维度 复用 (Multiplexing) 多址 (Multiple Access)
应用位置 发生在发送设备内部 发生在网络接入界面(用户与基站间)
核心对象 针对的是信号(合并与拆分) 针对的是用户(分配地址与识别)
控制方式 集中控制(由复用器统一调度) 分布式接入(由基站分配规则)
技术示例 TDM (时分复用)、FDM (频分复用) TDMA (时分多址)、CDMA (码分多址)

三、 深度总结(面试加分点)

在回答的最后,可以抛出这两者的本质逻辑联系,展示你的大局观:

  1. 逻辑演进: 复用是多址的技术基础,多址是复用的工程应用。 多址技术本质上是在某种复用方式的基础上,给每个用户分配了一个唯一的“地址”标识(如特定的时间片、频率或特征码)。
  2. 物理差异: 复用解决的是点对点(Point-to-Point)大容量传输的问题;多址解决的是点对多点(Point-to-Multipoint)如何有序接入的问题。
  3. 工程实际: 在现代通信基站中,两者是共存的。当基站把信号发给不同的手机时,它在做复用;当成百上千个手机同时给基站发信号时,它们必须通过特定的多址协议来避免碰撞。

一句话总结: 复用是把多个信号塞进一个通道的“物理打包方式”;多址是让分布在不同位置的用户有序使用该通道的“资源管理规则”。

二、基础知识

什么是维纳-辛钦定理?它的存在有何意义?

核心考点:维纳-辛钦定理 (Wiener-Khinchin Theorem) —— 随机信号的“跨海大桥

1. 什么是维纳-辛钦定理?

定义:对于一个广义平稳随机过程 (WSS),它的自相关函数 R(τ)R(\tau) 和它的功率谱密度 P(f)P(f) 互为傅里叶变换对。

数学公式(复试必背核心公式)

P(f)=R(τ)ej2πfτdτP(f) = \int_{-\infty}^{\infty} R(\tau) e^{-j 2\pi f \tau} d\tau

R(τ)=P(f)ej2πfτdfR(\tau) = \int_{-\infty}^{\infty} P(f) e^{j 2\pi f \tau} df

  • R(τ)R(\tau):描述了信号在时域上,相隔时间 τ\tau 的两个时刻的相关程度(体现了信号的变化快慢)。
  • P(f)P(f):描述了信号的平均功率在频域上的分布(体现了信号占用的带宽)。

2. 它的存在有何重大物理与工程意义?

在复试面试中,回答“意义”往往比默写公式更重要。维纳-辛钦定理解决了通信工程中的三大核心痛点:

意义一:拯救了“无法进行傅里叶变换”的数学灾难

通信传输的是随机的数字码流

  • 痛点:随机信号的能量是无穷大的,且波形不可预测。直接对它求傅里叶积分,不仅不收敛,而且算出来的频谱也是个随机变量,毫无工程参考价值。
  • 拯救:该定理巧妙地避开了“直接对波形做变换”的死胡同。它指明了一条新路:不要去管变幻莫测的瞬时波形,去求它稳定的统计平均规律(自相关函数)! 对稳定的 R(τ)R(\tau) 做傅里叶变换,就能得到完美、确定的功率谱密度。

意义二:揭示了“时域变化率”与“频域带宽”的反比映射关系

  • 如果一个信号在时域变化得极快,它的自相关函数 R(τ)R(\tau) 衰减得就非常快。根据傅里叶变换的时频对应性质,时域越窄,频域越宽,它的功率谱 P(f)P(f)占用极大的带宽
  • 极端案例(白噪声):白噪声的自相关函数是一个 δ(τ)\delta(\tau)(时域无限窄,只在完全对齐时相关)。经过变换,它的功率谱 P(f)=N02P(f) = \frac{N_0}{2} 是一条无限宽的水平线。这就解释了它为何被称为“白”噪声(包含了所有频率)。

意义三:奠定了现代数字调制性能分析的基础

在评估 2ASK、FSK、PSK 等调制方式的优劣时(如谁占用的带宽更小),维纳-辛钦定理是唯一的分析工具。我们通过推导已调信号的自相关函数,进而求出功率谱密度,最终在频域图纸上直观地比较它们的带宽和离散谱线。


“维纳-辛钦定理的伟大之处在于,它搭建了一座桥梁,将时域上的统计相关性,完美地映射为了频域上的功率分布规律,使得我们对随机信号的频域分析成为可能。”

如何理解能量信号与功率信号、能量谱密度和功率谱密度;确知信号与随机信号、频谱密度和功率谱密度?

能量信号与功率信号:存续时间与能量规模的物理分类

这是从信号“总量”与“平均量”维度进行的归类。

  • 能量信号:信号的能量为一个有限的正值,但由于信号通常只在有限时间内存在,其平均功率为 0。
    • 数学判定:能量 E=s(t)2dt<E = \int_{-\infty}^{\infty} |s(t)|^2 dt < \infty
    • 典型代表:单个矩形脉冲、指数衰减信号(非周期、瞬时性信号)。
  • 功率信号:信号的能量趋于无穷大,但在无限时间内的平均功率是一个有限的正值。
    • 数学判定:平均功率 P=limT1TT/2T/2s(t)2dt<P = \lim_{T \to \infty} \frac{1}{T} \int_{-T/2}^{T/2} |s(t)|^2 dt < \infty
    • 典型代表:周期信号(如正弦波)、随机噪声(如白噪声)

能量谱密度与功率谱密度:能量或功率在频率轴上的分布

这两个概念解决了能量或功率随频率如何分布的问题。

  • 能量谱密度 G(f)G(f):描述能量信号在单位频带内的能量分布。根据帕塞瓦尔定理,它等于信号幅度谱的平方:G(f)=S(f)2G(f) = |S(f)|^2。其在全频域的积分即为总能量。
  • 功率谱密度 P(f)P(f):描述功率信号(或平稳随机过程)在单位频带内的功率分布。
    • 核心关联:它是自相关函数的傅里叶变换(维纳-辛钦定理)。其在全频域的积分即为信号的总平均功率。

确知信号与随机信号:可预测性与描述工具的分水岭

这是从信号的“确定性”维度进行的归类。

  • 确知信号:其取值在任何时间都是确定的,可以用确定的时间解析式 s(t)s(t) 来表示。
    • 分析重心:侧重于波形的精确描述,通常直接分析其频谱密度
  • 随机信号:无法写出确定的时间函数,只能通过统计特性(如均值、方差、自相关函数)来描述。
    • 分析重心:侧重于统计特性,通常研究其功率谱密度

频谱密度与功率谱密度:描述工具的本质差异

这是面试中最核心的考点,二者的物理内涵完全不同。

  • 频谱密度 S(f)S(f):它是信号波形的傅里叶变换,包含了幅度相位信息。它能完整还原波形细节。仅适用于能量信号(以及通过冲激函数扩展的周期信号)。
  • 功率谱密度 P(f)P(f):它只描述功率的统计分布,丢失了相位信息。它不再关注波形长什么样,只关注能量在频率上怎么排。适用于功率信号和随机信号。
    • 重要直觉:对于平稳随机过程,由于其相位是随机乱序的,研究相位没有工程意义,因此我们只谈论它的“功率谱”,而不谈论它的“频谱”。

概念对比总结表

信号类型 能量/功率特性 首选描述工具 物理含义
确知能量信号 能量有限,功率为0 频谱密度 S(f)S(f) 描述波形的精细组成(有相位)
随机功率信号 能量无限,功率有限 功率谱密度 P(f)P(f) 描述能量的宏观分布(无相位)

一句话直觉: 频谱密度是信号的“全身照”(有模有样有细节);功率谱密度是信号的“化验单”(只看各成分的含量占比)。

能量谱密度、功率谱密度与频谱有什么关系?

对于能量信号(如单个脉冲):信号能量有限且绝对可积。我们可以直接对其求傅里叶变换得到频谱 S(f)S(f)。此时,能量谱密度 G(f)G(f) 就是频谱幅度的平方,即 G(f)=S(f)2G(f) = |S(f)|^2

对于功率信号(能量无穷大),情况需要严格分为两类

  1. 确定性功率信号(如正弦波、周期信号):它们在时域是完全确定的。借助于引入奇异函数 δ(f)\delta(f),我们可以直接求出它们的广义傅里叶变换,其在频域表现为离散的 δ\delta 谱线
  2. 随机功率信号(如通信中携带信息的随机数字码流):由于波形是随机的,直接求傅里叶变换毫无物理意义(结果也是随机的)。因此,我们必须先求取其自相关函数 R(τ)R(\tau),从而将随机波形转化为稳定的统计特征;然后根据维纳-辛钦定理,对自相关函数求傅里叶变换,最终得到稳定的功率谱密度 P(f)P(f)
    • 通信的本质是什么?是传输未知的信息!如果我们发送的信号像正弦波一样永远可以被预测,那它就毫无信息量可言。我们实际发送的是随机的“0”和“1”码流。
    • 由于每次发的码流都不一样,它的时域波形 s(t)s(t)随机的
    • 如果强行对一个随机的 s(t)s(t) 求傅里叶变换,得到的结果 S(f)S(f) 也会是一个到处乱跳的随机变量,毫无参考价值!
    • *所以我们不再关心某一次具体的波形,而是关心大量波形的统计规律自相关函数 R(τ)R(\tau) 就是用来提取这种稳定统计规律的!把随机的波形转化为稳定的 R(τ)R(\tau),再对 R(τ)R(\tau) 求傅里叶变换,我们就能得到稳定、客观的功率谱密度 (PSD)

δ\delta 脉冲在频谱、能量谱、功率谱上分别代表什么意思?

  1. 频谱 (Spectrum) 中的 δ\delta:代表“固定的振幅”
  • 物理现实:在确定性信号(如正弦波或周期信号)中,存在一个频率为 fcf_c 的完美简谐振荡。
  • 数学含义δ\delta 脉冲的**面积(前面的系数)*直接代表了该频率分量的*电压/电流幅度
  • 举例:对于 s(t)=Acos(2πfct)s(t) = A\cos(2\pi f_c t),频谱为 S(f)=A2[δ(ffc)+δ(f+fc)]S(f) = \frac{A}{2}[\delta(f-f_c) + \delta(f+f_c)]。这说明在 fcf_c 处,有一个幅度大小为 A2\frac{A}{2} 的正弦波分量。
  • 总结:频谱里的 δ\delta,是一把测量“信号幅度有多高”的尺子。
  1. 功率谱 (PSD) 中的 δ\delta:代表“集中的平均功率”
  • 物理现实:这个永不停歇的周期性振荡,持续不断地向外辐射着实实在在的能量。由于它无限长,我们只能计算它在单位时间内的平均功耗。
  • 数学含义δ\delta 脉冲的面积(前面的系数)**直接代表了该频率分量所携带的**平均功率(瓦特 W)
  • 举例:同样是上面的正弦波,功率谱密度为 P(f)=A24[δ(ffc)+δ(f+fc)]P(f) = \frac{A^2}{4}[\delta(f-f_c) + \delta(f+f_c)]。将正负频率的 δ\delta 面积相加 A24+A24=A22\frac{A^2}{4} + \frac{A^2}{4} = \frac{A^2}{2},这完美契合了正弦波的平均功率。
  • 总结:功率谱里的 δ\delta,是一把测量“这个频率点有多耗电/耗能”的尺子。
  1. 能量谱 (ESD) 中的 δ\delta:【高能预警:面试陷阱!】

如果面试官问:“能量谱中的 δ\delta 代表什么?”

请你立刻坚定地回答:“老师,严格意义上,真正的能量信号的能量谱中,是不可能出现 δ\delta 脉冲的!

  • 深度解析(为什么?)
    • 能量谱是用来分析能量有限的信号(如单个短暂的矩形脉冲)。
    • δ\delta 脉冲代表什么?代表能量无限集中在某一个频率点上。如果一个信号在频域有 δ\delta(意味着它包含永不停歇的正弦波),那么它在时域一定延伸到无限长,它的总能量必定是无穷大
    • 从数学上看,能量谱 G(f)=S(f)2G(f) = |S(f)|^2。如果 S(f)S(f) 里有 δ(f)\delta(f),那么 G(f)G(f) 就会出现 δ2(f)\delta^2(f),这在分布函数理论中是未定义、无意义的
  • 总结δ\delta 脉冲与“能量有限”是水火不容的。 在能量谱中寻找 δ\delta,就像在有限的水杯里寻找无尽的海洋。

频谱 δ\delta 与 功率谱 δ\delta 有什么关系?

前提条件:我们讨论的是确定性的周期功率信号(因为只有这类信号,才既能求出含有 δ\delta 的广义频谱 S(f)S(f),又能求出含有 δ\delta 的功率谱 P(f)P(f))。

  1. 物理本质的呼应:PU2P \propto U^2

在电路学中最基础的常识是:功率等于电压的平方(假设电阻 R=1ΩR=1\Omega 归一化)。

  • 频谱 S(f)S(f) 里的 δ\delta 描述的是电压/电流的幅度

  • 功率谱 P(f)P(f) 里的 δ\delta 描述的是平均功率

    既然时域上功率是电压的平方,那么在频域的对应频率点上,这种“平方关系”依然严格成立!

  1. 数学公式的严密证明(以正弦波为例)

我们再次请出最经典的测试信号 s(t)=Acos(2πfct)s(t) = A \cos(2\pi f_c t)

  • 在频谱 S(f)S(f) 中(看幅度)

    S(f)=A2δ(ffc)+A2δ(f+fc)S(f) = \frac{A}{2}\delta(f-f_c) + \frac{A}{2}\delta(f+f_c)

    👉 此时 δ(ffc)\delta(f-f_c) 前面的系数(幅度)是 A2\frac{A}{2}

  • 在功率谱 P(f)P(f) 中(看功率)

    P(f)=A24δ(ffc)+A24δ(f+fc)P(f) = \frac{A^2}{4}\delta(f-f_c) + \frac{A^2}{4}\delta(f+f_c)

    👉 此时 δ(ffc)\delta(f-f_c) 前面的系数(功率)是 A24\frac{A^2}{4}

发现了吗?

(A2)2=A24\left( \frac{A}{2} \right)^2 = \frac{A^2}{4}

这就是它们之间最直接、最核心的数学关系!对于任意周期信号的傅里叶级数展开,如果其第 nn 次谐波在频谱中的复数系数为 CnC_n,那么在功率谱中对应的 δ\delta 系数必定是 Cn2|C_n|^2

  • 当我们在频谱图中看到一个 δ\delta 脉冲时,它对应的物理现实是:该频率上存在一个永不停歇、波形完美的简谐振动。 它的能量没有被“稀释”在频带里,而是“凝聚”在一个点上。
  • δ\delta 的适用范围(确定性):像 s(t)=Acos(2πfct)s(t) = A\cos(2\pi f_c t) 这样的信号,它在过去、现在、未来的每一秒是什么样,我们都清清楚楚。它没有任何“惊喜”,数学上称之为确定性信号。对于这种信号,我们用 δ\delta 就能完美地在频域画出它。
  • 正弦波 Acos(2πfct)A\cos(2\pi f_c t) 的频谱中,δ(ffc)\delta(f-f_c) 前面的系数是 A/2A/2δ\delta 脉冲的“面积”A/2A/2(也就是它前面的系数)代表了该简谐振动的幅度 (Voltage)。那我们就知道,对于一个正弦波,它的振幅有多大。

这种“模平方”的直接对应关系,仅对包含离散谱线的“确定性成分”(如纯载波、直流)有效!

对于真实的数字通信信号(包含随机的 0 和 1):

  • 我们无法求出它的确定性频谱 S(f)S(f)(因为波形随机,它没有连续的幅度谱)。
  • 但它的功率谱 P(f)P(f) 依然存在。在这个 P(f)P(f) 中,不仅可能会有代表确定性载波的 δ\delta 脉冲(离散谱),还会存在代表随机信息的连续谱(鼓包)。

如何理解随机信号的各态历经性?

各态历经性(或称遍历性)可以非常精炼地理解为:信号的任何一个样本函数的时间平均等于它的统计平均

物理层面上,这意味着只要观测时间足够长,该信号的每个样本函数都会遍历信号的各个状态,因此我们只需从任何一个样本函数中就能计算出其统计平均值。

具体分为两类:一是均值各态历经性,即 E[X(t)]=X(t)E[X(t)] = \overline{X(t)};二是自相关函数各态历经性,即 RX(τ)=X(t+τ)X(t)R_X(\tau) = \overline{X(t+\tau)X(t)}。如果两者同时满足,则称该信号具有(广义)各态历经性。

这一特性是进行实际测量与数值分析的理论基础。虽然验证平稳信号是否具有遍历性并不容易,但由于物理信号的各个样本函数大多出自于相同的随机因素,因此通常认为它们具有各态历经性。简而言之,它让你能够通过一段足够长的波形直接掌握整个随机过程的统计规律。

概念的起源:为了解决“数不清”的问题

各态历经性最早是由物理学家**玻尔兹曼(Ludwig Boltzmann)**在研究气体分子运动时提出的。

  • 物理困境:想象一个容器里有成千上万个气体分子。如果你想知道这桶气体的“温度”,按照严格定义,你得同时测量每一个分子的动能,然后求平均。
  • 数学灾难:在 19 世纪,人类根本无法同时测量亿万个分子的瞬时状态(即统计平均/系综平均)。
  • 玻尔兹曼的奇思妙想:既然我没法同时看所有分子,那我能不能盯着其中一个分子看足够长的时间
  • 大胆假设:玻尔兹曼假设,如果时间足够长,这一个分子由于不断的碰撞,它会经过容器内所有可能的位置,拥有所有可能的动能。那么,这一个分子的时间平均特性,就应该等于所有分子的统计平均特性。

​ 这就是各态历经性的物理源头

能够抽象出这个概念,是因为我们发现: 只要系统是平稳的(即规则不随时间改变),且系统内部存在足够的随机扰动(比如信息的随机性、噪声的杂乱性),那么系统就不会被困在某一个特定的状态里,而是会像水流一样流遍每一个角落。

在通信中,我们引入这个概念是为了“偷懒”,或者说为了“让理论落地”:

  • 如果没有这个概念:我们要分析 2ASK 的功率谱,理论上需要找来无穷多个发报机,在同一时刻采样,这在现实中是物理不可行的。
  • 有了这个概念:我们只需要录制一段足够长的信号波形,用算法算它的自相关,就敢宣布:“这就是该系统的本质规律。”

物理视角的深度解析:均值与自相关函数的各态历经性

1. 均值各态历经性的物理直觉:摆动中心的普适性

E[X(t)]=X(t)E[X(t)] = \overline{X(t)}

  • 物理释义:这代表了信号的“能量平衡点”。
  • 直观理解:如果你拿一个直流电压表去测量系统中的单路信号,经过长时间平均得到的数值,等同于该系统所有可能产生的信号在某一时刻的平均水平。
  • 物理结论:它保证了“局部样本的中心”就是“全局系统的中心”。

2. 自相关各态历经性的物理直觉:波动纹理的普适性

RX(τ)=X(t+τ)X(t)R_X(\tau) = \overline{X(t+\tau)X(t)}

  • 物理释义:这代表了信号的“波动节奏”与“功率分布”。
  • 直观理解:你在示波器上观察一段信号波形的“粗糙程度”或“跳变快慢”(时间关联),这套规律对于系统中任何其他样本波形都是通用的。
  • 物理结论:它保证了“局部样本的指纹”就是“全局系统的基因”。

3. 实例分析:什么样的信号才具有各态历经性?

  • 典型例子:平稳的随机数字序列(如 5G/Wi-Fi 信号)
    只要观察的时间长度远大于码元周期,单个样本就会遍历“0”和“1”的所有组合可能,展现出系统的完整统计特性。
  • 反面教材:不具备各态历经性的信号
    假设一个随机过程由无数个“恒定电平”组成,每个样本是一条死水平线(如 1V,2V,3V1V, 2V, 3V \dots)。虽然它是平稳的,但每个样本“一辈子”只待在一个电平上,无法通过观察一个样本来得知整个系统的全貌。这种“死板”的信号不具备各态历经性。

💡 老师的复试金句:
“各态历经性在物理上要求信号必须‘活起来’。只有当一个样本在时间长河中能经历这个过程所有可能的‘喜怒哀乐’(状态)时,它才有资格代表全体。”

自相关函数的存在意义是什么?

考点深度串联:自相关函数的存在意义及其与核心定理的宏观关联

如果被问及“自相关函数的存在意义”,其核心答案是:它是将“不可预测的随机波形”转化为“可进行频域分析的确定性规律”的唯一桥梁。 我们可以通过以下四个层次,将通信原理中最核心的四大概念串联成一个完美的逻辑闭环:

1. 瞬时波形的随机性 vs. 统计特性的确定性

在通信中,我们无法预知下一秒发送的具体码元(是 0 还是 1),因此瞬时波形 s(t)s(t) 是随机的、变幻莫测的
但是,生成信号的规则(如码元速率、脉冲形状、电平分布)是确定的。我们要寻找的,就是隐藏在随机表象下的确定性规律。

2. 各态历经性 (Ergodicity):赋予单次观察以“全局代表权

我们如何从随机波形中提取规律?理论上,我们需要同时观察宇宙中所有可能的波形(统计空间),并求它们的平均关联规律。但现实中,我们手里往往只有示波器上的一段波形。

这就引出了通信信号最重要的性质——各态历经性。它告诉我们一个伟大的结论:对于大多数通信信号,你在时间上求平均(盯着一个波形看很久)得到的结果,严格等于你在统计空间上求平均(同时看一万个可能的波形在某一时刻的平均值)。

基于各态历经性,自相关函数 R(τ)R(\tau) 完美统一了“时间平均”与“统计期望”:

R(τ)=E[s(t)s(t+τ)]=limT1TT/2T/2s(t)s(t+τ)dtR(\tau) = E[s(t)s(t+\tau)] = \lim_{T \to \infty} \frac{1}{T} \int_{-T/2}^{T/2} s(t)s(t+\tau)dt

这个公式的意义在于:通过时间上的积分与求平均,将具体的随机起伏(肉体)全部抵消掉,只保留了信号与自身在时间偏移 τ\tau 下的内在关联规律

3. 自相关函数的物理直觉(提取骨架)

  • 它描述了信号的“记忆力”:信号在这一刻的状态,对 τ\tau 之后的状态有多大的影响?信号跳变越快,记忆力越短,R(τ)R(\tau) 衰减越迅速。
  • 它提取了信号的“骨架”:具体的瞬时波形是肉体,不断产生和消逝;而自相关函数是剥离了随机性后的骨架,它在统计上是稳定且确定的。

4. 维纳-辛钦定理 (Wiener-Khinchin) 的逻辑闭环

既然我们不能盯着“肉体”(瞬时波形)看(因为它的傅里叶积分不收敛,直接变换毫无物理意义),我们就必须盯着“骨架”(自相关函数)看。

维纳-辛钦定理就在此时隆重登场!它指明:既然自相关函数 R(τ)R(\tau) 是稳定确定的,那么只要对这个稳定的“骨架”进行傅里叶变换,我们就能得到随机信号最本质的频域描述——功率谱密度 (PSD)

P(f)=R(τ)ej2πfτdτP(f) = \int_{-\infty}^{\infty} R(\tau) e^{-j 2\pi f \tau} d\tau


💡 老师的面试点睛(终极串联金句):

“自相关函数的存在意义,在于它是随机过程理论经典频域分析之间的翻译官。

首先,现实信号的各态历经性保证了我们可以通过观察单一波形的时间平均来获取它的自相关函数
其次,自相关函数滤除了波形的随机性,提取了稳定的时间关联规律;
最后,借由维纳-辛钦定理,我们将这个稳定的时间规律映射到频域,最终求得了指导工程实践的功率谱密度。这四者环环相扣,缺一不可。”

2.1 确知信号

简单介绍信号及其基本参数、傅立叶变换与信号的频谱密度、能量谱密度与功率谱密度、信号的频带与带宽。

信号及其基本参数
信号是用来表示信息变化的物理量随时间或空间变化的函数。在通信系统中,信号通常表示为时间函数 (s(t)s(t))。描述信号的重要参数包括幅度、频率、相位和持续时间等。其中幅度表示信号强度,频率表示信号变化快慢,相位表示信号在周期中的位置,这些参数共同决定了信号的基本特性。

傅立叶变换与信号的频谱密度
傅立叶变换是一种将信号从时域表示转换为频域表示的重要工具。通过傅立叶变换,可以把复杂的时域信号分解为不同频率正弦信号的叠加,从而得到信号的频谱。频谱反映了信号在各个频率上的分布情况,而频谱密度则表示信号在不同频率处所包含的能量或功率的分布特性。

能量谱密度与功率谱密度
对于能量有限的信号(能量信号),通常用能量谱密度(Energy Spectral Density)来描述信号能量在频域中的分布,它等于信号傅立叶变换幅度的平方。
对于
功率有限但持续时间无限的信号(功率信号)
,则使用**功率谱密度(Power Spectral Density)**来描述信号功率在频率上的分布。功率谱密度反映了信号在不同频率成分上的平均功率。

信号的频带与带宽
信号的频谱通常只集中在某一段频率范围内,这一段频率范围称为信号的频带。频带的宽度称为带宽,一般定义为信号主要能量或功率所占据的频率范围。带宽是通信系统中的重要参数,它决定了信号传输所需要的信道频率资源,并影响系统的数据传输能力。

2.2 随机信号

简单介绍随机信号的概念与定义、随机信号的基本特性、平稳随机过程、两个信号的联合特性以及功率谱密度。

随机信号是指随时间变化且其取值具有随机性的信号,通常用随机过程来描述。可以理解为:在每一个时刻,信号的取值是一个随机变量,而所有可能的时间函数组成了一个随机过程。在通信系统中,噪声信号、随机信息序列等都属于随机信号。

随机信号的基本特性通常通过统计量来描述,而不是通过确定的时间函数。常用的统计特性包括均值(数学期望)方差以及自相关函数。均值表示信号的平均水平,方差反映信号波动的强弱,自相关函数则描述信号在不同时间之间的相关程度,是分析信号结构和系统性能的重要工具。

平稳随机过程是指统计特性不随时间变化的随机过程。实际通信分析中常用的是广义平稳(宽平稳)过程,它满足两个条件:一是均值为常数;二是自相关函数只与时间间隔有关,而与具体时间无关。平稳随机过程的性质较为稳定,因此便于进行理论分析。

当研究两个随机信号之间的关系时,需要考虑它们的联合特性。常见的描述方法是互相关函数,它表示两个信号在不同时间间隔下的相关程度。在通信系统中,互相关函数常用于分析系统输入与输出之间的关系,以及信号与噪声之间的影响。

功率谱密度(Power Spectral Density,PSD)用于描述随机信号在频域中的功率分布情况,即信号功率在不同频率上的分布。对于平稳随机过程,功率谱密度与自相关函数之间满足维纳–辛钦定理,即功率谱密度是自相关函数的傅里叶变换。因此,通过功率谱密度可以分析随机信号的频谱结构和能量分布。

2.3 高斯信号与高斯白噪声

  • 如何理解高斯信号和白噪声

高斯信号是指在任意时刻其信号取值服从**高斯分布(正态分布)**的随机信号。如果一个随机过程在各个时刻的概率分布都是高斯分布,并且任意多个时刻的联合概率分布也服从高斯分布,则称为高斯随机过程。高斯信号在通信理论中具有重要地位,因为许多实际噪声和随机信号在统计上可以近似为高斯分布。

高斯白噪声是一种特殊的随机噪声信号,它不仅满足幅度服从高斯分布,而且在频域中具有均匀的功率谱密度,即在所有频率范围内功率分布相同,因此称为“白噪声”。理想高斯白噪声的自相关函数为冲激函数,表示不同时间的噪声样值彼此不相关。由于其统计特性简单且接近实际通信环境中的噪声,高斯白噪声常被用作通信系统分析中的标准噪声模型。

2.4 信号通过线性时不变系统

简要介绍确知信号和随机信号通过线性时不变系统

确知信号通过线性时不变(LTI)系统时,分析过程相对直接。在时域中,输出信号 y(t)y(t) 等于输入信号 x(t)x(t) 与系统单位冲激响应 h(t)h(t)卷积;而在频域中,输出信号的频谱 Y(f)Y(f) 等于输入信号的频谱 X(f)X(f) 与系统频率响应 H(f)H(f)乘积。这意味着系统通过其幅频特性和相频特性,对输入信号的各个频率分量进行加权,从而重塑了信号的波形

对于随机信号(平稳随机过程)而言,由于无法写出确定的时间解析式,我们转而研究其统计特性的变化。当平稳随机过程通过 LTI 系统后,输出过程依然是平稳的。此时,输出的功率谱密度 Py(f)P_y(f) 等于输入的功率谱密度 Px(f)P_x(f) 乘以系统幅频特性模的平方,即 Py(f)=Px(f)H(f)2P_y(f) = P_x(f) \cdot |H(f)|^2。这表明系统通过滤除或削弱特定频段的能量,改变了随机信号的功率分布和自相关特性

特别需要注意的是,如果输入是高斯平稳随机过程,由于线性变换不改变概率分布的类型,输出信号依然严格服从高斯分布,只是其均值和功率(方差)发生了改变。这一特性是分析通信系统抗噪声性能(如计算输出信噪比)的核心物理基础。

2.5 带通信号

简要介绍一下希尔伯特变换与解析信号

在通信理论中,希尔伯特变换(Hilbert Transform)是一种特殊的宽带相移网络,它不改变信号的幅度谱,而是将信号的所有频率分量相移 -90°。从时域上看,确知信号 s(t)s(t) 的希尔伯特变换 s^(t)\hat{s}(t) 相当于信号与 1/(πt)1/(\pi t) 进行卷积;从频域上看,其频率响应 H(f)=jsgn(f)H(f) = -j \text{sgn}(f),这表明它在正频率处提供 j-j(即 90-90^\circ)的相移,而在负频率处提供 +j+j(即 +90+90^\circ)的相移。这种变换在单边带调制(SSB)中至关重要,因为它是实现复包络分析和信号解调的核心数学手段。

利用希尔伯特变换,我们可以构造出解析信号(Analytic Signal),其定义为复信号 z(t)=s(t)+js^(t)z(t) = s(t) + j\hat{s}(t)。解析信号最显著的物理特征是其频谱只包含正频率分量,且正频率部分的幅度是原实信号的两倍。这种处理方式将实信号在正负频率上的对称性转化为了单边的复数表示,极大地简化了带通信号的理论分析。通过解析信号,我们可以非常方便地提取出信号的瞬时幅度(包络)瞬时相位,这正是后续研究模拟调制与解调性能的数学底座。

复包络的研究意义是什么?为什么我们的带通信号不能直接研究,而是研究其复包络

在通信理论中,复包络(Complex Envelope)的研究意义在于它提供了一种等效基带分析法,将高频带通信号转化为低频基带信号进行处理。直接研究带通信号存在巨大的工程和计算障碍,因为带通信号的频谱集中在极高的载波频率 fcf_c 附近,这意味着信号的瞬时变化极快,若直接进行数字化处理或计算机仿真,必须遵循奈奎斯特采样定理,以高于 2(fc+B)2(f_c + B) 的频率进行采样,这会导致数据量爆炸且对硬件性能要求极高。

通过引入复包络 s~(t)\tilde{s}(t),我们实际上是剔除了毫无信息量的高频载波分量,仅保留了真正承载消息的振幅 a(t)a(t) 和相位 ϕ(t)\phi(t)。复包络是一个低通信号,其带宽仅为原信号带宽 BB 的一半(对于单边带宽而言),这使得我们可以用极低的采样率和运算量来精确描述高频系统的动态特性。此外,复包络将信号分解为同相分量 sI(t)s_I(t) 和正交分量 sQ(t)s_Q(t),这种正交表示法不仅简化了线性系统的数学推导(将带通系统的卷积简化为基带复数运算),更直接对应了现代调制解调器中 I/Q 调制器的物理结构。

带通高斯白噪声有何研究意义?

在通信系统的抗噪声性能分析中,带通高斯白噪声(Bandpass Gaussian White Noise)具有极高的研究意义。由于实际的接收机前端通常包含一个带通滤波器(BPF),宽带的高斯白噪声在进入解调器之前,其频谱会被限制在载波频率 fcf_c 附近的有限带宽 BB 内。研究带通噪声,本质上是研究噪声在经过系统选择性过滤后,如何与有用信号相互作用并影响最终的判决准确性

通过将带通高斯噪声分解为同相分量 nc(t)n_c(t)正交分量 ns(t)n_s(t),我们可以利用低频等效模型来简化复杂的带通分析。这种分解揭示了一个核心数学特性:若原带通噪声是平稳高斯过程,则其两个正交分量也是平稳高斯过程,且在同一时刻互不相关、统计独立。这一结论极大地简化了计算输出信噪比误码率的过程,使得我们能够分别分析噪声对信号振幅(包络)和相位造成的随机扰动。

此外,研究带通噪声的包络分布具有直接的工程指导价值。当信号中仅存在噪声时,其包络服从瑞利分布;而当存在确定性载波信号时,包络转变为莱斯分布。这种分布规律的切换是设计包络检波器(如非相干解调)和评估衰落信道性能的理论根基。简而言之,带通高斯噪声是连接“理想噪声模型”与“实际接收机表现”的关键环节,它决定了系统在真实物理带宽限制下的性能上限

三、模拟传输

模拟传输:利用连续波形传递信息

在通信系统中,模拟传输(Analog Transmission)是指利用连续变化的物理量(通常是正弦波的幅度、频率或相位)来代表消息的传输方式。虽然数字通信已成为主流,但模拟传输在广播、电视以及传感器信号的底层传输中依然具有不可替代的地位。

调制的定义与必要性:为什么要折腾信号?

调制(Modulation)是指按调制信号(基带信号)的规律去改变载波(高频信号)的某个参数的过程。之所以不能直接发送低频基带信号,主要有三个原因:首先是天线尺寸的限制,电磁波的有效发射需要天线尺寸与波长 λ\lambda 匹配,低频信号波长过长,天线无法实现;其次是多路复用的需要,通过将不同用户的信号搬移到不同的高频段,可以在同一信道中互不干扰地传输;最后是改善抗噪声性能,某些调制方式(如宽带 FM)可以通过牺牲带宽来换取更高的信噪比。

模拟调制的分类:幅度与角度的博弈

根据载波受调参数的不同,模拟调制主要分为两大类:

  • 幅度调制(线性调制):包括 AM(普通调幅)、DSB(双边带)、SSB(单边带)和 VSB(残留边带)。其核心特征是已调信号的频谱是基带频谱的线性搬移,且包络通常与调制信号成线性关系。
  • 角度调制(非线性调制):包括 FM(调频)和 PM(调相)。其核心特征是载波的幅度保持不变,而将信息隐藏在频率或相位的变化中。由于频谱会产生无限多个新的分量,它被称为非线性调制。

相干解调与非相干解调:接收端的选择

解调是调制的逆过程,目的是从高频载波中还原出原始消息。相干解调要求接收端提供一个与载波同频同相的本地相干载波,通过乘法器和低通滤波器还原信号,性能较好但电路复杂;非相干解调(如包络检波)则不需要本地载波,直接通过二极管电路提取信号包络,电路简单但抗噪声性能较差,且存在“门限效应”。

3.1 幅度调制

介绍一下你所知道的幅度调制(AM、DSB-SC、SSB、VSB)

在模拟幅度调制(线性调制)中,核心思想是利用调制信号 m(t)m(t) 去控制高频载波的幅度。以下是四种主要体制的对比:

AM(标准调幅):最基础的广播模式

原理与公式:AM 通过在调制信号上叠加一个直流分量 A0A_0,确保已调信号的包络始终大于零。其表达式为

sAM(t)=[A0+m(t)]cosωcts_{AM}(t) = [A_0 + m(t)] \cos \omega_c t

调制指数:定义为 β=m(t)max/A0\beta = |m(t)|_{max} / A_0。为了避免出现“过调制”导致的包络失真,通常要求 β1\beta \leq 1
调制效率:由于载波分量不携带信息但消耗了大部分功率,其效率较低。最大调制效率(当调制信号为正弦波且 β=1\beta=1 时)仅为 1/3
解调方式:其最大的优点是可以使用结构简单的包络检波(非相干解调),大大降低了接收机的成本。

DSB-SC(抑制载波双边带调幅):追求功率效率

原理与公式:为了节省功率,DSB 直接将调制信号与载波相乘,去掉了 AM 中的直流分量。其表达式为

sDSB(t)=m(t)cosωcts_{DSB}(t) = m(t) \cos \omega_c t

调制效率:由于全部功率都集中在携带信息的两个边带上,其调制效率为 100%
解调方式:由于已调信号的包络不再直接对应 m(t)m(t)(相位在 m(t)m(t) 过零点处会突变 180°),因此无法使用包络检波,必须采用相干解调,即接收端需要一个同步的相干载波。

SSB(单边带调制):追求带宽效率

原理与公式:DSB 的两个边带是对称的,包含完全相同的信息。SSB 通过滤波器或相移法滤掉其中一个边带。其时域表达式通常利用希尔伯特变换表示为

sSSB(t)=12m(t)cosωct12m^(t)sinωcts_{SSB}(t) = \frac{1}{2}m(t)\cos \omega_c t \mp \frac{1}{2}\hat{m}(t)\sin \omega_c t

其中负号为上边带,正号为下边带。
带宽与效率:SSB 的带宽仅为 DSB 的一半,即 BSSB=fmB_{SSB} = f_m,极大地节省了频谱资源,且功率效率依然是 100%。
解调方式:同样必须使用相干解调

VSB(残留边带调制):折中的艺术

原理与公式:SSB 虽好,但陡峭的滤波器在物理上难以实现。VSB 介于 DSB 和 SSB 之间,它保留一个完整的边带,并残留一小部分另一个边带。只要滤波器的传输特性 H(ω)H(\omega) 在载频附近满足互补对称性,就能通过相干解调无失真地还原信号。
带宽与解调:其带宽略大于 SSB(通常为 1.15fm1.15f_m1.25fm1.25f_m)。这种方式既解决了 SSB 滤波器难以制作的问题,又比 DSB 节省了频带,常用于传统的模拟电视广播

3.2 模拟角度调制

简要介绍一下模拟角度调制(角度调制的基本概念:相位调制与频率调制、PM和FM的等效关系、最大相偏、最大频偏与调制指数的关系、角度调制信号的频谱特性(卡森公式和频偏比)、由卡森公式得到的启发:FM和PM对带宽和幅度的敏感度、窄带角度调制、调角信号的产生(VCO的直接调频法、阿姆斯特朗的间接调频法)、调角信号的接收)

角度调制:相位与频率的非线性变换

角度调制(Angle Modulation)是指载波的幅度保持不变,而将信息隐藏在载波的瞬时相位角中的调制方式。它分为相位调制(PM)频率调制(FM)

在 PM 中,瞬时相位偏移与调制信号 m(t)m(t) 成正比,表达式为

ϕ(t)=ωct+Kpm(t)\phi(t) = \omega_c t + K_p m(t)

在 FM 中,瞬时频率偏移与 m(t)m(t) 成正比,这意味着相位是 m(t)m(t) 的积分,表达式为

ϕ(t)=ωct+Kfm(t)dτ\phi(t) = \omega_c t + K_f \int m(t) d\tau

角度调制的通用形式可以表示为:

s(t)=Acos[ϕ(t)]s(t) = A \cos[\phi(t)]

相位调制 (PM)
瞬时相位偏移与调制信号 m(t)m(t) 成正比。其时域表达式为:

sPM(t)=Acos[ωct+Kpm(t)]s_{PM}(t) = A \cos[\omega_c t + K_p m(t)]

其中 KpK_p 为相位偏移常数。

频率调制 (FM)
瞬时频率偏移与 m(t)m(t) 成正比,这意味着相位是 m(t)m(t) 的积分。其时域表达式为:

sFM(t)=Acos[ωct+Kftm(τ)dτ]s_{FM}(t) = A \cos\left[ \omega_c t + K_f \int_{-\infty}^t m(\tau) d\tau \right]

其中 KfK_f 为频率偏移常数。

调制指数 β\beta 的定义与深度关系

在单音调制 m(t)=Amcos(ωmt)m(t) = A_m \cos(\omega_m t) 下,调制指数 β\beta 的关系如下:

相位调制指数 βp\beta_p

βp=Δϕmax=KpAm\beta_p = \Delta \phi_{max} = K_p A_m

其大小仅由调制信号的幅度决定,与调制频率 fmf_m 无关。

频率调制指数 βf\beta_f

βf=Δffm=KfAm2πfm\beta_f = \frac{\Delta f}{f_m} = \frac{K_f A_m}{2\pi f_m}

其大小由调制信号的幅度与频率共同决定(与频率成反比)。

核心结论:
无论 βp\beta_p 还是 βf\beta_f,它们在物理本质上都代表了已调信号的最大相位偏移量(单位为 radrad)。

PM 与 FM 的等效关系:由于频率是相位的导数,PM 和 FM 具有互换性。将 m(t)m(t) 先进行积分再送入调相器,得到的就是 FM 信号;同理,将 m(t)m(t) 先进行微分再送入调频器,得到的就是 PM 信号。这种等效关系使得在硬件实现时可以根据电路复杂度灵活选择。

偏方与调制指数的关系最大相偏 Δϕmax\Delta\phi_{max} 直接由 PM 的调制灵敏度决定;最大频偏 Δf\Delta f 则描述了 FM 瞬时频率偏离载频的最大值。对于单音调制,调制指数 β\beta 定义为最大相偏。在 FM 中,β=Δf/fm\beta = \Delta f / f_mfmf_m 为调制信号频率),它决定了已调信号频谱的开展程度。

频谱特性与卡森(Carson)公式:角度调制属于非线性调制,其频谱理论上包含无限多个分量。工程上使用卡森公式来估算其有效带宽:

B=2(Δf+fm)=2fm(β+1)B = 2(\Delta f + f_m) = 2f_m(\beta + 1)

其中 β\beta 也被称为频偏比。卡森公式启发我们:当 β1\beta \ll 1 时,信号称为窄带角度调制(NBFM/NBPM),其带宽与 AM 相同(2fm2f_m);而当 β\beta 较大时,FM 的带宽主要由最大频偏决定。这意味着 FM 可以通过牺牲带宽来换取极高的抗噪声性能,而 PM 的带宽对调制频率 fmf_m 更加敏感。

PM信号的带宽对消息信号的带宽与幅度都是敏感的,而FM信号的带宽对消息信号的带宽就不怎么敏感。显然,FM信号在应用时更容易控制一些。

调角信号的产生与接收:产生 FM 信号主要有两种方法。直接调频法利用压控振荡器(VCO)直接改变振荡频率,频偏大但中心频率稳定性差;阿姆斯特朗间接调频法则是先产生窄带 FM,再通过多次倍频器提高频偏和载频,这种方法频率稳定性极高。在接收端,FM 信号通常经过鉴频器(如斜率鉴频器或相位鉴频器)将频率变化转化为幅度变化,再进行包络检波还原信号。

当调制信号频率 fmf_m 提高时,FM 和 PM 的带宽如何变化?

  1. 对于 PMβp\beta_p 不变,由于卡森公式 B=2(β+1)fmB = 2(\beta + 1)f_m,带宽随 fmf_m 的增加而线性增加
  2. 对于 FM:当 fmf_m 提高时,βf\beta_f 会相应减小。这使得 FM 的带宽随 fmf_m 增加的变化趋势比 PM 平缓得多。

这种特性决定了 FM 在抗信道衰落和频率偏移方面具有比 PM 更优越的稳定性。

3.3 幅度调制系统的抗噪声性能

如何理解解调增益与系统增益

在分析模拟通信系统的抗噪声性能时,解调增益(也称解调信噪比改善倍数)与系统增益是衡量系统质量的核心指标。它们描述了信号在经过解调器处理后,其信噪比(SNR)发生的质变过程。

**解调增益(GG)**定义为解调器输出端的信噪比 So/NoS_o/N_o 与输入端信噪比 Si/NiS_i/N_i 的比值,即 G=So/NoSi/NiG = \frac{S_o/N_o}{S_i/N_i}。它的物理意义非常直观:它衡量了解调器本身在抑制噪声、提取有用信号方面的“功力”。例如,在单边带(SSB)调解中,虽然信号功率和噪声功率同时减半,但最终的解调增益 G=1G=1;而在宽带调频(FM)中,通过牺牲带宽,解调增益可以远大于 1,展现出极强的抗噪声能力。

系统增益(有时在某些教材中与解调增益混用,但严格来说有细微差别)更侧重于端到端的比较。它通常是将已调系统的输出信噪比,与基带直接传输(即不调制,直接发送 m(t)m(t))在相同功率、相同噪声背景下的信噪比进行对比。这种对比方式回答了一个根本问题:我们费时费力搞的这套调制体制,究竟比“裸传”强多少?

二者的联系与区别主要体现在参考基准上。联系在于它们都反映了系统抗干扰的优劣,且在很多体制(如 DSB)的计算结果中,数值往往是关联的。区别在于:解调增益 GG 是解调器前后的自我对比关注的是解调算法的效率;而系统增益是跨体制的横向对比,关注的是调制方式本身的优越性。例如,AM 信号由于存在不携带信息的载波分量,其解调增益虽然看起来尚可,但其系统增益(相对于基带传输)通常很低,因为大量功率被浪费在了载波上。

简要分析一下幅度调制系统的抗噪声性能,常规AM系统(非相干解调)、DSB-SC与AM(相干解调)系统、SSB系统

在分析幅度调制系统的抗噪声性能时,我们通常使用解调增益 GG 来衡量解调器对信噪比的改善程度。其核心结论在于:功率利用率越高,系统的整体抗干扰能力越强。

常规 AM 系统(非相干解调/包络检波):由于 AM 信号中包含一个不携带信息的直流载波分量,这部分功率在解调时被白白浪费。其解调增益 G=2η1+ηG = \frac{2\eta}{1+\eta},其中 η\eta 为调制效率。即使在 100%100\% 调制的理想情况下,其解调增益最大也仅为 2/32/3。这意味着 AM 系统的抗噪声性能较差。此外,当输入信噪比降低到一定程度时,包络检波会出现门限效应,此时噪声会像“大浪没过小船”一样完全淹没信号,导致解调质量剧烈恶化。

DSB-SC 与 AM(相干解调)系统:当采用相干解调时,系统利用本地同步载波与已调信号相乘,有效地将信号从噪声中“提取”出来。对于 DSB-SC,由于其功率利用率为 100%100\% 且相干解调能抑制一半的噪声分量,其解调增益 G=2G = 2。令人意外的是,如果对常规 AM 也采用相干解调,其解调增益同样可以达到理论计算值,且不再受门限效应困扰。但在相同发射功率下,由于 DSB-SC 没有载波损耗,其输出信噪比依然远高于常规 AM。

SSB 系统:单边带调制(SSB)在传输时滤除了一个边带,因此其带宽仅为 DSB 的一半。在解调过程中,虽然信号功率减半,但由于解调带宽也相应减半,进入系统的噪声功率同样减小了一半。最终计算得出 SSB 的解调增益 G=1G = 1。虽然从数值上看 1<21 < 2,但考虑到 SSB 在传输时比 DSB 节省了一半的发射功率,在最终输出信噪比的表现上,SSB 与 DSB 其实是完全等效的。SSB 的核心优势在于极高的频带利用率

简要分析一下角度调制系统的抗噪声性能,FM与PM的抗噪声性能、预加重/去加重技术、角度调制系统的噪声性能分析(解调器的门限效应、小信噪比情形,PM与FM的抗噪性能)、改善门限效应的方法(反馈解调器FMFB、锁相环解调器)

角度调制系统的抗噪声性能:以带宽换取信噪比的艺术

角度调制(尤其是宽带 FM)存在的根本意义在于,它打破了线性调制中信噪比提升受限的瓶颈,通过增加传输带宽来换取输出信噪比的剧烈改善。这种“带宽换信噪比”的机制是模拟通信史上的一次跨越,使得 FM 能够提供远超 AM 的音质和抗干扰能力。

角度调制信号的噪声性能分析:FM 与 PM 的差异

解调器输出端的噪声功率谱密度分布是理解两者的核心。在 PM 系统中,解调后的噪声功率谱是平坦的,这意味着所有频率成分的噪声贡献相同。而在 FM 系统中,解调后的噪声功率谱呈现抛物线形状,即高频部分的噪声功率随频率平方增加。这一特性导致 FM 在处理高频信号时,信噪比会显著恶化。

然而,FM 的解调增益 GG 与调制指数 β\beta 的平方成正比,这使得 宽带 FM 的抗噪性能远强于 PM 和所有线性调制

解调器的门限效应:小信噪比下的崩溃

角度调制作为一种非线性调制,必然存在门限效应。当输入信噪比降低到某个临界值(门限)以下时,解调器输出端会出现大量突发性的“咔哒”噪声,导致输出信噪比急剧下降,信号迅速淹没在噪声中。门限效应的存在意义在于提醒工程师,FM 的优势仅在强信号条件下成立;在弱信号(小信噪比)情形下,FM 的表现甚至不如 AM。为了在卫星通信等弱信号场景下生存,工程师开发了改善门限效应的方法,如使用反馈解调器 (FMFB)锁相环 (PLL) 解调器,通过降低解调器的有效带宽来压低门限,使系统在极低信噪比下仍能正常工作。

预加重与去加重技术:针对 FM 缺陷的精准补偿

既然 FM 解调输出的噪声在高频段更高,那么通过预加重/去加重技术进行补偿就显得至关重要。其存在的因果逻辑是:由于语音或音乐信号的高频能量通常较弱,我们可以先在发送端人为地提升高频分量的强度(预加重),然后在接收端解调后再将高频分量压低还原(去加重)。在去加重的过程中,高频噪声被同步压低,而有用信号恢复正常。这一技术不仅填补了 FM 噪声分布不均的缺陷,还进一步提升了系统的总信噪比,是 FM 广播音质优于 AM 的关键法宝。

比较一下各类模拟通信系统(比较AM、DSB-SC、SSB、VSB、FM、PM,是否线性调制、传输带宽(有效性),系统增益(可靠性)、实现难以程度)

线性调制系统:AM、DSB-SC、SSB、VSB
这类系统通过线性手段将信号搬移至高频。AM 具有最简单的实现难度(包络检波),但其系统增益 GSYSG_{SYS} 与调制效率相关(ηAM\eta_{AM}),在所有体制中可靠性最低DSB-SCVSB 虽然实现较为复杂,但系统增益提升至 1。在带宽有效性方面,SSB 的传输带宽最小(仅为 BB),代表了线性调制的最高有效性,但其实现难度也最高。

非线性调制系统:FM、PM
角度调制(FM 和 PM)属于非线性调制。它们存在的因果逻辑是以牺牲系统的有效性(传输带宽)来换取系统可靠性(抗噪声性能)的提升。FM 和 PM 的传输带宽均远大于线性调制,计算公式为 2(β+1)B2(\beta + 1)B。在系统增益方面,当工作在门限以上时,FM 的可靠性最高GSYS=1.5βFM2G_{SYS} = 1.5\beta_{FM}^2),显著优于线性调制系统。此外,角度调制信号幅度恒定,具有不怕非线性失真的独特优势,能够有效应对无线信道的快衰落问题。

综合对比总结表

调制方式 线性与否 传输带宽 (有效性) 系统增益 GSYSG_{SYS} (可靠性) 实现难易程度
AM 线性 2B2B m2(t)1+m2(t)=ηAM\frac{\overline{m^2(t)}}{1+\overline{m^2(t)}} = \eta_{AM} 最简单
DSB-SC 线性 2B2B 11 复杂
SSB 线性 BB (最窄) 11 最复杂
VSB 线性 B\approx B 11 复杂
FM 非线性 2(βFM+1)B2(\beta_{FM}+1)B 1.5βFM21.5\beta_{FM}^2 (最高) 简单
PM 非线性 2(βPM+1)B2(\beta_{PM}+1)B 0.5βPM20.5\beta_{PM}^2 稍复杂

核心结论

  • 有效性(带宽)排序BFM(或 BPM)>BDSB_SC(或 BAM)>BSSB(或 BVSB)B_{FM}(\text{或 } B_{PM}) > B_{DSB\_SC}(\text{或 } B_{AM}) > B_{SSB}(\text{或 } B_{VSB})
  • 可靠性(抗噪)排序:在门限以上时,FM(或 PM)>DSB_SC(或 SSB,VSB)>AMFM(\text{或 } PM) > DSB\_SC(\text{或 } SSB, VSB) > AM

简要介绍一下复用(FDM、TDM、CDM,模拟电话系统中的FDM)

复用技术:多路信号共用信道的艺术

复用技术存在的意义在于提高信道的利用率,通过特定的分割手段,使多路彼此独立的信号在同一物理信道中传输而互不干扰。

频分复用(FDM):频谱的切片
频分复用是将信道的总带宽划分为若干个互不重叠的频段,每路信号占用其中一个子频段进行传输。为了防止相邻信道之间的相互干扰,各子频段之间通常需要预留保护频带。FDM 广泛应用于模拟通信,其核心优势在于技术成熟,能够实现多路信号的同时传输。

模拟电话系统中的 FDM:层级化的群路架构
在传统的模拟电话交换网中,FDM 采用了严格的等级制度来合并话路。最基本单元是标准话路(带宽为 4kHz),通过多级调制,将 12 个话路合并为一个基群;接着将 5 个基群合并为一个超群(包含 60 个话路);再将 10 个超群合并为一个主群(包含 600 个话路)。这种层级结构使得单根同轴电缆或微波链路能够支撑数千对用户同时通话。

时分复用(TDM):时间的轮转
时分复用则是将传输时间划分为互不重叠的时间片(时隙),每路信号在预定的时隙内独占整个信道带宽。TDM 的因果逻辑源于信号的抽样理论,只要抽样频率足够快,我们就可以在两个抽样脉冲之间插入其他信号的抽样值。它与数字通信天然兼容,是目前现代通信网络(如 PCM 系统)的基础。

码分复用(CDM):数学正交的魔法
码分复用(通常指 CDMA)既不分频率也不分时间,所有用户在同一时间、同一频率上发送信号。它存在的物理依据是正交码序列。每个用户被分配一个唯一的、彼此正交的地址码(码型),接收端通过相关的数学运算,能够从混合的乱码信号中精准地“滤”出属于自己的那一部分信息。这种方式具有极强的抗干扰能力和保密性,曾是 3G 移动通信的核心。

有没有一些模拟调制的应用举例

模拟调制技术不仅是理论模型,更是现代通信发展的基石。通过以下三个经典应用,可以清晰地看到这些理论是如何转化为实际工程逻辑的:

无线电 AM 广播中的超外差接收机:频谱搬移的二次进化
为了解决直接放大式接收机选择性差和高频放大不稳定的问题,超外差(Superheterodyne)技术被引入。其核心因果在于:它不直接在接收频率上进行解调,而是利用一个本地振荡器产生 fLf_L,通过混频器将接收到的高频信号 fcf_c 搬移到一个固定的中频(IF,通常为 465kHz)上。这样做存在的意义是,中频放大器可以设计得非常精细,从而极大地提高了接收机的选择性和灵敏度,最后再通过包络检波还原出音频信号。

立体声 FM 广播中的 FDM 与兼容性设计:频谱的精妙重叠
FM 立体声广播是频分复用(FDM)兼容性设计的典范。为了让单声道收音机也能收听,工程师将左路加右路(L+R)信号放在基带。而为了实现立体声,将左路减右路(L-R)信号通过 DSB-SC 调制到 38kHz 的副载波上。这种设计的精妙之处在于:单声道收音机只取基带部分,而立体声收音机则通过 19kHz 的导频信号恢复出 38kHz 载波,从而解调出 L-R,最后通过 (L+R)±(LR)(L+R) \pm (L-R) 还原出左右声道。这既保证了频谱的有效利用,又完美兼容了旧设备。

模拟电视广播中的 VSB:带宽与复杂度的终极折中
在传统的模拟电视传输中,图像信号的带宽极大(约 6MHz)。如果使用 DSB 传输,则需要 12MHz,太浪费频谱;如果使用 SSB,则由于图像信号包含大量的低频直流分量,对滤波器的陡峭度要求高到物理上无法实现。**残留边带调制(VSB)存在的意义正是为了解决这一矛盾:它保留一个完整的边带,并残留一小部分(约 0.75MHz)**另一个边带。这种设计既压缩了带宽(有效性),又允许接收端使用相对简单的准相干解调,是模拟电视时代的全球标准。

四、数字基带传输

数字基带传输:信息的离散化表达

数字基带传输是指不经过载波调制,直接在信道中传输数字基带信号(由 0 和 1 组成的离散脉冲序列)的过程。它存在的物理意义在于,利用有限个离散的波形状态来代表信息,从而在接收端通过判决而非简单的放大来还原信号。这种方式是现代局域网、计算机接口以及短距离有线传输的核心。

数字传输与模拟传输的对比:可靠性与有效性的博弈

  • 抗噪声性能(可靠性):这是数字传输最显著的优势。模拟传输中,噪声会直接叠加在波形上且无法消除,只能随信号一起放大;而数字传输通过再生中继技术,只要噪声没有大到让 0 误判为 1,就可以在每一级中继站将波形“彻底整型”,消除积累的噪声。
  • 频谱利用率(有效性):模拟传输通常对带宽利用比较紧凑(如 SSB);数字传输由于离散脉冲具有丰富的谐波分量,通常需要更宽的带宽。但数字传输可以通过**多进制调制(M-ary)**或现代压缩算法来弥补这一缺陷。
  • 硬件实现与集成度:模拟系统依赖于高精度的电感、电容等分立元件,易受环境影响;数字系统则依赖于大规模集成电路(LSI),不仅稳定性高、抗干扰能力强,而且极大地方便了加密和多路复用。
  • 系统设计的重点:模拟传输的核心是**信噪比(SNR)的提升;数字传输的核心则是误码率(BER)**的降低。

总结: 模拟传输是“模仿”自然界的连续波动,虽直观但脆弱;数字传输是“描述”世界,虽抽象但极其坚固。

4.1 二元与多元数字基带信号

有什么二元PAM码型

在数字基带传输中,PAM(脉冲振幅调制)信号通过不同的波形电平来携带二进制信息。这些波形的构造直接决定了信号的功率谱特性以及是否包含自同步信息。

  1. 常见的二元 PAM 码型
  • 单极性不归零码 (Unipolar NRZ):用高电平表示“1”,零电平表示“0”。由于电平在整个码元持续时间 TBT_B 内保持不变,其频带利用率高,但含有直流分量,无法在含有隔直变压器的信道中传输。
  • 双极性不归零码 (Bipolar NRZ):用正电平表示“1”,负电平表示“0”。其存在的物理意义在于,当“0”和“1”等概出现时,直流分量为零,且由于正负电平拉开了距离,其抗噪声性能优于单极性码。
  • 单极性归零码 (Unipolar RZ):信号在表示“1”时,仅在码元前半部分为高电平,后半部分回到零电平。这种“归零”特征使得信号频谱中含有位同步分量(时钟分量),便于接收端提取同步信号。
  • 双极性归零码 (Bipolar RZ):正脉冲表示“1”,负脉冲表示“0”,且每个脉冲都在码元结束前回到零。它兼具了双极性的无直流特性和归零码的同步特性
  • 差分码 (Differential Code):又称相对码。它不是用电平本身的绝对值来表示信息,而是利用相邻码元电平的跳变或不变来代表“1”或“0”。

  1. 关键特性对比分析
比较维度 核心区别与存在意义
单极性 vs. 双极性 单极性电路简单,但含有直流,判决电平受信号强度影响;
双极性无直流分量,判决电平固定为 0,抗干扰能力更强。
不归零 (NRZ) vs. 归零 (RZ) NRZ 的脉冲宽,频谱主瓣窄,带宽利用率高;
RZ 的脉冲窄(占空比通常为 50%),虽然带宽翻倍,但它在频谱中产生了分立的时钟频率分量,解决了自同步问题。
绝对码 vs. 相对码 (差分码) 绝对码依赖电平的绝对极性,易受系统“相位倒置”影响(导致全收反);
相对码利用相位增量传信,能有效克服设备初始相位模糊带来的判决错误,是差分相移键控(DPSK)的基础。

二元PAM和多元PAM的关系?

在数字基带传输中,二元与多元 PAM 信号(Pulse Amplitude Modulation)是描述信息离散化程度的两种基本形式,它们之间既有紧密的逻辑继承,又存在性能上的核心博弈。

  1. 核心联系:比特与符号的映射

二元 PAM 是多元 PAM 的基础。通常 MM 进制序列可以视为由二进制序列转换而来,转换时将每 KK 个比特映射为一个 MM 进制符号(即 M=2KM=2^K)。例如,2PAM 只有两种电平(如 +1,1+1, -1),接收端只需一个参考电平即可判决;而 4PAM 则将两个比特结合,产生四种可能的电平取值。这种通过增加电平种类来承载更多比特的方式,就是从二元向多元进化的逻辑核心。

  1. 核心区别:有效性与可靠性的权衡
  • 接收复杂度与抗噪性(可靠性):2PAM 接收最简单,抗干扰能力强。相比之下,多元 PAM(如 256PAM)拥有极多电平,在功率受限的物理系统中,过多的电平意味着电平间距变小,极易受噪声干扰导致判决错误,对接收机的分辨率要求也更高。
  • 传输速率与带宽(有效性):发送同样长度的数据序列时,若采用相同宽度的脉冲,2PAM 需要更长的传输时间。若要求在相同时间内传完,2PAM 必须采用更窄的脉冲,而窄脉冲意味着信号占用的带宽更大。因此,多元 PAM 存在的意义在于通过牺牲可靠性来提高频带利用率
  1. MPAM 信号的产生

产生 MPAM 信号的一般过程是将二进制序列 {bn}\{b_n\} 进行 KK 位合并,形成 MM 元符号序列 {an}\{a_n\},再通过脉冲形成滤波器 gT(t)g_T(t) 得到最终波形。其数学一般表达式为:

s(t)=n=+angT(tnTs)s(t) = \sum_{n=-\infty}^{+\infty} a_n g_T(t - nT_s)


研究这些不同进制的信号,本质上是为了在复杂的信道环境下寻找最优的传输方案,这最终引出了我们关心的两个基本问题:① 传输速率有多少? ② 功率谱是什么和占用多少带宽?

描述数字基带系统传输数据的速率有两种方式,一个是符号速率,一个是比特率,两者有何联系?

在数字基带系统中,描述数据传输速率的两种方式分别是符号速率比特率。它们从不同的维度衡量系统的传输能力,其核心逻辑如下:

符号速率(码元速率,RsR_s
符号速率是指单位时间内传输的码元(符号)个数,单位为 Baud(波特)。每一个码元代表了 MM 进制序列中的一个可能取值,它由特定的传输脉冲 gT(t)g_T(t) 承载。

比特率(信息速率,RbR_b
比特率是指单位时间内传输的平均信息量,单位为 bit/s(比特每秒)。它反映了系统实际传递数据的快慢。

两者之间的联系
MM 进制脉冲振幅调制(MPAM)中,每个 MM 元符号可以携带 K=log2MK = \log_2 M 个比特的信息。因此,两者之间的数学转换关系为:

Rb=Rslog2MR_b = R_s \log_2 M

这种联系带来的工程启示:

  • 对于二元系统(2PAM):由于 M=2M=2log22=1\log_2 2 = 1,此时符号速率在数值上等于比特率。
  • 对于多元系统(MPAM):由于每个符号代表多个比特(如 4PAM 对应 2 比特,256PAM 对应 8 比特),在传输相同比特率的数据时,多元系统的符号速率更低。这意味着信号的脉冲可以变宽,从而减小信号占用的带宽,提高频带利用率

4.2 数字基带信号的功率谱与带宽

数字基带信号的功率谱和带宽如何?

在数字基带传输系统中,研究功率谱密度(PSD)的目的是确定信号的能量分布,从而计算其占用的带宽。数字 PAM 信号的功率谱由连续谱(决定能量主瓣)和离散谱(提供位同步时钟分量)两部分组成。

2PAM 与 MPAM 的功率谱关系
数字 PAM 信号的功率谱密度由相应序列的自相关函数 Ra(k)R_a(k) 与所用脉冲的频谱特性 GT(f)G_T(f) 决定。只要设计好这两者,就可以控制功率谱的形状。实验证明,PAM 信号的功率谱与它的元数 MM 无关,即 2PAM 与多元 PAM 信号具有同样的功率谱

常见二元码型功率谱特性对比
根据教材公式

Ps(f)=σa2TsGT(f)2+ma2Ts2GT(kTs)2δ(fkTs)P_s(f) = \frac{\sigma_a^2}{T_s}|G_T(f)|^2 + \frac{m_a^2}{T_s^2}\sum |G_T(\frac{k}{T_s})|^2\delta(f-\frac{k}{T_s})

不同码型的区别主要在于其均值 mam_a 和方差 σa2\sigma_a^2

在数字基带传输中,码型的选择直接决定了信号的功率谱分布和带宽需求。根据教材对功率谱密度公式 Ps(f)P_s(f) 的推导,不同码型在离散谱(直流/同步分量)和第一零点带宽(有效性)上存在显著差异。

二元基带信号码型对比表
下表针对矩形脉冲波形,对比了四种基本码型的核心物理特性:

码型名称 符号表示 是否含离散谱 第一零点带宽 BTB_T 特性与存在意义
单极性 NRZ {0,A}\{0, A\} 含直流分量 RbR_b 含有强烈的直流功率;判决门限与信号幅度有关,稳定性差。
双极性 NRZ {A,+A}\{-A, +A\} 无离散谱 RbR_b 均值为零,无直流分量;抗噪声性能好,但无法直接提取位同步时钟。
单极性 RZ {0,A}\{0, A\} 含直流及 f=Rbf=R_b 时钟分量 2Rb2R_b 可直接提取位同步时钟信号;但带宽比 NRZ 加倍,频谱效率较低。
双极性 RZ {A,+A}\{-A, +A\} 取决于对称性 2Rb2R_b 兼具无直流特性(对称时)和同步潜力,但带宽占用同样较大。

关键结论分析

  1. 带宽权衡:不归零(NRZ)码的脉冲宽度等于码元间隔 TbT_b,而归零(RZ)码的脉冲通常只占半个时隙(占空比 50%)。 根据时频对偶原理,时域脉冲窄了一半,频域的第一零点带宽就增加了一倍。
  2. 同步能力:单极性 RZ 码在频谱中会出现位于 RbR_b 处的离散线谱,这使得接收端可以直接通过窄带滤波器提取位同步时钟,而 NRZ 码通常需要经过非线性变换(如平方律处理)才能提取时钟。
  3. 功率谱与元数无关:需要注意的是,2PAM 与 MPAM 在采用相同脉冲形状时,其功率谱密度曲线的形状是完全一致的,区别仅在于多进制信号通过降低 RsR_s 来压缩了带宽的绝对值。

带宽分析:2PAM vs. MPAM
矩形 MPAM 信号的绝对带宽无穷大,通常采用第一零点带宽 BTB_T 作为衡量标准。

  • 计算公式BT=1/Ts=Rs=Rb/KB_T = 1/T_s = R_s = R_b / K(其中 K=log2MK = \log_2 M)。
  • 对比结论:在相同信息速率 RbR_b 的情况下,2PAM 的带宽 BT=RbB_T = R_b;而 MPAM 的带宽 BT=Rb/KB_T = R_b/K
  • 存在意义MM 越高,越节约带宽(有效性强),但抗噪声性能越弱,且要求接收器具有优良的幅度分辨率(可靠性差)。

4.3 二元信号的接收方法与误码分析

二元信号的误码分析有什么重要知识

二元信号的两种接收方法

在数字基带传输过程中,信道总是存在噪声与干扰(如加性高斯白噪声 AWGN),使传输信号的电平发生改变,从而造成接收错误。

image-20260309183756080

image-20260309183811716

  • 利用低通滤波(LPF)的基本接收方法:这是一种简单实用的平滑技术,通过 LPF 抑制噪声,随后在特定时刻进行抽样。对于矩形 NRZ 信号,LPF 的带宽既要足够宽以保证信号完整通过,又要相当窄以最大限度滤除噪声,实际中通常取 B2RsB \geq 2R_s
  • 利用匹配滤波的最佳接收方法:这是检测已知信号幅度的最佳措施,其原理是使输出信号在抽样时刻的信噪比达到最大。

性能对比与结论

  • 抗噪性能:在抗 AWGN 能力上,双极性信号比单极性信号抗噪声性能好 3dB。
  • 对比结果:匹配滤波器接收系统比 LPF 接收系统的抗噪声性能至少好 3dB,若 LPF 带宽取宽,则性能差距会更大

匹配滤波器 (Matched Filter)

匹配滤波器是数字基带传输中抑制噪声、提高判决准确性的核心部件。

  • 基本定义:对于有限时间信号 s(t)s(t),其匹配滤波器的冲激响应 h(t)h(t) 是信号的反转平移形式,即 h(t)=s(t0t)h(t) = s(t_0 - t)
  • 物理意义它能将匹配信号的能量累积起来,并在 t0t_0 时刻提供最大输出信噪比,因为它使信号成分最大程度地超过了背景噪声。
  • 重要特性:匹配滤波器在时刻 t0t_0 的最大输出信噪比仅取决于信号能量 EsE_s 与噪声功率谱密度 N0N_0 的比值(2Es/N02E_s/N_0),而与信号的具体形状无关。

误码过程的详细分析

数字系统的误码分析展示了从噪声干扰到最终判决的完整逻辑:

  • 噪声造成抽样值的随机性:由于叠加了噪声,接收端的抽样值 rr 变成了随机变量。发送“0”码元时,抽样值服从均值为 ys0y_{s0} 的高斯分布;发送“1”码元时,服从均值为 ys1y_{s1} 的高斯分布。
  • 判决规则与误判概率:接收系统通过比较抽样值 rr 与门限 VTV_T 来判断。如果 rVTr \geq V_T 则判为 1,否则判为 0。误判表现为发送 0 时抽样值落在 VTV_T 右侧,或发送 1 时落在 VTV_T 左侧。
  • 最佳门限与平均误码率:为了使平均误码率最小,需要选择最佳判决门限 VTV_T。在等概发送的情况下,最佳门限位于两个发送电平的中心。
  • 最佳接收机及最小误码率
    • 双极性信号:采用匹配滤波器时的最小误码率为 Pe=Q(2Eb/N0)P_e = Q(\sqrt{2E_b/N_0})
    • 单极性信号:最小误码率为 Pe=Q(Eb/N0)P_e = Q(\sqrt{E_b/N_0})

二元信号的接收方法:LPF 与 匹配滤波器

接收系统的核心在于抑制噪声以提高判决的准确性。除了基本的低通滤波(LPF)接收,匹配滤波器(Matched Filter)是检测已知信号幅度的最佳措施,其原理是使输出信号在抽样时刻的信噪比(SNR)达到最大化。

  • LPF 接收系统:利用低通滤波器平滑波形并抑制噪声。对于矩形 NRZ 信号,LPF 的带宽 BB 既要足够宽以保证信号通过,又要足够窄以滤除噪声,实际中通常取 B2RsB \geq 2R_s 才能获得良好的信号波形。其最佳判决门限 VTV_T 通常取在两种脉冲电平的中间,例如双极性信号取 VT=0V_T=0,单极性信号取 VT=A/2V_T=A/2
  • 匹配滤波器接收系统:匹配滤波器的冲激响应 h(t)h(t) 应当是传输脉冲 gT(t)g_T(t) 的反转平移形式,即 h(t)=kgT(Tst)h(t) = kg_T(T_s - t)。其最大输出信噪比仅取决于信号能量 EsE_s 与噪声功率谱密度 N0N_0 的比值(即 2Es/N02E_s/N_0),而与信号的具体波形形状无关。

误码性能的深度对比

通过对误码过程的分析,我们可以得到不同接收方案下主要 2PAM 系统的误比特率 PbP_b 对比表:

表 4.3.1 主要 2PAM 数字基带传输系统的 PbP_bEbE_b 为平均比特能量)

信号模式 最佳接收系统(匹配滤波器) LPF 接收系统(考虑矩形 NRZ,取 B=1/TsB=1/T_s
双极性 2PAM Q(2EbN0)Q\left(\sqrt{\frac{2E_b}{N_0}}\right) Q(A2N0B)=Q(EbN0)Q\left(\sqrt{\frac{A^2}{N_0 B}}\right) = Q\left(\sqrt{\frac{E_b}{N_0}}\right)
单极性 2PAM Q(EbN0)Q\left(\sqrt{\frac{E_b}{N_0}}\right) Q(A24N0B)=Q(Eb2N0)Q\left(\sqrt{\frac{A^2}{4N_0 B}}\right) = Q\left(\sqrt{\frac{E_b}{2N_0}}\right)

关键结论与由来

  • 双极性 vs 单极性:在相同的 Eb/N0E_b/N_0 条件下,双极性信号比单极性信号抗噪声性能好 3dB
  • 匹配滤波器 vs LPF:匹配滤波器接收系统比 LPF 接收系统的抗噪声性能至少好 3dB。如果 LPF 的带宽取得更宽,则两者的性能差距会进一步加大。
  • 最佳基带传输组合:最佳的数字基带传输系统应当采用双极性信号结合匹配滤波器的接收方案。

典型信号模式下的判决参数汇总

根据不同的接收机设计,最佳判决门限 VTV_T 及相关参数 ys0y_{s0}(发送 0 时的抽样值)、ys1y_{s1}(发送 1 时的抽样值)汇总如下:

表 4.3.3 典型信号模式与接收滤波器的参数对照

信号模式 接收滤波器 ys0y_{s0} ys1y_{s1} σn2\sigma_n^2 VTV_T (等概)
双极性 LPF A-A +A+A N0BN_0 B 00
单极性 LPF 00 +A+A N0BN_0 B A/2A/2
双极性 匹配滤波器 Es-E_s +Es+E_s N0Es/2N_0 E_s / 2 00
单极性 匹配滤波器 00 +2Es+2E_s N0EsN_0 E_s EsE_s

重要工程启示
对于双极性 2PAM 信号,无论采用何种接收滤波器,其最佳判决门限 VTV_T 恒为 0。而单极性信号的 VTV_T 会随着系统接收滤波器的增益变化而改变。因此,双极性系统不仅性能更好,而且判决门限更容易确定,具有极高的工程实用价值。

波形无关性结论:**只要码元的平均能量 EbE_b 相同,误码率 PeP_e 的结论与信号的具体形状(如 NRZ、RZ、矩形或非矩形)无关。**这是匹配滤波器最重要的有趣特性之一。


总结:知识点的串联

二元信号的接收本质上是信噪比的优化过程。我们利用匹配滤波器在时域最大化能量累积(其性能仅关乎能量 EbE_b),随后根据噪声引起的高斯分布特性设置最佳判决门限

关键工程结论

  1. 双极性优于单极性:在相同误码率要求下,双极性信号比单极性信号好 3dB,即只需要一半的能量。
  2. 波形普适性:只要码元的平均能量 EbE_b 相同,无论信号是 NRZ、RZ、矩形还是非矩形脉冲,其匹配滤波器给出的误码率结论都是一致的。

4.4 多元信号的接收方法与误码分析

多元基带传输(MPAM)是二元基带传输的扩展。其核心区别在于脉冲电平的多样化,即一个码元可以承载 K=log2MK = \log_2 M 个比特的信息。

1. 接收方法与判决准则

MPAM 信号在 AWGN 信道中的接收系统架构与二元系统相似,但判决逻辑更为复杂:

  • 最佳接收滤波器:为了获得最佳抗噪声性能,接收端同样采用匹配滤波器,其冲激响应为 h(t)=kgT(Tst)h(t) = kg_T(T_s - t)
  • 多元判决器:与二元系统仅需一个门限不同,M 元信号需要 M1M-1 个判决门限VT1,VT2,,VT(M1)V_{T1}, V_{T2}, \dots, V_{T(M-1)})来区分 MM 种不同的电平状态。
  • 抽样与判决:在每个码元的末端(nTsnT_s 处)进行抽样。若抽样值 rnr_n 落在相邻两个门限之间,则判定为对应的 MM 进制符号。

2. 误码性能分析

多元系统的误码分析不仅关注符号错误,还关注比特错误:

  • 符号误码率 (PeP_e):在最佳接收(匹配滤波+最佳门限)条件下,其公式为:

Pe=2(M1)MQ(6M21×EsN0) P_e = \frac{2(M-1)}{M} Q\left(\sqrt{\frac{6}{M^2-1} \times \frac{E_s}{N_0}}\right)

其中 EsE_s 为平均每符号能量。

  • 误比特率 (PbP_b):由于一个符号对应多个比特,通常使用 PbP_b 来衡量系统性能。在采用格雷码的情况下,PbPe/log2MP_b \approx P_e / \log_2 M
  • 可靠性代价随着元数 MM 的增大,传输系统的抗噪性能将会下降。为了保证同样的 PbP_b,所需的信噪比(Eb/N0E_b/N_0)会显著增加。例如 MM 每增大一倍,所需的信噪比增量开始约为 4dB,随后趋近于 6dB。

3. 格雷编码 (Gray Coding)

为了在符号出错时尽量减少比特错误,MPAM 系统广泛采用格雷码:

  • 核心特性:相邻的符号电平对应的二进制比特串中只有 1 位不同
  • 存在意义:在实际传输中,电平最容易错成相邻的电平。格雷码确保了这种最常见的符号错误只造成 1 个比特错误,从而使系统的误比特率性能达到最优。

4. MPAM 与 2PAM 的综合对比

特性指标 二元基带 (2PAM) 多元基带 (MPAM)
有效性 (带宽) 码元速率高,占用带宽大 码元速率低,显著节约带宽
可靠性 (功率) 判决门限简单,抗噪性能强 电平密集,抗噪性能随 M 增加而下降
实现难度 最简单(仅需一个参考电平) 较复杂(需精细的幅度分辨和多门限判决)

结论:多元系统本质上是以牺牲系统的可靠性(功率)来换取有效性(带宽)

4.5 码间串扰与带限信道上的传输方法

如何理解信道不理想会导致信号的脉冲展宽?

一、 核心逻辑链条
非理想信道特性 → 时域/频域扭曲 → 脉冲展宽 (Pulse Broadening)码间串扰 (ISI) → 误码率上升

二、 两种主要的失真机制

1. 幅频失真 (Amplitude Distortion)

  • 现象: 信道对不同频率成分的衰减程度不同(如带宽受限导致的低通特性)。
  • 物理理解: 数字脉冲的“陡峭边缘”由高频成分支撑。
    • 高频丢失 = 失去棱角。原本瞬时的跳变变成了缓慢的爬升。
  • 结果: 脉冲边缘变得圆滑,能量从中心向两侧“溢出”,导致波形在时域上变胖。

2. 相频失真 (Phase Distortion / 时延失真)

  • 现象: 信道的相位特性 ϕ(ω)\phi(\omega) 是非线性的,导致群时延 (τg\tau_g) 随频率变化。
    • 公式直观:τg(ω)=dϕ(ω)dωConst\tau_g(\omega) = -\frac{d\phi(\omega)}{d\omega} \neq \text{Const}
  • 物理理解(最关键):
    • 不同频率成分跑得快慢不一: 高频分量和低频分量在信道中的传输时间不同。
    • 波组散架: 原本在发送端“齐头并进”的所有分量,到达接收端时因为到达时间不一,导致相位错位
  • 结果: 脉冲能量在时间轴上被拉散(Dispersion),峰值降低,基座变宽

三、 深度对比表

特性指标 理想信道 (无失真) 非理想信道 (有失真) 导致的物理结果
幅频特性 A(ω)A(\omega) 恒定常数 (平坦) 随频率变化 (不平坦) 边缘变圆、能量溢出
相频特性 ϕ(ω)\phi(\omega) 线性 (过原点直线) 非线性 (曲线) 成分掉队、时域散架
群时延 τg\tau_g 恒定常数 (同步到达) 随频率变化 (先后到达) 脉冲展宽

四、 为什么“展宽”是万恶之源?
在数字通信中,码元是以周期 TBT_B 连续发送的:

  1. 独立性破坏: 展宽后的脉冲宽度超过了原本的码元周期。
  2. 码间串扰 (ISI): 前一个码元的“屁股”(拖尾)重叠在了当前码元的“采样点”上。
  3. 判决困难: 接收端在采样时刻看到的电压是多个码元能量的叠加,导致 0/1 判决模糊

五、 面试高频 Q&A 总结

  • Q:为什么相位非线性不会改变单个频率的强度,却让总脉冲变弱了?
    • A: 因为能量在时间上散开了。就像合唱团,如果大家节奏一致(线性相位),声音最响亮;如果大家节奏错位,虽然每个人的音量没变,但合在一起的爆发力(峰值强度)就大大减弱了。
  • Q:如何修补这种展宽?
    • A: 引入均衡技术 (Equalization)
      • 时域均衡: 利用横向滤波器消除拖尾。
      • 频域均衡: 补偿信道特性,使其趋近于理想无失真条件。

如何理解码间串扰?(原理、产生的原因、频域和时域的表现、必要的公式讲解、奈奎斯特准则、解决方法、后续结合匹配滤波器等)

在实际通信中,所有信道的带宽都是有限的。当数字信号通过带宽受限的非理想信道时,会产生严重的波形失真。根据傅里叶分析,信号脉冲越陡峭(上升沿和下降沿越快),其频谱就越宽;如果信号在传输过程中高频信息丢失或者导致不同频率成分出现衰减,所以信号脉冲就会出现展宽。

1. 码间串扰(ISI)的原理与产生原因

  • 物理本质:信道频率响应 C(f)C(f) 在给定带宽内不平坦或带宽受限,导致信号脉冲展宽。
  • 时域表现:由于传输后的脉冲存在“前导”与“拖尾”,其能量会渗透到相邻码元的抽样时刻。
  • 数学表达:抽样值 rn=anh(0)+mnamh(nTsmTs)+yn(nTs)r_n = a_n h(0) + \sum_{m \neq n} a_m h(nT_s - mT_s) + y_n(nT_s)
    • 第一项:当前期望接收的码元。
    • 第二项:由前后码元残留成分引起的码间串扰 (ISI)
    • 第三项:加性噪声的影响。

2. 奈奎斯特(Nyquist)准则:无 ISI 的充要条件

为了消除串扰,必须设计系统总的冲激响应 h(t)h(t),使其在抽样点上满足特定条件。

  • 时域条件h(nTs)=1h(nT_s) = 1 (当 n=0n=0) 且 h(nTs)=0h(nT_s) = 0 (当 n0n \neq 0)。
  • 频域条件:系统总频率响应 H(f)H(f)Rs=1/TsR_s=1/T_s 周期重复叠加后应为常数:

    k=+H(fkTs)=Ts\sum_{k=-\infty}^{+\infty} H(f - \frac{k}{T_s}) = T_s

  • 物理意义:只要 H(f)H(f)Rs/2R_s/2 处具有奇对称幅度特性,即可实现无 ISI 传输。

3. 带限信道下的传输限制

  • 奈奎斯特速率:带宽为 WW 的基带信道,每秒最多能传输 2W2W 个码元。
  • 最小带宽:码速率为 RsR_s 的信号,理论上最少需要 Rs/2R_s/2 的带宽。
  • 理想低通的问题:虽然理想矩形谱能达到最高效率,但其时域拖尾按 1/t1/t 缓慢衰减,对定时误差极其敏感,工程上不可用。

4. 工程解决方法:升余弦滚动降(RC)滤波器

为了克服理想低通的缺陷,工程上采用沿边较为平缓的升余弦特性。

  • 滚动因子 α\alpha:取值 0α10 \leq \alpha \leq 1,控制带宽增加的程度。
  • 带宽公式W=(1+α)f0=1+α2TsW = (1+\alpha)f_0 = \frac{1+\alpha}{2T_s}
  • 优点α\alpha 越大,时域脉冲衰减越快,对定时偏移的容忍度越高。
  • 频带利用率η=21+α (Baud/Hz)\eta = \frac{2}{1+\alpha} \text{ (Baud/Hz)}

5. 最佳基带传输系统:结合匹配滤波器

在带限 AWGN 信道中,最佳系统需同时满足无 ISI最小误码率

  • 设计方法:将总的升余弦响应 HRC(f)H_{RC}(f) 均匀分配给发送和接收端。
  • 平方根升余弦 (SRC):令 GT(f)=GR(f)=HRC(f)|G_T(f)| = |G_R(f)| = \sqrt{H_{RC}(f)}
  • 结论:此时接收滤波器恰好是发送脉冲的匹配滤波器,抽样时刻信噪比最大,且系统总响应满足奈奎斯特准则,无 ISI。

如何理解奈奎斯特准则

深度解析:奈奎斯特准则的频域叠加原理

奈奎斯特无 ISI 传输的数学推导

  • 目标函数: 抽样后信号 hs(t)=h(nTs)δ(tnTs)=δ(t)h_s(t) = \sum h(nT_s)\delta(t-nT_s) = \delta(t)
  • 频域等价: Hs(f)=F{hs(t)}=常数H_s(f) = \mathcal{F}\{h_s(t)\} = \text{常数}
  • 卷积展开: Hs(f)=1Tsk=H(fkRs)=TsH_s(f) = \frac{1}{T_s} \sum_{k=-\infty}^{\infty} H(f - kR_s) = T_s
  • 奇对称补偿:H(f)H(f)fN=Rs/2f_N = R_s/2 满足奇对称时,重叠项 H(f)+H(fRs)H(f) + H(f-R_s) 在滚降区内互补恒等于常数。
  • 物理结论: 奇对称设计的本质是利用频谱的“镜像互补”来抵消波形展宽带来的相互干扰,从而在抽样点保持“纯净”。

1. 数学本质:抽样定理的反向应用

  • 时域采样: 相当于时域乘以冲击串。
  • 频域表现: 相当于频谱 H(f)H(f)RsR_s 为周期的重复叠加。
  • 无 ISI 要求: 采样时刻除了中心点,其余全为 0 → 对应频域必须是“平坦”的。

2. 奇对称的互补逻辑

  • 重叠区: 指的是 [(1α)fN,(1+α)fN][ (1-\alpha)f_N, (1+\alpha)f_N ] 这一段。
  • 互补:H(f)H(f)fNf_N 处具有奇对称性时,搬移后的频谱分量 H(fRs)H(f - R_s) 与原频谱 H(f)H(f) 在该区域:

    H(f)+H(fRs)=常数H(f) + H(f - R_s) = \text{常数}

  • 结论: 奇对称设计的本质,就是为了通过频谱的“互补填充”,人工制造出一个平坦的等效频响,从而在采样时刻消除干扰。

3. 总结一句话:
“奇对称”是为了让搬移重叠后的频谱看起来依然像一个理想矩形,从而获得像理想低通一样的采样零点,同时避免理想低通难以实现的问题。

什么是吉布斯现象?

吉布斯现象 (Gibbs Phenomenon) 深度数学解析


1. 数学本质:非一致收敛与过冲恒定性
对于包含第一类间断点(跳变点)的函数 f(t)f(t),其傅里叶级数的前 NN 项和 SN(t)S_N(t) 在跳变点附近表现出特殊的收敛特性:

  • 逐点收敛的局限性: 尽管当 NN \to \infty 时,SN(t)S_N(t) 在任何非间断点都趋于 f(t)f(t),但在间断点 t0t_0 附近,收敛序列并不满足一致收敛 (Uniform Convergence)。这意味着在间断点邻域内,误差的最大值并不会随 NN 的增大而趋于 0。
  • 过冲量的数学推导: 考虑单位阶跃信号,其 NN 阶近似在跳变点附近的峰值可以表达为正弦积分 (Sine Integral) 形式:

SN(t)12+1π02πNΔtsinxxdx S_N(t) \approx \frac{1}{2} + \frac{1}{\pi} \int_0^{2\pi N \Delta t} \frac{\sin x}{x} dx

NN \to \infty 时,第一个极值点出现在 π\pi 处。通过计算定积分 0πsinxxdx1.8519\int_0^\pi \frac{\sin x}{x} dx \approx 1.8519,减去理想跳变高度的中点 0.5(归一化后),得到单侧过冲百分比:

Overshoot=1π0πsinxxdx0.50.0895 (即 8.95%)\text{Overshoot} = \frac{1}{\pi} \int_0^\pi \frac{\sin x}{x} dx - 0.5 \approx 0.0895 \text{ (即 } 8.95\% \text{)}

  • 核心结论: 增加谐波分量(增大带宽 NN)只能让振荡的频率变高、向跳变点“挤压”,但峰值幅度不会减小。只要频域存在“硬截断”,过冲就永远恒定在约 9%。

2. 物理过程:卷积效应与 Sinc 函数的侧瓣叠加
从线性系统处理的角度看,吉布斯现象本质上是理想低通滤波 (Ideal Low-pass Filter) 的必然副产物:

  • 频域截断: 限制带宽等效于在频域将原始信号的无限频谱 X(f)X(f) 乘以一个矩形窗函数 H(f)=rect(f/2B)H(f) = \text{rect}(f/2B)
  • 时域卷积核: 根据卷积定理,矩形窗对应的时域单位冲激响应是 h(t)=2Bsinc(2Bt)h(t) = 2B\text{sinc}(2Bt)
  • 振荡由来: 输出信号 y(t)=x(t)h(t)y(t) = x(t) * h(t)。当具有无限震荡拖尾的 sinc\text{sinc} 函数与信号的跳变沿进行卷积时,其侧瓣 (Side-lobes) 的能量会在跳变瞬间由于积分效应产生“累积”与“抵消”的波动,形成波形边缘的起伏振荡。

3. 工程关联:升余弦滚降为什么是“特效药”?
升余弦滚降滤波器通过修改频域窗口边缘的形状,从数学层面解决了间断点带来的震荡:

1. 数学推导:导数连续性决定衰减速度 傅里叶变换的性质表明:频域函数 H(f)H(f) 的越平滑,其时域响应 h(t)h(t) 的能量就越集中。 * 理想低通(矩形窗):在截止频率处存在第一类间断点。数学证明其时域 h(t)h(t)1/t1/|t| 缓慢衰减。这种缓慢的衰减导致了侧瓣在跳变沿附近大量堆积,形成吉布斯震荡。 * 平滑截断(升余弦):通过滚降区消除了间断点,使 H(f)H(f) 成为连续可导函数。其时域 h(t)h(t)1/t31/|t|^3 的速度极快衰减,从根本上抑制了侧瓣能量。

2. 物理机制:高频分量的“相位平衡” * 硬截断:强行切断高频谐波,破坏了信号在跳变瞬间所需的相位消减平衡。未被抵消的能量在时域表现为电平的“溢出”或“过冲”。 * 平滑截断:赋予高频分量一个缓和的衰减权值。这使得信号在时域合成时,各个频率分量能以更协调的方式相互抵消,从而在跳变沿实现平滑过渡。

  • 消除间断点: 吉布斯现象的根源在于频域矩形窗的不连续性。升余弦函数在截止频率处通过余弦弧度过渡,使其函数值及其一阶导数在全频带均保持连续。

  • 时域衰减提速:

    • 理想低通 (矩形窗): 频域不连续,时域冲激响应 h(t)h(t)1/t1/t 速度缓慢衰减。
    • 升余弦滚降: 频域平滑连续,时域响应在原 sinc\text{sinc} 函数基础上引入了分母项 [1(2αRst)2][1-(2\alpha R_st)^2],使衰减速度强行提升至 1/t31/t^3
  • 数学结果: 这种极快的衰减速率迅速“吸收”了卷积过程中产生的侧瓣能量,使得信号在跳变沿附近几乎不再产生过冲,从而彻底消除吉布斯现象带来的波形失真。


总结记忆:

  • 矩形窗 (硬截断) \rightarrow 频域不连续 \rightarrow 时域 1/t1/t 慢衰减 \rightarrow 吉布斯振荡 (9% 过冲)
  • 升余弦 (滚降) \rightarrow 频域平滑连续 \rightarrow 时域 1/t31/t^3 快衰减 \rightarrow 抑制振铃效应 (无明显过冲)

“升余弦滤波器的滚降系数 α\alpha 越大越好吗?”

“不是。α\alpha 越大,时域振荡衰减越快(波形越漂亮),但代价是占用的频带宽度越大(有效性变低)。

  • α=0\alpha=0 时,它是理想低通,有效性最高但振荡最惨;
  • α=1\alpha=1 时,它是全滚降,振荡几乎消失但带宽翻倍。
  • 实际工程中,我们通常选择 α=0.30.5\alpha=0.3 \sim 0.5 来在有效性和波形质量之间取得折中。

眼图是什么?有何作用?

在数字通信的实验与维护中,眼图(Eye Pattern) 是观察基带传输系统性能最直观的“实验手段”。它通过示波器的余辉作用,将接收端各段码元波形在时域上重叠显示,形成类似人眼的图案。

眼图的形成机理

  • 物理实现:示波器显示波形时实质上是周期性地重叠显示,通过调节水平扫描旋钮使重叠的各段基带波形时隙彼此对齐。
  • 图形含义:由于各段波形表示的符号是随机的,当许多段波形重叠在一起时,每个时隙上就形成了一个眼状图案。
  • 质量判定:如果基带波形质量优良,既没有码间串扰又没有噪声,所有时隙上的波形将准确地重合为点,形成轮廓清晰的图案;若存在码间串扰或噪声,线条会彼此错开或变得模糊。

眼图提供的关键有用信息

通过观察眼图的特定几何特征,可以定量或定性地评估系统性能:

眼图特征 物理意义与作用
眼睛”张开度 衡量信号质量,张得愈开表示信号质量愈好。
中央水平横线 对应判决电平(门限)的位置。
眼睛”张开的高度 决定了系统可以提供的噪声容限
眼睛”张开的宽度 决定了接收波形可以进行抽样的时间范围
眼线”顶部的斜率 反映系统对抽样定时误差的敏感程度;斜率愈大则愈敏感。
最佳抽样时刻 位于“眼睛”张开最大的时刻。

总结:眼图的作用

  • 性能定性评估:它是评价基带传输系统性能的一种定性而方便的实验方法。
  • 指导系统调试:通过眼图可以确定最佳抽样时刻以及判决门限电平。
  • 多电平监控:眼图是二元基带信号眼图的扩展,如 M=4M=4 时会呈现多个眼状图案。

4.6 信道均衡

如何理解信道均衡?

在数字基带传输中,即使按照奈奎斯特准则设计了系统,由于实际信道的特性往往是时变的、非理想的,依然会产生严重的码间串扰(ISI)信道均衡(Channel Equalization) 技术正是为了补偿这种不完善、消除或减小 ISI 而诞生的。

信道均衡(Channel Equalization)是指在接收端利用均衡滤波器产生与信道特性相反的频率响应,用以补偿信道非理想带来的幅频和相频失真。

均衡器与奈奎斯特准则的关系

  • 本质区别:
    • 奈奎斯特准则: 理想目标的“说明书”(告诉你什么样的波形没干扰)。
    • 均衡器: 现实干扰的“粉碎机”(通过计算和补偿,把被弄乱的波形修回原样)。
  • 逻辑递进:
    1. 设计一个满足奈奎斯特准则的发送波形(理论无 ISI)。
    2. 波形经过非理想信道(产生失真,破坏了奇对称性,导致 ISI)。
    3. 插入均衡器进行补偿(抵消信道失真,重新恢复奇对称性)。
    4. 最终系统再次满足门槛,实现无 ISI 传输

信道均衡的来源与必要性

  • 信道的不理想性:实际信道的频率响应 C(f)C(f) 在带宽内往往不是平坦的(C(f)1C(f) \neq 1),这会导致波形发生失真。
  • 时变环境的影响:许多信道(如移动通信信道)的特性随环境和时间而变,无法预先精确获知,导致“事前”设计出的准则无法应对。
  • 均衡器的引入:在传输系统中插入专门的滤波器(均衡器)来“现场”补偿信道的不完善。

均衡原理与目的

  • 基本原理:在抽样判决器之前插入均衡器 GE(f)G_E(f),使包含均衡器在内的系统总频率响应 HE(f)H_E(f) 满足奈奎斯特准则。

  • 分类方式:均衡技术可分为从频域补偿的频域均衡,以及从时域波形处理的时域均衡

  • 最终目的:设计合理的均衡器系数,使得抽样值中除了当前期望码元外,其他码元引起的干扰全部为零,从而消除码间串扰。

核心算法简要分析

工程上常用的均衡器多为横向滤波器(FIR 结构),其输出是输入抽样值的加权求和。

  • 迫零(Zero Forcing)算法
    • 核心思想:强迫使 i0i \neq 0 抽样时刻的冲击响应为零(hEi=0h_{E_i} = 0)。
    • 简要分析:通过建立联立方程组求解抽头系数 cic_i,目标是消除峰值畸变 DD。它的缺点是忽略了噪声,可能会在某些频率处放大噪声。
  • 均方误差(MSE)算法
    • 核心思想:以输出误差的均方值 J=E[en2]J = E[e_n^2] 最小为准则来计算系数。
    • 优势:它综合考虑了码间串扰与噪声等不利因素,具有更好的抗干扰效果。
  • 自适应均衡算法(LMS)
    • 核心思想:均衡器能够自动且不断地更新系数,以适应信道特性的变化。
    • 简要分析:利用最小均方(LMS)算法进行迭代,系数 ci(n+1)c_i(n+1) 在上一时刻系数的基础上根据误差进行修正,从而动态跟踪信道变化。

4.7 部分响应系统

什么是部分响应系统?

在数字基带传输中,部分响应系统(Partial Response System) 是一种为了在有限带宽信道中达到理论极限传输速率(奈奎斯特速率),同时克服理想低通滤波器物理不可实现性而设计的方案。

1. 产生原因:理想与现实的矛盾

  • 理想方案的局限:理论上,带宽为 WW 的信道最高能以 2W2W 波特的速率进行无码间串扰(ISI)传输。但这要求系统频谱具有陡峭边缘的矩形特性(理想低通滤波器),其时域波形的拖尾衰减极慢(按 1/t1/|t| 衰减),导致系统对定时误差(抖动)极其敏感。
  • 工程方案的代价:为了使拖尾衰减加快,工程上常采用升余弦滚动降特性,但这必须以增加带宽(即降低频带利用率)为代价。
  • 核心矛盾:如何在不增加带宽的前提下,既能达到 2W2W 的极限速率,又能获得较快的拖尾衰减?

2. 核心思想:有控制地引入串扰

部分响应系统的核心思想与传统设计完全相反:

  • 主动引入 ISI:它不再追求抽样点上绝对无串扰,而是通过编码在前后符号间有目的地引入相关的码间串扰
  • 预知并抵消:由于这种串扰是人为引入、规律可循的(确知的),因此可以在接收端通过解码将其消除。
  • 频谱整形:这种相关编码使得系统的总频响不再需要陡峭的边缘,而是呈现平滑衰减的特性,从而在物理上易于实现。

3. 基本原理(以第 I 类部分响应系统为例)

第 I 类部分响应系统(又称双二进制系统)是最典型的应用:

  • 发送端相关编码:将输入的二进制序列 {an}\{a_n\}(取值 ±1\pm 1)通过一个相关编码器,输出为 cn=an+an1c_n = a_n + a_{n-1}。此时,cnc_n 变为三电平序列(0,±20, \pm 2)。
  • 等效系统响应:该操作相当于将系统的冲激响应由 sinc 函数变为两个相隔 TbT_b 的信号相加。其总频响 H(f)H(f) 呈现余弦滚降特性,且在带宽 WW 处平滑降为 0,不再需要陡峭边缘。
  • 接收端解相关:接收端根据 an=cnan1a_n = c_n - a_{n-1} 的逻辑恢复原始数据。

4. 改进:预编码技术

  • 问题:误差传播:由于接收端恢复 ana_n 依赖于前一个判决结果 a^n1\hat{a}_{n-1},一旦其中一个码元判错,错误就会不断向后传播。
  • 解决方法:在发送端相关编码前增加**预编码(Pre-coding)**环节,利用模二加运算处理数据。
  • 效果:预编码使得接收端在判决当前码元时,不再依赖于先前的判决结果,从而彻底消除了误差传播现象。

5. 总结与评价

特性指标 部分响应系统 升余弦滚动降系统
频带利用率 最高(可达 2 Baud/Hz2 \text{ Baud/Hz} 较低(随滚动因子增加而下降)
实现难度 容易(频谱边缘平滑) 较易(比理想低通容易)
抗噪性能 较差(三电平判决使信噪比损失约 2.5dB2.5\text{dB} 较好

结论:部分响应系统通过“以退为进”的思想,通过牺牲一定的抗噪声性能(电平增多),换取了极高的频带利用率和工程实现性。

  • 码间串扰、升余弦滚降滤波器、信道均衡、部分响应系统之间有何联系

在数字基带传输系统中,这四个概念并非独立存在,而是一条围绕“解决有限带宽下的可靠传输”这一核心矛盾而演进的逻辑链条。

1. 逻辑起点:码间串扰 (ISI)

  • 定义与来源:由于信道带宽有限(非理想信道),传输脉冲通过后会发生波形失真,产生“拖尾”,干扰相邻码元的抽样判决。
  • 核心挑战:它是带限信道中除了噪声外最主要的干扰,限制了传输速率的上限。

2. 解决方案 A:升余弦滚降滤波器

  • 原理:为了消除 ISI,奈奎斯特提出了无串扰准则。理想低通虽然效率最高,但其时域拖尾按 1/t1/t 缓慢衰减,对定时误差极其敏感。
  • 联系:升余弦滚降滤波器通过引入“滚动因子 α\alpha”使频谱边缘平滑,从而加快时域拖尾的衰减速度。
  • 代价:它通过牺牲一定的有效性(增加带宽占用)来换取可靠性(降低定时敏感度)。

3. 解决方案 B:部分响应系统

  • 原理:这是一种“以退为进”的思想。由于升余弦滤波器增加了带宽,部分响应系统反其道而行之,主动、有目的地引入确知的码间串扰
  • 联系:通过预编码和相关编码,它在不增加带宽的前提下,达到了理论最高的 2W2W 传输速率。
  • 代价:它引入了多电平判决(如三电平),牺牲了部分抗噪声性能

4. 动态补偿:信道均衡

  • 定义:上述两种方案通常是在发送/接收端“事前”设计好的。但实际信道(如移动信道)是时变的,其特性无法预知。
  • 原理:均衡器是一个专门的可调滤波器,安置在抽样判决器之前,用于“现场”补偿信道的非理想特性。
  • 联系:均衡器的目的是调整系统总响应,使其动态地满足奈奎斯特无串扰准则或最小均方误差准则,是消除 ISI 的最后一道防线。

综合对比总结

技术 角色定位 处理 ISI 的方式 核心代价
码间串扰 (ISI) 问题核心 被动产生的干扰因素 导致误码率上升
升余弦滤波器 静态优化 通过频谱整形,使抽样点无串扰 占用额外带宽
部分响应系统 极限挑战 主动引入并利用确知的串扰 抗噪能力下降
信道均衡 动态补偿 实时修正信道失真,恢复无 ISI 状态 增加算法复杂度

4.8 符号同步

符号同步是什么?有何意义?

在数字基带传输系统的接收端,准确的“抽样判决”是恢复信息的关键。而要实现准确抽样,接收机必须知道每个码元的起始和终止时刻,这正是符号同步(Symbol Synchronization)的核心任务。

1. 符号同步的基本概念

符号同步又称码元同步位同步

  • 定义:接收端产生一个与接收信号的码元频率完全相同、相位保持固定关系的本地定时脉冲序列(时钟信号)的过程。
  • 抽样时刻:该定时信号通常指向码元的中央(如 LPF 接收系统)或末端(如匹配滤波器接收系统),以确保在信号幅度最稳定、信噪比最高的时刻进行抽样判决。
  • 内节奏一致:同步信号必须与传输信号的“内在节奏”合拍,即与发送端的定时时钟保持严格一致。

2. 符号同步的意义与影响

符号同步是进行数字通信的最关键信号之一,其性能直接决定了系统的误码表现。

  • 抽样准确性:如果没有准确的符号同步,抽样时刻会发生偏移(定时抖动),导致抽样值偏离信号峰值,从而增大误码率。
  • 定时抖动的影响
    • 当定时抖动较小时(如 ϵ/Ts<5%\epsilon/T_s < 5\%),误码率不会明显恶化。
    • 当抖动较大(如 >10%> 10\%)时,误码率将严重恶化。例如,在同样的噪声环境下,10%10\% 的抖动可能导致所需信噪比增加约 6.2dB6.2\text{dB},这意味着必须提高 4 倍以上的发送功率才能维持原有性能。

3. 获取符号同步的方法

系统通常通过以下两大类方法获取同步信号:

  • 外同步法(辅助信息同步)
    • 原理:发送端在发送数据序列的同时,额外发送专门的同步导频信号(如在信号频谱的零点处插入一个时钟分量)。
    • 优缺点:实现简单但需要占用额外的信道带宽或发射功率,在窄带通信中不够经济。
  • 自同步法(非辅助信息同步)
    • 开环自同步:利用非线性变换(如平方律、微分整流)从接收信号的功率谱中提取位于 f=Rsf=R_s 处的离散线谱,再通过窄带滤波器或锁相环获取时钟。
    • 闭环自同步(如早迟门同步):利用信号波形的对称性,通过反馈控制环路不断修正本地时钟的相位,使其锁定在“眼睛”张开最大的位置。

总结:符号同步的地位

符号同步是数字接收机的“指挥棒”。没有它,即便信道质量再好,接收机也无法在正确的时间点“看”一眼信号,从而导致通信彻底失败。

4.9 线路码型

你知道什么线路码型,能否简单说说?

线路码型(Line Code)是数字基带传输中为了适应特定线路传输环境而设计的“波形格式”。设计多种码型是为了在功率谱形状、传输带宽、定时信息获取以及抗噪性能之间进行折中。

线路码型设计的考虑因素

在选择或设计码型时,通常需要综合平衡哪些核心因素?

  • 功率谱形状:是否包含直流分量影响信号能否通过交流耦合电路传输。
  • 传输带宽:带宽应尽量小,以提高频带利用率。
  • 定时信息:码型中应包含足够的定时信息,以便接收端建立同步时钟,防止长连“0”或长连“1”导致同步丢失。
  • 检错能力:部分码型自身具备规律性特征,能够在不增加额外开销的情况下进行初步检错。
  • 抗噪性能:不同波形的抗噪能力不同,例如双极性信号通常优于单极性信号。

常见基本线路码型分析

根据教材提供的波形与规则,以下是几种主流线路码型的特性总结:

码型名称 编码规则简述 主要特点 应用场景
双极性 NRZ “1”和“0”分别对应正负电平。 无直流分量,抗噪性能好。 基础基带传输
AMI 码(交替信号反转码) “0”电平保持不变,“1”交替表现为正负电平。 无直流分量,且具备检错能力;但怕长连“0”。 北美电话系统接口
数字双相码 (曼彻斯特码) 用电平跳变方向表示符号(如 10 为 1,01 为 0)。 自同步能力极强,每个码元中心均有跳变;但带宽加倍 10Mbps 以太网
CMI 码(信号反转码) “1”交替为11与00,“0”固定为“01”跳变脉冲。 规律清楚,易于检错,无直流成分。 ITU-T 接口标准
Miller 码 (密勒码) 由双相码演变而来,跳变规则更复杂。 能够克服双相码的定时相位不确定性。 磁带记录系统

进阶码型:HDB3 码

HDB3 码(三阶高密度双极性码)是 AMI 码最重要的改进型:

  • 解决痛点:它保持了 AMI 码无直流、易检错的优点,同时解决了 AMI 码在遇到长连“0”时无法提供定时时钟的问题。
  • 核心原理:当出现 4 个及以上连“0”时,将第四个“0”替换为特殊的“破坏码元” VV,并根据规则插入调节码元 BB,以确保 VV 与前一个非零电平同极性,且相邻 VV 码极性交替。
  • 地位:它是 ITU-T 推荐使用的码型之一,广泛用于现代数字通信干线。

五、基本的数字频带传输

简要介绍一下数字频带传输,说一说数字基带传输和数字频带传输的关系,以及对应的大致发展历史

数字频带传输(Digital Passband Transmission)是指将数字信号通过载波调制的方式,将其频谱从基带搬移到某一非零频率附近的频带后再进行传输的一种通信方式。具体来说,数字信息首先被表示为基带脉冲信号,然后通过数字调制技术(如ASK、FSK、PSK、QAM等)调制到载波上,使信号的频谱集中在某个载波频率附近,从而能够适应带通信道进行传输。在接收端再通过解调过程恢复出原始的数字信息。其本质其实是一个频谱搬移过程:基带信号原本集中在0Hz附近,而很多实际信道(特别是无线信道)只能在某一频段传输信号,因此必须借助载波调制将信号“搬运”到可用频段。

从系统结构上看,数字频带传输实际上是建立在数字基带传输基础之上的。数字基带传输主要解决的是如何在有限带宽信道中有效传输数字脉冲信号的问题,例如脉冲成形、奈奎斯特准则、码间串扰抑制以及均衡等问题。当这些问题得到解决后,如果信道本身是低通信道(例如双绞线、光纤等),则可以直接传输基带信号;但如果信道是带通信道(例如无线信道或射频信道),则必须在基带信号基础上增加调制过程,将信号频谱搬移到载波附近。因此可以理解为:数字频带传输 = 数字基带传输 + 载波调制。也正因为如此,数字调制技术实际上继承了基带传输中的很多思想,例如匹配滤波、最佳判决等理论。

从技术发展的角度来看,通信系统最早主要是模拟通信,例如AM广播、FM广播以及模拟电话系统。这些系统之所以采用频带传输,是因为无线电传播本身只能在一定频段内有效工作,因此必须通过载波调制把信息搬移到射频频段。同时,模拟通信系统结构相对简单,实现成本低,因此在早期得到了广泛应用。但模拟通信的一个根本缺陷是抗噪声能力较差信号在传输过程中受到噪声干扰后会逐渐累积失真,而且无法通过简单方式恢复原始信号,这也成为后来数字通信技术发展的重要动力。

随着计算机技术的发展,从20世纪50年代到60年代开始逐渐出现数字通信系统。最早发展起来的是数字基带传输技术,其核心优势在于:数字信号只有有限个离散状态(如0和1),因此在接收端只需要进行判决即可恢复信号,这使得系统具有更好的抗噪声能力。同时,通过脉冲成形和奈奎斯特准则可以在有限带宽下实现无码间串扰传输,从理论上保证了信号恢复的可靠性。不过,数字基带传输的一个明显局限是只能在低通信道中直接传输,例如有线线路或短距离数据通信,这限制了其在无线通信中的应用。

为了在无线信道或带通信道中传输数字信息,人们逐渐发展出了数字调制技术,从而形成了数字频带传输体系。例如最早出现的ASK、FSK和PSK等调制方式,本质上是通过改变载波的幅度、频率或相位来表示不同的数字符号。这些技术能够得到应用的根本原因在于:它们能够在保持数字信号抗噪声优势的同时,使信号适应带通信道的传输特性。例如PSK通过改变载波相位来表示数字信息,由于相位信息对幅度噪声不敏感,因此在很多场景下具有更好的抗噪声性能。不过,这些早期调制方式的缺点是频谱利用率较低,即单位带宽内能够传输的信息量有限。

为了进一步提高频谱利用率,人们后来提出了更高效的调制方式,例如QAM(正交幅度调制)。QAM通过同时改变载波的幅度和相位来表示更多的符号状态,因此能够在相同带宽下传输更多的信息,从而显著提高通信系统的频谱效率。但其代价是系统对信噪比和线性度的要求更高,因为当调制阶数提高时,不同符号之间的距离会变得更小,系统更容易受到噪声和非线性失真的影响。这也是为什么在实际系统中需要结合信道编码、均衡以及自适应调制等技术来提高系统的可靠性。

进入现代通信阶段之后,随着数字信号处理技术和集成电路的发展,人们开始使用更加复杂的调制和传输技术,例如OFDM和MIMO等。OFDM的核心思想是将高速数据流分成多个低速子载波并行传输,这样可以有效抵抗频率选择性衰落并简化均衡器设计;而MIMO技术则通过多天线传输来提升系统容量。这些技术之所以能够在现代无线通信(如WiFi、4G、5G等)中得到广泛应用,本质上是因为它们能够在有限频谱资源下进一步提升通信容量和抗干扰能力,同时借助现代DSP和硬件技术使复杂算法成为可实现的工程方案。

5.1 BASK

简要介绍一下BASK(Tips:可以说说其发展历史、信号以及调制方法、包络检波解调方法、功率谱、带宽、包络检波误码性能分析)

BASK(Binary Amplitude Shift Keying,二进制振幅键控)是最简单的数字调制方式之一,其基本思想是通过改变载波幅度来表示二进制信息。发送比特“1”时发送一定幅度的载波,发送比特“0”时不发送载波或幅度为零。BASK最早应用于早期有线数字通信和低速无线数据通信,因为实现简单,硬件成本低。

BASK信号可表示为:

s(t)=m(t)Accos(2πfct)s(t) = m(t) A_c \cos(2\pi f_c t)

其中基带信号 m(t)m(t) 为:

m(t)={1,发送比特10,发送比特0m(t) = \begin{cases} 1, & 发送比特1 \\ 0, & 发送比特0 \end{cases}

调制方法通常用开关控制或乘法器实现:基带信号直接控制载波开通或关闭。

在接收端,BASK通常采用包络检波解调。解调器通过整流和低通滤波提取载波包络,然后通过判决电路恢复比特信息。

BASK信号的功率谱在载波频率两侧呈对称分布,如果基带信号带宽为 BB,则BASK总带宽约为:

BASK2BB_{ASK} \approx 2B

包络检波的误码性能受噪声影响较大:当噪声叠加在信号上时,可能导致“0”被误判为“1”,或“1”幅度下降被误判为“0”,因此在低信噪比环境下性能较差。

总体来说,BASK的优势是实现简单、适合低速和成本敏感系统,缺点是抗噪声能力弱,在现代高速或噪声环境复杂的通信中,通常被BFSK或PSK等方式替代。

5.2 BFSK

简要介绍一下BFSK(Tips:可以说说其发展历史、信号以及调制方法、相位连续性、包络检波解调方法、鉴频解调方法、功率谱、带宽、包络检波误码性能分析)

BFSK(Binary Frequency Shift Keying,二进制频移键控)是一种经典的数字调制方式,其基本思想是通过改变载波频率来表示二进制信息。发送比特“1”时使用频率 f1f_1 的载波,发送比特“0”时使用频率 f0f_0 的载波。BFSK最早发展于早期无线电数字通信中,用于远距离可靠传输,因为相比BASK,它对幅度噪声不敏感,抗噪声能力更强。

BFSK信号可表示为:

s(t)={Accos(2πf1t),m(t)=1Accos(2πf0t),m(t)=0s(t) = \begin{cases} A_c \cos(2\pi f_1 t), & m(t)=1 \\ A_c \cos(2\pi f_0 t), & m(t)=0 \end{cases}

在实际工程中,BFSK可分为非相干BFSK(频率之间不要求相位连续)和相干BFSK(频率切换时相位连续),相干方式抗噪性能更好,但实现复杂度高。 由常识可知不连续的信号占很多频带,因此需要尽量避免

调制方法通常是利用两路正弦波和开关选择器,由基带信号控制开关选择 f1f_1f0f_0 的载波输出。或者按照模拟FM的方法,通过压控振荡器(VCO)来产生,其产生的信号的相位根据积分形式变换的,因此产生的相位是连续的。

在接收端,可以采用:

  • 包络检波解调:适用于非相干BFSK,通过双检波器分别检测两个频率的包络能量,比较大小判决比特值。
  • 鉴频解调:将BFSK信号送入鉴频器输出的瞬时幅度与频率对应,然后进行判决。

BFSK信号的功率谱由两个频率中心 f0f_0f1f_1 的频带组成,如果基带信号带宽为 BB,则总带宽约为:

BFSKf1f0+2BB_{FSK} \approx |f_1 - f_0| + 2B

包络检波的误码性能主要受到噪声影响:噪声可能使接收信号能量偏移,从而误判比特,但总体比BASK更稳健,尤其在低信噪比环境下更适用。

总体来说,BFSK的优势是抗噪声强、实现简单,缺点是带宽效率低,因此在现代高速通信系统中,通常用相位调制(PSK)或幅相结合的调制方式(QAM)代替。

5.3 BPSK与DPSK

简要介绍一下BPSK与DPSK(Tips:BPSK信号及其调制方法、功率谱、带宽、BPSK的相干解调、误码性能;DPSK的基本原理,相干解调、误码性能、差分检测)

BPSK(Binary Phase Shift Keying,二进制相位键控)是最基本的相位调制方式,其核心思想是通过改变载波相位来表示二进制信息。发送比特“1”时载波相位为 00^\circ,发送比特“0”时载波相位为 180180^\circ。BPSK最早用于高可靠性无线和有线通信,因为在同样信噪比下比BASK和BFSK具有更低误码率。

BPSK信号可表示为:

sBPSK(t)=Accos(2πfct+πm(t))s_{BPSK}(t) = A_c \cos(2\pi f_c t + \pi m(t))

其中 m(t)m(t) 为二进制基带信号(0 或 1)。

  • 调制方法:通过基带信号控制载波相位反转。
  • 功率谱与带宽:BPSK信号的功率谱呈双边带结构,带宽约为 2B2B与BASK类似
  • 相干解调:接收端需要与发送端相位同步的参考载波,通过乘积和积分判决恢复比特。
  • 误码性能:在AWGN信道中,BPSK误码率为

Pe=Q(2EbN0)P_e = Q\left(\sqrt{\frac{2E_b}{N_0}}\right)

相比BASK和BFSK,BPSK抗噪能力更强。有趣的是,2PSK的结论与双极型2PAM基带传输系统的形式相同。

2PSK的本地振荡常常存在着“不确定性反相”的问题,这使得2PSK输出的0和1可能颠倒,而系统自身对此却无法知道。所以实际应用汇总,2PSK可以与差分编码相结合来解决此问题,由此结合产生DPSK。


DPSK(Differential Phase Shift Keying,差分相位键控)是BPSK的一种变形,其核心思想是通过比特间的相位变化表示信息,而不是绝对相位。发送比特“1”时相对于上一比特反转相位,发送比特“0”时保持相位不变。这样接收端不需要与发送端完全相位同步。

DPSK信号可表示为:

sDPSK(t)=Accos(2πfct+πk=1ndk)s_{DPSK}(t) = A_c \cos\Big(2\pi f_c t + \pi \sum_{k=1}^{n} d_k \Big)

其中 dkd_k 为差分编码比特(1表示翻转,0表示保持)。

  • 调制方法:基于BPSK,但信息映射在相邻比特的相位差

  • 带宽:与BPSK相似,主要能量集中在载波附近,带宽约 2B2B

  • 解调方法

    • 相干解调:像BPSK一样,需要相位同步。
    • 差分检测(非相干解调):通过比较相邻比特的相位差判决,无需绝对相位同步。
  • 误码性能:差分检测下误码率略高于BPSK(约3 dB损失),但简化了接收机实现。

  • 优势与应用:牺牲部分性能换取非相干检测能力,适合无线移动通信和高速数据链路。

    简要介绍一下载波同步技术(Tips:常用方法是平方环法与科斯塔斯环法)

载波同步技术是数字频带传输系统中的关键环节,其目标是在接收端准确恢复发送端的载波频率和相位,从而保证相干解调的正确性。没有载波同步,相干解调会失效,导致误码率大幅增加。

在工程中,常用的载波同步方法主要有两种:

  • 平方环法(Squaring Loop):适用于BPSK信号。原理是将接收到的BPSK信号平方后,二倍频的载波成分出现,而基带信号成分消失,通过环路锁定二倍频的载波,经过分频得到原始载波频率,再进行相位校正,实现载波同步。平方环法结构简单,但对噪声较敏感,适用于低速或SNR较高场景。

  • 科斯塔斯环法(Costas Loop):适用于BPSK和QPSK信号。原理是通过将接收信号与本地产生的本振信号分别乘以正交分量,形成误差信号反馈调整本振相位,使本振输出锁定接收信号的载波相位。科斯塔斯环具有较强的噪声抑制能力和相位跟踪能力,适合高速数字通信和移动环境。

平方环同步器工作在2倍频上,当2PSK的载波较高时,那两倍的载波频率更高,这就使得电路的实现与调测变得非常困难,但是科斯塔斯环法没有这个缺点。

科斯塔斯环输出的本地振荡也会存在相位模糊的问题,但是可以使用DPSK来解决。科斯塔斯环比平方环工作频率低,因此在卫星及微波通信等载波较高的系统中,应用很广泛。

总的来说,平方环法和科斯塔斯环法都是通过闭环反馈控制恢复载波相位,但科斯塔斯环更适合实际复杂信道,而平方环法实现更简单。

5.4 QPSK与DQPSK

简要介绍一下QPSK(Tips:可以说说其发展历史,基本原理,QPSK和两路正交2PSK的区别、功率谱、带宽、调制与解调方法、误比特性能、载波同步相关信息)

QPSK(Quadrature Phase Shift Keying,四相位移键控)是在BPSK基础上的一种扩展调制方式,其核心思想是通过四个不同相位表示两个比特信息,从而在同样符号速率下将数据传输速率提高一倍。QPSK最早用于卫星通信和高速无线数据链路,解决了BPSK在高数据率下带宽效率低的问题。

  • 基本原理:将比特序列两两分组,每组两个比特映射到载波的四个相位之一,常用相位为 0,90,180,2700^\circ, 90^\circ, 180^\circ, 270^\circ
  • 信号与两路正交2PSK的关系:QPSK可以看作I路和Q路各独立调制BPSK,即两路正交2PSK,I路承载高位比特,Q路承载低位比特,两路正交组合形成QPSK信号。

QPSK信号可表示为:

sQPSK(t)=I(t)cos(2πfct)+Q(t)sin(2πfct)s_{QPSK}(t) = I(t) \cos(2\pi f_c t) + Q(t) \sin(2\pi f_c t)

其中 I(t)I(t)Q(t)Q(t) 为BPSK调制的基带信号。

  • 功率谱与带宽:QPSK信号带宽与BPSK相近,主要集中在载波附近,通常约为 2B2B,但每个符号携带两比特信息,因此频谱效率提高一倍
  • 调制与解调方法:调制通过I路和Q路的正交BPSK组合实现;解调可采用相干解调,分别对I路和Q路信号判决。
  • 误比特性能:在AWGN信道中,相干QPSK每比特误码率与BPSK相同

Pb=Q(2EbN0)P_b = Q\left(\sqrt{\frac{2E_b}{N_0}}\right)

这意味着在相同信噪比下,QPSK比BPSK传输速率翻倍而误码率不增加

  • 载波同步:由于QPSK是相干调制,接收端需要准确恢复载波相位,常用方法是科斯塔斯环(Costas Loop)。对于高速移动或有相位抖动的信道,科斯塔斯环能够保证载波锁定,确保解调正确。

总结:QPSK通过相位四分法实现高频谱效率,可以看作两路正交BPSK的组合,既提高数据速率,又保持BPSK的误码性能优势。在实际通信系统中,QPSK广泛应用于卫星通信、无线局域网和移动通信中。

简要介绍一下DQPSK(Tips:最后要对比一下QPSK)

DQPSK(Differential Quadrature Phase Shift Keying,差分四相位键控)是QPSK的一种变形,核心思想是通过比特间的相位变化而非绝对相位来表示信息。每次发送两个比特时,相对于前一个符号的相位变化确定当前符号的值,这样接收端就无需严格的载波相位同步。

  • 基本原理:将QPSK的四相位差分编码,发送符号的相位由前一符号相位加上当前两比特的相位变化决定。
  • 调制方法:基于QPSK,但发送的是相位差分信号,可以通过数字逻辑实现符号与前一符号的累加相位。
  • 解调方法:采用差分相位检测,比较相邻符号的相位差来恢复比特序列,无需绝对载波相位。
  • 误比特性能:相比相干QPSK略差(约3 dB损失),但在相位不稳定或移动信道中更加稳健。
  • 带宽与功率谱:与QPSK相似,主要能量集中在载波附近,带宽约为 2B2B,每符号仍传输两比特信息。

与QPSK对比

  • QPSK要求精确载波相位同步,误码性能最好。
  • DQPSK通过差分编码实现非相干解调,牺牲部分误码性能,但接收机实现更简单,可以使用非相干的差分检测,对载波相位漂移和移动信道更耐受。

总结:DQPSK是在QPSK基础上为解决载波同步困难而提出的改进方案,在移动通信和高速数据链路中非常实用,尤其适合信道相位变化频繁的场景。

简要介绍一下OQPSK和pi/4DQPSK(Tips:出现的背景、原理、应用)

OQPSK(Offset Quadrature Phase Shift Keying,偏移四相位键控)是一种改进型QPSK,主要解决QPSK在符号切换时相位可能跳跃180°导致幅度瞬变的问题,适合对非线性放大器敏感的无线通信场景。

  • 背景:早期QPSK在无线传输中,符号切换时可能出现相位跳变180°,导致信号包络瞬间变化,引起非线性放大失真。 恒包络信号的优点是允许非线形放大,这种放大效率高、容易实现
  • 原理:将I路和Q路的基带信号错开半个符号周期,保证I、Q路不同时切换,从而避免幅度突变,使包络更加平滑。 其相关解调的抗噪性能与QPSK完全一样。
  • 应用:常用于移动通信、卫星通信,以及对非线性放大器要求严格的场景,如GSM移动通信。

**π/4-DQPSK(Pi/4 Differential QPSK)**是一种差分相位调制改进方案,结合了DQPSK和相位偏移技巧。

  • 背景:移动通信系统要求高频谱效率,同时希望信号包络平滑以减少放大器非线性失真。
  • 原理:每个符号的相位相对于上一符号偏移 π/4\pi/43π/43\pi/4,保证相邻符号的相位变化不超过 135°,从而包络变化小,易于通过非线性功率放大器。 其调制和解调方法与DQPSK基本一样,应用中常常采用差分检测方法来接收。
  • 应用:成功应用于日本JDC数字蜂窝系统与PHS无绳电话、欧洲中继无线TETRA以及数字音频广播DAB系统,是移动通信常用调制方式之一。

总结

  • OQPSK 通过 I/Q 偏移 来平滑包络,解决QPSK瞬时幅度跳变问题;
  • π/4-DQPSK 通过 差分相位偏移 来降低相位跳变幅度,同时保持差分解调的非相干优势;
  • 两者都是为了适应 移动通信信道与非线性放大器 的应用场景,是QPSK向实际工程应用的优化版本。

5.5 基本频带调制的讨论

在前面,2ASK和2FSK一般都是使用简单实用的非相干解调,但是,我们能否借鉴2PSK的相干解调来尝试解调呢?如果可以,请对比两种不同的解调方法的优劣

是的,理论上2-ASK(BASK)和2-FSK(BFSK)也可以采用相干解调,类似2-PSK的相干解调方式,通过与参考载波同步进行乘积检测或匹配滤波来判决比特信息。但在实际工程中,这种方法通常不如非相干解调常用,原因主要在于实现复杂度与性能权衡


1️⃣ 非相干解调

  • 原理
    • 对2-ASK:使用包络检波,通过整流和低通滤波直接提取信号幅度,判断比特。
    • 对2-FSK:使用双检波器或鉴频器,分别检测两个频率的能量,通过比较判决比特。
  • 优点
    • 实现简单,无需载波相位同步。
    • 对低速、成本敏感或信道环境不稳定的系统非常适用。
  • 缺点
    • 抗噪声能力有限,尤其是BASK容易受幅度噪声影响。

2️⃣ 相干解调

  • 原理
    • 对2-ASK:接收端生成与发送端同频且相位同步的参考载波,通过乘积积分进行判决。
    • 对2-FSK:将接收信号与参考载波相干乘积检测,区分两个频率。
  • 优点
    • 抗噪声能力明显提高,理论误码性能比非相干解调更好。
    • 在高信噪比环境下可充分发挥带宽利用率。
  • 缺点
    • 需要精确载波同步,增加接收机硬件复杂度。
    • 对移动通信或相位不稳定信道不太友好。

总结对比

方法 复杂度 抗噪声性能 实用性场景
非相干解调 中等 低速、有噪声但相位漂移大的系统
相干解调 高速、固定信道、高信噪比系统

因此,工程上通常BASK和BFSK选择非相干解调,因为简单可靠;而在理论分析或高性能系统中,可以借鉴2-PSK的相干解调提高抗噪能力,但实现复杂度会大幅增加。

  • 在前面,我们研究了数字基带调制中的无码间串扰的问题。而频带的传输也是受限的,所以请简要说一说数字基本频带调制中的无码间串扰传输(Tips:以2PSK为例,使用平方根升余弦滤波器,且做好基带和频带的对比)

在数字通信中,无ISI(无码间串扰)是保证误码率最低的关键问题。我们在数字基带调制中已经研究过如何通过脉冲整形消除ISI,而在频带调制(带通调制)中,同样受制于信道带宽有限,因此也必须考虑ISI问题,但基带和频带处理的重点略有不同。

2-PSK为例:


1️⃣ 基带传输

  • 目的:在符号采样点消除ISI,保证相邻符号不会干扰判决。

  • 方法:使用平方根升余弦(SRRC)滤波器进行脉冲整形。

    • SRRC 滤波器满足奈奎斯特准则:

    p(t)=SRRC脉冲,p(nT)={1,n=00,n0p(t) = \text{SRRC脉冲}, \quad p(nT) = \begin{cases} 1, & n=0 \\ 0, & n \neq 0 \end{cases}

    • 滚降因子 α\alpha 控制带宽与时间域波形平滑性。
  • 带宽计算:基带带宽为:

    Bbaseband=1+αTsB_{baseband} = \frac{1+\alpha}{T_s}

    其中 TsT_s 为符号周期。

  • 研究重点:保证采样点符号互不干扰,优化符号波形以消除ISI。


2️⃣ 频带传输(带通调制)

  • 目的:保证经过载波调制和信道传输后,符号仍无ISI。

  • 方法

    • 将基带 SRRC 信号调制到载波 fcf_c,形成 2-PSK 频带信号:

    s2PSK(t)=I(t)cos(2πfct)+Q(t)sin(2πfct)s_{2PSK}(t) = I(t)\cos(2\pi f_c t) + Q(t)\sin(2\pi f_c t)

    • 接收端使用匹配滤波器(同样是平方根升余弦滤波器)恢复基带信号,实现无ISI判决。
  • 带宽计算

    Bbandpass2Bbaseband=2(1+α)TsB_{bandpass} \approx 2 \cdot B_{baseband} = \frac{2(1+\alpha)}{T_s}

    因为频带信号是基带信号乘载波后形成的双边带

  • 研究重点

    • 保证调制后的频带信号在符号采样点仍然无ISI
    • 需要考虑载波调制对带宽的扩展以及信道滤波影响。

3️⃣ 基带 vs 频带对比

项目 基带传输 频带传输
研究目的 消除符号间干扰 保证频带调制后的符号无ISI
方法 SRRC脉冲整形 + 匹配滤波 基带SRRC + 载波调制 + 匹配滤波
带宽 B=(1+α)/TsB = (1+\alpha)/T_s B2Bbaseband=2(1+α)/TsB \approx 2B_{baseband} = 2(1+\alpha)/T_s
关注点 脉冲波形、滚降因子 脉冲波形 + 载波调制影响

总结

  • 基带重点是控制符号波形消除ISI;
  • 频带则需在保证基带无ISI的基础上,考虑调制到载波后的带宽扩展信道滤波影响
  • SRRC滤波器在基带和频带中都是核心工具,只是带宽计算上要乘以调制产生的频带因子。
  • 这种分析帮助我们设计可控带宽且误码率低的数字频带传输系统

对比2ASK、2FSK、2PSK、QPSK、2DPSK(分别从发展历史、基本原理、基本公式、相干解调下误比特率公式、非相干解调下误比特率公式、误比特率之间的差距、带宽大小、理论最小带宽、最高频带利用率)

下面将常见数字调制方式 2ASK(BASK)、2FSK(BFSK)、2PSK(BPSK)、QPSK、2DPSK(DQPSK) 系统对比,重点突出发展历史、基本原理、误比特性能和频谱效率。


1️⃣ 发展历史、基本原理、基本公式

调制方式 发展历史 基本原理 信号公式
2ASK/BASK 早期有线和低速无线通信 通过幅度变化表示 0/1 sASK(t)=Acm(t)cos(2πfct)s_{ASK}(t) = A_c m(t) \cos(2\pi f_c t)
2FSK/BFSK 抗噪声要求高的远程通信 通过不同频率表示 0/1 sFSK(t)=Accos(2πf0/1t)s_{FSK}(t) = A_c \cos(2\pi f_{0/1} t)
2PSK/BPSK 高可靠性无线、有线通信 通过相位变化表示 0/1 sBPSK(t)=Accos(2πfct+πm(t))s_{BPSK}(t) = A_c \cos(2\pi f_c t + \pi m(t))
QPSK 提高频谱效率,卫星和移动通信 每符号承载 2 个比特 sQPSK(t)=I(t)cos(2πfct)+Q(t)sin(2πfct)s_{QPSK}(t) = I(t)\cos(2\pi f_c t) + Q(t)\sin(2\pi f_c t)
2DPSK/DQPSK 移动通信,降低载波同步难度 通过符号间相位差表示信息 sDQPSK(t)=Accos(2πfct+πdk)s_{DQPSK}(t) = A_c \cos(2\pi f_c t + \pi \sum d_k)

2️⃣ 相干/非相干解调误比特率对比

调制方式 相干解调 PbP_b 非相干解调 PbP_b 误码性能排序
2ASK/BASK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等
2FSK/BFSK Pb=Q(EbN0)P_b = Q\Big(\sqrt{\frac{E_b}{N_0}}\Big) Pb=12exp(Eb2N0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{2N_0}\Big) 中等偏好相干
2PSK/BPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优
QPSK Pb=Q(2EbN0)P_b = Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) 最优(每比特性能与BPSK相同)
2DPSK/DQPSK Pb2Q(2EbN0)P_b \approx 2 Q\Big(\sqrt{\frac{2E_b}{N_0}}\Big) Pb=12exp(EbN0)P_b = \frac{1}{2} \exp\Big(-\frac{E_b}{N_0}\Big) 相对QPSK在相干上约1 dB损失

总结误码率排序(高到低)

QPSK/BPSK(相干)>相干FSK/ASK(约3 dB损失)>非相干FSK/ASK(约3 dB再损失)\text{QPSK/BPSK(相干)} > \text{相干FSK/ASK(约3 dB损失)} > \text{非相干FSK/ASK(约3 dB再损失)}

QPSK/BPSK(相干)>DPSK/DQPSK(差分检测,约1 dB损失)\text{QPSK/BPSK(相干)} > \text{DPSK/DQPSK(差分检测,约1 dB损失)}

  • PSK与QPSK是几种方式中性能最优秀、复杂度最高的,适用于要求高的应用,尤其是QPSK,其占用的频带是最少的。

  • DPSK与DQPSK当信道质量较好时,差分检测的性能接近最佳(差别小于1dB)。这种方式接收较为简单,且没有“不确定性反相”问题,因而非常实用。

  • FSK是一种性能一般的传输方式,当信道质量较好时(EbN0\frac{E_b}{N_0}高),FSK的非相干接收性能接近最佳(差别小于1dB)。因而,非相干接收方法更为实用。其实,FSK占用频带多,其重要特点是在AWGN以外的更恶劣信道上,例如在衰落或有干扰的信道上,FSK比其他几种传输方式更为“顽强”。(信号信息存储在频率上,相对于幅度或相位更不易被衰落或幅度/相位干扰破坏)

  • 最后,非相干ASK主要适用于信道质量好,要求传输设备尽量简单的应用。


3️⃣ 带宽、最小带宽、频谱效率对比

调制方式 典型带宽 理论最小带宽 最高频率利用率 说明
2ASK/BASK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 非相干解调简单,频谱效率低
2FSK/BFSK B2/Tb+ΔfB \approx 2/T_b + \Delta f 1/Tb1/T_b 2/3 bit/s/Hz 占用带宽大,但抗噪声好
2PSK/BPSK B2/TbB \approx 2/T_b 1/Tb1/T_b 1 bit/s/Hz 相干解调,误码性能最佳
QPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s 2 bit/s/Hz 每符号 2 bit,提高频谱效率
2DPSK/DQPSK B2/TsB \approx 2/T_s 1/Ts=1/2Ts1/T_s=1/2T_s ~1.8–2 bit/s/Hz 差分检测牺牲少量误码性能,但实现更简单

核心记忆点

  1. 误码性能:QPSK/BPSK > 相干FSK/ASK > 非相干FSK/ASK > DPSK/DQPSK
  2. 频谱效率:QPSK ≈ DQPSK > BPSK/FSK > ASK
  3. 实现复杂度:非相干ASK/FSK < DPSK/DQPSK < BPSK/QPSK
  4. 选择原则
    • 低速或成本敏感 → ASK/FSK(非相干)
    • 高可靠高速 → BPSK/QPSK(相干)
    • 移动或载波漂移 → DPSK/DQPSK(差分解调)

5.6 多元数字频带调制

简要介绍一下MASK、MFSK、MPSK、QAM。(Tips:相关历史及发明目的、公式及原理、信号功率谱和带宽、误码性能比较)

1️⃣ 发展历史与发明目的

调制方式 历史与目的
M-ASK 基于2ASK扩展到多电平,最早用于低速有线数字通信,提高比特率
M-FSK 基于2FSK扩展到多频,早期用于无线远程通信,提高频谱利用率与抗干扰能力
M-PSK 由BPSK/QPSK扩展而来,用于高频谱效率场合,每符号承载多比特
QAM 将幅度调制与相位调制结合,每符号承载更多比特,高频谱效率;广泛用于有线、光纤、无线高速通信

2️⃣ 信号公式与基本原理

调制方式 信号公式 原理说明
M-ASK sMASK(t)=Aicos(2πfct)s_{MASK}(t) = A_i \cos(2\pi f_c t)i=1,2,...,Mi = 1,2,...,M 不同幅度表示不同符号,每个符号携带 log2M\log_2 M 比特
M-FSK sMFSK(t)=Accos(2πfit)s_{MFSK}(t) = A_c \cos(2\pi f_i t)i=1,2,...,Mi = 1,2,...,M 不同载波频率表示不同符号,每符号 log2M\log_2 M 比特;频率间隔需保证可分辨
M-PSK sMPSK(t)=Accos(2πfct+2πi/M)s_{MPSK}(t) = A_c \cos(2\pi f_c t + 2\pi i/M)i=0,1,...,M1i = 0,1,...,M-1 每个符号对应 MM 个离散相位,符号承载 log2M\log_2 M 比特
QAM sQAM(t)=Iicos(2πfct)+Qisin(2πfct)s_{QAM}(t) = I_i \cos(2\pi f_c t) + Q_i \sin(2\pi f_c t)(Ii,Qi)(I_i,Q_i) 为星座点 将幅度与相位组合形成星座,每个符号承载 log2M\log_2 M 比特;可实现高频谱效率

3️⃣ 功率谱与带宽

调制方式 功率谱/带宽特征 最小带宽估算 最小带宽估算
M-ASK 基本与2ASK类似,幅度级数增加会使信号幅度分布复杂 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx1/T_s
M-FSK 每个频率间隔需分开,带宽随 MM 增加线性增长 B2/Ts+(M1)ΔfB \approx 2/T_s+(M-1)\Delta f Bmin(M+1)/2TsB_{min} \approx (M+1)/2T_sBmin(M+1)/2TsB_{min} \approx (M+1)/2T_s
M-PSK 带宽与符号率相关,与M值增加关系不大 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s
QAM 类似M-PSK,但幅度变化导致功率谱更分散 B2/TsB \approx 2/T_s Bmin1/TsB_{min} \approx 1/T_s

4️⃣ 误码性能比较

  • 在QAM、MPSK与MASK三种方式之间,QAM的误码性能最好,MPSK次之,MASK最差。并且随着M的增加,这种差距会更大。所以在实际应用中,当M较高时,应该首先选择QAM;当M中等时(8或16),也经常见到MPSK,因为可以利用到其恒包络的优点;只有在少数特殊情况中才会使用MASK,它简单直观,能在理论分析中具有一定的研究意义
  • QAM、MPSK、MASK的误码性能随着M的增加逐渐下降,这是它们获得更高频带利用率的代价;于此恰好相反,MFSK的误码性能随着M的增加而逐渐上升,这是它牺牲频带利用率的结果。其实,它们是具有不同特性的两类方式
  • 通信系统的信道带宽、噪声程度与信号功率是三个最基本的因素。在频带资源受限、信号功率充分的情况下,可以尽量运用QAM与MPSK,借助它们实现高的频带利用率,并通过加大发送功率保障误码性能;在频带资源丰富、信号功率受限的情况下,可以尽量运用MFSK,通过充分利用带宽实现可靠通信。
  • 工程应用中必须平衡考虑各种因素,包括恒包络特性,实现复杂度,经济成本与开发时间等等。例如,常常希望信号包络平稳以便利用非线性功放的效率,这时FSK,PSK, OQPSK,/4DQPSK是不错的方案,尤其是具有连续相位的CPFSK,CPM,甚至经高斯预滤波的GFSK与GMSK,如第8章所述。有时还希望使用非相干解调以降低接收机难度,那么,FSK,DPSK,DQPSK,/4DQPSK,以及第8章讨论的MSK与GMSK等方案可选。

理解要点

  1. 理解要点

    • 误码性能:QAM > MPSK > MASK,M越大差距越大;MFSK特殊,M越大误码率越低。
    • 带宽与功率选择
      • 频带紧、功率充足 → QAM、MPSK(高频谱利用率)
      • 频带宽、功率受限 → MFSK(可靠通信)
    • 恒包络信号(MPSK、FSK、OQPSK、π/4-DQPSK) → 可用非线性功放,高效抗非线性失真
    • 非恒包络信号(QAM、MASK) → 需要线性功放,幅度敏感
    • 接收机选择:相干解调性能好但复杂,非相干解调简单实用

恒包络信号有何优点?

1️⃣ 允许使用非线性功放

  • 因为幅度恒定,信号通过非线性放大器(如功率放大器)不会产生严重失真。
  • 优点:提高功率效率,降低放大器成本和功耗。
  • 非恒包络信号(如QAM)则容易产生互调失真,需要线性放大器,效率低。

2️⃣ 抗非线性失真能力强

  • 恒包络信号不依赖幅度信息,只靠相位或频率传输比特,经过非线性信道也能正确解调
  • 工程上,移动通信基站、卫星通信等都喜欢恒包络调制。

3️⃣ 对信号衰落或幅度干扰更鲁棒

  • 在衰落、干扰或多径信道下,幅度可能剧烈变化,但恒包络信号只关心相位/频率,误码率受影响较小

4️⃣ 简化接收机设计

  • 恒包络信号可使用相干或非相干相位/频率检测,无需严格幅度恢复或 AGC(自动增益控制)调整。

5.7 复包络和等效基带系统

简要说一说复包络在数字频带传输中的作用、等效基带系统的研究意义。

复包络的作用是将高频数字频带信号用一个低频复信号表示,把信号的幅度和相位信息都包含在低频基带中,从而可以在低频上进行分析和处理,而无需直接操作高频载波。这不仅简化了数学分析,也方便工程仿真和信号处理,例如滤波、调制和解调等操作都可以在基带完成。

等效基带系统的意义在于,它将复杂的数字频带传输系统等效为低频基带系统,通过基带模型可以直观计算功率谱、带宽和误码率,同时可以统一分析ASK、PSK、QAM等不同调制方式的性能。在工程上,这种方法可以简化设计流程、降低计算复杂度,并为优化滤波、解调和系统性能提供方便。

六、模拟信号数字化与PCM

简要介绍一下模拟信号数字化的过程,PCM的发展历史和应用。

将连续的模拟信号转化为数字信号,核心经历三步:

  • 抽样 (Sampling) —— 时间离散化
    • 原理: 定时提取模拟信号的瞬时幅度值。
    • 核心法则: 必须满足奈奎斯特定理 fs2fHf_s \ge 2f_H
    • 为什么: 若抽样频率不够,频域上会发生**频谱混叠**,导致接收端无法恢复原信号。
  • 量化 (Quantization) —— 幅度离散化
    • 原理: 将连续的抽样值“四舍五入”到有限的离散电平上。
    • 代价: 会产生不可逆的**量化噪声**。
    • 工程应用: 实际语音通信采用非均匀量化(如 A 律)。为什么? 因为语音中“小信号”概率大,小信号采用密集量化阶梯,可以极大提升小信号的信噪比
  • 编码 (Encoding) —— 符号二进制化
    • 原理: 将量化后的电平值用二进制(0/1)表示。最经典的方案就是 PCM。

PCM(脉冲编码调制):模拟与数字世界的“翻译标准

一、 PCM 的本质是什么?
PCM (Pulse Code Modulation,脉冲编码调制) 是一种将时间连续、幅度连续的模拟信号变换为时间离散、幅度离散的数字二进制序列的基础技术。
它不是某种高深莫测的魔法,而是现代通信系统中最经典、最基础的 A/D(模数)转换国际标准

二、 PCM 的三大硬核步骤与工程实现(面试高频考点)
标准 PCM 的完整过程依然是抽样、量化、编码,但它有极其严格的工程规定:

  • 1. 抽样: 严守奈奎斯特定理(fs2fHf_s \ge 2f_H)。对于标准语音信号(最高频率限制为 3400 Hz3400\text{ Hz}),PCM 国际标准规定抽样频率为 8000 Hz8000\text{ Hz}
  • 2. 量化(灵魂所在): * 工程现实: 绝不使用均匀量化。
    • 中国/欧洲标准: 采用A律13折线非均匀量化
    • 为什么这么设计? 人的语音能量往往集中在小幅度范围。A律13折线的本质是“压扩”(压缩与扩张)——给小信号分配非常密集的量化阶梯,给大信号分配稀疏的阶梯。这样可以在不增加总位数的前提下,极大提升小信号的量化信噪比,保证通话的清晰度
  • 3. 编码: 将量化后的信号翻译为二进制。标准 PCM 采用 8位码11 位极性码 + 33 位段落码 + 44 位段内码)。
    • 核心指标推导: 一路标准电话的 PCM 传输速率为:$$R_b = 8000\text{ Hz} \times 8\text{ bit} = 64\text{ kbps}$$

三、 PCM 为什么能彻底颠覆并取代模拟通信?(核心优越性)

  • 本质优势:消除噪声积累。 在传统的模拟长途电话中,信号衰减必须用放大器放大,但这会把线路上的噪声一起放大,导致距离越远杂音越大。
  • PCM 的降维打击: PCM 传输的是纯粹的数字脉冲。线路上使用的是再生中继器,它不需要放大波形,只需要像保安一样判断“有没有脉冲”,然后重新生成一个干干净净的、毫无噪声的全新脉冲发往下一站。这让长距离、无损耗的通信从理论变成了现实。

四、 缺陷与迭代技术

  • 痛点: 64 kbps 的速率在早期宽带资源极度匮乏的年代,依然显得十分“奢侈”。
  • 迭代进化: 为了进一步压榨带宽,发展出了 DPCM(差分 PCM)。它利用了语音信号强烈的“时间相关性”,不传绝对值,只传相邻样值的“差值”,从而在保证音质的前提下,成功将速率压缩。

6.1 模拟信号的抽样

简单说一说带限信号和带通信号的抽样,简单介绍一下实际抽样中的自然抽样和平顶抽样,简单介绍一下孔径失真,简要介绍一下模拟脉冲调制中的PAM、PDM、PPM

一、 带限信号与带通信号的抽样(从基带到高频的智慧)

1. 低通(带限)信号的抽样

  • 对象: 频谱集中在 00fHf_H 的基带信号(如语音、视频)。
  • 法则: 必须满足奈奎斯特定理 fs2fHf_s \ge 2f_H。这是为了防止频谱在周期性搬移时发生**混叠(Aliasing)**。

2. 带通信号的抽样(工程妥协与巧思)

  • 痛点: 很多雷达或射频信号,带宽 BB 很窄(比如 B=fHfL=2 MHzB = f_H - f_L = 2\text{ MHz}),但中心频率极高(比如 fH=1000 MHzf_H = 1000\text{ MHz})。如果死守 fs2fHf_s \ge 2f_H,要求抽样率高达 2000 MHz2000\text{ MHz}!这对 A/D 转换芯片的硬件速度是灾难性的要求,成本极高。
  • 核心原理(带通抽样定理): 既然信号中间是空的(频带只在 fLf_LfHf_H),我们完全可以故意降低抽样率,利用“混叠效应”将高频信号“无损地搬移”到低频来
  • 规则: 抽样频率只需满足 fs2Bf_s \approx 2B(通常在 2B2B4B4B 之间,具体取决于 fHf_HBB 的比值)。
  • 优越性: 极大地降低了对硬件 ADC 采样率的要求,这是现代软件无线电(SDR)能够实现的关键基石。

二、 实际抽样:自然抽样 vs. 平顶抽样

数学上理想的抽样是极窄的冲击脉冲 δ(t)\delta(t),但物理上根本造不出来,实际脉冲一定有宽度 τ\tau。这就衍生出两种实际抽样法:

1. 自然抽样 (Natural Sampling)

  • 原理: 脉冲的顶部是“弯曲”的,完全跟随着原模拟信号的起伏而变化。
  • 优越性: 频谱只发生幅度的按比例衰减,基带频谱形状不畸变。接收端直接用低通滤波器就能完美恢复原信号。
  • 工程缺陷(为什么不用它): A/D 转换器(ADC)在进行“量化”和“编码”时,需要一定的处理时间。如果脉冲顶部还在不停变化,ADC 会“眼花”,无法准确判定电平值。

2. 平顶抽样 (Flat-top Sampling)

  • 原理: 脉冲在宽度 τ\tau 内,幅度保持恒定(通常等于抽样瞬间的信号值)。顶部是平的。
  • 如何实现(实际应用): 利用采样保持电路(Sample-and-Hold, S/H)。抽样开关瞬间闭合充电,然后断开,电容保持电压不变,供 ADC 从容地进行量化。这是现代 A/D 转换的绝对主流

三、 孔径失真 (Aperture Distortion) —— 平顶抽样的代价

  • 产生原因: 平顶抽样本质上是把瞬间的抽样值在时间上“拉宽”了(数学上相当于与一个矩形脉冲进行卷积)。
  • 频域后果: 时间域的矩形脉冲卷积,等价于在频率域乘以一个 Sa(x)Sa(x) (Sinc 函数)。由于 Sinc 函数是向高频不断衰减的,这导致恢复出来的基带信号高频部分被削弱了,波形发生畸变,这就是孔径失真(或孔径效应)。
  • 如何解决: 在接收端的低通滤波器之后,级联一个频域均衡器(孔径均衡器)。它的频率响应正好与 Sinc 函数相反(高频放大,低频衰减),从而把衰减掉的高频成分“补偿”回来。

四、 模拟脉冲调制 (PAM, PDM, PPM) 的演进逻辑

这里是用脉冲串作为载波,去运载模拟信号(注意:它们调制后的参量依然是连续的,所以属于模拟体制)。

1. PAM (脉冲振幅调制)

  • 原理: 脉冲的幅度随模拟信号变化(平顶抽样输出的就是 PAM 信号)。
  • 缺陷: 极度怕干扰。信道中的噪声直接叠加在幅度上,接收端很难区分是信号本身的幅度还是噪声。

2. PDM / PWM (脉冲宽度/持续时间调制)

  • 迭代动力: 既然幅度容易受干扰,那我们就让幅度保持恒定!
  • 原理: 脉冲幅度不变,脉冲的**宽度(Duration/Width)**随信号大小变化。
  • 优越性: 接收端可以使用“限幅器”把顶部和底部的噪声全部“一刀切”削掉,抗干扰能力远强于 PAM
  • 缺陷: 脉冲变宽时,发射机要一直维持高功率输出,极其浪费能量

3. PPM (脉冲位置调制) —— 终极省电王

  • 演进逻辑(神来之笔): 工程师发现,PDM 信号中携带信息的其实是脉冲的“上升沿和下降沿”,中间持续的高电平纯属浪费能量!
  • 原理: 脉冲的幅度和宽度都固定,仅仅是脉冲出现的**位置(时间提前或延迟)**随模拟信号变化。
  • 为什么能得到实际应用? 它继承了 PDM 抗幅度干扰的优点,同时因为脉冲极窄,发射端极其省电(峰值功率可以很高,但平均功耗极低)
  • 应用场景: 深空探测通信、红外遥控、光纤通信。在这些场景中,能量极其宝贵,PPM 完美契合。

6.2 均匀量化与最佳量化

简要介绍一下量化原理、均匀量化器和最佳量化器

量化原理、均匀量化器与最佳量化器的底层逻辑

量化的本质是一个“多对一的不可逆映射”过程。从信息论的角度看,连续的抽样值拥有无限大的信息量,为了能用有限的二进制比特进行数字传输,必须在幅度上对其进行离散化(即“四舍五入”)。这种妥协必然会引入原始信号 xx 与量化信号 xqx_q 之间的差值,这就是量化噪声 eq=xqxe_q = x_q - x。因此,评价量化器好坏的终极指标,就是看它能否在给定的比特数下,最大化信号量化噪声比(SQNR)

最直观的实现是均匀量化器,即将信号的整个动态范围等分为固定的量化阶距 Δ\Delta。它的优越性在于电路实现极其简单。但联系到实际通信场景,它的缺陷是致命的:对于语音和图像信号,其概率密度函数(PDF)表现为小信号出现的概率极高,大信号极少。如果采用均匀阶距 Δ\Delta,小信号虽然绝对量化误差不大于 Δ/2\Delta/2,但相对误差极大,导致小语音信号的信噪比不堪入耳

为了突破这一瓶颈,基于统计通信理论的最佳量化器(Lloyd-Max 量化器)应运而生。它的核心逻辑是“因地制宜”——严格依据信号的概率密度函数来分配量化阶距。既然小信号大概率出现,就让小信号区域的阶距极其密集;大信号小概率出现,阶距就拉宽。通过数学上求解均方误差的最优化问题,最佳量化器能在给定的量化级数下,实现总平均量化噪声功率最小。这种极其巧妙的“按概率分配”的思维,直接奠定了现代电话网络中 A 律和 μ\mu 律非均匀量化标准的理论基石。

6.3 量化信噪比与对数量化

简要介绍一下量化信噪比、对数量化、 A 律和 μ\mu

在评估通信系统 A/D 转换性能时,量化信噪比(SQNR)是最核心的指标,它定义为信号平均功率与量化噪声平均功率之比。如果系统采用最简单的均匀量化,量化阶距 Δ\Delta 是固定的,这意味着绝对量化误差是恒定的,但小信号的相对误差会极大。这就导致了一个致命缺陷:当传输动态范围极大的语音信号(小幅辅音出现概率极高)时,小信号的 SQNR 会剧烈下降,导致通话中充满杂音。

为了打破这个瓶颈,工程师巧妙地引入了对数量化(压扩技术)。它的演进逻辑是:既然均匀分配阶距对小信号不公平,那就在量化前先让信号通过一个对数压缩器——主动把小信号的幅度放大,把大信号的幅度压低,然后再用固定的 Δ\Delta 进行均匀量化。这种做法的本质是让量化阶距与信号幅度成正比变化,从而实现了一个极具工程价值的目标:在极其宽广的信号动态范围内,保持几乎恒定的量化信噪比

然而,纯粹的数学对数函数 ln(x)\ln(x)x=0x=0 处趋向负无穷,这在物理电路中根本造不出来。于是,基于对数法则的工程妥协诞生了现代电话网络中最著名的两种国际标准:

  • A 律(A-law): 中国和欧洲采用的 PCM 标准。为了解决原点无穷大的痛点,A 律在信号极小(原点附近)时采用线性特性进行平滑过渡,大信号时才切入对数特性。更绝妙的是,为了让微处理器能用极其简单的“二进制移位逻辑”来代替复杂的对数计算,工程师用13 段直线(A 律 13 折线)来逼近这条平滑曲线,彻底攻克了硬件实现的成本难题。
  • μ\mu 律(μ\mu-law): 北美和日本采用的标准。它的数学表达式全段都是一条连续的对数曲线,在数字工程上则采用15 折线进行近似逼近。相比 A 律,μ\mu 律在极小信号处的量化台阶划分得更细微,小信号信噪比略占优势,但两者在宏观通信网中的本质目的与优越性是完全一致的。

6.4 脉冲编码调制

简要说一下PCM的基本原理、PCM的编码规则、PCM传输系统的信噪比

PCM(脉冲编码调制)的基本原理是将时间与幅度连续的模拟信号,通过抽样、量化、编码三大核心步骤,转换为二进制数字流。它的本质并非凭空创造信息,而是利用奈奎斯特准则在时间轴上抓取离散点,再利用量化器在幅度轴上进行离散化映射。通过这种不可逆的转化,PCM 彻底抛弃了脆弱的模拟波形,将信息寄托在坚不可摧的“0”和“1”脉冲逻辑上,从而获得了数字通信无与伦比的抗干扰特权。

在具体落地的编码规则上,以中国和欧洲广泛采用的 A 律 13 折线为例,它展现了极高的工程计算智慧。为了避免硬件处理复杂的对数函数,工程师将其精简为极其高效的8位折叠二进制码(c1c2c8c_1 c_2 \dots c_8
这 8 个比特分工极其明确:第 1 位是极性码,判定抽样值的正负;第 2 到第 4 位是段落码(共 8 种组合),它将非均匀量化的压扩曲线定位到特定的段落,直接决定了当前量化阶距的粗细(完美体现了前文提到的“大信号大阶距,小信号小阶距”的非均匀思想);最后 4 位是段内码,在已选定的段落内进行 16 等分的线性细分。这种架构的优越性在于,它仅用区区 8 个比特(256256 个量化级),就通过微处理器的简单移位逻辑完美逼近了复杂的对数压扩曲线,直接奠定了全球 64 kbps64\text{ kbps} 标准电话网络的基石。

评估这套系统最终落地质量的标尺是PCM传输系统的信噪比。在 PCM 系统的接收端,信号质量受制于两股完全不同的“破坏力量”:一是发送端 A/D 转换时强行四舍五入产生的量化噪声;二是物理信道干扰导致接收端 0/1 判决错误的信道误码噪声
PCM 系统的终极护城河在这里体现得淋漓尽致——它具有极其显著的门限效应(Threshold Effect)。只要物理线路的信噪比高于某个“门限值”(确保误码率极低),接收端的再生中继器就能无视线路干扰,完美重新生成纯净的脉冲。此时,信道噪声被彻底隔离,系统最终的输出信噪比将达到饱和,仅仅取决于固有的量化噪声。这意味着,只要网络规划跨过了这个门限,PCM 信号无论经过多少次中继、传输多远,其通话音质都绝不会像模拟通信那样发生噪声积累和劣化。这就是 PCM 能够彻底淘汰模拟传输的底层物理本质。

6.5 差分脉冲编码调制与增量调制

  • 简要介绍一下语音压缩编码,差分脉冲编码调制,增量调制

语音压缩编码的诞生,源于标准 PCM 极度“铺张浪费”的物理现实。一路标准 PCM 电话需要占据 64 kbps64\text{ kbps} 的带宽,这在频谱资源极其昂贵的无线通信(如早期的蜂窝网络或卫星通信)中是无法忍受的。工程师们敏锐地发现,人类的语音信号其实充满了冗余信息:无论是在时间域(相邻抽样值极度相似)还是在频率域(基于人耳听觉掩蔽效应),我们根本不需要老老实实地传输每一个绝对样值。因此,压缩编码的本质就是运用数学模型(如线性预测、参量提取),将语音中可预知的冗余部分剔除,仅仅对“不可预知的创新信息(残差)”进行编码传输。这使得极低速率(如 2.4 kbps2.4\text{ kbps})的高质量语音传输成为可能。

在这场消除冗余的战役中,差分脉冲编码调制(DPCM)是第一代革命性技术。它的演进逻辑直击 PCM 的痛点:既然相邻的两个语音抽样值高度相关(比如上一微秒是 1.01 V1.01\text{ V},下一微秒大概率是 1.02 V1.02\text{ V}),为什么还要每次都用完整的 8 个比特去表示绝对值?DPCM 极其聪明地引入了预测机制:接收端和发送端同时根据历史样值去“猜测”当前的抽样值 s^k\hat{s}_k。发送端只计算真实值 sks_k 与预测值 s^k\hat{s}_k 之间的预测误差 ek=sks^ke_k = s_k - \hat{s}_k,并仅仅对这个微小的误差进行量化和编码

这种设计的物理优越性在于:误差信号的方差远远小于原始信号的方差。这意味着,只需用极少的比特数(例如 4 bit),就能达到与 8 bit PCM 完全相同的量化信噪比,瞬间将传输带宽砍掉一半。

如果把 DPCM 的“压缩理念”推向极致,就诞生了增量调制(ΔM\Delta M 或 DM)。这是一种**极其激进的“1 比特”差分量化技术
它的核心逻辑是:我连误差的具体大小都不传了,我
只传信号的变化趋势(“增大”用 1 表示,“减小”用 0 表示)!为了弥补每次只变动一个固定量化台阶 σ\sigma 带来的精度损失,ΔM\Delta M 必须采用远高于奈奎斯特频率的过采样(fs2fHf_s \gg 2f_H
它的优越性在于
硬件电路极其极简(仅需一个比较器和一个积分器即可实现编解码),且对信道误码极度鲁棒**(错一两个比特根本听不出来)。

然而,这种极简也带来了两个致命的物理缺陷:

  • 斜率过载(Slope Overload): 当原始语音信号变化极其剧烈(如陡峭的上升沿)时,即使 ΔM\Delta M 全力以赴地连续发送“1”,由于步伐 σ\sigma 固定,它的攀升速度依然跟不上原始信号的斜率,导致严重的失真。
  • 粒状噪声(Granular Noise): 当原始信号处于平缓的静音区时,ΔM\Delta M 无法输出“0变动”,只能在目标值附近以 +1,1,+1,1+1, -1, +1, -1 交替震荡,产生听觉上的“沙沙”声。
    为了解决这些痛点,后来又迭代出了自适应增量调制(ADM/CVSD),让量化台阶 σ\sigma 能够根据信号斜率自动放大或缩小,最终在军用抗干扰通信中大放异彩。

6.6 时分复用

简要介绍一下TDM及其基本原理,帧同步方法、E1和T1、准同步与同步数字体系

TDM(时分复用)的基本原理
当一条物理信道(如光纤)的传输能力远超单路数字信号的需求时,工程上必须采用“分时共享”。TDM 的本质是将时间轴划分为周期性的“帧(Frame)”,再将每帧划分为若干个“时隙(Time Slot)”。发送端将多路 PCM 信号按固定顺序交织进各自的时隙;只要接收端能按相同的节奏提取,就能完美分离各路信号。其优越性在于彻底规避了模拟频分复用(FDM)中极易产生的非线性串扰,且极其适合用数字集成电路实现。

帧同步方法(通信不乱套的基石)
多路信号被揉碎拼在一起后,接收端面对的是无穷无尽的“0”和“1”,如果不知道哪一个比特是一帧的开头,就会把 A 用户的后半截和 B 用户的前半截错拼在一起。为了解决这个致命问题,必须引入帧同步(Frame Synchronization)
工程上最广泛应用的是集中式插入法:在每一帧的开头或特定时隙,强制插入一串极具特征的固定二进制“暗号”(如 1110010)。接收端只要在数据海中捕捉到这串暗号,就等于找到了绝对的时间基准,随后只需按固定比特数往后数,就能精准切分出每一个独立时隙。

PCM 系统的两大国际基石:E1 与 T1 标准
TDM 理论落地到现实电话网络中,形成了两大互不兼容的初始标准:

  • T1 体系(北美/日本): 采用 μ\mu 律压扩,复用 24 路 64kbps 语音,并在帧尾追加 1 个成帧同步比特。

    RT1=(24×8+1)×8000=1.544 MbpsR_{T1} = (24 \times 8 + 1) \times 8000 = 1.544\text{ Mbps}

  • E1 体系(欧洲/中国): 采用 A 律压扩,将 32 个时隙复用成一帧。其绝妙之处在于分配极其明确:TS0 固定用于传输帧同步码,TS16 用于控制信令,剩下 30 个时隙传语音。

    RE1=32×8×8000=2.048 MbpsR_{E1} = 32 \times 8 \times 8000 = 2.048\text{ Mbps}

复接与码率调整(多路汇聚的妥协)
当我们需要把 4 条 E1(2.048 Mbps)合并成更高速的 E2(8.448 Mbps)干线时,就会遇到物理层面的大麻烦:各个 E1 信号源都有自己独立的石英钟,频率存在微小偏差。如果不加处理直接交叉复接,快的信号会溢出,慢的信号会断流。
为了将这些“准同步”的信号硬塞进同一个高速通道,工程师发明了**正码速调整(Bit Stuffing / 码率调制)**。它的核心逻辑是:利用一个比所有输入信号都要快一点点的本地高速时钟去读取数据,当发现某个输入信号“供不应求”时,就强行向里面塞入无意义的“空白比特(杂质)”,把所有分支信号强行垫成完全一致的标称速率,然后再进行无缝交织复接。

数字体系的终极进化:从 PDH 到 SDH
复接技术的妥协,直接导致了数字体系的两代演进:

  • 第一代:准同步数字体系(PDH)

    • 致命缺陷: PDH 极度依赖上述的“正码速调整”。一旦塞入了空白比特,原始 E1 信号的帧结构就会被彻底打乱并掩盖在高速数据流中。如果你想从 140 Mbps 的国家骨干网中单独提取出某个县城的 2 Mbps 信号,你必须把 140M 解复用到 34M,再解到 8M,最后解到 2M(像剥洋葱一样一层层拆解)。这导致背靠背的复用设备堆积如山,成本极其高昂,且难以跨国互通
  • 第二代:同步数字体系(SDH)—— 光纤时代的终极统治者

    • 演进逻辑与优越性: 为了解决 PDH “剥洋葱”的痛点,SDH 进行了一次降维打击。首先,它要求全网使用极高精度的原子钟进行强制同步,消除了频率偏差;其次,它发明了极其伟大的**指针机制(Pointer)**。指针就像是一个动态的目录,永远精准指向每一个低速信号在高速数据流(STM-N)中的绝对物理位置。
    • 应用颠覆: 凭借指针,SDH 实现了一步分插复用(ADM)。我们可以直接从 2.5 Gbps 的光纤洪流中,根据指针一把精准“掏出”那条 2 Mbps 的低速信号,而完全不需要打乱或解复用其他正在传输的信号。这极大地简化了网络结构,奠定了现代光纤通信的基础。

七、信号空间分析与多元数字传输

第七章:信号空间分析与多元数字传输(几何视角的通信革命)

面试时,如果问到多进制调制,导师最希望听到你用“空间和距离”的概念来解释,而不是死背三角函数公式。

一、 信号空间分析与星座图(把波形变成几何点)

  • 降维打击(Gram-Schmidt 正交化): 无论多么复杂的 MM 个信号波形,我们都可以通过正交化方法,找到一组数量极少(假设为 NN,且 NMN \le M)的相互正交的基函数
  • 信号星座图(Constellation Diagram): 既然每个信号都可以表示为这些基函数的线性组合,那么这 NN 个基函数就构成了坐标轴,信号瞬间就变成了这个 NN 维几何空间中的一个矢量(点)
    • 坐标(幅度): 信号在各个基函数上的投影。
    • 原点距离的平方: 代表该信号的能量
    • 点与点之间的欧氏距离: 代表这两个信号的差异程度(防错能力)。

二、 最佳接收系统(在多维空间中抓小偷)

  • 噪声的几何具象化: 在空间中,白噪声不再是波形,而是一团围绕在信号点周围、呈多维高斯分布的“云雾”。
  • 最大似然译码(ML)的几何本质: 接收端收到了一个被噪声雾化后偏离原位的点 r\mathbf{r}。最佳接收机怎么判决?非常简单粗暴:测量收到点 r\mathbf{r} 到所有合法星座点 si\mathbf{s}_i 的几何距离。谁离得最近,就判决是谁!

选择 sm,使得 rsm2 最小\text{选择 } \mathbf{s}_m \text{,使得 } ||\mathbf{r} - \mathbf{s}_m||^2 \text{ 最小}

  • 工程实现: 这在硬件上表现为一组相关器组(或匹配滤波器组),直接计算内积来等效计算距离。

三、 MASK、MPSK 与 QAM(节省带宽的狂飙)
这三兄弟的共同目的都是:在一个码元里塞入 log2M\log_2 M 个比特,以极大地压缩所需的传输带宽。

  • 1. MASK(多元振幅键控):一维的拥挤
    • 所有的点都排在一条直线上(一维空间)。随着 MM 的增大,为了保持平均功率不爆炸,点和点之间的距离会被迫压缩得极小。抗噪声性能极速恶化。
  • 2. MPSK(多元相移键控):圆周的妥协
    • 所有的点均匀分布在一个圆周上(二维空间)。绝对优势是恒包络(极度省电,不怕功放非线性失真)。但随着 MM 增大(比如 16PSK),圆周上的点太挤了,相位的微小抖动就会导致极其惨烈的误判。
  • 3. QAM(正交振幅调制):现代通信的绝对王者
    • 几何革命: 既然圆周太挤,为什么不把圆内部的面积也用起来?QAM 结合了幅度和相位,让星座点像围棋棋盘一样均匀铺满整个二维复平面。
    • 核心优越性: 在相同的平均发射功率和相同点数 MM 的情况下,方形 QAM 的点与点之间的欧氏距离,远远大于 MPSK 和 MASK! 这意味着它的抗噪性能直接碾压前两者。这就是为什么我们现在的 Wi-Fi 和 5G 都在疯狂追求 256QAM 甚至 1024QAM 的底层原因。

四、 MFSK 的性能分析(以带宽换功率的异类)
导师极其喜欢拿 MFSK 和 QAM 做对比,因为它们的进化方向是完全相反的!

  • 几何异变(维度爆炸): MFSK 利用 MM 个完全不同的频率来携带信息。在几何空间中,这意味着它不是一维或二维,而是直接扩展到了 MM 维空间! 所有的星座点都落在各自坐标轴的单位长度上,彼此之间绝对正交。
  • 物理代价与收益(面试绝杀点):
    • 代价: 随着 MM 的增大,它占用的频谱带宽呈指数级爆炸,极其浪费频谱资源。
    • 终极收益: 因为每一个点都在自己独立的维度上,互不干扰,MM 增大时,它的抗噪声性能(功率利用率)不仅不下降,反而会越来越强! 在数学推导上,当 MM \to \infty 时,MFSK 是能够严密证明**逼近香农极限(-1.59 dB)**的经典调制方式。深空探测极其喜欢用它。

八、现代数字传输技术

你知道哪些现在数字传输技术,可以简单说说吗(MSK与GMSK、OFDM、扩展频谱技术与CDMA)

现代数字传输技术:榨干带宽与对抗恶劣信道的终极武器

在经典的基带与频带调制解决“能不能传”的问题之后,现代通信面对的是更恶劣的移动无线环境(多径衰落、强干扰)和对数据速率极其饥渴的需求。这催生了三大核心现代传输技术:

1. 恒包络技术的巅峰:MSK 与 GMSK (从 2G GSM 谈起)
传统的 2FSK 或 PSK 在码元切换时,相位往往发生突变。这种突变在频域上会导致极其严重的频谱泄露(旁瓣极高),不仅浪费带宽,还会严重干扰相邻信道。
为了解决这一痛点,最小频移键控(MSK)应运而生。它的底层逻辑是:在保持频率承载信息的前提下,强制要求信号的相位在任何时刻都必须是连续的(CPFSK)。同时,它选用了能让两个载频保持绝对正交的**最小调制指数 h=0.5h=0.5
它的核心优越性不仅在于频谱极其紧凑,更在于它具有
恒包络特性**。这意味着手机发射机的射频放大器可以一直工作在最高效的非线性饱和区而绝不会导致信号失真,极大地延长了移动设备的电池寿命
然而,工程师对频谱的贪婪是无止境的。为了进一步压榨带外泄露,在 MSK 调制之前强行加入了一个高斯低通滤波器,这就是GMSK(高斯最小频移键控)。它把原始矩形脉冲的尖锐跳变全部“盘圆润”了,使得相位变化更加平滑,频谱集中度达到了极其恐怖的地步,这也使得它直接成为了第二代移动通信(GSM)的绝对物理层标准

2. 宽带时代的基石:OFDM (正交频分复用)
当通信迈入 4G/5G 和 Wi-Fi 时代,我们需要极高的传输速率。如果用传统的单载波传输,码元时间 TsT_s 会变得极短。在复杂的城市环境中,电磁波经过大楼反射形成多径效应,到达接收端的延迟时间甚至会远远超过码元本身的时间,导致极其毁灭性的码间干扰(ISI)
OFDM 的出现是一次极其绝妙的降维打击。它的核心思想是**“化整为零”:将一路极高速的串行数据,转化为成百上千路极低速的并行数据,然后分别调制到不同的子载波上。因为速率降下来了,每个码元的持续时间被极大拉长,瞬间就从物理机制上免疫了多径造成的时延扩展**。
更伟大的工程巧思在于“正交(Orthogonal)”:传统的频分复用(FDM)为了防止干扰,各频带之间必须留有白白浪费的保护频带;而 OFDM 通过巧妙的傅里叶数学设计,让所有子载波的频谱在频域上相互重叠,但在彼此的最高点处其他子载波的能量正好严格为零(积分正交)。这不仅彻底消除了子载波间的干扰(ICI),还将频带利用率直接逼近了奈奎斯特理论极限。配合上“循环前缀(CP)”,OFDM 完美统治了现代所有的高速宽带网络。

3. 军工级抗干扰的下放:扩展频谱技术与 CDMA
扩频技术的初衷根本不是为了提高速率,而是军方为了解决“抗恶意干扰与防窃听”的痛点。
它的基本原理反其道而行之:根据香农定理,带宽和信噪比可以互换。扩频系统故意用一个高速的伪随机噪声码(PN码)去乘以原本低速的有用数据。在频域上,这等价于把原本集中的信号能量,瞬间摊薄扩展到极宽的频带上
它的优越性极其震撼:扩展后,信号的功率谱密度甚至会淹没在环境的自然底噪中,敌方根本发现不了你在通信(极强隐蔽性);而接收端只要用
完全相同的 PN 码进行解扩
,就能把宽带信号瞬间“浓缩”回原来的有用数据,同时把敌方发射的窄带大功率干扰信号“打散”成无害的底噪。这就是**白噪化抗干扰机制
当这种技术下放到民用,就诞生了
码分多址(CDMA)。既然每个人的 PN 码都像是一把独一无二的钥匙,且数学上相互正交,那么所有用户就可以在同一时间、使用完全相同的物理频带进行通信而互不干扰**(就像在一个大厅里,你在听汉语,他在听英语,彼此听不懂的语言自动被大脑过滤为背景底噪)。CDMA 彻底打破了时间和频率的硬性划分,成为了 3G 网络的灵魂,也奠定了现代 GPS 导航系统的核心基石。

8.1 MSK与GMSK

简要介绍一下连续相位FSK(CPFSK)、最小频移键控(MSK)

CPFSK 与 MSK:消除相位突变的频谱优化革命

一、 痛点起因与连续相位 FSK(CPFSK)的诞生
传统的 2FSK 调制(比如直接用开关切换两个不同频率的独立振荡器)存在一个极其致命的物理缺陷:在两个码元交接的瞬间,波形的相位往往会发生剧烈的突变(断崖式跳变)
从傅里叶变换的本质来看,时域上的任何突变,必定会在频域上激发出极其丰富的高频分量。这意味着传统 FSK 的频谱旁瓣极高且衰减极慢,不仅严重浪费了宝贵的频带资源,还会对相邻信道造成毁灭性的带外干扰
为了彻底攻克这个瓶颈,工程师提出了连续相位频移键控(CPFSK)。它的核心逻辑是改变调制硬件:不再切换两个独立的振荡器,而是用基带信号去控制单个压控振荡器(VCO)的频率。因为始终是同一个物理器件在连续积分振荡,这就从物理机制上保证了无论码元如何切换,射频波形的相位在任何时刻都是绝对连续的。这种相位的平滑过渡,直接换来了频谱旁瓣的迅速收敛。

二、 MSK(最小频移键控):CPFSK 的正交极限
CPFSK 解决了相位连续的问题,但随之而来的是一个关键的数学疑问:代表“0”和代表“1”的这两个频率,到底相差多少才是最完美的权衡?
这就引出了 CPFSK 最伟大的一个特例——最小频移键控(MSK)
它的演进逻辑极其严密:为了保证接收端能完美区分 0 和 1(抗噪声性能最优),这两个频率的波形必须在数学上做到“严格正交”(即在一个码元周期 TbT_b 内积分乘积为零)。同时,为了尽可能压缩带宽,我们希望这两个频率的间隔越小越好。
经过推导,工程师发现:当频率间隔 Δf\Delta f 刚好等于码元速率的一半(Δf=1/2Tb\Delta f = 1/2T_b,也就是调制指数 h=0.5h = 0.5 时,刚好能同时满足“正交”和“绝对相位连续”这两个严苛条件。
这里的“最小(Minimum)”就是指能在相干正交条件下实现的最小频率间隔

三、 MSK 的核心优越性与工程应用
MSK 之所以能在早期的移动通信中大放异彩,是因为它集齐了三大杀手锏:

  • 1. 频谱极其紧凑: 相位连续加上极小的频率偏移,使得 MSK 的能量高度集中在主瓣,旁瓣衰减速度极快(功率谱密度按 f4f^{-4} 衰减,远优于 QPSK 的 f2f^{-2})。
  • 2. 抗噪性能强悍: 凭借严格的正交特性,MSK 可以采用相干解调,其误码率性能完全媲美最高效的 2PSK / QPSK,绝不因为节省带宽而牺牲可靠性。
  • 3. 恒包络特性(终极杀手锏): 无论基带数据怎么变,MSK 波形的包络(幅度)始终保持绝对恒定。这意味着在手机发射端,我们可以肆无忌惮地使用效率极高、极其省电的非线性饱和功率放大器(如丙类功放),而完全不用担心波形畸变。这一特性直击了移动通信“电池容量有限”的物理痛点,并为其后的 GMSK(GSM 标准)奠定了直接的理论基础。
  • MSK信号功率谱的主瓣宽度是QPSK的1.5倍,是BPSK的0.75倍,且MSK信号功率谱的旁瓣比QPSK或BPSK的衰落快得多,对邻近频道的干扰就少得多。

8.2 OFDM

简要介绍一下多载波调制的由来、OFDM方案、利用FFT的数学实现、保护间隔与循环前缀,并举例一些OFDM系统方案(WiFi、ADSL)

多载波调制的由来与 OFDM 的降维打击:化解多径与压榨频谱

一、 为什么需要多载波调制?(底层痛点)
在现代宽带无线通信中,追求极高的传输速率意味着码元持续时间 TsT_s 会被压缩得极短(微秒甚至纳秒级)。然而,电磁波在城市建筑间反射会产生多径效应,导致不同路径的信号到达接收端存在时间差(最大时延扩展 τmax\tau_{max})。
当极短的码元遇到较长的时延差(τmax>Ts\tau_{max} > T_s)时,前一个码元的“回声”会严重掩盖并重叠到下一个码元上,造成毁灭性的频率选择性衰落和码间干扰(ISI),传统的时域均衡器面对这种畸变根本无能为力。
为了彻底破局,工程师采用了“化整为零”的战略——多载波调制。它的物理本质是串并转换:将一路极高速的数据流,强行拆分为 NN 路极低速的并行子数据流,然后分别调制到 NN 个不同的子载波上。由于速率骤降,每个子码元的持续时间被拉长了 NN 倍(T=NTsT = N \cdot T_s)。当子码元的长度远远大于多径时延扩展时,ISI 就从物理机制上被几乎消灭了

可以这么理解,频率选择性衰落使得信道不平坦,但是如果我们将信道分为多个很小的部分,每一个部分由一个载波来进行数据的传输,当划分数量足够大时,每一个子信道就近似平坦

但是当时并没有进行广泛的使用。因为(1)每个子带之间必须留下保护间隔,因而有效带宽减小了;(2)每个子带需要一套完整的通信系统,因而重复单元多,设备庞大;(3)多路载波信号叠加后幅度起伏剧烈,造成峰均功率比高,要求后续处理(尤其是功放)保持高度的线性与动态范围。

二、 OFDM 方案:重叠的极致正交艺术
传统的多载波频分复用(FDM)为了防止子载波互相串扰,必须在中间留出空白的“保护频带”,这极大地浪费了频谱。
正交频分复用(OFDM)的伟大之处在于它打破了这个隔离界限。它通过精密的数学设计,让所有子载波的频谱在频域上极其紧密地相互重叠
它的优越性(为什么不会乱套):虽然频谱重叠,但因为相邻子载波的频率间隔刚好等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这在数学上保证了它们是绝对正交的。在接收端对某一个子载波的顶点进行抽样判决时,其他所有子载波的频谱值在这个频点上刚好严格为零。这不仅彻底消除了子载波间干扰(ICI),更将频带利用率直接逼近了奈奎斯特极限

三、 拯救硬件:利用 FFT 的数学实现
理论极其完美,但工程落地极其残酷:如果一个 OFDM 系统有 10241024 个子载波,难道要在手机里塞进 10241024 个独立的射频振荡器和混频器吗?这在成本和体积上绝对是不可能完成的任务。
破局的终极神来之笔,是数学与通信的完美联姻。工程师惊奇地发现,OFDM 基带信号的生成公式,在数学形式上竟然与“离散反傅里叶变换(IDFT)”分毫不差
这意味着,我们彻底抛弃了庞大昂贵的模拟射频阵列,直接在数字基带芯片里用一段极其高效的 IFFT(快速傅里叶逆变换)算法代码,瞬间就能计算出所有子载波叠加后的时域波形。在接收端,只需跑一次 FFT 算法,就能把频域数据完美解调出来。正是因为 DSP(数字信号处理)芯片算力的爆发,OFDM 才得以从图纸走向现实。

四、 填补多径黑洞:保护间隔(GI)与循环前缀(CP)
虽然多载波拉长了码元,但多径效应产生的拖尾依然会轻微污染相邻码元的边缘。

  • 保护间隔(GI): 最直观的做法是在两个 OFDM 符号之间插入一段空白时间。但这会引发新灾难:空白破坏了子载波在 FFT 积分窗口内的周期性,导致原有的正交性彻底崩溃,产生严重的 ICI。
  • 循环前缀(CP)的绝妙骗局: 工程师做出了一个极具智慧的微调——不插入空白,而是把当前 OFDM 符号时域波形的“最后面一小段尾巴”复制下来,强行粘贴到符号的“最前面”作为前缀
    它的物理意义极其深远:对接收端的 FFT 窗口来说,前缀的加入伪造出了一种“信号是无限周期循环”的数学错觉。这不仅完美吸收了多径拖尾(只要时延不超过 CP 长度),更在数学上将无线信道的“线性卷积”强行转化为了“圆周卷积”。这使得接收端只需要使用极其极其简单的单抽头频域均衡器(One-tap Equalizer),就能完美抵消信道带来的畸变。

五、 改变世界的 OFDM 系统实例
凭借抗多径和极高频谱效率的杀手锏,OFDM 已经彻底统治了现代有线与无线宽带网络:

  • 无线领域的霸主(Wi-Fi / 4G / 5G): 从 IEEE 802.11a/g 开始,Wi-Fi 就全面拥抱了 OFDM。在室内极其复杂的墙壁反射(严重多径)环境中,只有 OFDM 能保证稳定提供几十甚至上百兆的速率。到了 4G LTE 和 5G NR,OFDM 依然是不可动摇的下行链路绝对物理层标准。
  • 有线领域的奇迹(ADSL): 早期的电话线(双绞线)原本只设计用来传输 3400 Hz3400\text{ Hz} 的低频语音。ADSL 利用 OFDM 的变体(DMT,离散多音调制),把高频频段划分成了几百个子载波。它的绝妙之处在于“自适应比特加载(水桶效应)”——测试线路时,哪个频率的信噪比高(水管粗),就给这个子载波多分配几个比特(如 64QAM);哪个频率衰减严重,就少分配甚至不分配数据。硬生生在极其劣质的铜线上榨取出了兆比特级的宽带速率。

8.3 扩展频谱技术与CDMA

简要介绍一下直接序列扩频、CMDA、伪随机序列及其同步方法、调频扩频

扩展频谱技术:抗干扰的终极物理艺术与多址革命

在常规通信中,我们总是千方百计地“压缩带宽”以节省频谱。但**扩展频谱技术(Spread Spectrum)**反其道而行之,它的底层逻辑源于香农公式(C=Blog2(1+S/N)C = B \log_2(1 + S/N)):为了在极低信噪比(甚至信号被噪声淹没)的恶劣环境下可靠通信,我们可以极其奢侈地牺牲成百上千倍的带宽 BB 来换取通信的准确性。这种“以带宽换信噪比”的降维打击,最初是纯粹的军用抗干扰和防窃听技术。

一、 直接序列扩频(DSSS)的白噪化伪装

  • 基本原理: 用一个速率极高(例如 10 Mcps10\text{ Mcps})的伪随机码(PN码)去乘以速率很低(例如 10 kbps10\text{ kbps})的有用数据。
  • 物理本质与优越性: 在时域上,每一个低速的数据比特被瞬间切碎成了成千上万个极短的“码片(Chip)”。在频域上,这等价于将原本窄带的信号能量瞬间摊薄扩展到极宽的频带上。扩频后,信号的功率谱密度甚至远低于自然界的背景底噪。敌方根本不知道这里有信号存在(极强的隐蔽性)。
  • 抗干扰神技(处理增益): 接收端只要用一模一样的 PN 码再乘一次,就能把宽带信号瞬间“浓缩(解扩)”回原始数据;而敌方发射的窄带大功率干扰信号,在经过这个乘法器时,反而会被“打散”成对我们毫无威胁的宽带底噪

二、 码分多址(CDMA):军用技术向民用的伟大下放

  • 演进逻辑: 既然直接扩频抗干扰那么强,工程师灵机一动:如果给每个用户分配一把独一无二且互相正交的 PN 码钥匙,会发生什么?
  • 颠覆性原理: 这就是 CDMA。所有用户可以在完全相同的时间、占用完全相同的物理频带进行发送(打破了 TDM 和 FDM 的界限)。在基站端,所有人的信号混杂在一起如同海啸。但基站只要拿出特定的 PN 码去“解扩”,就能把特定用户的信号“捞”出来,而其他所有用户的信号由于码字不正交,在积分器中全部互相抵消,仅仅表现为轻微的背景噪声。这造就了 3G 时代极其恐怖的系统容量和“软切换”能力。

三、 伪随机序列(PN码)及其生死攸关的“同步
扩频通信能成立的唯一前提,就是收发双方的 PN 码必须绝对一致且严丝合缝地对齐

  • 什么是 PN 码? 它不是真正的随机白噪声(真随机无法复现解码),而是由移位寄存器产生的具备严密数学周期性,但统计特性上看起来像白噪声的确定性序列(如 m 序列、Gold 码)。它的核心要求是自相关性极强(只有完全对齐时才有相关峰输出)且互相关性极弱(不同码之间完全不干扰)。
  • 同步的两次跨越(面试高频考点):
    • 1. 捕获(Acquisition)—— 粗同步: 接收端一开始并不知道发来的码片处于什么时间点。它必须像滑动窗口一样,一步步滑动本地 PN 码去和接收信号相乘积分。一旦积分器输出一个极大的“相关峰值”,说明大方向对准了,捕获成功
    • 2. 跟踪(Tracking)—— 细同步: 仅仅捕获是不够的,收发双方的石英钟存在微小偏差,码片会慢慢滑移错位。因此必须引入延迟锁定环(DLL)。它会同时生成“提前”和“滞后”的两个本地码,不断比较这两者的误差,像自动驾驶的偏航纠正一样,死死咬住并锁定接收信号的最优相位

四、 跳频扩频(FHSS):“打一枪换一个地方”的游击战
与 DSSS 把能量摊薄不同,跳频(FHSS)采用的是频率上的游击战术

  • 基本原理: 载波频率不是固定的,而是根据伪随机码的指令,在极宽的频带内进行极其快速的伪随机跳变(例如每秒跳频 1600 次的蓝牙技术)
  • 抗干扰本质: 信号在任何一个瞬间仍然是窄带的,但它的频率位置飘忽不定。敌方如果释放窄带干扰,由于不知道你的跳频图样,最多只能在极小概率下“碰巧”干扰到你一两个瞬间(Hit and Run),大部分时间你都在其他干净的频点上安全通信。结合纠错编码,这种瞬间的数据丢失可以被完美修复,极大地提升了系统的抗窄带干扰和抗多径衰落能力。

简要介绍一下蜂窝移动电话系统IS-95中的CDMA、全球定位系统GPS中的PN序列、蓝牙中的FHSS

扩频技术的封神之战:IS-95、GPS 与蓝牙的工程落地

当你向面试官解释完扩频和跳频的底层逻辑后,用这三个最经典的现实案例作为落脚点,能瞬间证明你不仅懂理论,更懂“工程妥协与技术演进”。

一、 蜂窝移动网络 IS-95 中的 CDMA(容量与软切换的革命)
IS-95 是高通主导的 2G/3G 划时代标准。在它之前,FDMA 和 TDMA 必须硬性划分频率和时间,系统容量极度受限(用户一多就打不通电话)。

  • 底层逻辑应用: IS-95 让小区内所有用户在同一时刻共享同一段极宽的频带(1.25 MHz1.25\text{ MHz}。下行链路(基站到手机)利用 6464 阶完全正交的 Walsh 码对不同用户进行隔离;上行链路则利用用户的专属长 PN 序列进行区分。
  • 工程杀手锏:软切换(Soft Handoff)。 传统系统换基站时必须“先断开原频率,再连接新频率”(硬切换,容易掉线)。而 CDMA 全网同频,手机在移动到交界处时,可以同时用不同的 PN 码接收两个基站的信号并合并,实现“先连接,后断开”的无缝切换
  • 致命缺陷与妥协(面试必考点):远近效应(Near-Far Problem)。 既然大家都用同一个频率,离基站近的手机信号会像喇叭一样“震聋”基站,导致基站听不到远处手机微弱的声音。为了活下去,IS-95 被迫采用了极其变态的每秒 800800 次的高速闭环功率控制,强行保证所有手机到达基站的信号功率绝对一致。可以说,没有极致的功率控制,就没有 CDMA

二、 全球定位系统 GPS 中的 PN 序列(深空弱信号的提取与测距)
GPS 是直接序列扩频(DSSS)在人类导航史上的巅峰之作。它的痛点不是为了防干扰,而是为了测距微弱信号提取

  • 底层逻辑应用: 太空中的 2424 颗 GPS 卫星全部都在同一个频率(L1=1575.42 MHzL1 = 1575.42\text{ MHz})上向地球广播。为了区分卫星,每颗卫星被分配了唯一且正交的 C/A 码(一种周期为 1 ms1\text{ ms} 的 Gold 序列)
  • 工程杀手锏一:白噪化提取。 卫星信号到达地面时,功率已经衰减到 130 dBm-130\text{ dBm} 以下,完全淹没在自然界的热噪声中。GPS 接收机利用本地相同的 C/A 码进行极其漫长的积分运算(解扩),凭借高达 43 dB43\text{ dB} 的处理增益,硬生生把有用信号从热噪声泥潭里“捞”了出来。
  • 工程杀手锏二:相关峰精准测距。 接收端在滑动本地 PN 码去匹配卫星信号时,一旦完全对齐,相关器会输出一个极其陡峭的相关峰(Correlation Peak)。这个峰值出现的精确时刻,就是电磁波的到达时间(TOA)。利用 距离=光速×时间差距离 = 光速 \times 时间差,瞬间解算出你的物理位置。

三、 蓝牙技术中的 FHSS(在混乱的 2.4GHz 丛林中求生)
蓝牙(Bluetooth)的设计初衷是用于极短距离(几米)的个人局域网,但它被分配在极其拥挤、完全免费的 2.4 GHz2.4\text{ GHz} ISM 频段。在这个频段里,有 Wi-Fi 路由器、微波炉、无线鼠标,简直是电磁干扰的“垃圾场”。

  • 底层逻辑应用: 面对这种随时可能出现的强干扰,蓝牙没有选择死磕,而是采用了**跳频扩频(FHSS)**这种“游击战术”。它将 2.4 GHz2.4\text{ GHz} 频段切分成了 7979 个带宽为 1 MHz1\text{ MHz} 的微小信道。
  • 工程杀手锏:高速伪随机跳频。 蓝牙设备不会在一个信道上停留,而是根据主设备生成的伪随机图样,以每秒 16001600 次(即每个频点只停留 )的极高频率在 7979 个信道中疯狂跳变
  • 为什么能抗干扰? 如果蓝牙碰巧跳到了 Wi-Fi 正在狂轰滥炸的频点,这个数据包确实会丢失。但不用怕,625625 微秒后,它立刻就跳到了下一个极大概率干净的信道重传。这种“打一枪换一个地方”的战术,配合前向纠错(FEC),让蓝牙在极其恶劣的电磁丛林中实现了极其稳定的连接。

九、多址技术

请简单介绍一下多用户与无线通信的相关信息

如果说前八章解决的是“如何让两个设备之间通畅地交流”,那么第九章解决的就是真实世界中如何让成百上千个用户在充满干扰的自由空间里互不打扰地共享通信资源”。这章是现代移动通信(从 2G 到 5G)的基石。

整个第九章由三大核心版块构成:
1. 多址技术: 解决“资源怎么分”的问题。在空中这个唯一的共享信道里,如何给每个人分配独一无二的“隐形通道”。
2. 无线通信链路预算分析: 解决“信号传多远”的问题。像做财务账本一样,精确计算发射机功率在经过空间衰减和设备噪声剥削后,到底还剩多少能落入接收机的口袋。
3. 多径衰落与信号分集接收技术: 解决“环境太恶劣怎么办”的问题。面对城市高楼反射带来的毁灭性干扰,如何通过多路收集与合并技术“化敌为友”。


一、 多址技术的演进逻辑(如何分配共享资源)

在单根线缆中,我们用“复用(Multiplexing)”;而在开放的无线空间中,多个分布在不同位置的终端要同时访问同一个基站,这就必须使用“多址(Multiple Access)”技术来避免空中撞车。

  • 1. 频分多址 (FDMA) —— 物理切分
    • 原理: 将总频带分割成若干个互不重叠的窄带信道,每个用户独占一个频率。
    • 缺陷: 频率资源极其有限,且为了防止相邻信道干扰,必须留出保护频带,频带利用率极低。此外,基站需要极其庞大的射频滤波器阵列。这是第一代模拟手机(1G)的方案。
  • 2. 时分多址 (TDMA) —— 轮流发言
    • 原理: 所有用户使用同一个射频频带,但把时间分割成周期性的,每一帧再分割成时隙。用户只在自己专属的微秒级时隙内突发发送数据。
    • 优越性: 极大地降低了基站射频硬件的复杂度(一个载波可以伺候多个用户)。
    • 缺陷: 必须要有极其严苛的全局时间同步机制,否则用户的脉冲会在空中相撞。为了应对信号传输的延迟,必须在时隙之间加入保护时间(Guard Time)。这是 2G GSM 系统的核心。
  • 3. 码分多址 (CDMA) —— 维度的降维打击
    • 原理: 所有用户完全同频、完全同时发送信号。它利用相互正交的伪随机码(PN 码)作为用户的唯一标识。
    • 优越性与缺陷: 它的容量是软容量(只受限于总干扰电平),并且能实现无缝的软切换。但它的致命缺陷是远近效应:离基站近的用户信号极强,会彻底淹没远端用户的信号。因此 CDMA 必须依赖极其变态的高速闭环功率控制来“续命”,强行让所有到达基站的信号功率完全一致。

二、 无线信道的两大天然绝症:衰落机制

电磁波在城市中传播,绝对不是理想的直线,而是会遭遇极其复杂的物理衰落。面试官最喜欢问大尺度和小尺度的区别及其物理含义。

  • 1. 大尺度衰落(Large-Scale Fading)—— 决定覆盖范围
    • 路径损耗: 信号能量随距离的增加而在空间中发散。自由空间的损耗与距离的平方成正比。
    • 阴影衰落: 遇到高楼大厦或山脉的物理遮挡。由于地形的随机性,其衰减幅度在统计上服从对数正态分布
  • 2. 小尺度衰落(Small-Scale Fading)—— 毁灭信号的元凶
    这是由多径效应终端移动在微秒级时间内引发的剧烈波动,统计上通常服从瑞利分布(无直达波)或莱斯分布(有直达波)。它表现为两个极其关键的物理推导:
    • 时间色散 \rightarrow 频率选择性衰落:
      • 原理: 多条反射路径的长短不一,导致信号到达有先后(多径时延扩展 τ\tau)。频域上,这等效于信道变成了一个“梳子状”的滤波器,会把某些特定频率的信号彻底吞噬。不同环境下,平均时延扩展是不一样的,为了避免码间串扰,应该使码元周期大于多径引起的时延扩展
      • 核心定律: 引入了相关带宽 Bc1/τB_c \approx 1/\tau 的概念。信号的带宽小于相关带宽时,发生非频率选择性衰落,当信号的带宽大于相关带宽时,发生频率选择性衰落。如果发送信号的带宽大于相关带宽,信号就会产生严重的码间干扰(波形失真)。解决办法是使用 OFDM 或者均衡器。
    • 频率色散 \rightarrow 时间选择性衰落:
      • 原理: 手机在高速移动时,会产生多普勒频移。不同方向来的反射波产生的频移不同,导致接收频率发生展宽(多普勒展宽 BdB_d)。
      • 核心定律: 引入了相关时间 Tc1/BdT_c \approx 1/B_d 的概念。它代表信道在这段时间内是“稳定不变”的。如果你的码元时间 Ts>TcT_s > T_c,意味着在一个码元还没发完时,信道就变脸了,信号会被彻底撕裂。

三、 绝境逢生的终极武器:分集技术与 Rake 接收机

既然信道总是不可避免地发生深衰落,工程师的哲学就是“不要把鸡蛋放在一个篮子里”。

  • 1. 分集接收(Diversity)的底层逻辑
    • 本质: 获取同一个携带信息的信号的多个独立衰落的副本。既然一条路断了,几条路同时断的概率就会呈指数级下降。
    • 获取方式: 空间分集(多根天线,间距大于半个波长即可保证衰落独立)、频率分集时间分集
    • 合并技术: 拿到多个副本后怎么用?最极客、性能最好的方案是最大比合并(MRC, Maximal Ratio Combining)。它的数学本质是:谁的信噪比高,我就给谁分配更大的权重;同时把所有分支的相位强行对齐再相加。这样不仅不会互相抵消,反而实现了系统信噪比的极限最大化。
  • 2. Rake 接收机 —— 变废为宝的艺术
    • 痛点转化: 在传统单载波系统里,多径产生的迟到“回声”是导致码间干扰的致命毒药。
    • 颠覆性原理: 在 CDMA 扩频系统中,由于伪随机码的速率极高(码片极窄),系统拥有了极高的时间分辨率。Rake 接收机内部由多个“相关器手指(Finger)”组成,每个手指故意延迟不同的时间,精准地去捕捉那些迟到的多径回声
    • 优越性: 它不仅成功分离了多径,而且把这些原本是“干扰”的反射波,通过上述的**最大比合并(MRC)**技术,相位对齐后全部叠加起来,变成了极其宝贵的有用能量!Rake(钉耙)这个名字,正是因为它像耙子一样把散落在时间轴上的能量一点滴地梳理并收集了起来。

多径衰落的本质

多径衰落的本质:时域与频域的绝妙等价性

在评估无线信道的恶劣程度时,我们通常使用两套不同的标尺,但它们最终指向同一个物理真理。

一、 时域视角:码元周期 TsT_s vs. 多径时延扩展 τmax\tau_{max}

  • 物理机制: 多径效应导致同一个信号产生多条回声。最先到达的直达波与最后到达的微弱回声之间的时间差,就是多径时延扩展 τmax\tau_{max}
  • 无串扰条件: 信号是由一个个码元拼接而成的,每个码元持续时间为 TsT_s。如果 TsT_s 很大(低速通信),而 τmax\tau_{max} 相对较小,那么前一个码元的“拖尾回声”只会轻微重叠到下一个码元的极小一部分,判决时依然能看清主体。此时**Ts>τmaxT_s > \tau_{max},系统不会发生严重的码间串扰(ISI)**。
  • 灾难发生: 当我们追求高速上网时,TsT_s 被压缩得极短(Ts<τmaxT_s < \tau_{max})。前一个码元的回声会彻底淹没后一个甚至后几个无辜的码元,导致接收端完全无法解码波形。

二、 频域视角:信号带宽 BsB_s vs. 相关带宽 BcB_c

  • 物理定义: 相关带宽 BcB_c 是信道固有的物理属性,代表在这个频率区间内,所有频率成分经历的衰落起伏是“同频共振、步调一致”的。
  • 平坦衰落(非频率选择性衰落): 假设你的信号带宽 BsB_s 很窄(Bs<BcB_s < B_c),它能完完整整地塞进这个“步调一致”的区间里。信号通过信道时只会整体变大或整体变小,波形本身不会产生严重畸变,这就是平坦衰落。
  • 灾难发生: 一旦信号带宽很宽(Bs>BcB_s > B_c),信号的不同频率成分就会跨越信道的多个衰落波谷和波峰。有的频率被放大,有的频率被彻底吞噬(深衰落)。信号的频谱形状被信道这把“破梳子”彻底破坏,这就是频率选择性衰落

三、 终极统一与工程破局(面试绝杀点)
在信号与系统理论中,时间和频率是倒数关系:信号带宽 Bs1/TsB_s \approx 1/T_s,而相关带宽 Bc1/τmaxB_c \approx 1/\tau_{max}
由此可得,以下两个不等式在数学和物理上是绝对等价的:

Ts>τmax    Bs<BcT_s > \tau_{max} \iff B_s < B_c

也就是说:避免码间串扰的时域条件,与实现平坦衰落的频域条件,是同一件事的两面!

工程上的伟大妥协(引出 OFDM 技术):
现代宽带通信(如 Wi-Fi、5G)要求极高的速率,意味着 BsB_s 必然极大,必然导致 BsBcB_s \gg B_c(必然发生毁灭性的频率选择性衰落)。
工程师是如何破局的?他们祭出了 OFDM(正交频分复用)
既然总带宽太宽,那就把它切分成 NN 个极窄的子载波,让每个子载波的带宽 Bsub=Bs/NB_{sub} = B_s/N。只要切得足够细,使得 Bsub<BcB_{sub} < B_c,我们就在极其恶劣的频率选择性衰落信道中,为人为划分的每一个微小子载波强行创造了完美的“平坦衰落”环境!这就是现代通信对抗恶劣信道的终极智慧。

为什么切分带宽必须依赖“正交”?(OFDM 压榨频谱的终极奥义)

前面提到,为了对抗频率选择性衰落,我们把极宽的总带宽切分成了 NN 个极窄的子载波(Bsub<BcB_{sub} < B_c)。但这仅仅解决了“波形不失真”的问题,却引出了一个极其致命的新痛点:频率资源的极度浪费

如果按照传统频分复用(FDM)的物理逻辑,为了防止这 NN 个子频道互相串扰(载波间干扰 ICI),必须在它们之间留出宽阔的保护频带。当子载波数量高达成百上千个时,保护频带占用的空间甚至会超过有效信号,导致系统根本无法提供宽带级别的高速率。

这正是 “正交(Orthogonal)” 展现数学降维打击的地方:

  • 打破物理隔离墙: 工程师抛弃了物理上的距离隔离,转而利用数学特性。只要让相邻子载波的频率间隔严格等于码元周期的倒数(Δf=1/T\Delta f = 1/T),这些子载波在积分周期内就达到了绝对的正交状态
  • 重叠且互不干扰(核心优越性): 凭借正交特性,我们完全不需要留任何保护频带,直接让所有子载波的频谱极其紧密地相互重叠! 尽管宏观上频谱交织在一起,但在接收端对某一个子载波的最高点(中心频点)进行抽样时,其他所有子载波的波形在这个频点上的影响刚好严格为零
  • 逻辑闭环: “切分成子带”是为了对抗多径造成的畸变;而“正交重叠”则是为了把切分后本应浪费的频谱效率,硬生生地重新推向理论极限。没有正交,多载波技术在工程成本和频谱效率上将毫无实用价值。

既然正交之后都不需要保护频带了,为什么还要有GI和CP呢?

一、 频域上:绝对不需要保护频带(OFDM 的骄傲)
我们上一节说的“不需要留保护间隔,紧紧重叠”,特指在频率轴(频域)上。
传统的频分复用(FDM)在两个子频道之间必须留一段空白频率(保护频带)。而 OFDM 依靠
正交性
,让子载波在频域上重叠。在频率维度上,OFDM 榨干了每一滴资源,没有浪费任何“保护频带”。

二、 时域上:为什么必须要有 GI?(无法逃避的物理宿命)
哪怕你在频域上切得再细、正交得再完美,只要电磁波还在城市空间中传输,多径效应产生的“物理回声”就永远存在
想象一下,基站在时间上连续发送了【OFDM符号A】和【OFDM符号B】。

  • 物理灾难: 符号 A 在撞击高楼大厦后,产生了长长的“迟到回声”。这些回声在时间轴上往后拖延,必然会一头撞进紧接着发送的【符号 B】的接收窗口里。这就导致了严重的码间干扰(ISI)
  • 引入保护间隔(GI): 为了防止符号 A 的回声污染符号 B,我们必须在时间轴上,两个符号之间强行拉开一段距离(留出一段持续时间为 TgT_g 的空白停顿)。只要 TgT_g 大于最大多径时延 τmax\tau_{max},符号 A 的回声就会全部掉进这个空白地带,绝不会伤到符号 B。

三、 为什么光有 GI 不行,非要弄出个循环前缀(CP)?
如果 GI 只是一段纯粹的“静音空白”,会引发一个更绝望的数学灾难:

  • 正交性的崩溃: 接收端在做 FFT(快速傅里叶变换)解调时,要求截取的窗口内,子载波必须是完美的连续周期波形。如果前面有一段死寂的空白,加上多径的干扰,截取窗口一旦发生微小偏移,把空白截进去了,波形的周期性就会被瞬间撕裂!周期性一毁,正交性立刻荡然无存,各个子载波之间会发生惨烈的互相串扰(ICI)。

  • 终极魔法(CP 的诞生): 工程师做出了一个神级操作:我不留静音空白了,我把【符号 B】最后面的那一段波形“复制”下来,强行“粘贴”到【符号 B】的最前面,填满那段 GI 的时间! 这就是循环前缀(CP, Cyclic Prefix)

  • 一石二鸟的伟业(面试绝杀总结):

    1. 物理当炮灰(消除 ISI): 它依然占据了那段隔离时间,成功挡住了符号 A 的回声。这部分前缀就算被前一个符号的回声污染了也没关系,因为它本来就是多余的复制品,接收端可以直接扔掉它。
    2. 数学造幻觉(消除 ICI): 因为前面粘贴的是自己尾巴的波形,所以无论接收端的 FFT 窗口怎么在多径干扰下轻微滑动,只要不出这个前缀的范围,截取到的永远是一个完整且首尾相连的周期循环波形。这就在数学上死死保住了正交性,彻底消灭了载波间串扰(ICI)

十、信息论基础

第十章:信息论基础(通信宇宙的物理极限与三大定理)

信息论是现代通信的灵魂。香农撇开了具体的电路和调制方案,直接从概率论的角度拷问通信的本质通信就是消除不确定性的过程

一、 熵与互信息(量化“信息”的标尺)

  • 信源熵 H(X)H(X)(不确定性的度量): 本质: 怎么用数学去衡量一条消息包含的“信息量”?香农指出,信息量等于消除的不确定性。如果一件事发生概率极小(比如明天太阳从西边出来),它一旦发生,带给你的信息量就极大。

    • 公式与意义: 熵是所有可能事件信息量的数学期望:

      H(X)=p(x)log2p(x)H(X) = -\sum p(x) \log_2 p(x)

      它代表了信源平均每个符号所包含的最少信息量,也是无损压缩的绝对极限(香农第一定理)

  • 互信息 I(X;Y)I(X;Y)(通信的终极目的):

    • 本质: 发送端发了 XX,接收端收到了被噪声污染的 YY。互信息表示:在已知收到 YY 的前提下,关于未知发送端 XX 的不确定性消除了多少

    • 核心公式:

      I(X;Y)=H(X)H(XY)I(X;Y) = H(X) - H(X|Y)

      这就是通信的本质——我们拼命优化系统,就是为了让互信息最大化,让收发双方“心意相通”。

二、 离散信道与信道容量(速度的绝对天花板)

  • 信道容量 CC 的定义: 一个物理信道造好后,它的传输能力就定死了。信道容量是指在所有可能的输入概率分布下,系统所能达到的最大互信息量:$$C = \max_{p(x)} I(X;Y)$$
  • 物理意义(香农第二定理的基石): 这是该信道在保证误码率趋近于零的前提下,所能达到的**最高信息传输速率极限**。无论你用多么牛的调制技术(QAM、OFDM),只要传输速率 R>CR > C,就绝对不可能实现无差错传输;只要 RCR \le C,在理论上就一定存在某种编码方法,能实现无差错传输。

三、 相对熵与高斯信道容量(香农公式的降维打击)

  • 相对熵(KL 散度): 用于衡量两个概率分布之间的“距离”或差异,是推导信道容量极其重要的数学工具。

  • 高斯信道容量(通信界的第一神阵): 当信道中存在连续的加性高斯白噪声(AWGN)时,香农给出了那个统治通信界大半个世纪的伟大公式:

    C=Blog2(1+SN)C = B \log_2\left(1 + \frac{S}{N}\right)

    • 极限分析(面试绝杀点): 这个公式揭示了带宽 BB 和信噪比 S/NS/N 之间极其绝妙的互换关系。增加带宽可以降低对信号功率的要求(扩频通信的理论基础)。
    • 思维陷阱: 如果把带宽 BB 无限拉宽,信道容量 CC 会趋近于无穷大吗?绝对不会! 因为噪声功率 N=n0BN = n_0 Bn0n_0 是噪声功率谱密度),带宽越宽,引入的背景噪声也越大。通过洛必达法则求极限可知,当 BB \to \infty 时,CC 最终趋于一个常数极限:$$C_{\infty} \approx 1.44 \frac{S}{n_0}$$ 这就是物理宇宙对通信能力的最终判决。

四、 离散信源编码与压缩算法(榨干最后一点冗余)

  • 痛点与本质: 人类产生的数据(文本、代码)中包含大量规律性的“废话(冗余)”。信源编码的目的就是“消除冗余,提高通信有效性”。
  • 香农第一定理(无失真信源编码定理): 指出无损压缩的极限就是信源熵 H(X)H(X)。平均码长永远不可能小于熵。
  • 工程落地(霍夫曼编码 Huffman Coding): 这是最经典的最佳变长编码算法
    • 核心思想(按需分配): 出现概率极高的符号(比如英文里的字母 ‘e’),给它分配极其简短的二进制码;出现概率极低的符号(如 ‘z’),分配较长的码。这种“劫富济贫”的统计学智慧,使得总体的平均码长被极大地缩短,无限逼近信源熵 H(X)H(X),是目前所有主流无损压缩软件(如 ZIP)的底层基石。

五、 率失真函数与限失真编码(有损压缩的哲学妥协)

  • 演进逻辑: 无损压缩虽然完美,但压缩率太低(比如一首无损 WAV 音乐动辄几十兆)。如果我们要传视频、音频,带宽根本不够。
  • 哲学妥协(香农第三定理): 既然人类的耳朵听不到极高频,眼睛看不清极其微小的色彩差异,我们为什么不主动抛弃掉这部分不重要的数据,允许一定程度的“失真(Distortion)”,来换取极高的压缩率(Rate)呢?
  • 率失真函数 R(D)R(D) 它定义了在允许平均失真度不超过 DD 的前提下,系统至少需要多少比特率 RR 才能把信息传过去
    • 工程意义: 它是现代所有有损压缩技术(如 MP3 音乐、JPEG 图片、H.264/H.265 视频编码)的终极理论天花板。它指导工程师如何在“文件大小(Rate)”和“清晰度(Distortion)”之间寻找最完美的平衡点。

如何理解香农三大定理

香农三大定理:通信物理宇宙的三大基本定律(重构版)

香农的三大定理在逻辑上构成了一个极其严密的闭环,它们分别回答了通信系统设计中最核心的三个极限问题:无损压缩的底线在哪里?传输速度的天花板在哪里?有损压缩的妥协边界在哪里?

一、 香农第一定理:无失真信源编码定理(无损压缩的绝对极限)

  • 核心拷问: 一段包含大量废话的数据,在保证一字不差还原的前提下,最少能压缩到多小?
  • 物理本质: 香农指出,信息的本质是“不确定性”,而量化这种不确定性的标尺就是信源熵 H(X)H(X)。数据中能被预判的规律(冗余)都不算真正的信息。
  • 定理判决: 无论你发明多么绝妙的无损编码算法(如哈夫曼编码),你压缩后每个符号的平均码长 LL永远不可能小于该信源的熵 H(X)H(X)

    LH(X)L \ge H(X)

  • 工程意义: 它指导我们在发送端拼命地“挤水分”,剥离掉所有自然冗余,让数据体积无限逼近 H(X)H(X) 的绝对底线。这是目前所有无损压缩软件(如 ZIP、FLAC)的理论尽头。

二、 香农第二定理:有噪信道编码定理(无差错传输的速度极限)

  • 核心拷问: 把压缩好的数据送上充满噪声的物理信道,为了不被噪声摧毁,我们要穿上纠错编码的“防弹衣”(增加人为冗余)。那么,系统在保证绝对可靠(误码率趋于零)的情况下,最高能跑多快?
  • 物理本质: 香农引入了信道容量 CC 的概念,它是一个物理信道在特定带宽和信噪比下,所能承载的最大互信息量。对于最经典的高斯白噪声信道,其容量公式为:

    C=Blog2(1+SN)C = B \log_2\left(1 + \frac{S}{N}\right)

  • 定理判决: 如果你的信息传输速率 RR 满足 RCR \le C,那么理论上必定存在一种纠错编码方法,能实现**无差错传输**;一旦你贪得无厌,让 R>CR > C,那么无论用什么科技,误码率都会雪崩。
  • 工程意义: 它是全人类通信工程的“光速”。从 3G 的 Turbo 码到 5G 的 Polar 码,几代通信人前赴后继,就是为了在复杂的恶劣信道中,通过极度复杂的数学纠错算法,让实际传输速率无限逼近这个神圣的 CC

三、 香农第三定理:速率-失真定理(有损压缩的哲学妥协)

  • 核心拷问: 当面临极其绝望的物理困境——信源熵极大(如 4K 原画),而信道容量极小(如荒野中的极弱信号),也就是 H(X)>CH(X) > C 时,完美传输被彻底宣判死刑,我们该如何断臂求生?
  • 物理本质: 既然无法完美,我们就主动抛弃那些人眼看不清、人耳听不到的边缘细节。我们定义一个系统能够容忍的最大平均失真度 DD。在此前提下,寻求能维持该清晰度的最低比特率底线,这就是速率-失真函数 R(D)R(D)

    R(D)=minp(yx):DˉDI(X;Y)R(D) = \min_{p(y|x): \bar{D} \le D} I(X;Y)

  • 定理判决: 只要你设计的压缩码率 RR 满足 R>R(D)R > R(D),就必定存在一种编码方式,能让接收端的失真度控制在 DD 以内;若 R<R(D)R < R(D),则绝对无法保证失真度不越界。
  • 工程意义: 这是现代多媒体通信的灵魂。MP3、JPEG、H.265 等所有有损压缩技术,都是在 R(D)R(D) 曲线的指导下,在“极小的文件体积”和“勉强能接受的画质/音质瑕疵”之间,寻找那道最完美的平衡木。

系统级逻辑总结:
这三大定理描绘了一个波澜壮阔的工程蓝图:我们先用第一定理榨干水分(求极限 H(X)H(X));如果数据还是太大塞不进信道,我们就用第三定理割肉妥协(求极限 R(D)R(D));最后,我们遵从第二定理的最高法则,给精简后的数据穿上纠错装甲,确保它在不超过物理信道容量 CC 的极限下,安全抵达彼岸。

十一、纠错编码

第十一章:纠错编码(信道编码与数学防弹衣的设计)

纠错编码的物理本质,就是“无中生有地人为引入规律(冗余比特)”。发送端按照某种严密的数学法则打包数据;如果在传输中被噪声咬坏了几个比特,接收端就能利用预先知道的数学法则,不仅能发现哪里坏了,还能把坏掉的比特强行算回来。

一、 编码信息传输模型

  • 系统架构: 在原有基带传输模型的基础上,在发送端插入信道编码器,在接收端插入信道译码器。从编码器输出到译码器输入的这一整段(包含调制、物理信道、解调),在编码理论中被统称为编码信道(广义信道)
  • 核心矛盾: 引入纠错编码必然会增加多余的比特(冗余度),这会导致传输的有效性(信息速率)下降。因此,纠错编码的本质是以牺牲有效性(带宽)为代价,换取系统可靠性(低误码率)的极大提升

二、 无差错信息传输原理(香农定理与物理极限的深层逻辑)
这部分是全章的灵魂,它回答了一个根本问题:在充满噪声的真实宇宙中,绝对的“无差错”真的可能吗?

  • 1. 香农之前的绝望与香农的颠覆:

    • 在香农之前,通信界普遍认为:要想降低误码率,只能无限地增大发射功率,或者无限地降低发送速度。如果要让误码率真正等于 0,发送速度必须降为 0。
    • **香农信道编码定理(香农第二定理)**颠覆了这一常识。它严厉地指出:对于容量为 CC 的信道,只要你的信息传输速率 RR 满足:

    R<CR < C

    在理论上就必定存在一种编码方式,当码长 nn 趋于无穷大时,系统的误码率 PeP_e 可以无限趋近于 0(实现绝对的无差错传输)!

  • 2. 它是怎么做到的?(多维空间的降维打击):

    • 假设我们有 kk 个信息比特,共有 2k2^k 种可能的信息组合。我们给它加上冗余,变成长度为 nn 的码字(n>kn > k)。
    • 几何直觉: 长度为 nn 的二进制序列,构成了一个极其庞大的 2n2^n 维的超级空间。但我们只在这个庞大的空间里,挑选出 2k2^k 个点作为“合法码字”。
    • 因为空间太大了(2n2k2^n \gg 2^k),这 2k2^k 个合法码字在空间中分布得极其稀疏,彼此之间相隔十万八千里。当信号在传输中遭遇噪声,它在多维空间里的位置会发生偏移。但只要合法的点之间离得足够远(最小汉明距离足够大),偏移后的点依然会离它原本的那个“合法老家”最近,而绝不会跑到别人的地盘去。接收端只要实行“就近原则”,就能完美纠错!这就是无差错传输的物理机制。
  • 3. 宇宙的叹息:香农限(Shannon Limit):

    • 既然 R<CR < C 就能无差错,那我们能不能在极度恶劣、信噪比极低的条件下通信呢?
    • 我们将香农公式 C=Blog2(1+S/N)C = B \log_2(1 + S/N) 进行极限推导。令带宽 BB \to \infty,并将信噪比转化为每比特能量与噪声功率谱密度的比值(Eb/N0E_b/N_0。当系统逼近无差错传输的极限(RCR \to C)时,我们会得到一个令人绝望的常数:

    EbN0ln21.59 dB\frac{E_b}{N_0} \ge \ln 2 \approx -1.59 \text{ dB}

    • 物理意义: 这就是震古烁今的香农限。它宣告了全人类通信能力的绝对死刑:如果你的接收信号极弱,导致 Eb/N0E_b/N_0 低于 1.59 dB-1.59\text{ dB},那么无论你拥有多大的带宽、无论你发明多么伟大的天才纠错码(哪怕码长趋于无穷),也绝对不可能实现无差错通信。 它是物理学给通信工程划定的一道不可逾越的叹息之墙。

三、 纠错编码与译码基本原理

  • 核心度量(汉明距离与汉明重量):

    • 汉明重量 w(x)w(x) 一个码字中非零比特的个数。
    • 汉明距离 d(x,y)d(x,y) 两个等长码字之间对应位不同的个数。
    • 最小汉明距离 dmind_{min} 决定了整个编码系统抗击打能力的绝对下限。
  • 最佳译码准则: 在二元对称信道(BSC)中,最大似然译码准则(ML)等价于最小距离译码准则。即:收到一个出错的码字后,比较它和所有合法码字的汉明距离,谁的距离最近,就判决为谁(完美呼应了前面提到的多维空间就近原则)。

  • 三大纠错能力判决公式:

    • 若要检测 ee 个随机错误:

    dmine+1d_{min} \ge e + 1

    • 若要纠正 tt 个随机错误:

    dmin2t+1d_{min} \ge 2t + 1

    • 若要纠正 tt 个且同时检测 ee 个错误(e>te > t):

    dmine+t+1d_{min} \ge e + t + 1

四、 线性分组码 (Linear Block Codes)

  • 定义与封闭性:kk 个信息位打包,通过线性组合生成 rr 个校验位,构成总长为 nn 的码字(即 (n,k)(n, k) 码)。线性码的核心性质是封闭性:任意两个合法码字相加(模2和),必定还是一个合法的码字。

  • 发送端:生成矩阵 G\mathbf{G}

    • 包含 k×nk \times n 的矩阵。信息向量 m\mathbf{m} 通过与 G\mathbf{G} 相乘生成码字 c\mathbf{c}

    c=mG\mathbf{c} = \mathbf{m} \cdot \mathbf{G}

  • 接收端:校验矩阵 H\mathbf{H} 与伴随式译码

    • H\mathbf{H}G\mathbf{G} 满足绝对的正交关系:GHT=0\mathbf{G} \cdot \mathbf{H}^T = \mathbf{0}
    • 接收端计算伴随式 S\mathbf{S}

    S=rHT\mathbf{S} = \mathbf{r} \cdot \mathbf{H}^T

    • 如果 S=0\mathbf{S} = \mathbf{0},认为无错;如果 S0\mathbf{S} \ne \mathbf{0}S\mathbf{S} 的值域(错误图样)会与出错的比特位置产生唯一映射。查表即可精准纠错。

五、 线性循环码 (Linear Cyclic Codes)

  • 定义与降维: 循环码是分组码的子集。它拥有独一无二的循环特性:合法码字向左或向右循环移位后,依然是该码集中的合法码字。
  • 代数多项式表示: 抛弃复杂的矩阵,将序列化为以 xx 为变量的多项式。所有的合法码字多项式 c(x)c(x),都必定能被一个特殊的生成多项式 g(x)g(x) 整除:

    c(x)=m(x)xnk+r(x)c(x) = m(x) \cdot x^{n-k} + r(x)

  • 工程优越性: 多项式的除法在硬件上可以通过**线性反馈移位寄存器(LFSR)**极其简单、廉价地实现。著名的 CRC(循环冗余校验)就是基于此原理。

六、 二元线性卷积码 (Convolutional Codes)

  • 本质区别(引入记忆): 分组码是“无记忆”的。而卷积码是“有记忆”的!当前时刻输出的 nn 个比特,不仅取决于当前输入的 kk 个信息位,还死死咬住之前输入的 mm 段历史信息位。
  • 状态表征: 必须借助**网格图(Trellis Diagram)**来描述信号在时间轴上的状态转移轨迹。
  • 维特比(Viterbi)译码: * 面对网格图中呈指数级爆炸的路径,采用“加-比-选(Add-Compare-Select)”的动态规划解法。
    • 果断抛弃距离大的劣势路径,只保留唯一的“幸存路径”。最终回溯出全局最优的发送序列,完成极高精度的纠错。

十二、面试问题

12.1 绪论

1、为什么带宽可以衡量一个模拟通信系统的有效性?

在模拟通信系统中,有效性主要衡量的是系统对频带资源的利用效率,而带宽 BB 直接决定了在给定的总频率空间内能够容纳的信道数量。 由于模拟信号是连续变化的波形,无法像数字信号那样通过比特率来量化信息量,因此我们转而观察该信号在频率轴上所占用的“地盘”大小。根据频分复用(FDM)的原理,总频谱资源是有限的,单个用户信号所占用的带宽越窄,单位频带内能并排传输的电话或广播路数就越多,这意味着系统的资源转换效率越高,因此带宽成为了衡量有效性的核心标尺。

从物理本质上看,带宽的大小代表了信号承载信息变化快慢的能力,即信号的频率成分决定了其能够传递的细节丰富程度。 对于模拟信号而言,传输一段语音或图像需要保留其特定范围内的频率分量以保证质量,而调制技术的引入(如 AM、DSB、SSB)本质上是在对这些频率分量进行“空间排布”。例如,单边带调制(SSB)相比于双边带调制(DSB)节省了一半的带宽,其优越性在于它用更少的频率资源传递了等量的有用信息,这种对带宽的精简直接提升了系统的有效性,使得昂贵的无线电频谱得到了更充分的利用。

​ 从信号承载信息的物理代价来看,带宽直接反映了模拟信号为了保持特定保真度所必须付出的频率空间成本。根据信号理论,波形变化越剧烈、包含的细节越丰富(如高保真交响乐),其在频域上展开的绝对带宽就越宽;反之,变化缓慢的普通语音只需要很窄的频段。因此,当我们用带宽来衡量模拟系统的有效性时,实际上是在评估该系统为了传递同样质量的模拟信息,到底“挥霍”了多少赫兹的宝贵频谱资源。这正是为什么单边带调幅(SSB)在理论上被公认为比常规双边带调幅(AM)更具有效性,因为它极其聪明地用数学滤波手段将所需的物理带宽硬生生砍掉了一半,却依然传递了完全相同的情报。

然而,带宽与有效性的这种正相关关系并非孤立存在,它在模拟通信中始终受到“带宽与信噪比互换”这一物理规律的制约。 虽然压缩带宽能提高有效性,但往往会降低信号的抗噪声能力,例如宽带调频(WBFM)虽然牺牲了极大的带宽资源(有效性低),却换取了模拟通信中极高的输出信噪比(可靠性高)。这种有效性与可靠性之间的博弈,说明了带宽之所以能衡量有效性,是因为它代表了我们在频率域付出的“成本”;我们研究不同的调制技术,本质上就是为了在保证用户听得清的前提下,尽可能压减这部分成本,以缓解频率资源匮乏与用户需求增长之间的核心矛盾。


🚀 拓展问题与简答

Q1:模拟通信的有效性和可靠性是一对矛盾体吗?
A1:在绝大多数情况下,它们确实是相互制约的物理矛盾体。以调频(FM)和调幅(AM)为例,FM 信号占用的带宽远大于 AM,这意味着它的频谱有效性较差;但是,FM 极其精妙地利用这巨大的频带空间换取了极强的抗噪声能力,因此它的通信可靠性远超 AM。这完美体现了通信工程中最经典的**“以带宽换取信噪比”**的终极折中哲学。

Q2:为什么在数字通信系统中,衡量有效性的核心指标变成了传输速率(如比特率)而不是单纯看带宽?
A2:虽然物理底座依然受限于频带宽度,但数字通信将信息抽象成了离散状态。通过复杂的高阶调制技术(如 256-QAM)和基带脉冲成形,数字系统可以在相同的一赫兹绝对带宽内同时塞入成倍的数字比特。因此,使用频带利用率(比特/秒/赫兹)或绝对数据吞吐速率来衡量数字系统的有效性,比单纯看它占了多宽的电磁波更具有实际的工程指导意义。

Q3:单边带(SSB)调制既然带宽减半、有效性极高,为什么早期的商业广播不全用它?
A3:虽然 SSB 的频谱有效性达到了标准 AM 调制的两倍,但它的硬件实现代价极其高昂。在发送端需要极其陡峭的滤波器来切割频谱,而在接收端则必须使用复杂的相干解调和极其严苛的载波同步电路。早期的商业广播为了让千家万户都能买得起仅由几个晶体管组成的廉价收音机,果断在系统设计上做出了妥协,用浪费大量频谱带宽的代价换取了接收机硬件成本的极致压缩

2、什么是基带传输,什么是频带传输?

信号频谱的原始状态与信道物理特性的直接耦合来看,基带传输是指将未经调制的原始电信号(即基带信号)直接送到线路中进行传输的方式。无论是我们对着麦克风喊话产生的低频模拟音频,还是计算机 CPU 吐出的方波数字比特流,它们在刚诞生时,能量都集中在从零频(直流)开始的低频频段。基带传输就是保留信号这种最原始的“素颜”状态,直接把它灌入双绞线或同轴电缆中。由于低频信号在空间中极易衰减且无法有效地通过天线辐射,基带传输通常只被死死限制在局域网、电脑内部总线或极短距离的有线通信场景中

频谱搬移与复杂空间环境的降维打击来看,频带传输(又称调制传输)则是将原本处于低频的基带信号,通过调制技术“搭载”到高频的载波振荡上,然后再送入信道传输的过程。这就好比原本只能在小巷里慢慢走的行人(基带信号),坐上了一辆能够以极高速度在高速公路飞驰的跑车(高频载波)。通过调制,我们不仅把信号搬移到了天线能够有效辐射的高频段,实现了跨越千山万水的无线电波远距离通信,还极其巧妙地利用了不同频率的载波,在同一片空间中实现了多路信号互不干扰的频分复用(FDM)。可以说,没有频带传输,就没有今天满天飞的手机信号和卫星通信。


拓展问题与简答

Q1:为什么基带信号不能直接用天线发射到空气中进行无线通信?
A1:根据电磁辐射的物理定律,为了让天线高效地发射电磁波,天线的物理尺寸必须与信号的波长处于同一数量级(通常为四分之一波长)。基带信号频率极低、波长极长(动辄几百公里),如果强行直接发射,你需要建造一座比珠穆朗玛峰还要高几十倍的超级天线,这在工程物理上是完全荒谬且不可实现的。

Q2:我们家里用的千兆以太网网线(网线直连计算机)属于基带还是频带传输?
A2:属于典型的数字基带传输。虽然速度高达千兆,但网线中传输的依然是没有经过射频载波调制的电平脉冲(通常经过了复杂的线路编码如 PAM-4)。正是因为有线信道具有极其优秀的低通特性且环境封闭,工程师才能在极短的距离内(通常不超过 100 米),直接用原始的电压跳变暴力拉满数据吞吐率。

简要说说模拟通信系统和数字通信系统的模型,并对比数字通信系统的优缺点。

信息形态的绝对连续与物理波形的直接映射来看,模拟通信系统的架构极其精简,主要由信源、调制器、信道、解调器和信宿五个基本环节构成。它的核心哲学是“忠实记录与线性搬移”,即将信源产生的声音或图像等物理量直接转化为连续起伏的电压电平,然后通过模拟调制技术将其搬移到适合天线辐射的射频频段中进行传输。在这个体系中,无论是发送端还是接收端,系统处理的始终是随时间平滑演进的模拟波形。这种机制的致命缺陷在于,当信号在空间中穿越并沾染上随机的加性高斯白噪声后,这些噪声会与有用信号的波形彻底水乳交融,解调端根本没有任何数学手段能将它们完全剥离,导致传输距离越远,信号质量的恶化就越是不可逆转

信息的离散抽象与流水线式的冗余武装来看,数字通信系统的模型则是一座精密而庞大的信息工业化城堡。在基础的调制解调链路之外,它强行在信源和信道之间塞入了信源编码(负责压缩剔除无用冗余)和信道编码(负责添加抗干扰校验比特)两大极具智慧的核心模块,并在接收端设置了严格对等的逆向解码过程。它的底层生存逻辑是“离散判决与数字再生”,即将所有连续的模拟世界全部打碎、抽样并量化为只有 0 和 1 的纯粹比特流,然后再将这些数字序列映射为离散的物理基带脉冲送入信道。接收机不再纠结于波形的完美轮廓是否被噪声扭曲,而只需在特定的同步时刻,通过抽样判决器去粗暴地猜测当前电平到底是超过了门限还是低于门限。

系统抗击打能力与物理频谱的残酷折中来看,数字通信系统展现出了对模拟系统的压倒性代差优势,但也为此付出了沉重的物理代价。数字系统的最大优点在于拥有极其强悍的抗干扰能力与无限制的中继再生能力,因为数字中继站可以在噪声彻底淹没判决门限之前,将模糊的波形重新整形还原为完美的新脉冲,从而彻底斩断了模拟系统中噪声沿途累积的死结;同时,离散的比特流天生支持最高级别的密码学加密算法,并且极易实现多种媒体信息的多路时分复用。然而,这种近乎完美的抗噪装甲是以极度挥霍物理信道带宽为代价的,一个原本只需占用极窄频带的模拟语音一旦被数字化,其所需的传输带宽往往会瞬间膨胀十几倍;并且,为了保证海量数字脉冲的精准对齐与切割,数字系统必须依赖一套极其复杂、成本高昂且不容有失的网同步与节点时钟防御体系

拓展问题与简答

Q1:在数字通信模型中,模数转换(A/D)和数模转换(D/A)具体发生在哪一个模块中?
A1:发生的最核心位置在信源编码与信源解码模块中。信源编码器不仅负责去除信号的统计冗余以压缩数据,它的第一步动作就是通过抽样、量化和编码,将连续的模拟基带信号硬生生地转化成离散的数字比特流;而接收端的信源解码器则负责将这些比特流还原回人类耳朵和眼睛能够接收的连续模拟信号。

Q2:为什么说数字通信系统比模拟通信系统更容易实现保密通信?
A2:模拟信号保密通常只能通过极其简单的频段倒置或掩蔽,很容易被窃听者用相同的物理电路破译。而数字通信传输的是纯粹的“0”和“1”,这使得工程师可以在信道编码之前,直接引入极其复杂的现代密码学算法(如 AES 或 RSA)对原始比特流进行逻辑异或与扰码。这种基于高阶数学难题的加密机制,即使窃听者完美截获了物理电磁波,也绝对无法在有效时间内破解出真实信息。

Q3:既然数字通信优点这么多,模拟通信系统在今天已经被彻底淘汰了吗?
A3:并没有完全淘汰,而是退居到了对成本和功耗极度敏感、且对通信质量要求不高的特定长尾领域。例如,老式的 AM/FM 无线电广播、部分简易的航空语音通信系统以及极其廉价的模拟对讲机,依然在利用模拟体制极低硬件复杂度、极小处理延迟以及无需复杂时钟同步的残存优势,在数字时代的边缘继续发挥着余热。

12.2 基础知识

1、为什么通信必须用随机过程来描述?

信息论的底层逻辑来看,通信的本质是传输“未知”的消息,而确定的信号不携带任何信息。香农指出,信息量的大小取决于事物的不确定性,即熵。如果一个信号在时域上是完全确定的,比如一个永恒不变的正弦波,那么接收方在收到信号之前就已经预知了它未来的所有走势,其熵为零。因此,为了承载有效的信息,发送端发出的信号序列对于接收端而言,在未收到之前必须是随机的、不可预测的

工程环境的实际情况来看,信道中永远存在着各种不可控的随机噪声。这些噪声是由电子热运动或外界电磁干扰产生的,其瞬时值随时间做无规则运动。为了研究信号在通过这种充满“杂质”的信道后还能否被正确还原,我们必须将“有用信号”与“随机噪声”作为一个整体的随机过程来处理。只有通过随机过程的统计工具,我们才能在概率意义上评估系统的误码率、信噪比以及抗干扰性能。

信号处理的数学角度来看,单次发送的具体码元序列具有偶然性,其傅里叶变换往往不满足绝对可积条件,导致直接进行频域分析在数学上缺乏普遍意义。随机过程理论通过自相关函数这一稳定的统计特征,利用维纳-辛钦定理将瞬时波形的乱序映射为确定的功率谱密度。这让我们能够从宏观上把握信号的带宽、功率分布等本质属性,从而为硬件滤波器、天线带宽以及频带分配提供科学的理论指导。


🚀 拓展问题与简答

Q1:既然信号是随机的,我们如何定义它的带宽?
A1:尽管瞬时波形不可预测,但平稳随机过程的自相关函数是确定的。通过对自相关函数进行傅里叶变换得到功率谱密度(PSD),功率谱在频率轴上的占据范围(通常指能量集中区域)即定义了信号的统计带宽

Q2:什么是平稳随机过程?它在通信分析中有什么意义?
A2:平稳随机过程是指其统计特性(如均值、自相关)不随时间起点的选择而改变的过程。它简化了数学模型,使我们能用一套不随时间漂移的固定参数来描述整个系统的平均性能。

Q3:各态历经性(遍历性)在描述通信信号时起到了什么作用?
A3:它保证了我们可以通过观察一段足够长的单次实验波形来代替无数次实验的统计平均。这意味着工程师只需测量一个样本的长时间平均特性,就能推断出该通信系统整体的统计规律。

2、为什么平稳性在通信中至关重要?

从系统的可分析性来看,平稳性是研究通信随机过程的基石。在现实中,通信信号的瞬时值虽然随机波动,但如果该过程满足平稳性,其统计特性(如均值、方差和自相关函数)就不随时间起点的选择而改变。这意味着我们可以从宏观上提取出信号的一套恒定规律。如果没有平稳性,信号的功率分布和统计特性将随时间不断漂移,导致我们无法定义一个统一的带宽或功率标准,这会使整个通信系统的理论建模和性能评估变得极度混乱且不可计算。

频域分析的角度来看,平稳性直接决定了功率谱密度(PSD)的存在意义。根据维纳-辛钦定理,只有宽平稳随机过程的自相关函数才与其功率谱密度构成傅里叶变换对。在工程实践中,我们需要根据功率谱来设计发射机的带宽、接收机的滤波器参数以及信道分配策略。由于平稳性保证了信号的谱特性在统计上的稳定性,工程师才能确信在这一秒设计的系统,在下一秒依然能有效提取信号,而不会因为信号统计特征的突变导致接收失效。

各态历经性(遍历性)的先决条件来看,平稳性是实现“一叶知秋”的前提。在通信测试中,我们往往只能捕捉到一段有限长的实验波形,而无法观测到该信号在所有可能情况下的集合。平稳性是各态历经性的必要条件,它允许我们通过对单个样本函数的时间平均来代替复杂的统计平均。这种数学上的对等关系极大地简化了实验测量,使得我们通过示波器观测到的一段稳定信号,就足以代表整个通信系统的本质性能。


🚀 拓展问题与简答

Q1:宽平稳和严平稳有什么区别?
A1:严平稳要求信号的所有阶统计特性都不随时间移动,这在物理上过于苛刻;而宽平稳(弱平稳)只要求均值为常数且自相关函数仅与时间间隔有关。在通信工程中,我们通常只需要信号满足宽平稳即可进行大部分功率谱和信噪比分析。

Q2:如果信号是非平稳的,我们该如何分析它?
A2:对于非平稳信号,传统的傅里叶变换和功率谱不再适用,通常需要引入时频分析方法,例如短时傅里叶变换(STFT)或小波变换,来观察信号的统计特性是如何随时间演变的。

Q3:为什么随机过程的“均值为常数”对电路设计很重要?
A3:均值在物理上对应信号的直流分量。如果均值为常数且已知,工程师就可以通过隔直电容准确地去除直流偏移,或者利用该分量进行自动增益控制(AGC),从而保证后续放大电路不进入饱和区。

3、现在无线通信的实际应用情况中,几乎不存在AWGN信道,那么我们研究通信系统在 AWGN信道下的性能的意义是什么呢?

理论基准(Baseline)的角度来看,AWGN信道是通信系统分析中不可或缺的理想参考坐标系。虽然现实中的信道充满了多径衰落、多普勒频移和阴影效应,但这些复杂的损耗往往是叠加在基础的热噪声之上的。通过研究 AWGN 信道下的误码率(BER)性能,工程师可以确定一个通信系统在物理极限下能达到的最好表现。这就像是在无摩擦的理想平面上研究力学定律,只有先掌握了“纯净”环境下的性能上限,我们才能量化评估在加入复杂信道干扰后,系统性能究竟产生了多少功率代价(Power Penalty)

数学建模的普适性来看,AWGN 模型通过中心极限定理描述了自然界中最广泛存在的热噪声。无论是在卫星通信、深空探测还是极短距离的设备互联中,器件电子的热运动产生的噪声总是呈现高斯分布且频谱平滑。由于 AWGN 的统计特性极其简单(均值为零,自相关函数为冲击函数),它允许研究者推导出闭式解(Closed-form Solution)。这种简洁的数学表达为调制方式的选择(如 QPSK 或 16QAM)提供了最初步的筛选标准,使得复杂的算法优化有了可比较的统一平台

模块化设计与解耦的工程思维来看,AWGN 性能分析实际上是抗噪声能力抗衰落能力的解耦过程。在实际系统设计中,我们通常将任务分层:调制和编码主要负责在噪声背景下提取信号,而均衡技术、分集接收和信码交织则负责对抗多径衰落。研究 AWGN 下的性能,本质上是在优化接收机的灵敏度信道编码的增益。一旦这部分基础打牢,当系统面临实际的复杂信道时,我们只需要在 AWGN 模型的基础上增加相应的**余量(Margin)**或补偿算法,而不需要推倒整个底层架构重新设计。


🚀 拓展问题与简答

Q1:为什么热噪声被建模为“白”噪声?
A1:在通信关注的频率范围内,热噪声的功率谱密度是平坦的,类似于白光的频谱特性。这种特性意味着它在所有频段上具有相同的破坏力,使得信噪比(SNR)的计算不依赖于具体的中心频率。

Q2:除了 AWGN,移动通信中常用的复杂信道模型有哪些?
A2:最常用的是**瑞利衰落(Rayleigh Fading)模型和莱斯衰落(Rician Fading)**模型。前者模拟没有直射路径的密集城区环境,后者则模拟存在强直射路径(LOS)的开阔环境,它们比 AWGN 更贴近真实的无线电波传播特性。

Q3:在 AWGN 分析中,为什么 Eb/N0E_b/N_0 比 SNR 更常用?
A3:因为 Eb/N0E_b/N_0(每比特能量与噪声功率谱密度之比)是一个归一化指标,它消除了带宽和传输速率的影响。这使得我们可以公平地比较不同速率、不同带宽效率的系统在抗噪声性能上的优劣。

4、我们为什么要研究预包络和复包络?

数学处理的简化性来看,研究预包络和复包络是为了将高频带通信号转化为低频基带等效模型。真实的通信信号通常加载在高频载波上,直接对其进行分析会涉及大量复杂的三角函数运算和高频振荡细节。通过引入希尔伯特变换构造预包络,我们可以消除负频率分量的冗余;而复包络则进一步移除了载波频率的影响,将复杂的带通信号映射为复平面上的随路向量。这种转换使得原本震荡剧烈的带通系统分析,简化成了对低频复包络的线性处理,极大地降低了系统仿真和理论推导的维度。

硬件实现与解调的角度来看,复包络是现代正交调制(I/Q 调制)的理论核心。复包络的实部和虚部直接对应了基带中的同相分量(I)和正交分量(Q)。在数字接收机中,我们并不需要直接处理高频波形,而是通过正交下变频获取复包络。研究复包络能够让我们清晰地观察到信号在传输过程中产生的幅度畸变和相位偏移,从而为载波同步、均衡器设计以及相位补偿提供最直观的物理参数。

系统性能评估的统一性来看,预包络和复包络提供了一种与载频无关的分析手段。无论信号是在 900 MHz 还是 5 GHz 频段传输,其携带的信息和经受的相对损耗都体现在复包络的演变上。通过这种分析方法,我们可以定义统一的等效低通特性来描述放大器的非线性失真、信道的衰落特性以及滤波器的群时延。这不仅提高了计算效率,也使得不同频段、不同带宽的通信协议可以在同一个复基带框架下进行公平的性能对比。


🚀 拓展问题与简答

Q1:希尔伯特变换在构造预包络中起到了什么作用?
A1:希尔伯特变换本质上是一个 90° 移相器。通过它,我们可以为实信号构造一个虚部,从而产生一个单边光谱的解析信号(即预包络)。这样做的物理意义在于消除了频谱的对称冗余,使得信号在复平面上的旋转方向变得唯一且可追踪。

Q2:为什么复包络通常被认为是“低通”信号?
A2:复包络是通过将预包络的频谱向左平移 fcf_c(载频)得到的。这一操作将能量中心从高频搬移到了零频率附近。因此,复包络不再包含高频载波的快速振荡,只保留了信息调制的缓慢变化趋势,符合低通信号的特征。

Q3:在功率谱分析中,带通信号与复包络的功率谱有什么关系?
A3:带通信号的功率谱密度实际上就是其复包络功率谱密度的频移版本。研究复包络的功率谱可以让我们避开高频载波,直接观察调制脉冲的形状和旁瓣特性,这正是分析 2ASK 功率谱密度时的核心快捷路径。

5、我们为什么非要将信号写成同相分量与正交分量相加的形式?

数学表达与物理实现的一致性来看,将信号分解为同相(I)与正交(Q)分量是为了将复数信息映射到实数物理信道。在复基带理论中,一个复信号 m(t)m(t) 包含了幅度与相位。通过欧拉公式展开,这个复信号可以完美地拆解为两个相互正交的实分量:同相分量 I(t)I(t) 对应实部,正交分量 Q(t)Q(t) 对应虚部。这种表示法允许我们利用相位相差 90° 的两个正交载波在同一频段内同时传输两路独立的信息,而不会产生相互干扰,这正是 QAM 或 PSK 等现代高效调制技术的底层物理架构。

硬件设计的简洁性来看,I/Q 分解极大降低了发射机与接收机的复杂度。如果直接调节载波的振幅和相位(极坐标方式),硬件需要极高性能的压控振荡器和线性放大器,这在高速切换时非常难以精确控制。而采用 I/Q 分解(直角坐标方式),我们只需要两个简单的乘法器和加法器,分别控制两路基带信号的幅度,再与正交载波相乘相加。这种架构对电路的线性度要求相对较低,且极其易于在**数字信号处理器(DSP)**中通过算法实现,成为了软件无线电(SDR)的通用标准。

信号分析与处理的角度来看,I/Q 形式是观察信号矢量演变的最直观工具。在复平面(星座图)上,I 分量决定了点的横坐标,Q 分量决定了纵坐标。通过这种分解,我们可以独立地分析信道对信号造成的幅度衰减与相位旋转。例如,载波同步误差在 I/Q 模型下表现为两路信号的相互渗透(串扰),这为设计均衡器和同步环路提供了明确的数学目标。这种分解法将复杂的波动干涉问题转化为了简单的线性代数运算,使通信系统的性能评估变得清晰且高效。


🚀 拓展问题与简答

Q1:为什么 I 路和 Q 路信号相加后不会产生干扰?
A1:这是因为 cos(ωt)\cos(\omega t)sin(ωt)\sin(\omega t) 在一个周期内是相互正交的。在接收端,当我们用本地 cos(ωt)\cos(\omega t) 进行相干解调时,Q 路信号由于与本地载波正交,积分后的均值为零,从而被完美消除,保证了 I 路信息的独立提取。

Q2:I/Q 不平衡(I/Q Imbalance)会对通信造成什么影响?
A2:如果 I/Q 两路的增益不一致或相位差不是严格的 90°,就会导致星座图发生偏移或扭曲。物理上,这表现为两路信息产生了串扰,增加了误码率,通常需要通过数字信号处理算法在接收端进行专门的补偿。

Q3:在推导 2ASK 功率谱密度时,我们需要用到 I/Q 分解吗?
A3:对于 2ASK 这种一维调制方案,由于相位是恒定的,它实际上只包含 I 路(同相分量),而 Q 路为零。这也是为什么 2ASK 的频谱分析比 QPSK 简单的原因,因为它不需要处理两个正交支路之间的能量叠加。

6、我们知道将一个涉及高频载波的、复杂的实带通通信系统,完全“变换”或“映射”到一个仅在零频附近工作的、简单的复基带系统中进行分析和设计。在这个等效系统中,所有信号和组件都用它们的复包络来表示。如何理解这句话:经过严格的理论推导,对带通信号在高频段进行处理,等同于将信号和系统的冲激响应都用复包络表示出来,然后在低频段进行相同的处理?

从**线性时不变系统(LTI)**的卷积特性来看,带通系统的分析可以完全平移至基带处理。物理上,带通信号可以表示为载波与其复包络的乘积,而带通系统的冲激响应同样可以分解为中心频率处的振荡与其复包络。经过数学推导,带通信号与带通系统的卷积,在去除载波项后,严格等价于两者的复包络在时域进行的低通卷积。这意味着我们无需在高频域进行复杂的相位捕捉和振荡积分,只需要在零频附近对复包络进行处理,最后将结果乘回载波,即可还原出真实的高频物理响应。

信号分析的维度缩减来看,这种映射本质上是利用了信号能量的局域性特征。由于带通信号的带宽远小于其载波频率,信号的有效信息完全由其复包络的幅度与相位演变决定,而非载波本身的快速振荡。将系统映射到复基带,实际上是剔除了载波这一无信息的“背景背景”,将复杂的带通干涉问题转化为简单的复数向量运算。在这种等效模型中,系统的频率偏移、相位噪声以及幅频失真都被统一建模为复包络上的线性变换,从而极大地简化了现代数字解调、信道均衡以及仿真计算的逻辑。

正交调制与解调(I/Q 架构)的硬件实现来看,复基带等效模型提供了直接的工程蓝图。接收机通过下变频器将高频信号搬移至零频,这一物理过程本质上就是在提取复包络的实部(I路)与虚部(Q路)。在低频段进行的信号处理,如匹配滤波、定时恢复和判决,正是在对复包络执行“相同的处理”。这种理论与实践的高度统一,使得工程师可以在低频数字电路中完成所有复杂的数学运算,而其结果在物理上等同于对高频电磁波进行了精确的操控,这也是现代软件无线电(SDR)的核心理论支撑。


🚀 拓展问题与简答

Q1:为什么在等效基带模型中,系统冲激响应的复包络要乘以 1/2?
A1:这是由于在频域推导中,带通系统的频谱由正负两个对称谱点组成。当我们只取正频率部分构造预包络并移动到零频时,为了保持能量守恒或增益一致,通常需要引入一个 1/2 的修正因子(取决于预包络的具体定义),以确保基带模型的输出功率与实际带通系统的输出功率匹配。

Q2:复基带等效模型在处理非线性系统时还成立吗?
A2:不完全成立。等效模型主要建立在线性叠加原理之上。如果系统存在严重的非线性(如功率放大器的饱和失真),简单的复包络卷积就不再适用。此时需要引入更复杂的Volterra级数或基于复包络的非线性映射模型来描述信号产生的谐波和交调干扰。

Q3:在 2ASK 功率谱推导中,利用复包络有什么捷径?
A3:2ASK 的复包络是一个简单的单极性或双极性随机基带脉冲序列。根据等效原理,我们只需要计算这个低通复包络的功率谱 Pl(f)P_l(f),然后将其搬移到载频 ±fc\pm f_c 处,即可得到带通信号的功率谱。这种方法避开了直接对载波项求自相关的复杂过程,是快速推导 2ASK 带通频谱的标准步骤。

7、随机信号的自相关函数的傅立叶变换是什么,这个关系叫什么?

从信号处理的统计学与频域映射理论来看,一个平稳随机信号的自相关函数的傅里叶变换,正是该信号的功率谱密度(Power Spectral Density, PSD)。在数学表达上,如果我们将随机信号的自相关函数记为 R(τ)R(\tau),将其功率谱密度记为 P(f)P(f),那么这两者之间构成了一对极其完美的傅里叶变换与逆变换关系。这意味着,自相关函数在时域上描述了信号取值随时间推移的内在关联程度,而它的傅里叶变换则直接在频域上揭示了该信号的平均功率是如何随频率分布的

从通信理论的奠基性定理来看,这种将时域统计特性与频域能量分布紧密绑定的数学关系,被称为维纳-辛钦定理(Wiener-Khinchin Theorem)。这一定理是现代统计信号处理的绝对基石。在维纳-辛钦定理提出之前,工程师们很难将充满不确定性的随机噪声或随机数据流直接放进频域进行分析;而该定理极其优雅地指出,只要我们掌握了随机过程在时间上的相关性规律,就等同于完全掌握了它在频率轴上的功率结构

从工程实践的绕道与理论跨越来看,维纳-辛钦定理解决了一个致命的数学与物理矛盾。真实的随机信号(如持续不断的高斯白噪声或数字基带流)在时间上是无限延伸的,这意味着它们的总能量为无穷大,绝对不满足经典傅里叶变换所需的绝对可积条件(狄利克雷条件)。因此,我们根本无法直接对真实的随机信号本身求频谱。维纳-辛钦定理极其巧妙地将研究对象从“随机波形本身”替换成了“波形的自相关函数”,因为平稳随机过程的自相关函数通常是随时间延迟迅速衰减且绝对可积的,从而在数学上完美跨越了随机信号无法直接进行频谱分析的理论鸿沟。

拓展问题与简答

Q1:自相关函数在时域上的衰减速度,反映了信号频域上的什么特征?
A1:自相关函数的衰减速度与信号的频谱宽度成反比。如果自相关函数衰减极快(例如一个极其尖锐的冲击),说明信号只与极短时间内的自己相关,其内部变化极其剧烈且毫无规律,这在频域上对应着极宽的功率谱(如白噪声的平坦频谱);反之,如果衰减极其缓慢,说明信号变化平缓、可预测性强,其能量就会极其狭窄地集中在低频区域。

Q2:维纳-辛钦定理是否适用于所有类型的随机信号?
A2:这一定理有着极其严格的前提假设,它仅适用于广义平稳(Wide-Sense Stationary, WSS)随机过程。这意味着该随机信号的统计特性不能随时间剧烈突变:其均值必须是一个常数,且其自相关函数只能与时间差(延迟量 τ\tau)有关,而绝对不能与起始观察时间有关。对于非平稳随机信号,这一定理将不再适用,工程师必须转向更为复杂的时频分析工具(如小波变换)。

Q3:在实际的通信接收机芯片中,我们是如何利用这一定理来估算信道噪声的?
A3:在实际硬件中,由于我们永远无法获得无限长的时间样本来计算真正的数学期望,DSP(数字信号处理器)通常会先对有限长度的接收噪声样本进行采样,利用“时间平均”来近似“统计平均”,暴力估算出一个离散的自相关序列,然后再对这个序列执行快速傅里叶变换(FFT)。这种基于维纳-辛钦定理的间接算法,是现代通信设备评估信道质量和实时抗干扰的最核心底层逻辑。

8、高斯白噪声是什么?是功率信号还是能量信号?

统计分布与频域特性的双重物理维度来看,高斯白噪声(Gaussian White Noise)是通信系统中最经典且最恶劣的理想噪声模型。“高斯”一词严格界定了它的时域概率统计特性,意味着这种噪声在任意时刻的瞬时幅度值完全服从正态分布(高斯分布),即大多数时候噪声幅度在均值附近波动,但也有极小概率出现极其极端的电平尖峰。而**“白”一词则精确描述了它的频域能量分布形态,意味着它的功率谱密度在整个无限宽的频率轴上是一个常数**。就像包含了所有可见光谱的白光一样,它包含了从零频到无穷高频的所有频率分量,且各个频率分量的能量完全绝对相等。

信号存在的持续性与能量积分的收敛性来看,高斯白噪声是一个绝对的功率信号,而绝非能量信号。根据信号与系统理论,能量信号是指总能量有限且平均功率为零的信号(如一个瞬间即逝的独立脉冲);而功率信号是指总能量为无穷大,但平均功率为有限非零常数的信号。由于高斯白噪声在时间上是无始无终、永远持续存在的,且其功率谱密度在无穷宽的频带上积分等于无穷大,它的总物理能量必然趋于无穷;但是,当我们在任何一段受限的物理带宽或有限的时间窗口内去测量它时,其平均功率总是表现为一个稳定的常数。因此,在工程与数学分析中,我们只能用功率谱密度和平均功率来衡量它,它是不折不扣的功率信号。

拓展问题与简答

Q1:现实物理世界中存在真正的高斯白噪声吗?
A1:在绝对的物理意义上,完全理想的高斯白噪声是不存在的。因为要在从零到无穷大的所有频率上保持同等的能量,意味着这种信号的总发射功率必须是无穷大,这显然违背了宇宙的能量守恒定律。在实际工程中,只要一种内部热噪声的平坦频谱带宽远远大于我们通信系统的接收机物理带宽,我们就将其在系统内部极其合理地近似视为白噪声。

Q2:什么是带限白噪声(Band-limited White Noise),它有什么物理意义?
A2:当理论上的无限宽带高斯白噪声穿过接收机前端的实际物理滤波器(如低通或带通滤波器)后,其频谱中超出系统带宽的高频部分会被强行切除。此时进入解调器的噪声被称为带限白噪声,它的总功率不再是致命的无穷大,而是变成了一个与滤波器带宽成正比的有限确定值,这正是通信系统能够计算出有限信噪比并正常工作的前提条件。

Q3:为什么我们在理论推导和系统设计中,极其偏爱用高斯分布来模拟信道噪声?
A3:这源于概率论中极其伟大的中心极限定理。在真实的通信接收机中,天线感知到的总背景噪声往往是宇宙微波辐射、电路内部亿万个自由电子的无规则热运动以及无数杂乱空间电磁波的无穷叠加。中心极限定理严格证明了,大量极其微小且相互独立的随机物理事件之和,无论其各自原先是什么奇奇怪怪的分布,最终叠加后的宏观表象必然无限逼近于高斯分布,这赋予了高斯噪声模型无可捍卫的物理真实性。

12.3 模拟通信系统

1、为什么AM需要包络检波?

系统复杂度与成本控制的角度来看,AM 信号(标准调幅)引入大载波分量的核心目的就是为了实现包络检波。包络检波器本质上是由二极管、电阻和电容组成的低通滤波器,它不需要在接收端提取一个与发射端频率和相位完全一致的相干载波。这种非相干解调方式极大地简化了早期广播接收机的电路结构,使得普通用户只需极其廉价的元器件就能还原声音信号。

物理波形的直观映射来看,包络检波的前提是信号的复包络必须始终大于零,即调制指数小于 1。在这种条件下,调幅信号的幅度起伏完全跟随基带信号的变化,信号的“外壳”或者说“包络”就直接承载了所有的音频信息。二极管的非线性导通特性配合电容的充放电过程,能够像“扫描仪”一样提取出这条随时间变化的振幅曲线,从而绕过了复杂的乘法运算和载波同步环节。

频谱效率与功率折中的逻辑来看,包络检波虽然以浪费发射功率(大载波不携带信息)为代价,但换取了解调的鲁棒性。在移动环境或低端设备中,载波同步环路(如锁相环)极易失锁或产生相位抖动。包络检波作为一种非相干解调技术,对相位变化不敏感,只要信号电平足够高,就能稳定地恢复出原始基带波形。这种“发射端多花钱,接收端省大钱”的策略,是 AM 广播能够大规模普及的关键。


🚀 拓展问题与简答

Q1:如果 AM 信号的调制指数大于 1(过调幅),包络检波会发生什么?
A1:当发生过调幅时,信号的包络会进入负值区域,但包络检波器只能提取幅度的绝对值,这会导致波形在过零点附近发生严重的相位反转畸变,还原出来的音频信号会产生极其刺耳的失真。

Q2:为什么 DSB-SC(抑制载波双边带)不能使用包络检波?
A2:DSB-SC 去掉了大载波,其时域波形在基带信号过零时会发生 180° 的相位跳变,导致其“包络”不再直接对应基带波形的形状。因此,DSB-SC 必须使用包含本地载波的相干解调才能恢复出原始信号。

Q3:在 2ASK 的功率谱分析中,我们能看到 AM 载波分量的影子吗?
A3:可以。2ASK 本质上就是数字化的 AM。在 2ASK 的功率谱密度中,如果基带序列的均值不为零,频谱中就会出现一个强烈的离散谱线(冲击函数),这正是对应了 AM 信号中那个耗能巨大但方便检波的固有载波分量

2、我们既然有了SSB,为什么还要用VSB?

滤波器设计的工程可行性来看,VSB(残留边带调制)的出现是为了解决 SSB(单边带调制)在处理具有低频分量或直流成分信号时的技术瓶颈。SSB 要求滤波器在载频附近具有极其陡峭的截止特性,以便在完全滤除一个边带的同时不损伤另一个边带的低频部分。然而,物理可实现的滤波器往往存在过渡带,如果强行使用 SSB 传输包含大量低频细节的信号(如电视图像信号),这些靠近载频的有用成分会被滤波器严重切除,导致严重的波形失真。

频谱效率与复杂度的折中来看,VSB 采取了一种“非对称”的妥协方案,它允许其中一个边带被大部分滤除,但保留一小部分残留,并配合另一边带的对应部分。通过设计一种具有互补特性的残留边带滤波器,VSB 能够保证在接收端解调后,两路边带在载波附近的能量能够完美叠加。这种方式虽然比 SSB 稍微多占用了一点带宽,但它极大地缓解了对滤波器“陡峭度”的要求,使得在低成本设备中传输宽带且含低频丰富信号成为可能。

实际应用(如模拟电视广播)的稳定性来看,VSB 提供了比 SSB 更好的低频响应和直流恢复能力。对于图像信号而言,背景亮度等信息对应着频率极低的成分,SSB 的滤波器切断特性极易造成图像背景的明暗失真。VSB 通过保留载波附近的一小段边带,确保了信号在过渡区内的能量平滑过渡,从而在保证频谱效率远高于 AM(双边带)的前提下,提供了接近理想的信号忠实度。


🚀 拓展问题与简答

Q1:VSB 接收端进行相干解调时,对滤波器的互补特性有什么要求?
A1:为了保证解调后没有幅度失真,VSB 滤波器的幅度谱必须在载频附近满足奇对称性。这意味着在载频处,滤波器的增益应为 0.5,且其上升沿与下降沿的变化规律互补,从而使残留边带的能量与另一边带对应的缺失能量加权求和后等于常数

Q2:为什么 VSB 在现代数字电视(如 ATSC 标准)中依然被提及?
A2:虽然现代数字通信多采用 OFDM,但经典的 ATSC 早期数字电视标准采用了 8-VSB 调制。这是因为它在单载波条件下具有很高的频谱利用率,并且在特定的广播信道环境下,其峰值平均功率比(PAPR)相对较低,有利于大功率发射机的效率提升。

Q3:在推导 2ASK 功率谱密度时,会涉及到残留边带的概念吗?
A3:通常不会直接涉及,因为 2ASK 默认是标准的双边带(DSB)数字调制。但如果你尝试对 2ASK 进行滤波以压缩带宽,且滤波器截止不理想导致边带被部分切除,那么你观察到的结果实际上就是一个数字化的 VSB 过程,其功率谱将表现出不对称的特征。

3、在角度调制中,调制指数有什么意义(调相指数、调频指数)?

频域分布的底层逻辑来看,调制指数是决定角度调制信号带宽的核心参数。与幅度调制不同,角度调制的频谱并不是基带信号频谱的简单线性平移,而是通过贝塞尔函数展开后的无限带宽分布。调制指数的大小直接决定了能量在各个谐波分量上的分配比例。当调制指数较小时,信号呈现窄带特性,能量主要集中在载频及其相邻的一对边带上;而当调制指数增大时,有效带宽会随之显著扩张。根据卡森公式,带宽与调制指数成正相关,这意味着我们通过牺牲更多的频率空间,换取了比幅度调制更优异的抗噪声性能。

相位空间与矢量演变的角度来看,调相指数(mpm_p)反映了载波相位偏移的最大瞬时偏移量。在相位调制(PM)中,调制指数直接正比于基带信号的幅度峰值,这意味着它描述了信号波形在极坐标下偏离参考相位的剧烈程度。而调频指数(mfm_f)则描述了载波频率偏移量相对于基带信号频率的比值。虽然两者在数学表达上具有相似性,但调频指数具有累积效应,它反映了频率变化所导致的总相位偏移。这种偏移量越大,信号在解调时产生的鉴频增益就越高,从而使得宽带调频技术(WBFM)能够在线路质量较差的环境下实现极高保真度的信息传输。

工程设计与抗干扰能力的折中来看,调制指数是有效性与可靠性之间的平衡杆。增大调制指数可以提高系统的解调信噪比改善增益,因为在解调过程中,有用信号的功率增益与调制指数的平方成正比,而噪声的影响保持相对恒定。然而,这种性能的提升是以占用巨大的频谱资源为代价的。在实际的无线电广播或专业移动通信中,工程师必须根据信道的带宽限制和预期的覆盖质量,精确设定最大频偏与调制指数,以确保在不干扰相邻频道的前提下,利用非线性调制的特性压制信道背景噪声。


🚀 拓展问题与简答

Q1:为什么窄带调频(NBFM)的频谱看起来和普通 AM 很像?
A1:当调制指数远小于 1 时,贝塞尔函数的高阶项可以忽略不计。此时信号在频域上只保留了主载波和一对边带。尽管它们在相位关系上与 AM 不同(PM/FM 的两个边带相位是奇对称的),但在占用带宽上与 AM 完全一致。

Q2:在 FM 中,如果基带信号频率 fmf_m 减小而幅度不变,调制指数和带宽会如何变化?
A2:在调频(FM)中,最大频偏 Δf\Delta f 仅取决于基带幅度。如果 fmf_m 减小,调频指数 mf=Δf/fmm_f = \Delta f / f_m 会增大。虽然单看频偏没变,但由于指数增大,能量会向更高阶的边带扩散,导致卡森带宽保持基本稳定或略有微调

Q3:调制指数与 2ASK 等数字调制有联系吗?
A3:2ASK 是幅度调制,不存在角度调制指数的概念。但在数字频率调制(2FSK)中,存在一个类似的指标叫调制指数 hh,它定义为两个频率点之间的频率间隔与符号速率的比值。这个 hh 决定了 2FSK 信号的功率谱中是否会出现离散的谱线分量

4、什么是卡森规则,有何用(注意说明频偏比)?

频域资源分配的角度来看,卡森规则(Carson’s Rule)提供了一个估算角度调制(调频 FM 或调相 PM)信号有效带宽的实用工程公式。由于角度调制的频谱理论上延伸至无穷远,直接计算其所有能量分布在工程上既不现实也无必要。卡森规则指出,信号绝大部分功率(约 98% 以上)集中在带宽 B2(Δf+fm)B \approx 2(\Delta f + f_m) 之内,其中 Δf\Delta f 为最大频偏,fmf_m 为基带信号的最高频率。这个公式的精妙之处在于它将复杂的贝塞尔函数展开简化为两个线性项的和,即两倍的最大频偏与两倍的基带最高频率之和,为发射机滤波器设计和信道间隔划分提供了最直接的参考依据。

调制效率与信号质量的折中来看,卡森规则深刻揭示了频偏比(或称调制指数 β\beta对带宽占用的控制作用。我们将最大频偏 Δf\Delta f 与基带最高频率 fmf_m 的比值定义为频偏比 β=Δf/fm\beta = \Delta f / f_m。当频偏比极小时,卡森带宽近似等于 2fm2f_m,此时信号呈现窄带(NBFM)特性,频谱占用与普通调幅(AM)相似;而当频偏比很大时,带宽则主要由 2Δf2\Delta f 决定,呈现宽带(WBFM)特性。通过调整频偏比,工程师可以在频谱有效性(节省带宽)与传输可靠性(利用宽带增益压制噪声)之间找到最佳的平衡点。

实际工程应用中,卡森规则是衡量非线性调制系统性能的标尺。它告诉我们,角度调制系统可以通过牺牲带宽来换取信噪比(SNR)的极大改善,这种“带宽换增益”的倍数关系正是由频偏比直接决定的。在无线电广播、卫星链路以及专业对讲机系统中,卡森规则不仅被用来计算必要的传输带宽以防止邻频干扰,还被用于确定解调器前置带通滤波器的参数,从而在保证信号不产生严重失真的前提下,最大限度地滤除带外噪声,确保通信链路的稳健性。


🚀 拓展问题与简答

Q1:如果实际带宽小于卡森规则计算出的带宽会发生什么?
A1:如果接收端的带通滤波器带宽窄于卡森带宽,会导致信号的高次边带分量被滤除。这在物理上表现为非线性失真(幅度失真和相位失真),反映在解调后的音频或数据上就是谐波分量增加、保真度下降或误码率上升。

Q2:卡森规则在窄带调频(NBFM)和宽带调频(WBFM)中表现有何不同?
A2:在窄带调频中,频偏比 β\beta 远小于 1,卡森带宽退化为 2fm2f_m,侧重于节省频谱。在宽带调频中,频偏比 β\beta 远大于 1,卡森带宽近似为 2Δf2\Delta f,侧重于利用宽带特性提高抗噪声性能,这正是 FM 广播音质优于 AM 广播的物理根源。

Q3:在推导 2ASK 功率谱密度时,会用到卡森规则吗?
A3:不会。因为 2ASK 属于线性调制(幅度调制),其带宽严格由基带信号的频谱决定,即带宽等于基带带宽的两倍(双边带)。卡森规则专门用于解决非线性调制(角度调制)中频谱无限延伸导致的带宽定义难题。

5、解调增益、系统增益分别有什么用?

从接收机性能评估的微观视角来看,解调增益(也称为调制增益 GG)衡量的是解调过程本身对信号质量的提升能力。它定义为解调器输出信噪比与输入信噪比的比值。对于调频(FM)等非线性调制系统,解调增益通常远大于 1,这意味着系统通过牺牲带宽换取了信噪比的改善;而对于传统的 AM 信号,解调增益则相对固定且较小。研究解调增益能帮助工程师判断特定调制方式在抑制信道噪声方面的内在效率,从而在设计阶段决定是采用复杂的宽带调制还是简单的窄带调制。

通信链路全局的宏观视角来看,系统增益则描述了整个通信链路对信号功率的动态调控能力。它涵盖了从发射机天线增益、传播路径损耗到接收机低噪声放大器(LNA)增益的完整物理过程。系统增益的作用在于确保到达判决器前的信号电平足以压制背景热噪声,维持必要的链路预算。如果系统增益不足,即便解调器的解调增益再高,也会因为输入端的“物料”信噪比过低而导致通信中断。因此,系统增益是决定通信距离和覆盖范围的核心工程参数。

工程设计与折中的逻辑来看,这两者共同构成了通信系统的“质量保障体系”。解调增益侧重于算法与调制维度的优化,旨在从已有的信号中榨取更高的保真度;而系统增益则侧重于硬件与功率维度的支撑,旨在为信号提供足够强的物理场强。在实际应用中,如果信道环境极度恶劣,工程师通常会通过增加天线增益(提高系统增益)和采用宽带调频或扩频技术(提高解调增益)相结合的手段,来确保在低信噪比环境下依然能实现稳定可靠的数据传输。


🚀 拓展问题与简答

Q1:为什么 AM 信号的解调增益通常被认为表现平平?
A1:在标准 AM 相干解调中,解调增益最大仅为 1。这是因为 AM 是线性调制,它没有利用额外的频率空间来换取噪声抑制。更糟糕的是,如果是包络检波,在大信噪比时增益接近 1,但在低信噪比时会产生门限效应,导致解调质量剧烈恶化。

Q2:调频(FM)系统的解调增益与什么参数密切相关?
A2:调频系统的解调增益与调制指数(或频偏比)的平方成正比。这意味着通过适度增大频率偏移(占用更多带宽),我们可以获得指数级增长的抗噪声能力,这正是 FM 广播能够提供“高保真”音质的数学基础。

Q3:在推导 2ASK 功率谱密度时,会涉及到这些增益吗?
A3:功率谱密度推导侧重于信号在频域的能量分布形态,属于解调前的信号特性分析。虽然它不直接计算增益,但功率谱的形状(如主瓣宽度和旁瓣衰减)决定了接收机滤波器的带宽,而滤波器的带宽直接影响了输入解调器的噪声功率,从而间接决定了最终的解调信噪比和增益表现

6、简要介绍一下常见的模拟传输的产生和调制,以及抗噪能力对比。(AM、DSB、SSB、VSB、FM、PM)

模拟通信的线性频谱搬移与幅度映射来看,幅度调制家族(AM、DSB、SSB、VSB)的核心思想是让高频载波的幅度随基带信号的规律变化。标准调幅(AM)通过在基带信号上叠加一个极大的直流分量后再与载波相乘,使得包络直接反映信号形状,从而允许极其廉价的包络检波器进行解调,但付出了极大的载波功率浪费。为了提高功率效率,双边带抑波调制(DSB)去除了直流分量,直接将纯信号与载波相乘,虽然节省了发射功率,但必须使用复杂的相干解调。进一步地,为了压榨宝贵的频谱资源,单边带调制(SSB)利用极其陡峭的带通滤波器或相移法,强行滤除掉 DSB 中冗余的一个边带,将物理带宽极限压缩了一半。而残留边带调制(VSB)则是针对包含极低频分量的电视图像信号所做出的工程妥协,它允许残留一小部分无用边带,以换取滤波器设计的平缓与低频波形的完整

非线性相位控制与频谱非线性扩展的角度来看,角度调制(FM、PM)彻底抛弃了脆弱的幅度信息,转而将基带信号隐匿在载波的频率或相位变化中。调频(FM)让载波的瞬时频率偏移与基带信号的幅度成绝对正比,通常通过压控振荡器(VCO)直接产生,或者利用阿姆斯特朗法进行间接相位积分调制。而调相(PM)则是让载波的瞬时相位偏离量与信号幅度成线性关系。这两种调制方式在物理本质上是相通的,它们不再像调幅那样只是简单地平移频谱,而是通过极其复杂的贝塞尔函数展开,激发出无穷无尽的边带分量,从而以极其野蛮的方式极大地扩展了信号所占用的绝对物理带宽

系统抗击打能力与解调增益的终极对抗来看,角度调制在抗噪声性能上对幅度调制形成了彻底的降维打击。在幅度调制阵营中,AM 由于包络直接暴露在信道中,对加性噪声极其敏感,抗噪性能最差;DSB 和 SSB 虽然凭借相干解调滤除了正交带外噪声,但其解调增益最高也无法突破带宽限制的物理天花板。相反,FM 和 PM 由于信息全部承载在过零点的疏密变化上,接收机可以在解调前使用极其暴力的“限幅器”将所有因噪声引起的幅度起伏一刀切平。更重要的是,宽带调频系统能够通过牺牲巨大的频谱带宽来换取指数级增长的输出信噪比(即宽带增益),这是模拟通信中“以带宽换取可靠性”的最巅峰工程杰作,尽管它在极低信噪比下依然无法逃脱门限效应的物理诅咒。

拓展问题与简答

Q1:为什么我们在模拟语音广播中常用 FM 而不用 PM?
A1:虽然 FM 和 PM 极为相似,但在模拟语音信号中,能量大多集中在低频,高频分量极其微弱。如果使用 PM,其产生的频偏与调制信号频率成正比,会导致低频部分的调制指数极小、抗噪能力极差。而 FM 的频偏仅与信号幅度有关,因此在传输具有明显低频特征的自然语音时,FM 能够提供比 PM 更加均匀且优异的整体信噪比表现

Q2:什么是 FM 接收机中的“限幅器(Limiter)”,它为什么是抗噪的关键?
A2:在电磁波传播中,闪电或多径衰落等加性噪声通常表现为波形幅度的剧烈抖动。由于 FM 的有用信息仅仅隐藏在频率(波形的疏密)中,限幅器就像一把水平的锋利剪刀,强行将接收到的 FM 信号的顶部和底部全部削平,变成幅度完全恒定的等幅信号。这一极其简单的物理动作,瞬间从根源上抹除了绝大部分附着在幅度上的随机加性噪声。

Q3:既然 SSB 带宽最窄、效率最高,为什么早期的模拟电视图像信号要采用 VSB 而不是 SSB?
A3:模拟电视的视频基带信号包含了极其丰富且至关重要的极低频甚至直流分量(决定了屏幕的背景绝对亮度)。如果要使用 SSB,由于物理世界中根本不存在具有绝对垂直截止特性的理想滤波器,强行滤波必然会严重切伤低频信号,导致图像发生极其严重的拖尾与畸变。VSB 通过一种极其精妙的互补滚降滤波器,允许残留部分边带,完美解决了低频信号无失真传输与频带压缩之间的工程死结

7、门限效应是什么?可能出现在什么场景(具体的模拟、数字系统)?有什么解决方法?

非线性信号处理与噪声致命的反客为主来看,门限效应(Threshold Effect)是通信接收机在极端恶劣信噪比下发生的一种灾难性性能崩塌现象。在正常物理环境下,接收机输出信号的质量通常会随着输入信号的减弱而呈线性缓慢下降;但是,当输入信噪比(SNR)跌破某一个特定的临界值(即门限值)时,原本作为背景的杂乱高斯噪声会瞬间在幅度或相位上彻底压倒并“捕获”有用信号,导致接收机的输出信噪比发生断崖式的垂直暴跌,使得原本勉强维系的通信链路瞬间被彻底撕裂。这就好比在一场喧闹的晚宴中,当背景噪音超过某一个绝对阈值时,你不但听不清对面人的说话细节,而是会瞬间丧失对人类语音的所有感知,只剩下满耳的轰鸣。

调制解调体制的底层物理架构来看,这种效应犹如悬在所有非相干解调技术头顶的达摩克利斯之剑。在模拟通信中,它最经典地爆发于常规调幅(AM)的包络检波器和宽带调频(FM)的非相干鉴频器中。当环境噪声的包络起伏大于 AM 信号的真实包络,或者噪声引起的随机相位跳变彻底扰乱了 FM 信号的过零点节拍时,检波器吐出的将全是毫无意义的随机突变和震耳欲聋的“咔哒”爆裂声。在数字通信系统中,虽然语境略有不同,但在使用包络检波的非相干频移键控(如 2FSK)中,或者在逼近香农极限的现代前向纠错编码(FEC)网络中,当信道质量跌破编码算法的纠错极限时,误码率(BER)曲线也会呈现出极其相似的、从完美无缺瞬间跌入深渊的“瀑布效应(Cliff Effect)”

工程对抗与数学降维打击的突围路径来看,工程师们开发了三道防线来死守甚至突破这条物理门限死线。最彻底的物理根除方法是全面放弃非线性体制,改用需要复杂载波同步的“相干解调(同步检波)”,因为纯线性的乘法运算在数学上绝对免疫门限效应,哪怕信号被噪声彻底淹没也能实现线性的能量提取。如果为了系统成本非要坚守 FM 等非线性体制,工程师则会采用极其精妙的门限扩展技术(Threshold Extension),例如引入锁相环(PLL)调频解调器或频率负反馈(FMFB)电路,通过动态收窄接收机的等效噪声带宽,硬生生地将门限崩溃的临界点向更低的信噪比深渊推进几分贝。而在现代数字通信中,则是通过部署极其强悍的纠错编码并配合严格的链路预算管理,来确保接收端永远平稳地运行在致命的悬崖之上。

拓展问题与简答

Q1:为什么相干解调(同步检波)在数学上能够绝对免疫门限效应?
A1:相干解调本质上是一种纯线性的频谱搬移操作。它仅仅是将接收到的信号和加性噪声与本地载波相乘,然后一起通过低通滤波器。在这个过程中,信号和噪声只是被按照同样的比例平移并滤除带外分量,绝不会发生非线性的交叉互调与包络混合,因此输出信噪比始终与输入信噪比保持严格的线性正比关系,不存在任何断崖式崩溃的可能。

Q2:锁相环(PLL)是如何在 FM 接收机中实现“门限扩展”的?
A2:传统的鉴频器面对的是整个中频带宽内汹涌的宽带噪声。而锁相环(PLL)极其聪明,它充当了一个中心频率能够实时跟随有用信号瞬时频率移动的“极窄带动态跟踪滤波器”。由于它的瞬时带宽极窄,绝大部分宽带噪声在进入鉴频器之前就被死死挡在了门外,从而在物理上强行降低了触发门限效应所需的最小输入信噪比。

Q3:现代数字电视(如看高清直播)遇到信号差时直接卡死黑屏,这也是门限效应吗?
A3:这是数字通信中极其典型的**“瀑布效应(Cliff Effect)”,在宏观表现上与门限效应同理。现代数字电视采用了极其强悍的 LDPC 或 Turbo 等纠错码,当输入信噪比高于门限时,极其暴力的纠错算法能把所有误码瞬间抹平,画面完美无瑕;但一旦物理信噪比跌破了编码定理规定的极限门限,纠错矩阵就会发生雪崩式的连环计算错误,导致解码器瞬间崩溃,画面便由极其清晰直接变为彻底黑屏或马赛克卡死**,中间没有任何平滑过渡的余地。

12.4 数字基带传输

1、什么是数字基带系统?

系统架构的物理本质来看,数字基带系统是指不经过载波调制,直接在传输路径上传送数字信号电平的通信系统。它通常由信息序列、基带脉冲成形波形、信道以及接收端的滤波器和判决器组成。在这种系统中,二进制比特流(0 和 1)被映射为特定的电平形状(如矩形波、升余弦波),并直接在具有低通特性的有线信道(如双绞线、光纤或电路板走线)中传输。它是所有复杂通信系统的底层核心,因为即使是无线带通系统,其本质也是将基带信号搬移到高频段。

信号处理的数学逻辑来看,数字基带系统的设计核心在于解决码间串扰(ISI)与噪声抑制的平衡。由于信道带宽有限,发送出的尖锐脉冲在经过信道后会发生展宽,导致前后码元的波形相互重叠。为了在判决时刻获得清晰的信号,我们需要遵循奈奎斯特第一准则,通过精细设计基带脉冲的形状(如采用升余弦滚动因子),使得在抽样点处除了当前码元外,其他码元的贡献恰好为零。这种在时域上的精确“对齐”是数字基带系统实现可靠传输的数学基础。

工程应用的实际场景来看,数字基带系统广泛存在于短距离、高带宽的局域通信中。例如,电脑内部 CPU 与内存之间的数据交换、以太网线中的电信号传输,以及 USB 接口的数据通信,本质上都是数字基带系统。在这些场景中,由于传输距离较短或信道条件受控,我们不需要昂贵的射频调制解调器,而是通过线路编码(如曼彻斯特编码或 HDB3 码)来解决直流分量偏移和定时信息提取的问题,从而以极低的成本实现极高的数据吞吐率。


🚀 拓展问题与简答

Q1:既然基带信号可以直接传输,为什么无线通信还要进行调制?
A1:无线通信需要通过天线发射电磁波,而天线的尺寸必须与信号波长相匹配。基带信号通常频率较低(波长极长),如果直接发射,需要公里量级的超大天线。通过调制将其搬移到高频段,可以使用厘米级的便携天线,并实现多用户频分复用。

Q2:为什么数字基带系统通常需要进行线路编码?
A2:原始的 0/1 序列可能出现长串的连 0 或连 1,这会导致信号中出现直流分量(无法通过变压器耦合)且缺乏跳变沿,导致接收端无法提取位同步时钟。线路编码通过引入特定的跳变规律,确保了信号的均值为零并富含时钟信息。

Q3:在推导 2ASK 功率谱密度时,基带系统的特性起到了什么作用?
A3:2ASK 的功率谱密度实际上就是基带信号功率谱密度在频率轴上的线性平移。基带脉冲的形状(如是矩形脉冲还是升余弦脉冲)直接决定了 2ASK 信号主瓣的宽度以及旁瓣衰减的速度。可以说,理解了基带系统的频谱规律,就掌握了 2ASK 频谱的基本基因

2、为什么要进行码型变换(NRZ、RZ、单极性、双极性、差分)?

信道的物理特性与直流平衡来看,码型变换的首要任务是适配传输介质。原始的单极性非归零码(NRZ)包含大量的直流分量,而许多实际信道(如电缆中的变压器耦合电路)是不允许直流通过的。通过将单极性码转换为双极性码,信号的正负电平在统计上可以相互抵消,从而实现均值为零的直流平衡。这不仅保护了电路设备,还避免了基带信号在传输过程中产生严重的电平基准漂移,确保了判决门限的稳定性。

位同步提取与时钟恢复的角度来看,码型变换通过增加电平跳变来提供定时信息。长串的连“0”或连“1”在 NRZ 码中表现为恒定的电平,这会导致接收端无法辨别码元的起始位置,进而造成位同步丢失。归零码(RZ)通过在每个码元周期内强制回零,或者差分码通过电平的相对跳变来表示信息,确保了信号中蕴含丰富的“边沿特征”。这些特征像节拍器一样,让接收机能够实时锁定时钟频率,保证数据抽样的精确度。

频谱效率与抗干扰能力的折中来看,不同的码型决定了信号功率谱的分布形态。NRZ 码带宽较窄,频谱效率高,但缺乏自同步能力;RZ 码虽然占用带宽翻倍,却换取了极强的同步性能。单极性码实现简单但抗噪能力弱,而双极性码在相同发射功率下具有更大的判决距离,从而显著提升了系统的抗加性噪声性能。工程师根据信道的带宽限制、噪声水平以及硬件成本,在这些特性之间进行精确权衡,选择最能平衡有效性与可靠性的线路编码方案。


🚀 拓展问题与简答

Q1:为什么差分码(相对码)能解决相位模糊问题?
A1:在相干解调中,载波同步可能会产生 180° 的相位倒置(“反相”现象)。如果使用绝对码,所有的 0 会变成 1,1 变成 0;而差分码只关注电平是否跳变,不依赖电平的绝对极性,因此能完美绕过相位模糊导致的误码。

Q2:HDB3 码这种复杂的码型变换解决了什么痛点?
A2:HDB3 码在保持双极性(AMI 码)特性的基础上,强制打破了长连零的静默状态。它通过插入特定的取代脉冲,保证了即使在极端数据下也能提供充足的跳变沿,同时不引入直流分量,是 PDH 数字通信系统中的标准接口码型。

Q3:在推导 2ASK 功率谱密度时,码型选择会影响结果吗?
A3:会产生决定性影响。2ASK 的功率谱本质上是基带序列功率谱的平移。如果基带采用单极性码,2ASK 频谱中会包含离散的载波分量;如果基带采用双极性码(均值为零),则载波分量会消失,频谱将仅由连续谱组成。

3、脉冲调制的目的是什么?

信道适配与多路复用的角度来看,脉冲调制的首要目的是将连续的模拟信号转换为离散的脉冲序列,以便在数字信道或时分复用(TDM)系统中传输。原始模拟信号在时间上是连续的,占据了整个通信链路的资源。通过脉冲调制(如 PAM),我们只在特定的离散瞬间对信号进行取样。这种处理方式使得不同的信号源可以利用脉冲之间的时间间隙进行交织传输,从而在不增加频率带宽的前提下,极大地提高了物理信道的利用率,实现了多路信号的并行通信。

抗干扰能力与传输质量的维度来看,脉冲调制(尤其是 PCM)是为了实现信号的彻底数字化与再生。在传统的模拟传输中,噪声会随着传输距离的增加而不断累积,且无法与有用信号分离。通过将信号调制为二进制脉冲,我们改变了信息的携带方式:接收端不再关注波形的精细幅度,而只判断“有脉冲”或“无脉冲”。这种判定机制允许中继站在噪声淹没信号之前进行整形再生,彻底消除累积噪声,从而实现了远距离、高保真的信息传递。

现代信号处理与加密的工程需求来看,脉冲调制为信息提供了灵活的处理平台。一旦信号被调制成脉冲形式,它就可以被计算机轻松地进行压缩、存储和复杂的算法处理。通过脉冲调制,我们可以方便地引入纠错编码来提升链路的可靠性,或者利用数字加密技术确保通信的安全性。这种从“模拟波动”到“离散脉冲”的跨越,是现代移动通信、互联网以及各类智能设备能够高效运作的技术前提。


🚀 拓展问题与简答

Q1:PAM、PWM 和 PPM 这三种基本脉冲调制有什么区别?
A1:这三者分别改变脉冲的不同参数:**PAM(脉冲幅度调制)**改变脉冲的高度,**PWM(脉冲宽度调制)**改变脉冲的持续时间,而 PPM(脉冲位置调制)则改变脉冲相对于基准时刻的偏移量。其中 PAM 是数字化的基础,而后两者在电机控制和光学通信中应用广泛。

Q2:为什么说脉冲编码调制(PCM)比单纯的 PAM 更高级?
A2:PAM 虽然在时间上离散,但其幅度依然是连续的(模拟的),抗噪声能力有限。PCM 在 PAM 的基础上增加了量化和编码,将幅度也变成了离散的数字,从而使信号获得了数字通信特有的强抗干扰性和纠错能力

Q3:脉冲调制后的信号带宽会发生什么变化?
A3:脉冲调制显著扩大了信号所需的带宽。根据采样定理和脉冲波形的特性,脉冲越窄,其在频域占据的带宽就越宽。这体现了通信中典型的“带宽换取可靠性”或“带宽换取时间复用能力”的折中思想。

4、脉冲幅度调制如何实现?

物理实现的底层机制来看,脉冲幅度调制(PAM)本质上是模拟信号与周期性脉冲序列的乘法运算。在电路层面,这通常通过一个由时钟信号控制的电子开关(抽样门)来完成。当开关导通时,输出端直接跟踪模拟输入信号的瞬时电平;当开关断开时,输出端保持为零或维持前一时刻的电平。这种操作在时域上将连续信号切割成了等间隔的离散脉冲,使得每一个脉冲的顶点幅度都严格正比于该时刻模拟信号的抽样值。

数学模型的分析来看,PAM 的实现过程可以看作是信号在时域的理想抽样或自然抽样。根据卷积定理,信号在时域与冲激脉冲序列相乘,等效于其频谱在频域进行周期性的搬移与叠加。为了确保采样后的信号能够无失真地还原,必须遵循奈奎斯特采样定理,即采样频率必须大于信号最高频率的两倍。在这个过程中,脉冲波形的形状(如矩形脉冲的宽度)决定了输出信号能量的集中程度,而抽样的精度则直接影响了后续量化和编码的质量。

工程应用的架构来看,实现 PAM 还需要配合必要的辅助电路以确保性能。在抽样之前,必须通过**预低通滤波器(抗混叠滤波器)剔除信号中可能导致频谱混叠的高频成分;在抽样之后,往往需要一个保持电路(S/H,采样保持)**将瞬间的脉冲电平拉长,以便为后级的模数转换器(ADC)提供稳定的处理时间。这种“滤波-抽样-保持”的组合拳,是现代电子系统中实现模拟信号向脉冲/数字信号转化的标准化物理路径。


🚀 拓展问题与简答

Q1:自然抽样和平顶抽样有什么区别?
A1:自然抽样的脉冲顶部保留了原信号的变化曲线,而平顶抽样的脉冲顶部是水平的。工程中多采用平顶抽样,因为它更易于数字化处理,但平顶抽样会引入孔径失真(频谱被一个 Sinc 函数加权),通常需要在接收端进行补偿。

Q2:PAM 信号可以直接进行无线远距离传输吗?
A2:理论上可以,但实际效果极差。因为 PAM 的信息承载在脉冲幅度上,而无线信道的衰落和噪声会直接改变脉冲的高度,导致极其严重的失真。因此,PAM 通常只作为中间处理步骤,或者在极短距离的有线系统中使用。

Q3:在 2ASK 的分析中,PAM 扮演了什么角色?
A3:2ASK 可以看作是对数字 PAM 信号(即二进制基带序列)进行频谱搬移的结果。理解了 PAM 如何将幅度映射到脉冲上,就能明白为什么 2ASK 的功率谱中会存在与基带脉冲形状密切相关的主瓣和旁瓣结构

5、我们知道在数字基带传输中有普通接收系统(使用低通滤波器)和最佳接收系统(匹配滤波器)。在普通接收系统中,对于基带信号我们使用简单低通滤波+抽样判决,对于AM、ASK等幅度调制信号我们使用包络检波器;对于FM、FSK等频率调制信号用过零检测器。我们为什么要普通接收系统?普通接收系统在低信噪比下会出现什么问题?你能举一些实际系统中使用普通接收机的例子?在现在通信系统中,普通接收机还有存在的必要吗?

硬件复杂度与成本控制的工程基石来看,普通接收系统提供了一种极其高效且廉价的解决方案。与需要复杂载波恢复、精确时钟同步以及数字信号处理器(DSP)来计算相关性的最佳接收机(匹配滤波器)不同,普通接收系统依赖于最基础的模拟元器件。通过简单的低通滤波器、二极管包络检波器或过零检测器,它极大地降低了电路实现的门槛与系统的整体功耗。在信号本身足够强烈的场景下,工程师宁愿牺牲几分贝的理论信噪比,也要换取这种结构上的极简主义,这使得通信设备的大规模廉价量产成为可能。

非线性退化与抗干扰瓶颈的物理局限来看,普通接收系统在低信噪比(SNR)环境下会面临灾难性的性能崩溃。因为包络检波和过零检测等操作本质上都是非线性处理,当环境噪声的功率逐渐逼近或超过有用信号时,会触发著名的门限效应(Threshold Effect)。此时,检波器会被杂乱的高斯噪声彻底“捕获”,有用信号的包络或相位跳变被完全淹没,导致输出端的信噪比发生断崖式下跌,误码率呈指数级飙升。此外,简单的低通滤波器无法像匹配滤波器那样针对特定脉冲形状进行最优的能量收集,从而不可避免地引入严重的码间串扰(ISI)

实际工程部署与经典应用的历史视角来看,普通接收机曾经并依然统治着许多对成本和功耗极度敏感的领域。最经典的例子莫过于传统的 AM/FM 广播收音机,数以亿计的廉价消费电子产品仅靠几个晶体管和包络/鉴频电路,就能从强发射塔的信号中还原出清晰的语音。此外,像日常使用的红外遥控器、简单的 RFID 标签以及早期的无线门铃,均采用最基础的 ASK(幅移键控)配合包络检波来解码指令。在这些系统中,电池寿命和几毛钱的芯片成本是第一考量,而复杂的相干解调根本没有用武之地。

现代通信架构的演进与物联网需求来看,普通接收系统在当今时代依然具有不可替代的必要性。尽管 5G 手机和 Wi-Fi 路由器为了榨干频谱效率,必须使用复杂的匹配滤波、I/Q 解调和 OFDM 技术,但在海量物联网(IoT)与超低功耗边缘节点的竞争中,简单往往意味着胜利。例如,在无线传感器网络的**唤醒接收器(Wake-Up Receiver, WuRx)**或近场通信(NFC)中,设备常年处于微瓦级的休眠监听状态。在这种严苛的功耗约束下,这种无需锁相环、无需高速 ADC 的普通非相干接收架构,成为了在物联网“电磁丛林”中生存的唯一法则。


拓展问题与简答

Q1:为什么匹配滤波器在理论上被称为“最佳”?
A1:匹配滤波器的冲激响应是输入信号波形的镜像反转。根据施瓦茨不等式,这种特定的数学结构能够在加性高斯白噪声(AWGN)背景下,最大限度地收集信号能量并压制带宽外的噪声,从而使得抽样判决那一瞬间的输出信噪比达到理论上的最大值,将系统的误码率降到物理极限。

Q2:门限效应具体是如何破坏普通接收系统通信的?
A2:门限效应通常发生在非相干解调过程中。当输入信噪比低于某个特定阈值时,噪声的随机包络起伏会频繁地超过有用信号的包络。此时检波器的输出不再是信号的线性反映,而是被高斯噪声主导,导致解调后的音频产生极其刺耳的“咔哒”声,或者在数字判决时产生不可逆转的大规模错码。

Q3:既然匹配滤波器这么好,为什么以前的系统不普及使用它?
A3:在纯模拟电路时代,要用硬件电容电感去制造一个冲激响应与特定脉冲波形“完美匹配”的滤波器不仅成本极高,而且极易受温度和器件老化影响。只有到了现代数字通信时代,匹配滤波器才被转化为数字基带处理器(DSP)中的一组 FIR 软件系数,从而以极低的边际成本在所有现代通信协议中得到了全面普及。

6、什么是码间串扰?解释一下奈奎斯特第一准则。

物理信道的带限特性来看,码间串扰(ISI)是由于信道带宽受限导致脉冲波形在时域上发生严重展宽,进而使得前后相邻码元在抽样判决时刻发生相互重叠与干扰的物理现象。在理想的无限带宽信道中,发送的矩形脉冲能够完美保持其陡峭的边缘;但在现实中,无论是电缆还是无线频谱,都像是一个低通滤波器,它会切除信号的高频突变部分,导致到达接收端的脉冲变成了一个个拖着长长“尾巴”的平缓波形。当传输速率过快时,前一个码元的尾巴就会不可避免地侵入后一个码元的判决中心,就像回声太大掩盖了下一句话,最终导致接收机将“0”误判为“1”或将“1”误判为“0”。

数学消除干扰的底层逻辑来看,奈奎斯特第一准则指出,为了在抽样时刻完全消除码间串扰,基带系统的总冲激响应必须在所有非零的整数倍抽样点上精确为零,这在频域上严格等效于其折叠频谱必须是一个平坦的常数。奈奎斯特并没有试图消除整个脉冲的拖尾,而是极其聪明地利用了抽样判决的离散性:只要保证在对当前码元进行抽样的那一瞬间,其他所有前后码元的拖尾刚好穿过零点(即幅度为零),那么串扰在判决时刻就不复存在。这种“只在乎关键节点,不在乎过程波形”的智慧,确立了无失真数字基带传输的绝对理论基石。

工程实现的折中艺术来看,要完美满足奈奎斯特第一准则,理论上需要使用具有矩形频谱的理想低通滤波器,它在时域对应一个无限延伸的辛格(Sinc)函数。然而,这种系统在物理上是完全不可实现的,且对定时抖动极其敏感。因此,现代通信系统广泛采用了升余弦滚降滤波器。它通过引入一个滚降因子(α\alpha),稍微牺牲了一部分频谱效率(扩展了绝对带宽),却换取了时域尾部振荡的快速衰减。这种设计不仅在数学上完美满足了奈奎斯特的无码间串扰条件,还极大地降低了对接收机时钟同步精度的苛刻要求,成为了当今所有高速数字基带系统的标准配置。


🚀 拓展问题与简答

Q1:奈奎斯特速率是什么意思?
A1:在理想低通信道(带宽为 WW)中,能实现无码间串扰的最大理论传输速率被称为奈奎斯特速率,其值为 2W2W 波特(Baud)。这意味着在没有 ISI 的前提下,每赫兹的物理带宽每秒最多只能传输两个独立的符号。

Q2:眼图(Eye Diagram)和码间串扰有什么直观的联系?
A2:眼图是工程师在示波器上直观评估码间串扰严重程度的最佳工具。眼图的“眼睛”张得越大、轮廓越清晰,说明码间串扰越小,判决的噪声裕量越高;如果信道带限严重导致长长的拖尾叠加,眼睛就会完全闭合,意味着严重的 ISI 已经导致系统无法提取出正确的 0 和 1。

Q3:如果信道极其恶劣,连升余弦滤波器都无法消除 ISI 怎么办?
A3:当无线信道的多径效应导致响应极其恶劣且动态变化时,单纯依靠发送端的成形滤波已经无能为力。此时必须在接收端引入自适应均衡器(Equalizer),或者直接在底层架构上放弃单载波,改用抗多径串扰的 OFDM(正交频分复用)技术,通过并行的低速子载波强行化解 ISI 危机。

7、为什么要用信道估计和信道均衡?为什么之前的匹配滤波器、奈奎斯特准则和升余弦滚降滤波器还是不够,还是需要信道估计和信道均衡?

理论预设与物理现实的巨大鸿沟来看,匹配滤波器和升余弦滚降等技术是建立在“理想信道”或“已知静态信道”假设之上的。奈奎斯特准则确实在数学上完美解决了无码间串扰(ISI)的问题,但它的前提是整个通信链路(发送侧+信道+接收侧)的等效冲激响应必须满足特定条件。在实际的无线通信或长距离有线传输中,信道本身就是一个极其复杂且动态变化的滤波器。当信号经过高楼反射、移动车辆遮挡产生的多径衰落时,原本完美的升余弦波形会被信道任意扭曲、拉伸和叠加。此时,单纯依靠收发两端预设的静态滤波器根本无法抵御这种未知的、时变的信道畸变,原本张开的眼图会瞬间闭合并导致通信崩溃。

动态环境的感知与测量来看,信道估计是接收机为了“看清”当前恶劣环境而必须进行的“探路”过程。既然无线信道在不断变化,接收端就必须实时搞清楚此时此刻的无线电波到底经历了怎样的反射和相移。通过在发送的数据流中周期性地插入收发双方都已知的导频序列(Pilot)或训练序列,接收机可以将收到的畸变波形与本地已知的理想波形进行对比。这种对比的核心目的就是提取出信道的瞬时冲激响应(CIR)或频域响应(CFR)。没有信道估计,接收机就像是蒙着眼睛在充满障碍的房间里走路,完全无法知道下一步该如何纠正信号的偏移。

消除畸变与恢复正交性的对抗逻辑来看,信道均衡是对抗严重码间串扰(ISI)的终极修复武器。一旦信道估计模块给出了当前信道的“病历”,均衡器就会立刻根据这个信息构造出一个与信道特性完全相反的补偿滤波器(即信道的逆系统)。如果信道把某个频段的能量削弱了,均衡器就把它放大;如果信道因为多径效应把前一个码元的拖尾拉长了,均衡器就产生一个反向的波形去精确抵消它。通过信道均衡,我们人为地将“恶劣信道+均衡器”的总响应重新强行拉回平坦状态,从而让信号在到达最终判决器时,能够再次满足奈奎斯特无串扰准则,真正实现复杂环境下的高可靠传输。


拓展问题与简答

Q1:信道均衡是在时域做还是频域做?
A1:两者皆可。在传统的单载波系统中(如早期电视或 2G 通信),均衡通常在时域通过抽头延迟线(如线性横向滤波器)完成;而在现代的 OFDM 系统(如 4G/5G/Wi-Fi)中,由于引入了循环前缀,多径信道被转化为多个平坦的子信道,均衡可以直接在频域通过极其简单的**单抽头复数除法(即频域均衡,FDE)**高效实现。

Q2:盲均衡(Blind Equalization)和普通均衡有什么区别?
A2:普通均衡需要发送端浪费一部分带宽来传输已知的导频或训练序列供接收端计算。而盲均衡技术不依赖任何已知的训练序列,完全凭借接收信号本身的统计特性(如恒包络特性或高阶累积量)来自适应地估算并消除信道畸变,从而最大限度地节省了宝贵的物理频谱资源。

Q3:既然 OFDM 能把频率选择性信道变成平坦信道,OFDM 系统还需要均衡吗?
A3:依然需要,但过程被大幅简化了。OFDM 虽然消除了子载波间的码间串扰(ISI),但每个子载波经过信道后仍然会发生各自独立的幅度衰减和相位旋转。接收端必须通过信道估计得知每个子载波的具体衰落系数,然后通过频域均衡将畸变的星座图点重新“反向旋转并缩放”回标准位置,否则同样无法进行正确的数字判决。

8、能否介绍一下信道估计技术?

无线通信的物理本质与数学逆运算来看,信道估计是接收机为了还原发送信号而必须进行的“环境建模”过程。当电磁波穿过复杂的物理空间时,多径衰落、多普勒频移以及阴影效应会对信号的幅度和相位造成严重的随机扭曲。如果把通信看作是解一个方程 Y=HX+NY = H \cdot X + N,其中 XX 是未知的发送数据,YY 是接收端收到的畸变波形,那么信道估计的核心任务就是通过数学手段精准求解出代表信道状态矩阵的 HH。只有搞清楚了环境对信号施加了怎样的“滤镜”(即信道冲激响应或频域响应),接收端才能在后续的均衡模块中把这个滤镜的效果“反向剥离”,从而恢复出原始的干净数据。

工程实现的经典手段来看,现代通信系统最依赖的是基于导频(Pilot)的辅助估计技术。这就好比在运送一批贵重且未知的货物时,故意在其中夹带一些收发双方都事先约定好的“标准参照物”。接收机收到这些导频信号后,会将其与本地存储的完美版本进行对比,通过经典的最小二乘法(LS)或最小均方误差法(MMSE)推算出信道在这些特定时频位置上的畸变程度。随后,系统利用插值算法(如线性插值或样条插值),将这些离散点上的信道状态平滑扩展到整个数据频段,从而绘制出一幅完整的信道衰落全景图,为高阶 QAM 等对幅相极其敏感的调制方式提供了解调基准。

频谱效率的极限压榨与未来演进来看,传统的导频技术虽然稳定,但不可避免地会挤占宝贵的有效数据带宽。为了打破这一瓶颈,学术界和工业界发展出了盲信道估计(Blind Estimation)与半盲信道估计技术。盲估计彻底抛弃了浪费带宽的导频序列,转而直接利用接收信号的高阶统计特性(如恒包络特性或循环平稳性)来反推信道参数。虽然盲估计极大地提升了传输效率,但它面临着计算复杂度极高、收敛速度慢且存在相位模糊等致命缺陷。因此,在目前的 5G 甚至未来的 6G 演进中,结合了少量导频与大量数据特征的半盲估计,以及基于深度学习的端到端信道预测网络,正在成为解决高速移动与海量天线(Massive MIMO)场景下信道获取难题的终极方向。


拓展问题与简答

Q1:LS 和 MMSE 估计算法有什么本质区别?
A1:LS(最小二乘)算法极其简单,它完全忽略了噪声的影响,直接用接收信号除以导频信号,但在低信噪比下误差极大。MMSE(最小均方误差)算法则将信道的统计先验信息和噪声方差纳入计算,在牺牲一定计算复杂度的前提下,实现了各种噪声环境下的最优估计性能,是现代接收机的标配。

Q2:在 OFDM 系统中,导频是怎么分布的?
A2:主要有三种方式:**块状导频(Block)**适用于频率选择性衰落但时间变化慢的慢衰落信道;**梳状导频(Comb)适用于快衰落但频率平坦的信道;而散布式导频(Scattered,即钻石型分布)**则是现代 4G/5G 中最常用的方案,它能够在时间和频率两个维度上同时高效地捕捉动态衰落特征。

Q3:Massive MIMO 系统对信道估计提出了什么新挑战?
A3:天线数量激增导致需要估计的信道参数呈爆炸式增长,如果继续在下行链路使用传统导频,会产生严重的导频污染(Pilot Contamination)并耗尽带宽。目前主要依靠 TDD(时分双工)模式下的信道互易性,仅通过基站接收上行导频来推导下行信道,从而巧妙避开了海量参数估计的计算灾难。

9、在实际系统中,为什么大多采用非盲信道估计而非盲估计?LS和MMSE估计的主要区别是什么?什么时候用LS,什么时候用MMSE?导频插入方式(块状、梳状、离散)各有什么优缺点?信道估计和均衡是什么关系?

工程可靠性与复杂度的极度失衡来看,实际系统大多采用非盲信道估计(基于导频)而非盲估计。盲估计虽然能够节省导频开销、提高物理频谱效率,但它需要收集海量的数据样本来统计信号的高阶特征,导致计算复杂度极高、收敛时间极长,且往往存在无法解决的绝对相位模糊问题。相反,非盲估计通过插入收发双方已知的确知信号(导频),将复杂的非线性盲猜转化为了极其简单的线性代数求解。这种方式虽然牺牲了少量的物理带宽(通常占 5% 到 10%),但换取了极低的信号处理延迟和绝对可靠的相位基准,完美契合了现代数字通信系统对低延迟和低功耗硬件的严苛要求。

噪声抑制与先验信息的利用来看,LS(最小二乘)与 MMSE(最小均方误差)估计的主要区别在于是否将环境噪声纳入数学考量。LS 估计算法极其简单粗暴,它直接用接收到的信号除以已知导频来求取信道响应,完全无视了加性白噪声的存在,因此在低信噪比环境下误差会被严重放大,导致估计出的信道起伏剧烈。而 MMSE 估计则巧妙地利用了信道的自相关矩阵和噪声方差,在均方误差最小的准则下对 LS 的结果进行了平滑过滤。在实际工程选择上,当系统处于高信噪比环境或终端硬件 DSP 算力极其受限时,通常优先使用低延迟的 LS 估计;而当信道条件恶劣、噪声干扰严重,且设备具备足够算力时,则必须启用 MMSE 估计以逼近系统的理论性能极限。

捕捉时频二维动态衰落的角度来看,导频的插入方式直接决定了系统应对复杂环境的能力。块状导频(Block)在时间上周期性插入完整的导频符号,它在频域极其密集,非常适合频率选择性衰落严重但时间变化缓慢的室内慢衰落信道,缺点是对高速移动场景束手无策。梳状导频(Comb)则在所有时间符号的特定子载波上连续发送,它在时域极其密集,专门用于对抗高铁等带来的多普勒快衰落,但无法精确描绘频域的深谷。为了兼顾两者的优势,现代 4G/5G OFDM 系统广泛采用了离散状(散布式/钻石型)导频,它在时频二维网格中交错均匀散布,能够用最少的导频开销同时追踪时间与频率的二维动态衰落,是目前兼顾频谱效率与测向性能的最优解。

通信接收机的底层逻辑来看,信道估计与信道均衡构成了密不可分的“诊断与治疗”关系。信道估计是前置的“环境探测器”,它的唯一任务是算出当前无线电波到底经历了怎样的幅度衰减和相位旋转,最终输出一个精确的信道状态信息(CSI)矩阵。然而,仅仅知道信道多糟糕并不能恢复数据。信道均衡则是紧随其后的“手术刀”,它直接利用信道估计输出的 CSI 参数,构造出一个与信道畸变完全相反的逆系统滤波器。通过将接收到的信号强制通过这个逆滤波器,均衡器在数学上强行抵消了多径效应带来的码间串扰,从而为最终的数字判决清洗出干净的星座图点。


拓展问题与简答

Q1:为什么高速移动场景下信道估计会变得极其困难?
A1:高速移动会产生严重的多普勒频移,导致信道在极短的时间内发生剧烈变化(即时间选择性衰落变快)。此时,由于信道的相干时间变短,接收机必须极其频繁地插入导频才能实时“看清”环境的变化,这不仅导致导频开销急剧增加,还会严重挤占有效数据的传输带宽。

Q2:插值算法在离散导频系统中扮演了什么核心角色?
A2:离散导频只在特定的时频网格点上提供了信道的真实采样。插值算法(如一维的线性插值或高阶的二维维纳滤波)就像是“连点成线”的画笔,它利用有限的已知导频点,通过数学推演估算出所有未发送导频的数据位置处的信道响应,这是恢复完整信道频率响应(CFR)全景图的必经环节。

Q3:MIMO 系统中的信道估计面临什么特殊的干扰问题?
A3:天线数量的成倍增加导致需要估计的信道路径呈指数级爆炸。如果不同发射天线发送的导频序列之间不正交,就会在接收端产生严重的导频污染(干扰)。因此,MIMO 系统必须设计极其复杂的正交导频序列(如利用时间、频率或码域正交),以确保接收机能够清晰区分出信号究竟来自哪一根物理天线。

10、为什么要做信道均衡?

物理信道的多径传播与波形展宽来看,做信道均衡的根本目的是为了消除极其致命的码间串扰(ISI)。在真实的无线电或高速有线传输环境中,信号会经过高楼反射、山体折射或电缆的低通滤波效应,导致原本极其干净的独立脉冲在到达接收端时,被拉伸成了拖着长长尾巴的畸变波形。当传输速率不断攀升时,这些延迟到达的多径信号会严重侵入并覆盖相邻码元的判决区间,使得接收机根本无法分辨当前时刻发送的究竟是“0”还是“1”。

系统对抗与数学逆运算的逻辑来看,信道均衡器本质上是在接收端人为构建一个与真实信道特性完全相反的“逆滤波器”。既然自然信道像一个不受控制的滤镜,随机削弱了某些高频成分或扭曲了特定的相位,接收机就必须利用之前通过信道估计获取的“病理报告(信道状态信息)”,在数字域实时生成一副对症下药的解药。通过让畸变信号穿过这个逆向补偿系统,均衡器在数学上强行把“恶劣信道+均衡器”的综合频率响应拉平,从而恢复信号原本的正交性与平坦度。

提升判决精度与突破速率瓶颈的工程最终目标来看,不做信道均衡,现代宽带通信系统将寸步难行。在示波器上直观地看,严重的码间串扰会导致接收信号的“眼图”完全闭合,此时任何抽样判决都会产生海量的误码。信道均衡的作用就是像一只无形的手,强行把闭合的眼图重新撑开,为后续的判决器清理出最大、最清晰的噪声裕量(判决空间)。正是因为有了这项技术,我们的 4G/5G 网络和高速光纤才能在极其恶劣的物理环境中,依然维持着千兆级别的极限数据吞吐量。


🚀 拓展问题与简答

Q1:线性均衡器和非线性均衡器(如判决反馈均衡器 DFE)有什么本质区别?
A1:线性均衡器就像一个普通的横向滤波器,它在放大高频信号以补偿信道衰减的同时,也会不可避免地放大高频背景噪声。而非线性的判决反馈均衡器(DFE)极其巧妙,它将已经判决出的正确数字信号重新引入反馈回路,用来精确抵消它们对后续码元造成的拖尾干扰,这种做法完全不会放大信道噪声,是对抗严重多径衰落的工程利器。

Q2:为什么在 OFDM 系统中,均衡变得非常简单?
A2:在传统的单载波宽带系统中,均衡必须在时域使用极长抽头的复杂滤波器来对付 ISI。而 OFDM 技术通过引入循环前缀(CP)和将宽带划分为多个窄带子载波,巧妙地将复杂的时域卷积变成了频域上极其简单的单抽头复数除法(即频域均衡 FDE)。接收机只需要把每个子载波的接收值除以它对应的信道衰落系数,就能瞬间完成波形的复原。

Q3:自适应均衡器(Adaptive Equalizer)是如何工作的?
A3:自适应均衡器内部包含一套实时更新的权重系数算法(如 LMS 最小均方算法或 RLS 递归最小二乘算法)。它能够根据信道的动态变化,通过计算本地期望信号与实际接收信号的误差,来自动调整滤波器的抽头系数。这就使得即便你正坐在时速 300 公里的高铁上,手机里的均衡器也能死死咬住那飞速变化的无线电波,持续为你输出清晰的信号。

11、什么是同步?为什么需要同步?

通信系统的收发协同本质来看,同步是指接收端在时间、频率或相位上与发送端保持步调一致的物理过程。在复杂的电磁波传输中,发送端发出的载波振荡和脉冲节拍到达接收端时,往往已经经历了未知的延时和频移。同步的核心任务就是让接收机的本地时钟、载波发生器以及数据成帧逻辑,精准地“咬合”住接收信号的节奏。这就如同乐队中的乐手必须严格跟随指挥的节拍器,无论是高频的载波相位(载波同步)、基带的抽样时刻(符号同步/位同步),还是数据包的起始边界(帧同步),都需要通过专门的同步电路或算法来实现时间维度的绝对对齐。

信号解调与物理判决的数学前提来看,没有任何同步机制的接收机面对的只是一堆毫无意义的杂乱电平。在相干解调中,如果本地载波与接收信号存在微小的频率差或初始相位差,星座图上的判决点就会发生疯狂的旋转或严重的幅度衰减,导致原本正交的同相(I)和正交(Q)分量产生不可逆的串扰。而在数字基带处理中,符号同步(位同步)决定了抽样判决的“黄金时刻”。如果抽样时钟发生偏移,接收机就会在脉冲的边缘甚至相邻脉冲的重叠处进行采样,这不仅会引入极大的码间串扰(ISI),还会使得之前精心设计的奈奎斯特滤波器和信道均衡器彻底失效。

信息解析与上层协议的组装逻辑来看,即使我们在物理层完美还原了每一个“0”和“1”,如果没有高级级别的同步,系统依然无法理解这些数据的含义。帧同步(群同步)负责在漫无边际的比特流中寻找特定特征的“同步字”或“前导码”,从而准确划定一段有意义的数据包的起点和终点。如果帧同步失败,接收机就会将数据截断或错位,导致整个数据链路层校验崩溃,上层的音频、视频或文件传输将瞬间中断。因此,同步是搭建在混乱模拟物理世界之上,维持数字通信秩序的最基础、最不可或缺的生命线。


拓展问题与简答

Q1:载波同步、位同步和帧同步的先后顺序是怎样的?
A1:在绝大多数接收机架构中,这三者有着严格的先后依赖关系。首先必须完成载波同步以剥离高频载波并恢复出基带信号;接着在基带信号上进行位同步(符号同步),找到最佳抽样点以恢复出准确的 0 和 1 比特流;最后在干净的比特流中寻找固定的同步字,完成帧同步以划分数据包。

Q2:锁相环(PLL)在同步中扮演了什么角色?
A2:锁相环是实现物理层同步的绝对核心电路。它通过鉴相器(比较相位差)、环路滤波器(平滑电压)和压控振荡器(VCO)的负反馈机制,能够极其敏锐地捕捉并自动追踪输入信号的频率和相位变化,确保本地载波或时钟与发送端严丝合缝地锁定在一起。

Q3:异步传输(如 UART 串口通信)难道不需要同步吗?
A3:异步传输同样需要同步,只是它的同步成本极低。它不发送全局的独立时钟信号,而是通过在每个极短的字符(通常是 8 个比特)前后强制添加起始位和停止位,让接收机在每个字符到达时进行极其短暂的“重新对齐”。这种方式只适用于低速短距离通信,一旦速率提高,时钟漂移就会导致严重的采样错位。

12、简要阐述眼图的产生过程、眼图的作用、眼图中衡量传输质量的指标。

时域波形的周期性折叠与宏观统计来看,眼图的产生过程是一场极其巧妙的物理视觉重构。在真实的通信链路中,由于接收到的基带脉冲序列是由随机的“0”和“1”组成的漫长波形,工程师很难从单次扫描中看出全貌。眼图的生成机制就是极其暴力地将示波器的水平扫描周期强制锁定为与接收端码元定时时钟(位同步时钟)绝对相等的整数倍,从而将源源不断、拖着长长尾巴的畸变基带波形像折纸一样,一段一段地切开并无限重叠在同一个屏幕上。由于这些不同组合的波形轨迹在屏幕上疯狂叠加后,其留下的视觉余辉恰好构成了一个形似人类眼睛的闭合图形,这就诞生了数字通信中最伟大的时域诊断工具——眼图。

信道恶化诊断与底层物理极限定位来看,眼图的作用是为工程师提供了一面能够瞬间照出底层链路病态的“全息照妖镜”。在没有眼图之前,我们很难量化复杂的滤波器特性和恶劣信道对波形造成的综合破坏。眼图的最核心作用是极其直观地展示出码间串扰(ISI)和加性白噪声对信号的物理侵蚀程度,并极其精准地指引接收机在“眼睛”张得最大、最清晰的那个黄金时刻按下抽样判决的快门。只要看一眼这只“眼睛”是清澈明亮还是布满血丝,工程师就能立刻判断出当前通信系统的生死存亡状态。

几何特征映射与传输质量的量化评估来看,眼图上的每一个微小轮廓都对应着极其致命的物理通信指标。在眼图中,“眼睛”张开的绝对垂直高度直接决定了系统在不发生误判的前提下,能够容忍的最极端加性噪声的判决裕量(抗噪能力)。而水平张开的宽度则代表了系统对本地时钟相位偏移(定时抖动)的绝对容忍范围。此外,眼皮轮廓的倾斜斜率无情地揭示了定时误差对信号幅度衰减的敏感程度:斜率越陡,说明稍微一点时钟偏移就会导致幅度雪崩;而那些水平方向上极其散乱的过零点交汇区,则直接暴露了系统信道中存在着极其严重的多径时延或相位抖动。

拓展问题与简答

Q1:如果我们在示波器上看到一只“完全闭合”的眼图,这意味着什么物理灾难?
A1:完全闭合的眼图意味着码间串扰(ISI)或高斯噪声已经极其严重地吞噬了所有的判决空间。此时,波形的波峰和波谷已经彻底混杂在一起,接收机根本无法找到任何一个安全的抽样时刻来区分“0”和“1”,整个通信链路的误码率将直接飙升到无法挽回的极限,系统彻底瘫痪。

Q2:眼图的“眼皮”线条变得极其粗糙和模糊,通常是哪种物理干扰造成的?
A2:这是典型的加性高斯白噪声(AWGN)留下的物理痕迹。码间串扰(ISI)通常只会让眼图内部的净空变小,但线条依然是清晰的;而无处不在的高斯热噪声会像无数微小的锯齿一样,直接附着在每一根波形轨迹上,导致重叠后的线条变得极其毛糙、发虚,甚至完全糊成一团

Q3:在眼图中,最佳的抽样判决时刻具体应该选在什么位置?
A3:毫无疑问,必须极其严苛地选在眼图中央“眼睛”张开度最大、垂直净空最高的那个物理纵轴上。因为在这个瞬间,代表“1”的电平和代表“0”的电平之间的物理距离被拉得最远,系统拥有最宽广的护城河来抵御瞬间突发的电压噪声尖峰,从而实现误码率的绝对最小化。

12.5 基本数字频带传输

1、为什么要先信源编码再信道编码,顺序能交换吗?

从功能逻辑的本质对立性来看,信源编码的核心目的是“挤水分”,即通过去除原始数据中的统计冗余来实现最大程度的压缩。无论是将庞大的视频压缩成 H.264 还是音频压缩成 MP3,信源编码都在极力让输出的比特流变得毫无规律、接近纯粹的随机状态(熵最大化)。相反,信道编码的核心目的是“加钢筋”,即在压缩后的纯净数据中人为地、有规律地添加冗余校验位。它通过引入这种可控的数学相关性(如卷积码、LDPC 码),让接收端能够在恶劣的噪声信道中发现并纠正错误。这“一减一加”的物理过程,决定了它们在通信架构中不可动摇的先后位置。

从系统工程的灾难性后果来看,这两个过程的顺序绝对不能交换。如果先进行信道编码(添加了抗干扰的规律性校验位),然后再送入信源编码器,那么信源编码器会极其敏锐地发现这些由信道编码引入的“规律与冗余”,并毫不留情地将它们当作无用数据全部压缩或剔除掉。这会导致系统精心设计的纠错能力瞬间归零,让整个通信链路失去在物理信道中抵抗噪声的任何装甲。因此,必须先由信源编码提纯出最核心的信息骨架,再由信道编码为这个骨架穿上量身定制的防弹衣。

从香农信息论的理论基石来看,香农分离定理(Shannon’s Separation Theorem)严格证明了在点对点无记忆信道中,将信源编码与信道编码独立并按“先信源后信道”的顺序进行,可以达到通信系统的理论最优极限。这一伟大定理不仅为这种顺序提供了绝对的数学合法性,更让现代通信工程得以将极其复杂的系统解耦。工程师们可以分别独立地去设计最极致的压缩算法和最强悍的纠错编码,而无需担心两者之间的相互干扰。这种模块化的流水线架构,正是我们今天能够同时享受高清视频与高速抗干扰网络的底层密码。


拓展问题与简答

Q1:什么是信源编码中的“熵”?
A1:熵是信息论中衡量信息不确定度或平均信息量的数学尺度。信源编码的终极极限就是将数据的平均比特数压缩到逼近其信源的熵值。此时的数据去除了所有可预测的冗余,每一位都承载着实打实的纯粹信息。

Q2:信道编码增加冗余,这难道不是降低了通信效率吗?
A2:在表面上它确实牺牲了一部分有效的传输带宽(即编码效率总是小于 1)。但在恶劣的无线信道中,如果没有这部分抗干扰冗余,误码率会高到让所有收到的数据全部作废。因此,信道编码本质上是用确定的带宽代价换取了恶劣环境下通信的绝对可靠性

Q3:有没有把信源和信道编码结合在一起的技术?
A3:有,这被称为联合信源信道编码(JSCC)。在极度受限的无线视频传输或特定的时变信道中,由于香农分离定理要求的“无限长延迟”假设无法满足,系统会打破模块壁垒,让压缩器和纠错器共享信道状态信息,在压缩率和纠错能力之间进行自适应的动态折中调配

2、在无线通信中,如何克服多径衰落?

空间分布与独立衰落路径的利用来看,分集技术是对抗多径衰落最经典且有效的物理层手段。既然单根天线接收到的多径信号可能会因为相位相反而在某处相互抵消(产生深衰落),我们就在空间上部署多根相距一定距离的接收天线,或者在不同的频率、时间片上发送相同的信号。由于多条路径同时陷入深衰落的概率极低,接收机只需将这些承载着相同信息的独立衰落支路信号,通过最大比合并(MRC)等算法进行相加,就能极大提升接收端的信噪比,将衰落的“劣势”转化为多路备份的“优势”。

时域波形畸变的强行修复来看,信道均衡和 RAKE 接收机是处理多径时延扩展的终极武器。当多径传播导致相邻码元发生严重的码间串扰(ISI)时,信道均衡器通过在接收端构造一个与实际信道特性完全相反的逆滤波器,强行将展宽的脉冲重新压缩,抵消多径带来的时域重叠。而在扩频通信中,RAKE 接收机则像一把“耙子”,利用多个相关器分别捕捉不同延迟到达的多径分量,在对齐它们的相位后进行建设性叠加,硬生生地把原本干扰视线的多径变成了增强信号能量的有用资源。

频域资源划分与底层架构革新来看,正交频分复用(OFDM)技术彻底改变了宽带通信对抗多径的规则。传统的单载波系统在面对严重的频率选择性衰落时,均衡器的复杂度会呈指数级爆炸。OFDM 极其巧妙地将一个宽带信道切割成了成百上千个相互正交的窄带子信道,使得原本复杂的多径畸变在每个子载波上退化成了极其简单的平坦衰落。配合循环前缀(CP)的引入,OFDM 直接在物理层面上吸收了多径延迟的能量,不仅彻底消除了码间串扰,还让频域上的单抽头均衡变得轻而易举,成为了现代 4G/5G 和 Wi-Fi 网络的绝对基石。


🚀 拓展问题与简答

Q1:为什么天线分集要求天线之间必须保持一定的距离?
A1:因为只有当空间距离大于半个波长时,两根天线经历的无线电波多径衰落才具有统计上的独立性。如果靠得太近,它们会同时陷入同一个深衰落坑中,分集合并就失去了备份抗风险的物理意义。

Q2:循环前缀(CP)是如何在 OFDM 中消除多径干扰的?
A2:循环前缀是将 OFDM 符号尾部的一小段波形无缝复制并添加到符号头部。只要多径传播的最大时延扩展不超过 CP 的长度,前一个符号的拖尾就只会在当前符号的 CP 区域内震荡衰减,而绝不会侵入到当前符号的有效积分数据区,从而完美隔离了符号间的串扰。

Q3:宏分集和微分集有什么核心不同?
A3:宏分集主要用于克服大尺度衰落(如大型建筑物遮挡造成的阴影效应),通常表现为终端同时与多个不同地理位置的基站建立链路;而微分集主要克服小尺度衰落(即电磁波干涉引起的多径衰落),通常依靠单台设备上的多根物理天线阵列来实现信号的拾取与组合。

3、现代通信系统的演进(从1G到5G、关键技术演变)?

模拟语音到数字通信的跨越来看,1G 到 2G 的演进是通信史上最彻底的范式转变。1G 采用频分多址(FDMA)技术,仅能提供极易被窃听且容量低下的模拟语音服务。2G 引入了时分多址(TDMA)和码分多址(CDMA)技术,通过将语音信号数字化并进行信道编码,不仅极大地提升了频谱利用率和保密性,还首次让用户体验到了短信等基础数据业务,正式开启了移动通信的数字化纪元。

移动互联网的爆发与底层架构的重构来看,3G 到 4G 的演进标志着网络核心从“语音主导”向“数据主导”的全面让位。3G 时代以宽带 CDMA 技术为核心,勉强推开了移动多媒体的大门;而 4G 则是一场彻底的物理层革命。4G 果断抛弃了复杂的扩频通信,全面拥抱正交频分复用(OFDM)与多天线(MIMO)技术,建立起全 IP 化的网络架构,用前所未有的频谱效率彻底解决了多径衰落带来的高速传输瓶颈,使得高清视频流媒体和移动支付成为了全社会的数字基础设施。

万物互联与垂直行业的深度赋能来看,5G 的诞生不仅是为了让手机上网更快,更是为了重塑整个物理世界的运行规则。5G 引入了毫米波频段、大规模天线阵列(Massive MIMO)以及极化码(Polar Code)等尖端技术。通过定义增强型移动宽带(eMBB)、超可靠低延迟通信(URLLC)和海量机器类通信(mMTC)三大核心场景,5G 突破了个人通信的边界,以毫秒级的极致延迟和每平方公里百万级的海量连接能力,真正实现了从消费级互联网向工业级自动化网络的降维打击


拓展问题与简答

Q1:频分多址、时分多址和码分多址的核心物理区别是什么?
A1:它们分别对应着切分通信资源的不同维度。FDMA 是将总带宽切成不同的频率薄片分给用户;TDMA 是在同一频率上按极其微小的时间切片交替排队进行传输;而 CDMA 则是让所有用户同时在同一大频段上通信,但给每个人分配了相互正交的独立数学密码(扩频码),接收机依靠密码的唯一性来滤除其他人的干扰。

Q2:为什么 4G 时代放弃了曾经如日中天的 CDMA 技术?
A2:当数据速率需求飙升到几十兆甚至上百兆时,宽带信号的码间串扰(ISI)会变得极其严重。CDMA 在处理这种超宽带的高速信号时,其接收端的 RAKE 接收机和信道均衡器复杂度会呈指数级爆炸,彻底击穿了终端芯片的算力与功耗极限。而 OFDM 通过将宽带切分为大量低速的窄带子载波,极其巧妙地在频域绕开了这个算力黑洞。

Q3:5G 中的网络切片(Network Slicing)技术有什么颠覆性意义?
A3:网络切片允许运营商在同一套物理硬件基站和光纤核心网上,通过软件虚拟化技术,切割出多个逻辑上完全隔离的专属定制网络。这意味着远程医疗设备可以独占一个确保极低延迟和超高可靠性的切片,而海量共享单车则可以使用另一个低带宽、大连接的切片,彻底实现了物理资源在不同工业需求间的完美按需分配。

4、在数字频带传输中,为什么要进行成形滤波?

频谱资源的绝对受限与邻道干扰的压制来看,数字基带信号(如原始的矩形脉冲)在频域上表现为无限延伸的辛格(Sinc)函数。如果将这种含有极宽频带旁瓣的能量直接调制到载波上发射,它会毫无阻挡地溢出到相邻的通信频段中,对其他用户的正常通信造成毁灭性的相邻信道干扰(ACI)。成形滤波器的首要任务就是像一把极其精准的“频域剪刀”,将原始脉冲的无穷宽频谱强行裁剪并压缩到系统被严格分配的有限带宽之内,从而实现频谱资源的高效利用与合规发射。

时域波形的平滑过渡与码间串扰(ISI)的根除来看,成形滤波是对抗信道带限效应的先发制人策略。既然真实的物理信道本身就像一个低通滤波器,会不可避免地导致脉冲展宽和拖尾,那么我们干脆在发送端就主动把尖锐的脉冲“打磨”成具有特定衰减规律的圆滑波形(如升余弦波形)。通过让成形滤波器的冲激响应满足奈奎斯特无串扰准则,我们可以人为地控制脉冲拖尾的过零点位置,确保在接收端抽样判决的那一瞬间,所有前后相邻码元的干扰总和精确为零,完美化解了高速率传输下的自身干扰危机。

收发系统全局的最优能量匹配来看,现代数字频带传输系统极其巧妙地将整个滤波过程“一分为二”。工程师通常将一个完整的升余弦滤波器拆解为两个平方根升余弦滤波器(RRC),分别放置在发射端(作为成形滤波器限制带外辐射)和接收端(作为匹配滤波器压制带外噪声)。这种对称的物理架构不仅在发送侧平滑了相位突变以减轻功率放大器的非线性失真,同时在接收侧构成了针对该发送波形的最优噪声过滤屏障。当信号依次穿过这两个滤波器后,系统便在理论上同时达成了信噪比最大化与零码间串扰的巅峰境界。


拓展问题与简答

Q1:为什么发送端通常使用根升余弦(RRC)滤波器而不是直接用升余弦(RC)滤波器?
A1:如果发送端直接用 RC 滤波器,虽然满足了无码间串扰条件,但接收端为了压制噪声必须再加一个匹配滤波器,这两者级联后的总响应就不再满足奈奎斯特准则了。将 RC 拆分成两个 RRC 分别放在收发两端,既保证了接收端的最佳信噪比匹配,又保证了总体级联响应严格等效于一个 RC 滤波器,从而同时实现了抗噪与抗串扰。

Q2:如果不进行成形滤波,对射频功率放大器(PA)有什么致命影响?
A2:未成形的矩形脉冲在进行 PSK 或 QAM 调制时,会产生极其剧烈的相位和幅度突变。当这种信号进入非线性的射频功率放大器时,会导致严重的频谱再生(Spectral Regrowth)现象,原本微弱的高频旁瓣会瞬间反弹并重新长出,不仅彻底抵消了基带处理的努力,还会导致发射机因为频谱严重超标而无法通过法规认证。

Q3:成形滤波器中的滚降因子(Roll-off factor)如何决定系统的命运?
A3:滚降因子 α\alpha 是带宽与抗抖动能力之间的“休战协议”。较小的 α\alpha 极其节省物理频带,但会导致时域拖尾极长且震荡剧烈,对接收机的定时同步误差极其敏感;较大的 α\alpha 虽然占用了更多的多余带宽,但时域尾部迅速衰减,极大地降低了系统对时钟抖动的苛刻要求。

5、什么是载波同步?为什么需要载波同步?

物理信号的精确解剖与基准对齐来看,载波同步(也称载波恢复)是指在接收端本地产生一个与输入接收信号的射频载波在频率和相位上都极其严格同频同相的本地振荡波形的过程。当高频电磁波穿越漫长的空间到达接收天线时,发送端的原始载波早已与基带信息紧密交织在一起。为了将这些隐藏在高频振荡中的极低频数字脉冲或模拟波形完好无损地剥离出来,接收机绝不能随便拿一个差不多频率的信号去盲目相乘。它必须像两列并排行驶的高铁一样,通过极其敏锐的锁相环(PLL)等同步电路,精准提取或重建出那个隐藏的“物理节拍”,从而为后续的相干解调提供一个绝对静止的参考坐标系。

相干解调的数学必然性与能量提取来看,载波同步是防止信号能量在解调过程中发生灾难性衰减的生死防线。在经典的相干解调数学模型中,接收信号需要与本地载波相乘并经过低通滤波器。如果本地载波与接收载波存在哪怕极其微小的频率偏差,解调出的基带信号就会发生持续的周期性起伏与翻转;而如果存在固定的相位差,有用信号的幅度就会不可逆地乘以该相位差的余弦值。试想一下,当这个相位差漂移到 90 度时,余弦值为零,这意味着无论发射端用了多大的功率,接收端输出的有用信号都将瞬间归零。因此,没有载波同步,相干解调的数学大厦就会瞬间崩塌。

现代高阶调制(如 QAM)的正交性维系来看,载波同步是防止不同信息通道发生致命串扰的最后壁垒。现代通信系统为了极大地榨干频谱资源,广泛采用将两路完全独立的信息分别挂载在同相(I 路)和正交(Q 路)两个相差 90 度的载波上进行叠加传输。一旦接收端的载波同步发生相位偏移,这种物理上的正交性就会被彻底撕裂,导致 I 路的能量疯狂倾泻到 Q 路中,Q 路的能量也倒灌回 I 路,这种现象被称为星座图的旋转与串扰。此时,原本清晰的星座点会糊成一团,任何先进的信道均衡或纠错编码都将无力回天。


拓展问题与简答

Q1:对于像 2PSK 或 DSB-SC 这种在频谱中完全把载波能量压制掉(抑制载波)的信号,接收机该怎么提取同步载波?
A1:既然信号里没有现成的载波谱线,工程师就创造出了非线性变换法。比如利用平方环(将信号平方以强制产生两倍频的载波分量)或者使用极其精妙的科斯塔斯环(Costas Loop,同相正交双通道闭环跟踪),它们能够直接从抑制了载波的随机数据流中“无中生有”地榨取并锁定出极其纯净的同频同相参考载波。

Q2:载波同步和我们前面提到的位同步(符号同步)在处理层面上有什么先后顺序?
A2:这是接收机流水线上绝对不能颠倒的两道工序。载波同步必须冲在最前面,它的任务是把信号从几十 GHz 的射频高空安全“降落”到零频附近的基带;只有当高频的“外壳”被完美剥离后,位同步电路才能在剥离出的基带脉冲序列中,去寻找那个最佳的抽样判决时刻。

Q3:既然载波同步这么复杂且容易导致串扰,我们能不能干脆不用它?
A3:完全可以,这就是**非相干解调(如包络检波、差分相干解调)**存在的意义。通过牺牲一部分理论上的信噪比性能(通常是 1 到 3 分贝的代价),我们可以彻底省去昂贵且复杂的载波同步环路电路。在蓝牙、早期收音机或廉价物联网节点中,这种“放弃精准同步换取极致成本”的折中随处可见。

6、什么是位同步?

数字脉冲的最佳抽样与时钟对齐的物理本质来看,位同步(又称符号同步或定时恢复)是指在接收端产生一个与发送端基带数据节拍完全一致的本地时钟脉冲序列的过程。当连续的模拟波形被解调还原为基带的数字脉冲后,接收机面临的下一个生死考验就是“究竟应该在哪个极其短暂的瞬间按下快门,才能拍下最清晰的 0 和 1”。位同步电路就像是一个极其严苛的节拍器,它通过不断追踪信号的起伏变化,精准地在每个码元(符号)能量最集中、干扰最小的中心位置(即眼图张开最大的时刻)发出抽样指令,从而完成从连续模拟电平到离散数字比特的惊险跳跃。

抵抗码间串扰与噪声吞噬的极限求生逻辑来看,位同步是数字判决前绝对不可妥协的最后一道防线。如果在前面千辛万苦通过了成形滤波、载波同步和信道均衡,但在这最后一步发生了微小的时钟偏移(定时相位误差),接收机的抽样点就会偏离波形的峰值,滑落到脉冲衰减的边缘,甚至直接踩进前后相邻脉冲的重叠灾区。这种极其致命的时序错位不仅会使得信号自身的能量大幅缩水,还会将原本已经被完美压制的码间串扰(ISI)全盘释放出来,导致整个通信链路的误码率呈现雪崩式的爆发。

工程实现与信息自提取的闭环控制来看,现代接收机大多采用极其优雅的“自同步法”。既然发送端为了节省带宽通常不额外发送专门的时钟基准线,接收机就必须直接从杂乱无章的随机接收数据流中“无中生有”地榨取定时信息。工程师们利用早迟门(Early-Late Gate)或非线性变换电路,极其敏锐地捕捉基带波形发生过零跳变的边缘特征。一旦捕获到这些跳变沿,内部的锁相环(PLL)就会像死咬猎物的猎犬一样,动态调整本地时钟的频率和相位,确保每一次抽样都严丝合缝地落在数据的正中央。


拓展问题与简答

Q1:载波同步和位同步在概念上最核心的区别是什么?
A1:载波同步是对齐射频高频振荡的相位,目的是为了正确地把信号从高频“搬移”回低频基带;而位同步是对齐低频数据脉冲的节拍,目的是为了在基带波形上找到最完美的抽样判决点。前者对付的是几十 GHz 的电磁波,后者对付的是兆赫兹级的数据流。

Q2:为什么长串的连“0”或连“1”会成为位同步的噩梦?
A2:因为位同步电路极度依赖波形的电平跳变沿(过零点)来校准时钟。如果数据流中出现长时间的电平保持不变,提取电路就会失去所有的物理参照物,导致本地锁相环因为“失去目标”而发生时钟自由漂移。这就解释了为什么前面提到的线路编码(如扰码、HDB3码)必须强制插入跳变规律。

Q3:早迟门(Early-Late Gate)同步器是怎么工作的?
A3:它极其聪明地在一个码元的中心抽样点之前(早)和之后(迟)各设置一个辅助抽样门。如果本地时钟完全对齐,早门和迟门采样到的能量应该是完全相等的对称值;如果时钟发生偏移,两者的能量差就会产生一个误差电压,驱动压控振荡器立刻把偏离的时钟中心重新拉回波形的最高点

7、什么是帧同步?

数据流的逻辑重组与边界划分来看,帧同步(又称群同步)是指在接收端连续不断的比特流中,准确找出信息块(如数据帧、字或包)起始位置的物理与逻辑过程。在完成了载波同步和位同步后,接收机虽然已经能够完美吐出一个个极其干净的“0”和“1”,但这些毫无标点符号的字母长卷对于上层协议来说依然是无法阅读的天书。帧同步的核心任务就是在这个无始无终的比特海洋中,精准地锚定每一个数据包的“第一行第一个字”,从而让杂乱的物理层电平真正转化为具有实际意义的数字通信逻辑载体

特征识别与相关匹配的工程实现来看,帧同步极其依赖于发送端预先埋设的特殊“路标”。工程师通常会在每一个数据帧的头部,强行插入一段收发双方事先约定好的、具有极强自相关特性的特殊比特序列(即帧同步码,如巴克码)。接收机会在本地滑动一个与其长度相同的观察窗口,不断计算接收数据流与本地标准同步码的相关值;当两者完全对齐时,相关器会瞬间输出一个极其尖锐的峰值脉冲,这个脉冲就是宣告新一帧数据正式开始的绝对发令枪

系统鲁棒性与状态机的动态防护来看,帧同步绝非一次性的简单匹配,而是一个包含“捕获、维持、保护”的复杂闭环生态。由于恶劣信道中的噪声极有可能把普通数据篡改得和同步码一模一样(假同步),或者把真正的同步码破坏掉(漏同步),现代通信系统必须建立一套严密的帧同步状态机机制:只有连续多次在规定位置精准命中同步码,系统才会确认进入“同步态”;而偶尔的一次丢失只会被视为干扰,只有连续多次错失,系统才会退回“搜索态”重新寻找边界。这种容错智慧确保了整条通信链路在风雨飘摇的电磁波中依然坚如磐石。


🚀 拓展问题与简答

Q1:什么是巴克码(Barker Code),为什么常被用作帧同步码?
A1:巴克码是一种具有极尖锐自相关函数和极低旁瓣的特殊非周期二进制序列。当它与自身的移位版本进行相关运算时,只有在完全对齐的那一瞬间会产生巨大峰值,错开任何一位的相关值都极其微小。这种“非黑即白”的数学特性使其能够在极其嘈杂的噪声背景中被接收机瞬间识别,极大地降低了假同步的概率。

Q2:假同步和漏同步分别会造成什么致命后果?
A2:假同步是指接收机把一段恰好长得像同步码的普通用户数据当成了帧头,导致后续所有数据的切割位置全部错位,上层解码瞬间崩溃。漏同步则是真正的帧头被噪声破坏而没被认出来,这会导致整个一帧的数据被接收机当成废弃比特直接丢弃,造成极其严重的信息断层。

Q3:帧同步与我们之前讨论的位同步、载波同步是什么层级关系?
A3:它们构成了接收机从底向上的三大物理同步阶梯。载波同步剥离出高频射频外壳,位同步从中提取出离散物理比特,而帧同步最终将这些比特打包成高层逻辑数据帧。底层任何一环的失锁都会导致上层同步的全面坍塌,它们环环相扣,缺一不可。

8、什么是网同步?

全网时钟一致性与缓冲防溢出的宏观视角来看,网同步是指在整个数字通信网络中,强制所有交换节点、传输设备和基站的时钟频率与相位保持高度一致的系统级协同过程。在庞大的通信网中,各个节点都有自己的本地晶振时钟,如果它们之间存在微小的频率偏差,接收端的数据缓冲区就会因为读写速度不匹配而发生“满溢”或“排空”,导致整帧数据的丢失(即滑动损伤)。网同步的核心任务就是用一张无形的“时钟网”笼罩所有物理节点,确保全网的比特流像齿轮一样严丝合缝地运转,彻底消灭因时钟不同步带来的数字灾难。

工程实现与等级森严的时钟架构来看,现代通信网大多采用“主从同步(Master-Slave)”的集中式管理模式。网络中会设立一个极其精准的基准主时钟(Primary Reference Clock, PRC,通常是铯原子钟或北斗/GPS 授时信号),它就像整个网络的绝对“心脏”。这颗心脏产生的精准节拍会通过层层树状结构,沿着同步数字体系(SDH)或同步以太网的光纤链路,逐级下发给各地的从节点。通过这种等级森严的传递机制,全网数以万计的基站和路由器都被强行锁定在这个唯一的绝对时间基准上,实现了微秒甚至纳秒级的整齐划一。

移动互联网演进与 5G 极低延迟要求来看,网同步已经从传统的“频率同步”向极其苛刻的“时间/相位同步”跨越。在 5G 时代,为了实现基站间的协同多点发送以及精准的 TDD 时分双工切换,相邻基站之间的相位误差必须被严格限制在极其微小的范围之内。此时,传统的单纯频率同步已经远远不够,工程师们引入了 IEEE 1588v2 精确时间协议(PTP),让带有精确时间戳的数据包在全网飞速穿梭,实时计算并动态补偿每一段物理光纤的传输延迟,硬生生地在原本异步的 IP 网络上劈开了一条绝对同步的时间长廊。


🚀 拓展问题与简答

Q1:主从同步体系中,如果主时钟的传递链路突然断了怎么办?
A1:节点时钟会立即切入保持模式(Holdover mode)。此时它不再依赖外部输入,而是依靠本地内置的高质量恒温晶振或铷原子钟,凭借之前锁定时“记住”的主时钟频率特征,在数小时甚至数天内继续独立维持极高精度的运转,直到备用的同步链路重新接通。

Q2:准同步(Plesiochronous)和严格的网同步有什么本质区别?
A2:准同步(如早期的 PDH 体系)并不强求全网锁定在同一个主时钟上,而是允许各节点使用极其精确但相互独立的本地时钟。因为频率非常接近但并非绝对一致,所以设备必须通过极其复杂的“码速调整(塞入无用比特)”来强行吸收时钟差带来的滑动,这极大地限制了组网的灵活性。

Q3:网同步与我们之前探讨的载波同步、位同步、帧同步是什么宏观与微观的关系?
A3:载波、位、帧同步是单条点对点链路内部的微观收发协同,解决的是“怎么把这根线上的信号解出来”;而网同步是跨越多节点的宏观全网时间基座,解决的是“怎么让上万台设备像一个人一样思考”。没有网同步,跨节点的长途数据接力就会在路由器内部发生严重的滑动丢包,单条链路的同步做得再完美也无济于事。

9、星座图到底是什么?星座图有什么作用?

从物理和数学的映射角度来看,星座图(Constellation Diagram)是数字调制信号在二维复平面上的直观“全息投影”。在现代通信中,为了提高频带利用率,我们不仅改变载波的幅度,还改变它的相位。星座图就是建立一个以同相分量(I 路,In-phase)为横轴,正交分量(Q 路,Quadrature)为纵轴的直角坐标系。在这个平面上,每一个亮点(星座点)都代表一个特定的数字符号(Symbol)。点到坐标原点的几何距离代表着该符号的瞬时载波幅度,而点与横轴正方向的夹角则代表着该符号的瞬时载波相位

从工程应用与信道诊断的角度来看,星座图是通信工程师用来给底层链路“看病”的最强可视化显微镜。在理想的无噪声信道中,接收到的信号在星座图上应该是极其锐利、清晰的单点。然而,当信号穿过恶劣的物理信道后,各种干扰会在星座图上留下极其明显的病理特征。例如,加性高斯白噪声会让原本清晰的单点扩散成一团毛茸茸的“星云”;相位噪声会让星座点沿着同心圆轨迹发生弧形拖尾或旋转;而放大器的非线性失真则会让星座图最外围的点向内塌陷。工程师只需观察星座图的扭曲形态,就能瞬间定位系统硬件或信道的具体缺陷。

从接收端信号解调的逻辑来看,星座图为数字判决提供了最直观的“几何领地划分”法则。接收机收到一个带有噪声的畸变信号后,会在星座图上标出一个实际落点。解调的本质,就是在这个二维地图上寻找距离该实际落点最近的理想星座点,并将其判定为发送端原本想发送的数据(即最大似然判决)。因此,相邻星座点之间的欧氏距离直接决定了系统的抗干扰能力:点与点之间离得越远,容错的“护城河”就越宽,越不容易发生将一个点误判为另一个点的错误。

拓展问题与简答

Q1:星座图和眼图在使用场景上有什么核心区别?
A1:眼图是时域分析工具,它将连续的基带波形折叠叠加,主要用来观察码间串扰(ISI)和定时抖动,核心是判断“抽样时刻准不准”。而星座图是调制域(I/Q域)分析工具,它在最佳抽样时刻抓取一个瞬时离散点,主要用来观察幅相畸变和噪声分布形态,核心是判断“信号的二维位置对不对”。

Q2:5G 和 Wi-Fi 路由器在信号变差时自动降速,这在星座图上是如何体现的?
A2:这利用了自适应调制编码(AMC)技术。信号极好时,系统使用高阶调制(如 256-QAM),星座点极其密集,虽然每个符号携带比特多(网速快),但极易被噪声推过判决边界。当信号变差时,系统会主动退化到低阶调制(如 QPSK),星座图上只剩下 4 个距离极远的点,虽然网速下降,但极宽的判决边界保住了通信的稳定不断流

Q3:最基础的 2ASK(二进制幅移键控)信号的星座图长什么样?
A3:因为 2ASK 仅仅改变信号的幅度而不改变相位,并且只有“0”和“1”两种逻辑状态,所以它的星座图极其简单。所有的星座点都落在横轴(I 轴)上,通常代表“0”的点位于坐标原点(幅度为零),代表“1”的点位于横轴正半轴的某个特定幅度位置上。

十三、通信原理的学科探索

13.1 溯源与终极目标

​ 通信学科的诞生源于人类对远距离可靠信息传递的迫切需求,最初是为了解决模拟通信系统中噪声随传输距离累积且无法从信号中彻底剥离的物理痛点。在1948年香农发表《通信的数学理论》之前,工程界一直受困于“提高速率必然导致错误率失控”的经验认知,而该学科的建立通过引入信息论和数字再生技术,实现了从“信号波形修复”到“逻辑信息恢复”的思维跨越,从而解决了在充满干扰的真实物理信道中实现高速、无差错通信的底层难题。

​ 如果用一句话概括,该学科的终极目标是在有限的带宽与功率资源约束下,寻求信息传输有效性与可靠性之间的最优折中。 换言之,所有的调制、编码与均衡技术,其本质都是为了在保证误码率满足应用门槛的前提下,尽可能地压榨信道的传输潜力,使得实际传输速率在物理极限的锁死下,能够无限地逼近香农公式所定义的信道容量边界。*

这门学科研究的核心对象是随机过程在通信系统中的统计演变规律**,它在数学上将有用信号抽象为携带信息的随机序列,将环境干扰抽象为加性高斯白噪声(AWGN)。这种抽象的精妙之处在于,它意识到“信息本身必须是不可预测的才有意义”,通过将复杂的电磁波运动简化为概率密度函数和功率谱密度的数学运算,使得我们能够跨越硬件的物理限制,在纯粹的数学层面量化系统的资源利用率和判决错误率。

13.2 边界与极限

​ 这门学科的理论天花板是信道容量(Channel Capacity),由信息论奠基人克劳德·香农(Claude Shannon)通过香农-哈特利定理严格定义。该定理给出了在给定带宽 BB 和信噪比 S/NS/N 的条件下,实现无差错传输的最高理论速率极限 C=Blog2(1+S/N)C = B \log_2(1 + S/N)它的核心价值在于揭示了带宽与信噪比之间存在着深刻的互换关系,并论证了只要信息传输速率低于信道容量,就理论上一定存在某种编码方式能使误码率趋近于零。

​ 阻碍我们达到理论极限的核心阻碍主要来自加性高斯白噪声(AWGN)信道的带宽受限性AWGN源于电子热运动等物理必然,它在信号幅度上叠加了随机的不确定性,使得接收端在进行电平判决时产生不可避免的误判区域;而带宽受限则是由传输介质的物理特性决定的,它在时域上导致信号脉冲发生严重展宽并产生码间串扰(ISI)这种相邻码元能量的相互重叠直接锁死了单纯依靠提高脉冲发送频率来提升速率的技术路径,迫使我们必须寻找更高效率的调制方案。

13.3 核心方法和工具箱

​ 为了实现终极目标,该学科演化出了信源编码、信道编码、调制技术与同步技术这四大核心分支。信源编码通过压缩冗余来提高信息传输的有效性,信道编码通过增加纠错冗余来增强系统对抗干扰的可靠性,而调制技术则负责将逻辑信号映射为适合在特定物理信道中传输的波形。 同步技术作为系统的神经中枢,确保收发两端在频率和时间尺度上保持高度一致,从而解决了在复杂环境下如何让海量离散数据有序、准确重建的工程难题。

​ 该学科最核心的数学工具是傅里叶变换随机过程理论,它们分别从资源和规律两个维度完成了对现实通信的抽象。傅里叶变换是通信的“频率透视镜”,它将信号从时间域投射到频率域,从而清晰界定了信号对带宽资源的占用,并解释了信号通过信道滤波器时的能量损失规律。 随机过程理论则是通信的“概率判决尺”,它承认了噪声和信息的随机本质,通过统计特征分析使得接收端能依据最大后验概率准则,从充满干扰的波形中提取出确定性的逻辑比特。

13.4 工程妥协和核心矛盾

​ 通信工程落地时最核心的“跷跷板”是有效性、可靠性与复杂度之间的三方博弈,这通常表现为在有限的功率和带宽资源下对传输速率与误码率的艰难取舍。由香农公式定义的带宽与信噪比互换原理是这一博弈的数学底座,它揭示了如果我们追求更高的频带利用率,就必须以牺牲抗噪声能力或大幅增加硬件计算复杂度为代价。 这种平衡的本质在于:没有任何一种技术能同时在所有维度达到最优,工程师的任务就是根据具体的应用场景(如深空通信追求极高可靠性,而商用5G追求极高有效性)来寻找那个最契合需求的“性能平衡点”。

​ 为了构建起逻辑自洽的学科大厦,课本理论通常大胆地假设信道是线性时不变(LTI)系统,且噪声是理想的加性高斯白噪声(AWGN)。这种简化屏蔽了实际硬件中功率放大器的非线性失真以及真实环境中复杂多变的脉冲干扰,使得我们可以利用傅里叶变换和经典概率论进行分析。此外,理论模型往往预设系统处于“理想同步”状态且拥有完美的脉冲成形滤波,这实际上规避了工程实现中最令头疼的时钟抖动、频率漂移和相邻码元能量泄露等底层噪声细节。 这种“真空环境”下的建模虽然与现实有差距,但它为工程实践提供了一个可量化的最高理论标杆,让我们能够看清现实系统距离物理极限究竟还有多远。

13.5 学科纵横与前沿

​ 《通信原理》在电子信息学科体系中起着承上启下的核心枢纽作用,它将上游基础课提供的数学工具转化为解决实际传输问题的工程逻辑。《信号与系统》提供的傅里叶分析是其频率分配的语言,而《概率论与数理统计》提供的随机过程建模则是其抗噪声设计的底座; 该学科将这些抽象工具整合为一套通用的传输范式,并向下游的《移动通信》、《光纤通信》或《计算机网络》提供底层理论支撑。这种逻辑关系说明了:基础课研究的是“信号是什么”,本学科研究的是“信息如何高效可靠地传”,而下游应用课则是将这些普适原理针对特定的物理介质(如电磁波、光脉冲或双绞线)进行工程落地。

​ 当前通信领域正面临着“香农极限压榨殆尽”与“频谱资源严重匮乏”的双重技术瓶颈,这迫使学科演进从单纯追求比特速率转向追求AI原生通信与感传一体化(ISAC)。由于传统模块化设计的性能已接近物理天花板,学术界正尝试利用深度学习重新定义物理层架构,以实现对复杂、非线性信道的实时最优自适应; 同时,工业界正向**毫米波、太赫兹以及非地面网络(卫星通信)**进军,旨在打破地理空间的覆盖局限并解决极低时延下的海量连接问题。这种演进本质上是通信角色从“单纯的信息搬运工”向“感知与计算融合的神经中枢”的战略转型,以满足未来万物智联对极端性能的需求。