射频指标

射频指标,第1张

描述射频信号指标

接收灵敏度,这应该是最基本的概念之一,表征的是接收机能够在不超过一定误码率的情况下识别的最低信号强度。

讲灵敏度的时候我们常常联系到SNR(信噪比,我们一般是讲接收机的解调信噪比),我们把解调信噪比定义为不超过一定误码率的情况下解调器能够解调的信噪比门限(面试的时候经常会有人给你出题,给一串NF、Gain,再告诉你解调门限要你推灵敏度)。那么S和N分别何来? 

S即信号Signal,或者称为有用信号;N即噪声Noise,泛指一切不带有有用信息的信号。有用信号一般是通信系统发射机发射出来,噪声的来源则是非常广泛的,最典型的就是那个著名的-174dBm/Hz——自然噪声底,要记住它是一个与通信系统类型无关的量,从某种意义上讲是从热力学推算出来的(所以它跟温度有关);另外要注意的是它实际上是个噪声功率密度(所以有dBm/Hz这个量纲),我们接收多大带宽的信号,就会接受多大带宽的噪声——所以最终的噪声功率是用噪声功率密度对带宽积分得来。

发射功率的重要性,在于发射机的信号需要经过空间的衰落之后才能到达接收机,那么越高的发射功率意味着越远的通信距离。 

那么我们的发射信号要不要讲究SNR?譬如说,我们的发射信号SNR很差,那么到达接收机的信号SNR是不是也很差? 

这个牵涉到刚才讲过的概念,自然噪声底。我们假设空间的衰落对信号和噪声都是效果相同的(实际上不是,信号能够通编码抵御衰落而噪声不行)而且是如同衰减器一般作用的,那么我们假设空间衰落-200dB,发射信号带宽1Hz,功率50dBm,信噪比50dB,接收机收到信号的SNR是多少? 

接收机收到信号的功率是50-200=-150Bm(带宽1Hz),而发射机的噪声50-50=0dBm通过空间衰落,到达接收机的功率是0-200=-200dBm(带宽1Hz)?这时候这部分噪声早已被“淹没”在-174dBm/Hz的自然噪声底之下了,此时我们计算接收机入口的噪声,只需要考虑-174dBm/Hz的“基本成分”即可。 

这在通信系统的绝大部分情况下是适用的。

我们把这些项目放在一起,是因为它们表征的实际上是“发射机噪声”的一部分,只是这些噪声不是在发射信道之内,而是发射机泄漏到临近信道中去的部分,可以统称为“邻道泄漏”。 

其中ACLR和ACPR(其实是一个东西,不过一个是在终端测试中的叫法,一个是在基站测试中的叫法罢了),都是以“Adjacent Channel”命名,顾名思义,都是描述本机对其他设备的干扰。而且它们有个共同点,对干扰信号的功率计算也是以一个信道带宽为计。这种计量方法表明,这一指标的设计目的,是考量发射机泄漏的信号,对相同或相似制式的设备接收机的干扰——干扰信号以同频同带宽的模式落到接收机带内,形成对接收机接收信号的同频干扰。 

在LTE中,ACLR的测试有两种设置,EUTRA和UTRA,前者是描述LTE系统对LTE系统的干扰,后者是考虑LTE系统对UMTS系统的干扰。所以我们可以看到EUTRA ACLR的测量带宽是LTE RB的占用带宽,UTRA ACLR的测量带宽是UMTS信号的占用带宽(FDD系统3.84MHz,TDD系统1.28MHz)。换句话说,ACLR/ACPR描述的是一种“对等的”干扰:发射信号的泄漏对同样或者类似的通信系统发生的干扰。 

这一定义是有非常重要的实际意义的。实际网络中同小区邻小区还有附近小区经常会有信号泄漏过来,所以网规网优的过程实际上就是容量最大化和干扰最小化的过程,而系统本身的邻道泄漏对于邻近小区就是典型的干扰信号;从系统的另一个方向来看,拥挤人群中用户的手机也可能成为互相的干扰源。 

同样的,在通信系统的演化中,从来是以“平滑过渡”为目标,即在现有网络上升级改造进入下一代网络。那么两代甚至三代系统共存就需要考虑不同系统之间的干扰,LTE引入UTRA即是考虑了LTE在与UMTS共存的情形下对前代系统的射频干扰。

讲SEM的时候,首先要注意它是一个“带内指标”,与spurious emission区分开来,后者在广义上是包含了SEM的,但是着重看的其实是发射机工作频段之外的频谱泄漏,其引入也更多的是从EMC(电磁兼容)的角度。 

SEM是提供一个“频谱模版”,然后在测量发射机带内频谱泄漏的时候,看有没有超出模版限值的点。可以说它与ACLR有关系,但是又不相同:ACLR是考虑泄漏到邻近信道中的平均功率,所以它以信道带宽为测量带宽,它体现的是发射机在邻近信道内的“噪声底”;SEM反映的是以较小的测量带宽(往往100kHz到1MHz)捕捉在邻近频段内的超标点,体现的是“以噪声底为基础的杂散发射”。 

如果用频谱仪扫描SEM,可以看到邻信道上的杂散点会普遍的高出ACLR均值,所以如果ACLR指标本身没有余量,SEM就很容易超标。反之SEM超标并不一定意味着ACLR不良,有一种常见的现象就是有LO的杂散或者某个时钟与LO调制分量(往往带宽很窄,类似点频)串入发射机链路,这时候即便ACLR很好,SEM也可能超标。 

首先,EVM是一个矢量值,也就是说它有幅度和角度,它衡量的是“实际信号与理想信号的误差”,这个量度可以有效的表达发射信号的“质量”——实际信号的点距离理想信号越远,误差就越大,EVM的模值就越大。 

很难定义EVM与ACPR/ACLR的定量关系,从放大器的非线性来看,EVM与ACPR/ACLR应该是正相关的:放大器的AM-AM、AM-PM失真会扩大EVM,同时也是ACPR/ACLR的主要来源。 

但是EVM与ACPR/ACLR并不总是正相关,我们这里可以找到一个很典型的例子:数字中频中常用的Clipping,即削峰。Clipping是削减发射信号的峰均比(PAR),峰值功率降低有助于降低通过PA之后的ACPR/ACLR;但是Clipping同时会损害EVM,因为无论是限幅(加窗)还是用滤波器方法,都会对信号波形产生损伤,因而增大EVM。 

PAR(信号峰均比)通常用CCDF这样一个统计函数来表示,其曲线表示的是信号的功率(幅度)值和其对应的出现概率。譬如某个信号的平均功率是10dBm,它出现超过15dBm功率的统计概率是0.01%,我们可以认为它的PAR是5dB。 

所以对于正弦波,假设他的峰值是4,那么他的峰值功率就是4^2=16;而他的平均功率计算

t = [0:0.01:4*pi]

a = 4 * sin(t)

% b = fft(a, 1024)

% plot(abs(b))

result = sum(a.^2)/length(t)

计算得到的结果是8,也就是4^2/2=8;所以他的PAR是3dB。

PAR是现代通信系统中发射机频谱再生(诸如ACLP/ACPR/Modulation Spectrum)的重要影响因素。峰值功率会将放大器推入非线性区从而产生失真,往往峰值功率越高、非线性越强。 

在GSM时代,因为GMSK调制的衡包络特性,所以PAR=0,我们在设计GSM功放的时候经常把它推到P1dB,以得到最大限度的效率。引入EDGE之后,8PSK调制不再是衡包络,因此我们往往将功放的平均输出功率推到P1dB以下3dB左右,因为8PSK信号的PAR是3.21dB。 

UMTS时代,无论WCDMA还是CDMA,峰均比都比EDGE大得多。原因是码分多址系统中信号的相关性:当多个码道的信号在时域上叠加时,可能出现相位相同的情况,此时功率就会呈现峰值。 

LTE的峰均比则是源自RB的突发性。OFDM调制是基于将多用户/多业务数据在时域上和频域上都分块的原理,这样就可能在某一“时间块”上出现大功率。LTE上行发射用SC-FDMA,先用DFT将时域信号扩展到频域上,等于“平滑”掉了时域上的突发性,从而降低了PAR。 

这里的“干扰指标”,指的是出了接收机静态灵敏度之外,各种施加干扰下的灵敏度测试。实际上研究这些测试项的由来是很有意思的。 

我们常见的干扰指标,包括Blocking,Desense,Channel Selectivity等。 

Blocking实际上是一种非常古老的RF指标,早在雷达发明之初就有。其原理是以大信号灌入接收机(通常最遭殃的是第一级LNA),使得放大器进入非线性区甚至饱和。此时一方面放大器的增益骤然变小,另一方面产生极强非线性,因而对有用信号的放大功能就无法正常工作了。 

另一种可能的Blocking其实是通过接收机的AGC来完成的:大信号进入接收机链路,接收机AGC因此产生动作降低增益以确保动态范围;但是同时进入接收机的有用信号电平很低,此时增益不足,进入到解调器的有用信号幅度不够。 

Blocking指标分为带内和带外,主要是因为射频前端一般会有频带滤波器,对于带外blocking会有抑制作用。但是无论带内还是带外,Blocking信号一般都是点频,不带调制。事实上完全不带调制的点频信号在现实世界里并不多见,工程上只是把它简化成点频,用以(近似)替代各种窄带干扰信号。 

对于解决Blocking,主要是RF出力,说白了就是把接收机IIP3提高,动态范围扩大。对于带外Blocking,滤波器的抑制度也是很重要的。 

When the defined useful signal coexist with blocking signal, throughput loss less than 1%

useful signal  = PREFSENS + 14dB, 20MHz, -79.5dBm

这里我们统称为“邻信道选择性”。在蜂窝系统中,我们组网除了要考虑同频小区,还要考虑邻频小区,其原因可以在我们之前讨论过的发射机指标ACLR/ACPR/Modulation Spectrum中可以找到:因为发射机的频谱再生会有很强的信号落到相邻频率中(一般来说频偏越远电平越低,所以邻信道一般是受影响最大的),而且这种频谱再生事实上是与发射信号有相关性的,即同制式的接收机很可能把这部分再生频谱误认为是有用信号而进行解调,所谓鹊巢鸠占。 

举个例子:如果两个相邻小区A和B恰好是邻频小区(一般会避免这样的组网方式,这里只是讨论一个极限场景),当一台注册到A小区的终端游走到两个小区交界处,但是两个小区的信号强度还没有到切换门限,因此终端依然保持A小区连接;B小区基站发射机的ACPR较高,因此终端的接收频带内有较高的B小区ACPR分量,与A小区的有用信号在频率上重叠;因为此时终端距离A小区基站较远,因此接收到的A小区有用信号强度也很低,此时B小区ACPR分量进入到终端接收机时就可以对原有用信号造成同频干扰。 

如果我们注意看邻道选择性的频偏定义,会发现有Adjacent和Alternative的区别,对应ACLR/ACPR的第一邻道、第二邻道,可见通信协议中“发射机频谱泄漏(再生)”与“接收机邻道选择性”实际上是成对定义的。 

When the defined useful signal coexist with interference signal, throughput loss less than 1%

Blocking是“大信号干扰小信号”,RF尚有周旋余地;而以上的AM Suppression, Adjacent (Co/Alternative) Channel Suppression (Selectivity)这些指标,是“小信号干扰大信号”,纯RF的工作意义不大,还是靠物理层算法为主。 

这种描述的是绝对的同频干扰,一般是指两个同频小区之间的干扰模式。 

按照之前我们描述的组网原则,两个同频小区的距离应该尽量远,但是即便再远,也会有信号彼此泄漏,只是强度高低的区别。

对于终端而言,两个小区的信号都可以认为是“正确的有用信号”(当然协议层上有一组接入规范来防范这种误接入),衡量终端的接收机能否避免“西风压倒东风”,就看它的同频选择性。 

动态范围,温度补偿和功率控制很多情况下是“看不到”的指标,只有在进行某些极限测试的时候才会表现出它们的影响,但是本身它们却体现着RF设计中最精巧的部分。 

发射机动态范围表征的是发射机“不损害其他发射指标前提下”的最大发射功率和最小发射功率。 

“不损害其他发射指标”显得很宽泛,如果看主要影响,可以理解为:最大发射功率下不损害发射机线性度,最小发射功率下保持输出信号信噪比。 

最大发射功率下,发射机输出往往逼近各级有源器件(尤其末级放大器)的非线性区,由此经常发生的非线性表现有频谱泄漏和再生(ACLR/ACPR/SEM),调制误差(PhaseError/EVM)。此时最遭殃的基本上都是发射机线性度,这一部分应该比较好理解。 

最小发射功率下,发射机输出的有用信号则是逼近发射机噪声底,甚至有被“淹没”在发射机噪声中的危险。此时需要保障的是输出信号的信噪比(SNR),换句话说就是在最小发射功率下的发射机噪声底越低越好。 

在实验室曾经发生过一件事情:有工程师在测试ACLR的时候,发现功率降低ACLR反而更差(正常理解是ACLR应该随着输出功率降低而改善),当时第一反应是仪表出问题了,但是换一台仪表测试结果依然如此。我们给出的指导意见是测试低输出功率下的EVM,发现EVM性能很差;我们判断可能是RF链路入口处的噪声底就很高,对应的SNR显然很差,ACLR的主要成分已经不是放大器的频谱再生、而是通过放大器链路被放大的基带噪声。 

接收机动态范围其实与之前我们讲过的两个指标有关,第一个是参考灵敏度,第二个是接收机IIP3(在讲干扰指标的时候多次提到)。 

参考灵敏度实际上表征的就是接收机能够识别的最小信号强度,这里不再赘述。我们主要谈一下接收机的最大接收电平。

最大接收电平是指接收机在不发生失真情况下能够接收的最大信号。这种失真可能发生在接收机的任何一级,从前级LNA到接收机ADC。对于前级LNA,我们唯一可做的就是尽量提高IIP3,使其可以承受更高的输入功率;对于后面逐级器件,接收机则采用了AGC(自动增益控制)来确保有用信号落在器件的输入动态范围之内。简单的说就是有一个负反馈环路:检测接收信号强度(过低/过高)-调整放大器增益(调高/调低)-放大器输出信号确保落在下一级器件的输入动态范围之内。 

这里我们讲一个例外:多数手机接收机的前级LNA本身就带有AGC功能,如果你仔细研究它们的datasheet,会发现前级LNA会提供几个可变增益段,每个增益段有其对应的噪声系数,一般来讲增益越高、噪声系数越低。这是一种简化的设计,其设计思想在于:接收机RF链路的目标是将输入到接收机ADC的有用信号保持在动态范围之内,且保持SNR高于解调门限(并不苛求SNR越高越好,而是“够用就行”,这是一种很聪明的做法)。因此当输入信号很大时,前级LNA降低增益、损失NF、同时提高IIP3;当输入信号小时,前级LNA提高增益、减小NF、同时降低IIP3。 

一般来讲,我们只在发射机作温度补偿。 

当然,接收机性能也是受到温度影响的:高温下接收机链路增益降低,NF增高;低温下接收机链路增益提高,NF降低。但是由于接收机的小信号特性,无论增益还是NF的影响都在系统冗余范围之内。 

对于发射机温度补偿,也可以细分为两部分:一部分是对发射信号功率准确度的补偿,另一部分是对发射机增益随温度变化进行补偿。 

现代通信系统发射机一般都进行闭环功控(除了略为“古老”的GSM系统和Bluetooth系统),因此经过生产程序校准的发射机,其功率准确度事实上取决于功控环路的准确度。一般来讲功控环路是小信号环路,且温度稳定性很高,所以对其进行温度补偿的需求并不高,除非功控环路上有温度敏感器件(譬如放大器)。 

对发射机增益进行温度补偿则更加常见。这种温度补偿常见的有两种目的:一种是“看得见的”,通常对没有闭环功控的系统(如前述GSM和Bluetooth),这类系统通常对输出功率精确度要求不高,所以系统可以应用温度补偿曲线(函数)来使RF链路增益保持在一个区间之内,这样当基带IQ功率固定而温度发生变化时,系统输出的RF功率也能保持在一定范围之内;另一种是“看不见的”,通常是在有闭环功控的系统中,虽然天线口的RF输出功率是由闭环功控精确控制的,但是我们需要保持DAC输出信号在一定范围内(最常见的例子是基站发射系统数字预失真(DPD)的需要),那么我们就需要将整个RF链路的增益比较精确的控制在某个值左右——温补的目的就在于此。 

发射机温补的手段一般有可变衰减器或者可变放大器:早期精度稍低以及低成本精度要求较低的情况下,温补衰减器比较常见;对精度要求更高的情形下,解决方案一般是:温度传感器+数控衰减器/放大器+生产校准。 

讲完动态范围和温度补偿,我们来讲一个相关的、而且非常重要的概念:功率控制。 

发射机功控是大多数通信系统中必需的功能,在3GPP中常见的诸如ILPC、OLPC、CLPC,在RF设计中都是必需被测试、经常出问题、原因很复杂的。我们首先来讲发射机功控的意义。 

所有的发射机功控目的都包含两点:功耗控制和干扰抑制。 

我们首先说功耗控制:在移动通信中,鉴于两端距离变化以及干扰电平高低不同,对发射机而言,只需要保持“足够让对方接收机准确解调”的信号强度即可;过低则通信质量受损,过高则空耗功率毫无意义。对于手机这样以电池供电的终端更是如此,每一毫安电流都需锱铢必量。 

干扰抑制则是更加高级的需求。在CDMA类系统中,由于不同用户共享同一载频(而以正交用户码得以区分),因此在到达接收机的信号中,任何一个用户的信号对于其他用户而言,都是覆盖在同一频率上的干扰,若各个用户信号功率有高有高低,那么高功率用户就会淹没掉低功率用户的信号;因此CDMA系统采取功率控制的方式,对于到达接收机的不同用户的功率(我们称之为空中接口功率,简称空口功率),发出功控指令给每个终端,最终使得每个用户的空口功率一样。这种功控有两个特点:第一是功控精度非常高(干扰容限很低),第二是功控周期非常短(信道变化可能很快)。 

在LTE系统中,上行功控也有干扰抑制的作用。因为LTE上行是SC-FDMA,多用户也是共享载频,彼此间也互为干扰,所以空口功率一致同样也是必需的。 

GSM系统也是有功控的,GSM中我们用“功率等级”来表征功控步长,每个等级1dB,可见GSM功率控制是相对粗糙的。 

这里提一个相关的概念:干扰受限系统。CDMA系统是一个典型的干扰受限系统。从理论上讲,如果每个用户码都完全正交、可以通过交织、解交织完全区分开来,那么实际上CDMA系统的容量可以是无限的,因为它完全可以在有限的频率资源上用一层层扩展的用户码区分无穷多的用户。但是实际上由于用户码不可能完全正交,因此在多用户信号解调时不可避免的引入噪声,用户越多噪声越高,直到噪声超过解调门限。 

换而言之,CDMA系统的容量受限于干扰(噪声)。 

GSM系统不是一个干扰受限系统,它是一个时域和频域受限的系统,它的容量受限于频率(200kHz一个载频)和时域资源(每个载频上可共享8个TDMA用户)。所以GSM系统的功控要求不高(步长较粗糙,周期较长)。 

讲完发射机功控,我们进而讨论一下在RF设计中可能影响发射机功控的因素(相信很多同行都遇到过闭环功控测试不过的郁闷场景)。 

对于RF而言,如果功率检测(反馈)环路设计无误,那么我们对发射机闭环功控能做的事情并不多(绝大多数工作都是由物理层协议算法完成的),最主要的就是发射机带内平坦度。 

因为发射机校准事实上只会在有限的几个频点上进行,尤其在生产测试中,做的频点越少越好。但是实际工作场景中,发射机是完全可能在频段内任一载波工作的。在典型的生产校准中,我们会对发射机的高中低频点进行校准,意味着高中低频点的发射功率是准确的,所以闭环功控在进行过校准的频点上也是无误的。然而,如果发射机发射功率在整个频段内不平坦,某些频点的发射功率与校准频点偏差较大,因此以校准频点为参考的闭环功控在这些频点上也会发生较大误差乃至出错。

使用频谱仪测试相位噪声测量不需要按步骤完成,只需要注意以下事项:

应尽量选用本底噪声低的分析仪,因为所测量的相位噪声下限取决于分析仪的本底噪声。分析仪作为一种超外差的分析设备,最终的测量结果是外部输入信号同本机内部本振信号叠加的结果,如果外部输入信号的相位噪声指标高于分析仪本身的指标,测量的结果实际是分析仪的相位噪声。

只有外部信号的相位噪声指标要比分析仪指标差时(差3dB以上),测量的结果才是正确的。直接频谱法不适合于更低噪底的高性能晶振或者直接式频综的测试。

不论是使用分析仪的相位噪声选件还是频谱分析功能下手动测量,分析仪均不能把调幅噪声和调频噪声区分开来,所以测量结果是调幅和调频噪声的总和。为了精确测量相位噪声,一般要求被测信号的调幅噪声要比调频噪声小得多(小10dB以上),测量结果基本为相位噪声。

动态范围代表了分析仪的测量范围,其下限取决于分析仪自身灵敏度和相位噪声,其上限取决于1dB压缩点。在偏离载波较近处能达到的动态范围的下限主要取决于分析仪自身的相位噪声,在偏离载波较远处分析仪自身的相位噪声很低,动态范围的下限主要取决于分析仪的灵敏度。

由于分析仪无载波抑制功能,测量的动态范围受限,尤其是测量偏离载波较远处的相噪时,需要判断测量是否受限于分析仪的动态范围,以免测量结果产生错误。

信号的频谱漂移会给相噪量结果带来很大的误差,甚至无法测量。被测设备和测量仪器在测量进行前都需要充分预热使其达到稳定的工作状态,分析仪的预热时间通常要求大于10分钟。

仪器连接要牢固,尽量避免振动,测量时最好把仪器放置在能吸收振动的防振垫上,减少或者消除振颤噪声。为了减少外界环境对测量结果的影响,有条件的地方最好在屏蔽室内测量。

扩展资料:

常用的相位噪声测量方法主要有直接频谱分析仪法、相位检波器法、鉴频器法和双通道互相关法等。应该指出,在不同场合对相位噪声的要求不同,测量方法也有所不同。

典型的相位噪声测量可以由专业相位噪声测试系统完成,但这些专业设备的价格相当昂贵,而频谱分析仪或者新一代的仪是相对常用的仪器,对一些相位噪声指标要求不是很严格的场合,可以用信号/频谱分析仪进行相位噪声指标的测量。

通过谱分析进行相位噪声测量的方法称为直接频谱分析仪法。该方法不仅能在分析仪上直接显示相位噪声的测量值,而且还可以同时准确地显示是否有其他离散信号,具有简单、灵活易用的特点。被测信号可以直接加到分析仪的射频输入口后,由分析仪直接进行分析测量;

也可以现将被测信号与相位噪声指标更好的参考信号混频后,得到一合适中频信号,再由分析仪对这一中频信号进行分析。

参考资料:百度百科-相位噪声

1、频谱

频谱是频率谱密度的简称,是频率的分布曲线。复杂振荡分解为振幅不同和频率不同的谐振荡,这些谐振荡的幅值按频率排列的图形叫做频谱。

2、dBm,dB

dB是一个比值取log是一个相对量,例如:

dB=20log(V1/V2),dB=10log(P1/P2)

dBm是一个功率值取log,是绝对值,

例如:dBm=10log(P1)

dBm与dB的关系:dB=dBm-dBm。

二、频谱仪的分类

一般分为FFT(快速傅里叶变化)和扫频式频谱仪。其中FFT式频谱仪适合窄分析带宽,快速测量场合,扫频式频谱仪适合宽频带分析场合。常用的为扫频式频谱仪,下面主要介绍扫频式频谱仪的原理图,下图6位扫频式频谱仪的原理图。

图6、频谱仪内部原理图

1、输入衰减器

信号进入频谱仪后,先经过一个输入衰减器,作用为防止大信号进入混频器,造成混频器过载,增益压缩,畸变。衰减器雨后面的中频放大器是互动的,中频放大器补偿前面的衰减值,保证信号大小不变。

2、低通滤波器

低通滤波器决定了频谱仪的分析能力,频谱仪上标注的频率范围就是由此滤波器决定。

3、混频器

混频器,通过本振(LO)将输入信号下变频到中频。

图7、混频器原理

4、中频滤波器

中频滤波器即频谱仪面板上设置的RBW,是可调的,调节RBW会影响频率选择性,信噪比和测试速度。

图8、不同RBW的信号频谱图

5、包络检波器

将中频信号转换为基带信号或者视频信号。有正向检波(显示最大值),负向检波(显示最小值),采样检波(显示中值)。

6、视频滤波器

一般为一低通滤波器,此滤波器主要是为了减少噪声的峰峰值变化,测试小信号时会用到。

三、频谱仪测试

都知道频谱仪可以观测信号的频谱,信号的功率,测试系统的杂散,谐波,交调失真功能。

1、测量信号的频率与功率

下图9为信号源发出一单载波信号后,频谱仪的显示,通过MARK——PEAK,操作可以看到信号频率为50.005MHz,功率为-20.17dBm。

图9、信号的频谱

2、交调失真测试

下图10为信号交调失真测试图,通过mark-DELT标注功能可以测试信号与交调信号功率差(dB)

图10、交调测试图

3、谐波测试

频谱仪可以测试被测信号的各次谐波,可以用频谱仪自带的频谱测试功能,MEASURE-harmonic测试,也可以通过测试信号的频率f,然后改变频谱仪的中心频率到2f,3f….然后PEAK一下,测试各次谐波的功率。

图11、谐波测试图

4、测量调制信号的带宽

频谱仪可以测试信号的带宽,可以测试3dB带宽,也可以测试99%信号能量带宽 。下图12为99%信号能量带宽。

图12、信号带宽测试

5、峰均比测试

频谱仪测试中,还有一个功能为峰均比测试(CCDF),某一调制信号的峰均比测试如下图13。

图13、峰均比测试图

四、测试结果的准确性判断:

测试一个信号的功率值是否准确时,可以改变衰减器衰减值,看信号功率是否发生变化来判断。

图14、信号准确性判断图

五、调制信号功率测试方法

上面介绍了频谱仪的原理及基本使用与测试,下面介绍测试信号的功率(TDD系统的发射功率,或者突发信号的功率),TD系统是有时隙的,收发交替,所以直接用一般的平均式功率计测试信号功率不准确,需要知道收发比等指标,但是一般的射频工程师可能不会去了解时隙结构等,测试不方便,用常规频谱仪测试功率很好的解决这一问题。下面介绍两种个人觉得比较合适的测试方法(以R&S频谱仪测试为例)。

1、信道功率法

图15、R&S频谱仪

此方法是根据信号ACPR的测试方法而来,LTE系统等都需要测试ACPR这个指标,以R&S的频谱仪为例,操作方法:MEAS——chanPWR ACP——CP/ACP Config

需要配置的参数:

1.邻道个数(第一邻道,第二邻道,第三邻道),NO.of ADJ channel。

2.信道以及邻道的信号带宽,Channel Bandwith。

3.邻道中心频率距信号中心频率的距离。Channel spacing。

对于测试信号功率来说,只需要设置第二项信道带宽即可,特别注意,要调RBW带宽设置为合适值(一般设置为几十KHz),但是对于TDD系统如果只做这些设置,会发现频谱仪的谱是一直在闪的,测试出的功率度数一直在变,此时需要将SWEEP TIME改变一下,将扫描时间加大,信号谱会变得比较稳定,测试过程中还可以将检波模式改为RMS,操作步骤TRACE-DETECTOR—RMS,频谱会更加稳定。下图16为一信号的测试结果。

图16、发射功率测试图

六、时域功率检测法

频谱仪都有一个时域测试方法,一般不常用,频谱仪当SPAN设置为0时,频谱仪就会变为功率随时间的变化图,设置方法为SPAN-ZERO SPAN。

此方法测试时需要先知道信号带宽,因为时域显示的是一定带宽内信号的功率(带宽为RBW的带宽),频谱仪可以直接测试信号带宽(MEAS-channel bandwith-99% power bandwith),测试出信号带宽后,将RBW改为>=信号带宽值,将SWEEP TIME改一下,可以看到,信号功率随时间的变化曲线。有信号的时间的功率即为发射功率,无信号功率的时间段说明处于收状态或者未发信号。此方法测试时也可以将检波模式改为RMS同方法一中设置。

图17、功率时域法测试图

上图17可以很轻松读出发时隙时信号的功率值,同时可以看出信号的收发切换状态。

此外还有一种简单测试方法,可以测试功率,就是将RBW设置为>=信号带宽,SPAN设置为几个GHz,然后用频谱仪的PEAK功能。此方法测试有误差,实验得知误差在2dB左右。

综上,在仪器不全,或者外出设备维修时,一个手持频谱仪可以测试很多功能,很好的解决调试,测试问题,给射频工程师带来很多便利。

此文介绍了频谱仪的类型,原理,基本的测试功能,与时分系统的调制信号功率测试方法。后面有时间,会继续写用公式推导得出频谱仪代替噪声系数分析仪测试系统的噪声系数的方法,频谱仪代替示波器测试跳频时间,LTE的收发切换时间等等。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/386977.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-17
下一篇2023-05-17

发表评论

登录后才能评论

评论列表(0条)

    保存