怎样改善2G频段天线频段的EVM?

 上传我的文档
 下载
 收藏
个人理想:在教育天地里有一番大作为。教育理念:大爱育人
 下载此文档
正在努力加载中...
多频段手机天线的研究
下载积分:1500
内容提示:多频段手机天线的研究
文档格式:PDF|
浏览次数:72|
上传日期: 18:25:19|
文档星级:
该用户还上传了这些文档
多频段手机天线的研究
官方公共微信无线通信系统中宽带与多频段天线的研究_图文_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
无线通信系统中宽带与多频段天线的研究
上传于||暂无简介
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩123页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢一种FM天线的设计-技术文章-RF技术社区
一种FM天线的设计
发布时间: 09:31:59
来源:互联网
调频(FM)收音机在高保真音乐和语音广播中已经被采用好多年了,它能提供极好的声音质量、信号鲁棒性和抗噪声能力。最近,FM收音机开始越来越多地用于移动和个人媒体播放器中。然而,传统FM设计方法需要很长的天线,例如有线耳机,从而限制了许多没带有线耳机的用户。另外,随着无线使用模型在便携式设备中的不断普及,更多用户可以从使用其他类型FM天线的无线FM收音机中受益,且同时可利用无线耳机或扬声器来听声音。
本文将介绍一种FM收音机接收机解决方案,它将天线集成或嵌入在便携式设备内部,使得耳机线成为可选件。我们首先从最大化接收灵敏度讲起,然后介绍取得最大化灵敏度的方法,包括最大化谐振频率的效率,最大化天线尺寸,以及利用可调谐匹配网络最大化整个调频带宽上的效率。最后,本文还将给出可调谐匹配网络的实现方法。()
最大化灵敏度
灵敏度可以被定义为调频接收系统可以接收到的、同时能达到一定程度信噪比(SNR)的最小信号。这是调频接收系统性能的一个重要参数,它与信号和噪声都有关系。接收信号强度指示器(RSSI)只是指出了特定调谐频率点的射频信号强度,它并不提供有关噪声或信号质量的任何信息。在比较不同天线下接收机性能时,音频信噪比(SNR)也许是一个更好的参数。因此,想为聆听者带来高质量的音频体验,使SNR最大化非常重要。
天线是连接射频电路与电磁波的桥梁。就调频接收而言,天线就是一个变换器,即将能量从电磁波转换成电子电路(如低噪声放大器(LNA))可以使用的电压。调频接收系统的灵敏度直接与内部LNA接收的电压相关。为了最大化灵敏度,必须尽量提高这个电压。
市场上有各种各样的天线,包括耳机、短鞭、环路和芯片型天线等,但所有天线都可以用等效电路进行分析。图1给出了一种通用的等效天线电路模型:
在图1中,X可以是一个电容或一个电感。X的选择取决于天线拓扑,其电?(感抗或容抗)值与天线几何形状有关。损耗电阻Rloss与天线中以热能形式散发的功耗有关。幅射电阻Rrad与从电磁波产生的电压有关。为了便于说明,后文将以环路天线模型作为分析对象,同样的计算也可以用于其他类型的天线,如短的单极天线和耳机天线。()
图1:天线等效电路模型。
使谐振频率点的效率最大化
为了尽量提高天线转换出来的能量,可以使用一个谐振网络来抵消天线的电抗性阻抗,而这种阻抗会衰减天线传导到内部LNA的电压值。对电感性环路天线来说,电容Cres用来使天线在想要的频率点发生谐振:
&&&& (1)
谐振频率是指天线将电磁波转换成电压的效率最高的频率点。天线效率是Rrad上的功率与天线收到的总功率的比值,可以表示为Rrad/Zant,其中Zant是带天线谐振网络的天线阻抗。Zant表示为:
&&&& (2)
当天线处于谐振状态时,效率&可以表示为:
&&&& (3)
在其他频率点时效率为:
&&&& (4)
非谐振频率点的天线效率&要低于最大效率&res,因为此时的天线输入阻抗Zant要么是容性的,要么是感性的。
最大化天线尺寸
为了恢复所传输的射频信号,天线必须从电磁波里收集到尽可能多的能量,并高效地将电磁波能量转换成通过Rrad的电压。收集到的能量多少受制于便携式设备所使用天线的可用空间和大小。对于传统的耳机天线来说,它的长度可达到调频信号的四分之一波长,能收集到足够的能量并转换成内部LNA可用的电压。在这种情况下,最大化天线效率就不那么重要。
不过,由于便携式设备正变得更小更薄,留给嵌入式调频天线的空间已变得非常有限。虽然已尽量增加天线尺寸,但嵌入式天线收集到的能量仍非常小。因此在既不牺牲性能、又要使用较小的天线的情况下,提高天线效率&就变得非常重要。
利用可调匹配网络,使调频频段上的效率最大化
大多数国家的调频广播频段的频率范围是87.5MHz到108.0MHz。日本的调频广播频段是76MHz到90MHz。在一些东欧国家,调频广播频段是65.8MHz到74MHz。为了适应全球所有的调频频段,调频接收系统需要有40MHz的带宽。传统解决方案通常是将天线调谐在调频频段的中心频率。然而就如上述公式表明的那样,天线系统的效率是频率的函数。效率在谐振点达到最大值,当频率偏离谐振频率时,效率将下降。值得注意的是,由于全球调频频段的带宽达40MHz,当频率远离谐振频率点时天线效率将有显著下降。
例如,设定一个固定谐振频率98MHz,那么在该频率点可取得很高的效率,但其他频率点的效率将有显著下降,从而劣化了远离谐振频率点时的调频性能。
图2给出了固定谐振频率在频段中心(98MHz)时两种天线(耳机天线和短天线)的效率曲线。
图2:调频频段内的典型固定谐振天线性能。
从上图可以看出,98MHz点可以取得最佳效率,但频率越接近频带边缘效率下降越多。对耳机天线来说这不是什么大问题,因为这种天线尺寸能够在整个频率内收集到足够的电磁能量,并转换成较高的电压给射频接收器。然而,与较长的耳机天线相比,短天线尺寸小,收集到的能量也少,因此当频率远离谐振点时效率将迅速降低,也就是说使用固定谐振方案时频带边缘处的接收会产生问题,主要原因是短天线具有比耳机更高的&Q&值,从而在频带边缘时使效率发生陡峭下降。
Q是指品质因数,正比于单位时间内天线网络中存储的能量与损耗或幅射能量的比值。针对带天线谐振网络的上述天线等效电路而言,Q值满足:
&&&& (5)
与短天线相比,耳机天线尺寸较大,因此本身就具有较高的幅射电阻Rrad,从而导致Q值较低。由于嵌入式应用要求使用高Q值的短天线,效率陡降问题非常突出。
天线的Q值还与天线带宽有关,其关系可以表示为:
&&&& (6)
其中fc是谐振频率fc,BW是天线的3dB带宽。与较长的耳机天线相比,高Q值的短天线具有较小的带宽,因此在频带边缘的损耗较大。
为了克服高Q值固定谐振天线的带宽限制问题,可以用自调谐谐振电路将&固定谐振&改为&可调谐振&,使电路永远处于谐振频率点,从而最大化接收灵敏度。采用自调谐谐振天线可以获得较高的信噪比,因为来自谐振天线的增益可降低接收机的系统噪声系数,而嵌入式天线固有的高Q值又有助于滤除可能与本振谐波混合在一起的干扰。
可调匹配网络的实现
图3给出了支持嵌入式短天线的增强型调频接收机架构的概念性框图。&可调谐振&采用片上可调的变容二极管和调谐算法实现。
图3:Si4704/05的概念性框图。
上述设计使用了带数字信号处理器(DSP)的混合信号数字低中频架构,从而可实现包括嵌入式短天线的自调谐在内的先进的信号处理算法。天线算法自动根据设备的每个频率调谐点调整变容二极管的电容值,从而获取最佳性能。
举例来说,如果用户调谐到101.1MHz(图4中的电台1),天线算法将把天线电路谐振点调谐到101.1MHz,从而优化了101.1MHz点的天线效率和接收性能。当用户调谐到84.1MHz(图4中的电台2)时,天线算法随之重新调谐天线电路谐振点,从而使84.1MHz点的接收性能最优。
图4:可调谐振的好处。
利用调整后的频率调谐天线谐振点可在每个给定频率点提供最大效率,从而最大化整个调频频段上的接收信号强度。在采用可调谐振电路后,使用嵌入式天线的系统性能在整个频带上都有所提高。在指定频率点谐振天线还能衰减其他频率点的干扰,从而显著提高接收机的选择性,因此,使用这种带嵌入式天线的接收机用户还能更好地免受其他意外干扰源的干扰。这点在调频频带拥挤的市区尤其重要。
随着无线使用模型在便携式设备中越来越普及,更多的用户希望使用带嵌入式天线的无线调频收音机,同时用无线耳机或扬声器聆听节目。本文讨论了通过最大化灵敏度来改善使用嵌入式天线的调频接收效果的原理,并进一步讨论了实现方法。由于使用嵌入式天线的便携式设备上的可用空间非常有限,可以考虑采用自调谐谐振网络来最大化整个调频频带上接收机的灵敏度,从而保持短天线在每个频率点都有最大的效率。
Tel: 3-8070
备案号: 苏ICP备号-2Wi-Fi 和 4G 信号都是 2.4G 频段,为什么 Wi-Fi 的覆盖面和穿透力很差?
难道只是因为4g基站的辐射功率非常大吗?
首先纠正一个点,LTE不在2.4GHz频段上。但是LTE有在比WIFI更高的频段上工作的,比如2.5-2.6GHz频段,另外WIFI(802.11a/b/g/n/ac等等)的设计初衷就不是为了广域覆盖,而只是定位成小范围、热点式的覆盖,而LTE乃至2G/3G从设计初始就是为了实现广域、泛众式的覆盖,因此无论从协议上还是实际工程应用上,都会有明显的不同。个人觉得主要原因就是:发射功率。现网中,LTE FDD的RRU一个通道发射功率常见的为20W-40W左右(即约43-46dBm),一般为双通道(单载波,适配2×2MIMO)。LTE TDD的八通道RRU一个通道发射功率常见的为10W-16W/25W左右(即约40-42/44dBm,适配智能天线,10W/16W多为单载波,25W的则允许配置双载波)。而无线路由器的最大发射功率仅为20dBm(约0.1W,最大2×20MHz带宽,通俗理解就叫双载波吧)。所以从二者发射功率的对比上就可见一斑了。无线路由器工作在非授权频段,即2.4-2.4835GHz和5.725-5.850GHz。这些频段拥挤着大量的设备,大家各玩各的,缺乏有效的管理机制(比如WIFI中采用CSMA/CA,可以通俗理解为竞争机制,同频情况下,谁抢到了信道谁就先发送消息),因此带来大量同频干扰,影响了信道质量。所以需要要对发射功率进行限制,不然大家就都别用了。而LTE工作在授权频段,有严格的频段管理和划分,基站也都是运营商自己的,所以更多的是应对本运营商自己的基站间的同频干扰,而LTE采用了多种方法来协调和抗小区间的同频干扰,比如使用PCI码区分不同小区(cell),eICIC技术等等。天线。无线路由器使用的天线和基站天线也完全不是一个级别的天线,常见的无线路由器天线增益仅为3-5dBi。以下则为部分现网基站使用的天线:图中为Band1+Band3宽频定向板状天线参数图,可以看到天线增益为18dBi、±45度双极化。图中为Band1+Band3宽频定向板状天线参数图,可以看到天线增益为18dBi、±45度双极化。图中为某型号的智能天线参数图,标出了其增益参数和极化方向。图中为某型号的智能天线参数图,标出了其增益参数和极化方向。图中所示的是一款常见的基站用美化排气管式定向天线,长度超过2米,直径达十多公分,重达数十Kg。大家可以和自己家里无线路由器用的天线对比看看,图中所示的是一款常见的基站用美化排气管式定向天线,长度超过2米,直径达十多公分,重达数十Kg。大家可以和自己家里无线路由器用的天线对比看看,无线路由器那个“小吸管”天线根本和这个“长又粗”的不是一个level的好嘛!这样的天线不仅是可以保证基站的发射功率能够得到较好的增益从而能更好的覆盖,也能更好的接收终端发来的微弱的信号。所以值得注意的是,高增益的天线不仅是对发送有利,对接收也是很有利的。无论2G、3G还是LTE,终端受限于电池容量和降低干扰等因素,发射功率都远远不如基站,比如GSM900终端最高发射功率为33dBm(约2W),GSM1800最高为30dBm(约1W),WCDMA仅为21-24dBm(约0.125-0.25W),LTE也仅为23dBm(约0.2W),而实际使用中很少能有达到满功率发射的状态。因此基站就需要有一副“好耳朵”来更好的“接听”终端发过来的微弱的“声音”,而以上的这些天线,就是基站的“好耳朵”。频段和多种组网方式。LTE目前有低频段的(Band3和Band39),比2.4GHz频段上的WIFI要低,这也有优势。目前LTE中主要还是沿用了传统的室外宏站+室分的覆盖方式,进一步保证了信号的覆盖。其他的诸如femtocell目前由于各种原因所以运用得比较少,不过相信随着技术和市场的发展,这些先进的组网技术会得到规模应用的。另外基站属于工业设备,其所采用的算法、芯片等等都是性能强劲,非小小的无线路由器可比拟的。比如Qualcomm公司专为基站设计的CSM/FSM系列芯片组和同为该公司旗下的为家用无线路由器设计的Atheros系列芯片组,针对不同的需求,就各自存在不同的差异。其他的还包括接收机和协议上的处理等等就不?嗦了,以上的原因就足够LTE的覆盖能远远甩开WIFI了。
在2.4GHz这个频段,设备的最大发射功率不能超过100mw,也就是20dBm。所以,所有wifi设备,无论路由器还是无线网卡,20dBm都是上限。LTE的基站比较复杂,不考虑,UE的最大功率限制应该是23dBm,也就是200mw。单看功率,最大差了一倍,其实也不是太大。p.s. 我主要说了上行。大家都在讲基站的大发射功率(也就是下行传输),但是,40多dbm那个是宏基站,是要覆盖100km级别的啊,而此时,手机的上限还是23dbm。难道上行传输不是更有趣么。为何wifi穿透(覆盖)能力差这么多?1. 2.4G是开放频段,普通4G基站是不会在2.4GHz工作的。由于是开放频段,WIFI设备面对各种干扰,信噪比水平不会太高。而LTE划分的是专用频段,几乎不会受到其余系统的干扰,只需要考虑小区间干扰。中国移动频段为: MHz、 MHz、 MHz;(bands:39 bands:40 bands:41)中国联通频段为: MHz、 MHz;(bands:40 bands:41)中国电信频段为: MHz、 MHz;(bands:40 bands:41)2. LTE基站的接收能力远大于家用无线路由器,从天线数目,前段硬件水平,基带信号处理,全面超越。3. LTE有各种小基站(femtocell,picocell, nanocell, microcell,这三个英文名很有意思),中继(relay)。不同小区还可以comp。4. LTE用户多了,可以在调度中达到多用户分集。P.S. femtocell, picocell, nanocell, microcell,这四个英文名很有意思,飞,皮,纳,微。最早出现的micro是对应于macro,而后的nano, pico, femto感觉就走偏了。但是nanocell貌似和一个公司名字冲突了(?)
***本身很简单,主要原因就是WiFi的发射功率远小于LTE。这就导致在衰减系数相同的情况下,LTE的信号能量仍然大于WiFi。但为了更加深入细致的解释两种协议工作下的发射功率不同的原因,就需要先了解LTE和WiFi在工作协议上的不同。这两者最本质的区别就是LTE是基站进行中心控制,而WiFi是分布式控制,没有中心节点。名词介绍:1)信道也称作通道(Channel)或频段,是以无线信号(电磁波)作为传输载体的数据信号传送通道。在无线信号覆盖范围内的各种无线网络设备应该尽量使用不同的信道,以避免信号之间的干扰。2)MIMO(Multiple-Input
Multiple-Output)技术指在发射端和接收端分别使用多个发射天线和接收天线,使信号通过发射端与接收端的多个天线传送和接收,从而改善通信质量。如图1所示,TX和RX分别代表发送端和接收端。图1.a)SISO:单输入单输出;b)单输入多输出;c)单输入多输出;d)多输入多输出可见MIMO情况下有4条链路,而单天线系统下的SISO仅仅只有1条链路,通过空时编码和空时解码,MIMO技术相比SISO可以有更好的信号质量和更大的覆盖范围。1.LTE工作机理简介
LTE(Long Term Evolution, 长期演进)最初是第三代移动通信向第四代移动通信过度升级过程中的演进标准,包括LTE FDD(频分双工)和LTE TDD(时分双工)两种模式。中国于2013年年底开始运营的4G系统就是基于LTE TDD(简称为TD-LTE标准)的移动通信系统。在设计之初,就对LTE的覆盖性能提出了比较高的要求:
1)针对覆盖半径小于5公里的场景优化设计
2)针对覆盖半径在5公里至30公里之间的场景,允许性能略有下降
3)在覆盖半径30公里至100公里之间的场景,应该仍能工作。为了实现上述三个不同覆盖场景下的要求,在OFDM中采用了长短两种CP长度,以适应不同的覆盖范围。同时下行运用2*2MIMO(多输入多输出,物理实现方式为多根发送天线和多根接收天线),并进行高阶QAM调制,使得在20MHz带宽下,下行峰值速率为100Mb/s(注:实际中,要达到这样的理论速率,要求整个小区里就你一个用户,且信号质量极好)。然后我们来介绍LTE中的多用户调度技术,即根据每个用户的信道状况,给用户分配合适的资源块,对其使用合适的编码调制方式进行调制。其中最核心的问题表示调度准则问题,目前有以下算法:
1)最大吞吐量:MAX C/I算法,其原理是在每一个资源块(信道)上,选择信道条件最好的用户。
2)最公平:轮训算法(Round Robin,RR),不管用户的信道条件好花哦,统一按照固定顺序分配资源块。
3)比例公平(Proportional Fair),兼顾吞吐量和公平性,并在两者之间进行折中。通过以上的简单介绍和科普,我们可以得知,LTE再设计之初就对覆盖半径有着比较高的要求。同时在LTE协议中,资源块(信道)为基站按照一定的调度准则分配给用户。这样使得不同用户使用不同的信道,避免同频干扰。2.WiFi工作机理简介
WiFi(WIreless-FIdelity)为分布式控制,同时民用的WiFi由于不需要牌照,使用的是公用的ISM频段(2.4GHz),所受到的干扰相比LTE更为复杂。WiFi在工作中为了避免不同用户之间的冲突,采用了CSMA/CA(Carrier
Sense Multiple Access with Collision Avoidance)或者DCF(Distributed
Coordination Function)协议。在此仅对CSMA/CA做进一步介绍和阐述。首先先介绍CSMA(注意,此处没有CA)图2 两种CSMA机制介绍CSMA机制简单实用,但实际中会产生两个问题:1)隐藏终端和2)暴露终端。图3 隐藏终端示意图当节点A向节点B发送数据时,由于阻挡等原因,节点C无法***到A发出的数据信号,因此节点C认为信道空闲并向节点B发出数据,来自A和C的数据信号在节点B处冲突,造成接收失败。图4 暴露终端当节点C向节点D发送数据时,节点B同时可以***到C发出的数据,从而认为信道忙、处于“避让”状态,进而B无法向A发出数据,造成信道浪费。如果节点C的发送功率越大,则对B的影响越大,会降低系统性能。CSMA/CA-载波侦听多址接入/碰撞避免(Carrier Sense
Multiple Access / Collision Avoidance)协议,是IEEE802.11 DCF的工作 模式,采用RTS/CTS机制解决了隐藏终端问题。图5 隐发送节点藏终端问题解决示意图a)A发出RTS (Request-to-Send),A的所有邻居节点***到RTS后认为“信道忙”。b)接收节点B发出CTS
(Clear-to-Send),B的所有邻居节点***到CTS后认为“信道忙”。c)RTS/CTS中包含本次数据传输所需要的信道占用时间N***,在这段时间内,与A和B相邻的所有节点均保持静默,以避免对A和B之间的数据传输的干扰。图6 RTS/CTS协议图在数据传输开始前,发送节点A和接收节点B通过RTS/CTS接入信道,A的邻居节点C接收到RTS获知本次传输所需时间N***,B的邻居节点D接收到CTS获知N***信息,因此C和D均在N***时间内保持静默,直到传输完毕。节点A和节点B接入信道后,开始传输数据,当节点A将数据包发送完毕后,节点B回应ACK包,对数据传输进行确认,以确保传输有效性。CSMA/CA的吞吐量公式如下:图7 吞吐量随包规模和节点数量的变化如图所示,节点数量(M)越多,竞争冲突概率越大,信道利用率下降。所以如果两台AP(例:路由器)及其用户都在同一覆盖区域,那么这两个WLAN网络之间必定存在信道竞争。由于WiFi采用CSMA/CA机制,所以同一区域内,WiFi同信道设备越多,竞争就越激烈,竞争开销就越大,实际可享用带宽就越小。所以在AP部署时,要注意将同一信道AP的位置错开,且同信道的AP不要距离过近。通过以上的简单介绍和科普,我们可以得知,WiFi为无中心控制,依靠载波***技术消除干扰。也就是说,任何一台接入WiFi的设备,都会对其覆盖范围内的其他设备,直接或间接地产生干扰。因此得到以下结论:WiFi设备的发射功率和覆盖范围越大,对其他用户的干扰越大。最后再重复一下问题的***:Wi-Fi 和 4G 信号都是 2.4G 频段,为什么 Wi-Fi 的覆盖面和穿透力很差?
1)在设计之初,LTE使用场景的覆盖半径就要比WiFi大。
2)WiFi覆盖范围越大,由于隐藏终端问题,会产生更多干扰,降低用户体验。
3)为了降低覆盖范围,人们刻意限制了WiFi的发送功率和天线结构。
4)如果WiFi和LTE工作功率相同且使用相同天线技术时,穿透力不会存在明显差别。5)无论何种无线通信协议和机制,其传输媒介都是电磁波;一般区分电磁波的参数只有波长,相同波长的电磁波物理性质完全一样。打个比方,就如同胡萝卜和苹果里提取出的维生素C的分子是完全相同的。参考资料[1]曹志刚,《现代通信原理》,清华大学出版社[2]课程《无线通信工程》教学课件,清华大学电子工程系【“科研君”公众号初衷始终是希望聚集各专业一线科研人员和工作者,在进行科学研究的同时也作为知识的传播者,利用自己的专业知识解释和普及生活中的 一些现象和原理,展现科学有趣生动的一面。该公众号由清华大学一群在校博士生发起,目前参与的作者人数有10人,但我们感觉这远远不能覆盖所以想科普的领域,并且由于空闲时间有限,导致我们只能每周发布一篇文章。我们期待更多的战友加入,认识更多志同道合的人,每个人都是科研君,每个人都是知识的传播者。我们期待大家的参与,想加入我们,进QQ群吧~:】【非常高兴看到大家喜欢并赞同我们的回答。应许多知友的建议,最近我们开通了同名公众号:PhDer,也会定期更新我们的文章,如果您不想错过我们的每篇回答,欢迎扫码关注~ 】 (二维码自动识别)
从无线链路预算的角度,所谓的覆盖面积和穿透力主要取决于以下几个因素:1,基站或AP的发射功率,发射功率越高,覆盖面积越远。4G宏站的功率至少都在20W以上,室内Femtocell发射功率也在100mw以上2,天线数量,如果天线配置为发射分集模式,能有效提高覆盖面积。4G基站的发射分集能力能有效保证小区边缘的信号质量3,终端的接收能力,即终端天线的接收灵敏度。目前4G终端的接收机灵敏度至少都比内置的WiFi的接收机灵敏度高不止10个dB,这在2.4GHz频段上,覆盖距离差3倍4, 4G终端至少支持两天线的接收分集,能有效提高覆盖能力
首先说一句,这个问题是个伪问题:。WIFI一开始诞生是作为WPAN(无线个人网络)来应用的。所以从硬件上就没有做太多的对coverage考虑,但是并不代表WIFI本身不具备这种能力。至于怎么做,或者是哪些原因,很多人都回答了。
有很多***都在扯功率,我可以负责任地告诉你问题的关键根本不是功率。复杂链路预算就不摆上来了,信号从外面穿进到你家里时的强度远低于一旁的路由器。那原因是什么?1.4g是专用网络,信号的干扰得到严格控制,wifi所用频段是公共的,你用他也用,信噪比很差。2.基站设备强大的能力,基站侧用的射频、接受设备都是通信级的,你的信号强度低于--115dbm,只要没干扰它都能解出来。大天线、rru、塔放都有上行增益,动则几十斤的设备不是一个无线路由器能比的。
因为供应商会***用来增强4G信号覆盖的设备。比如一栋楼,由基站引过来一台BBU,而一台BBU又会级联很多RRU,RRU分布在各个楼层,使得TD/LTE信号覆盖的很均匀。而WIFI,只有一个路由器。蓝牙也是用的2.4G频段。你看它信号也很弱吧。原因就是没有信号放大的设备。(刚入通信行业不足2个月的门外汉,如有错误,还望各位大神轻喷)
首先严重不同意频段干扰,WiFi虽然用的是不同频段,目前的情况下频段干扰根本不是传输距离小的原因。以下内容为个人思考,不求千真万确,只为抛砖引玉。1、协议的本质差异。无线基站通信首先要克服的是什么?就是长距离瑞利衰落,所以基站通信协议和802.11一开始的初衷不同,在无线基站通信中,用到了大量的中继技术来克服信号衰减,能够保持信号不中断,哪怕很弱很弱。而wifi要解决的最大问题是什么?信道容量!所以wifi一开始就是设计为短距离无线通信,因为它的带宽比3G、4G都要大,同样802.11ac也没有过分的强调传输距离,而是把频段拉到5GHz,增大带宽。
以上这些的不同造成了一种现象:3G、4G在远距离时虽然能够通信,但是速度非常低,这是由于信号衰减所致;而wifi能连上速度就很快,连不上或者信号低就无法通信。假如把信号强度分为1-9的话,在强度为9的时候4g和wifi都能通信,但是降到5的时候,wifi就停止通信,而4g依然保持低速率通信。相对而言,wifi只存在通信和不通信,而基站通信则按强度分为高速率和低速率通信。2、频段没你想的那样。
电信cdma2000用的是800M的频段,信号好的一塌糊涂,商务必备,但是由于频段低带宽容量就会小,导致电信网速很难超过300k,但是稳定在100k,所以才会有信号好一说。而且由于cdma的独特原理,在信号传输上有很大的优势。但是,信号牛逼是一说,cdma演变到FDD一样要拉高频段,否则容量上不来。所以高频段是4G的硬需,为了克服高频段衰减,4G的基站密度要求十分之高,基本和wifi差不多了,这也是为什么4g从城市包围农村,先在深圳北京做试点,因为人口聚集啊地方小啊(深圳和我家乡县城差不多大),乡下的话,十分坑爹,就我老家来说,目前最牛逼的还是电信3g,移动4g没信号。
4g速度被吹牛逼吹大了,什么cat6 300Mbps,商用是不可能的,中国形势下,能有800k/s就谢天谢地了,但是wifi可以很轻松的逼近实验室标准,这对于未来几年的智能家居来说尤为重要。目前你用的4g大多是中国移动的,4g中国移动共获得130MHz,分别为 MHz、 MHz、 MHz。据我所知,目前移动多数4g频段是前两个频段,只能说相比wifi频段,还稍微低那么一点。3、组网方式不同。基站通信是由巨大的多个基站组成一个无线通信蜂窝网,路由器只有一个。 同时,基站原理和无线路由器太多不同,距离和容量是两个矛盾的需求。移动4g对算法优化已经达到极限了,再增加容量的方法只有一个,多建基站,多复用。wifi则没有复用需求。
4、发射方式不同。 基站高度高,功率大,决定了其衍射范围广;而无线路由器一般家中使用,高度、障碍物都阻碍了信号传播,功率更是弱的一b。 信号差的同学可以尝试把路由器放高点,搁柜子上。后记:人多的地方,4G一样很慢,现在用4g的还不多,等到多起来,马上就回落到3g水平。目前4g测试不太标准,人少地方空旷。不信你换个地铁口,商城步行街之类的。我上次美食节去深圳东门,人挤人,4g信号满满,就是没速率。 无线通信方式各有所长,互有借鉴,蓝牙红外也是2.4g,速率也很弱,nfc也特别弱,很多时候,速率是权衡过后的一个结果,速率大,功率就要大(不是线性),那么就满足不了低功耗。
至于借鉴,实在是太普遍了,典型的例子,ofdm和mimo原本是802.11标准,后来运用到了3g和4g。
根据自由空间损耗公式:空间损耗=20lg(F)+20lg(D)+32.4 很明显根据常识 距离也就是D越大 损耗越大而且公式很明显的告诉大家 信号的频率F越大也会导致空间损耗的加大这里说的2.4G Hz显然不是最大的频段 但是相对于2G 和3G来说空间损耗的加大也是很明显的 同理3G也比2G的船覆盖面要窄至于穿透能力 我们一般讨论的是衍射能力吧即一堵墙中间出现了一道缝隙 信号是否可以穿透进去那根据速率=频率*波长可以知道 因为速率在理想环境下指的就是光速那速率固定波长和频率成反比 频率越大波长就越小而初中时候老师就教过 波长也大衍射才越容易发生吧 以上是我的理解 如果有些说的不对 还请指正
楼上几位提到了功率大小等对信号覆盖的影响。我增加一个观点:信号质量的要求,准确说是cellular系统和wifi系统对信号质量的要求不同。以手机终端为例,一般cellular LTE 的发射功率为23dBm,WIFI的发射功率为20dBm。两者的发射功率差异只有一倍,并没有两种系统的覆盖距离差异明显。可见功率大小并非唯一影响覆盖距离的因素。cellular系统和wifi系统对信号质量的要求不同在这种情况下是主要因素:1.从下行看,cellular系统基站的接收灵敏度和WiFi路由器接收灵敏度差别可不是一点点,具体参数前面知友的***中有。这使得cellular系统可以比WIFI系统解调出更低功率和更低信噪比的信号。从而获得更远的覆盖距离。2.从上行看,cellular LTE系统的终端发射信号的调制方式采用QPSK和16QAM, 802.11ac采用256QAM.结合星座图可知解调时高阶调制抗干扰能力不如低阶调制。这也使得cellular系统可以获得比WIFI系统更好的覆盖距离。深夜手机码字,没有图片和排版。见谅!
已有帐号?
无法登录?
社交帐号登录

参考资料

 

随机推荐