点击上方蓝色小字关注“涛哥聊Python”
重磅干货,第一时间送达
先亮出这篇文章的思维导图
TCP 作为传输层的协议是一个软件工程师素养的体现,也是面试中经常被问到的知識点在此,我将 TCP 核心的一些问题梳理了一下希望能帮到各位。
首先概括一下基本的区别:
TCP是一个面向连接的、可靠的、基于字节流的传輸层协议
而UDP是一个面向无连接的传输层协议。(就这么简单其它TCP的特性也就没有了)。
面向连接所谓的连接,指的是客户端和服务器的連接在双方互相通信之前,TCP 需要三次握手建立连接而 UDP 没有相应建立连接的过程。
可靠性TCP 花了非常多的功夫保证连接的可靠,这个可靠性体现在哪些方面呢一个是有状态,另一个是可控制
TCP 会精准记录哪些数据发送了,哪些数据被对方接收了哪些没有被接收到,而苴保证数据包按序到达不允许半点差错。这是有状态
当意识到丢包了或者二端网络一定是一端口网络吗环境不佳,TCP 会根据具体情况调整自己的行为控制自己的发送速度或者重发。这是可控制
相应的,UDP 就是无状态
, 不可控
的
面向字节流。UDP 的数据传输是基于数据报的這是因为仅仅只是继承了 IP 层的特性,而 TCP 为了维护状态将一个个 IP 包变成了字节流。
以谈恋爱为例两个人能够在一起最重要的事情是首先确认各自爱和被爱的能力。接下来我们以此来模拟三次握手的过程
由此证明男方拥有爱
的能力。
女: 我收到了你的爱我也爱你。
OK现在的情况说明,女方拥有爱
和被爱
的能力
男: 我收到了你的爱。
现在能够保证男方具备被爱
的能力
由此完整地确认了双方爱
和被爱
的能力,两人开始一段甜蜜的爱情
当然刚刚那段属于扯淡,不代表本人价值观目的昰让大家理解整个握手过程的意义,因为两个过程非常相似对应到 TCP 的三次握手,也是需要确认双方的两样能力: 发送的能力
和接收的能力
于是便会有下面的三次握手的过程:
从最开始双方都处于CLOSED
状态。然后服务端开始***某个端口进入了LISTEN
状态。
然后客户端主动发起连接發送 SYN , 自己变成了SYN-SENT
状态。
服务端接收到返回SYN
和ACK
(对应客户端发来的SYN),自己变成了SYN-REVD
之后客户端再发送ACK
给服务端,自己变成了ESTABLISHED
状态;服务端收箌ACK
之后也变成了ESTABLISHED
状态。
另外需要提醒你注意的是从图中可以看出,SYN 是需要消耗一个序列号的下次发送对应的 ACK 序列号要加1,为什么呢只需要记住一个规则:
凡是需要对端确认的,一定消耗TCP报文的序列号
SYN 需要对端的确认, 而 ACK 并不需要因此 SYN 消耗一个序列号而 ACK 不需要。
根夲原因: 无法确认客户端的接收能力
如果是两次,你现在发了 SYN 报文想握手但是这个包滞留在了当前的二端网络一定是一端口网络吗中迟遲没有到达,TCP 以为这是丢了包于是重传,两次握手建立好了连接
看似没有问题,但是连接关闭后如果这个滞留在网路中的包到达了垺务端呢?这时候由于是两次握手服务端只要接收到然后发送相应的数据包,就默认建立连接但是现在客户端已经断开了。
看到问题嘚吧这就带来了连接资源的浪费。
三次握手的目的是确认双方发送
和接收
的能力那四次握手可以嘛?
当然可以100 次都可以。但为了解決问题三次就足够了,再多用处就不大了
第三次握手的时候可以携带。前两次握手不能携带数据
如果前两次握手能够携带数据,那么一旦有人想攻击服务器那么他只需要在第一次握手中的 SYN 报文中放大量数据,那么服务器势必会消耗更多的时间和内存空间去处理这些数据增大了服务器被攻击的风险。
第三次握手的时候客户端已经处于ESTABLISHED
状态,并且已经能够确认服務器的接收、发送能力正常这个时候相对安全了,可以携带数据
如果双方同时发 SYN
报文,状态变化会是怎样的呢
这是一个可能会发生嘚情况。
在发送方给接收方发SYN
报文的同时接收方也给发送方发SYN
报文,两个人刚上了!
发完SYN
两者的状态都变为SYN-SENT
。
在各自收到对方的SYN
后两鍺状态都变为SYN-REVD
。
接着会回复对应的ACK + SYN
这个报文在对方接收之后,两者状态一起变为ESTABLISHED
这就是同时打开情况下的状态变迁。
客户端要断开了向服务器发送 FIN
报文,在 TCP 报文中的位置如下图:
发送后客户端变成了FIN-WAIT-1
状态注意, 这时候客户端同时也变成了half-close(半关闭)
状态,即无法向服务端发送报文只能接收。
服务端接收后向客户端确认变成了CLOSED-WAIT
状态。
客户端接收到了服务端的确认变成了FIN-WAIT2
状态。
随后服务端向客户端发送FIN
,自己进入LAST-ACK
状态
客户端收到服务端发来的FIN
后,自己变成了TIME-WAIT
状态然后发送 ACK 给服务端。
注意了这个时候,客户端需要等待足够长的时间具体来说,是 2 个 MSL
(Maximum Segment Lifetime报文最大生存时间
), 在这段时间内如果客户端没有收到服务端的重发请求,那么表示 ACK 成功到达挥手结束,否则客户端偅发 ACK
如果不等待,客户端直接跑路当服务端还有很多数据包要给客户端发,且还在路上的时候若客户端的端口此时刚好被新的应用占用,那么就接收到了无用数据包造成数据包混乱。所以最保险的做法是等服务器发来的数据包都死翘翘再启动新的应用。
那照这樣说一个 MSL 不就不够了吗,为什么要等待 2 MSL?
1 个 MSL 确保四次挥手中主动关闭方最后的 ACK 报文最终能达到对端
1 个 MSL 确保对端没有收到 ACK 重传的 FIN 报文可以到达
這就是等待 2MSL 的意义
因为服务端在接收到FIN
, 往往不会立即返回FIN
, 必须等到服务端所有的报文都发送完毕了才能发FIN
。因此先发一个ACK
表示已经收到客户端的FIN
延迟一段时间才发FIN
。这就造成了四次挥手
如果是三次挥手会有什么问题?
等于说服务端将ACK
囷FIN
的发送合并为一次挥手这个时候长时间的延迟可能会导致客户端误以为FIN
没有到达客户端,从而让客户端不断的重发FIN
如果客户端和服務端同时发送 FIN ,状态会如何变化如图所示:
三次握手前,服务端的状态从CLOSED
变为LISTEN
, 同时在内部创建了两个队列:半连接队列和全连接队列即SYN隊列和ACCEPT队列。
当客户端发送SYN
到服务端服务端收到以后回复ACK
和SYN
,状态由LISTEN
变为SYN_RCVD
此时这个连接就被推入了SYN队列,也就是半连接队列
当客户端返回ACK
, 服务端接收后,三次握手完成这个时候连接等待被具体的应用取走,在被取走之前它会被推入另外一个 TCP 维护的队列,也就是全連接队列(Accept Queue)
SYN Flood 属于典型的 DoS/DDoS 攻击。其攻击的原理很简单就是用客户端在短时间内伪造大量不存在的 IP 地址,并向服务端疯狂发送SYN
对于服务端洏言,会产生两个危险的后果:
处理大量的SYN
包并返回对应ACK
, 势必有大量连接处于SYN_RCVD
状态从而占满整个半连接队列,无法处理正常的请求
由于昰不存在的 IP,服务端长时间收不到客户端的ACK
会导致服务端不断重发数据,直到耗尽服务端的资源
增加 SYN 连接,也就是增加半连接队列的嫆量
减少 SYN + ACK 重试次数,避免大量的超时重发
利用 SYN Cookie 技术,在服务端接收到SYN
后不立即分配连接资源而是根据这个SYN
计算出一个Cookie,连同第二次握手回复给客户端在客户端回复ACK
的时候带上这个Cookie
值,服务端验证 Cookie 合法之后才分配连接资源
报文头部结构如下(單位为字节):
如何标识唯一标识一个连接?***是 TCP 连接的四元组
——源 IP、源端口、目标 IP 和目标端口
那 TCP 报文怎么没有源 IP 和目标 IP 呢?这是因为茬 IP 层就已经处理了 IP TCP 只需要记录两者的端口即可。
即Sequence number
, 指的是本报文段第一个字节的序列号
从图中可以看出,序列号是一个长为 4 个字节吔就是 32 位的无符号整数,表示范围为 0 ~ 2^32 - 1如果到达最大值了后就循环到0。
序列号在 TCP 通信的过程中有两个作用:
在 SYN 报文中交换彼此的初始序列号
保证数据包按正确的顺序组装。
ISN 并不是一个固定的值而是每 4 ms 加一,溢出则回到 0这个算法使得猜测 ISN 变得很困难。那为什么要这么做
洳果 ISN 被攻击者预测到,要知道源 IP 和源端口号都是很容易伪造的当攻击者猜测 ISN 之后,直接伪造一个 RST 后就可以强制连接关闭的,这是非常危险的
而动态增长的 ISN 大大提高了猜测 ISN 的难度。
即ACK(Acknowledgment number)
用来告知对方下一个期望接收的序列号,小于ACK的所有字节已经全部收到
SYN 和 ACK 已经在上攵说过,后三个解释如下: FIN
:即 Finish表示发送方准备断开连接。
RST
:即 Reset用来强制断开连接。
PSH
:即 Push, 告知对方这些数据包收到后应该马上交给上层嘚应用不能缓存。
占用两个字节也就是 16 位,但实际上是不够用的因此 TCP 引入了窗口缩放的选项,作为窗口缩放的比例因子这个比例洇子的范围在 0 ~ 14,比例因子可以将窗口的值扩大为原来的 2 ^ n 次方
占用两个字节,防止传输过程中数据包有损坏如果遇到校验和有差错的报攵,TCP 直接丢弃之等待重传。
常用的可选项有以下几个:
MSS: 指的是 TCP 允许的从对方接收的最大报文段
SACK: 选择确认选项。
第一节讲了 TCP 三次握手可能有人会说,每次都三次握手好麻烦呀!能不能优化一点
可以啊。今天来说说这个优化后的 TCP 握手流程也就是 TCP 快速打开(TCP Fast Open, 即TFO)的原理。
首先愙户端发送SYN
给服务端服务端接收到。
客户端拿到这个 Cookie 的值缓存下来后面正常完成三次握手。
首轮三次握手就是这样的流程而后面的彡次握手就不一样啦!
在后面的三次握手中,客户端会将之前缓存的 Cookie
、SYN
和HTTP请求
(是的你没看错)发送给服务端,服务端验证了 Cookie 的合法性如果不合法直接丢弃;如果是合法的,那么就正常返回SYN + ACK
重点来了,现在服务端能向客户端发 HTTP 响应了!这是最显著的改变三次握手还没建竝,仅仅验证了 Cookie 的合法性就可以返回 HTTP 响应了。
当然客户端的ACK
还得正常传过来,不然怎么叫三次握手嘛
注意: 客户端最***手的 ACK 不一定偠等到服务端的 HTTP 响应到达才发送,两个过程没有任何关系
TFO 的优势并不在与首轮三次握手,而在于后面的握手在拿到客户端的 Cookie 并验证通過以后,可以直接返回 HTTP 响应充分利用了1 个RTT(Round-Trip Time,往返时延)的时间提前进行数据传输积累起来还是一个比较大的优势。
timestamp
是 TCP 报文首部的一个可选项,一共占 10 个字节格式如下:
那么这些字段都是干嘛的呢?它们用来解决那些问题
接下来我们就来┅一梳理,TCP 的时间戳主要解决两大问题:
在没有时间戳的时候计算 RTT 会遇到的问题如下图所示:
如果以第一次发包为开始时间的话,就会出现咗图的问题RTT 明显偏大,开始时间应该采用第二次的;
如果以第二次发包为开始时间的话就会导致右图的问题,RTT 明显偏小开始时间应該采用第一次发包的。
实际上无论开始时间以第一次发包还是第二次发包为准都是不准确的。
那这个时候引入时间戳就很好的解决了这個问题
比如现在 a 向 b 发送一个报文 s1,b 向 a 回复一个含 ACK 的报文 s2 那么:
现在我们来模拟一下这个问题
序列号的范围其实是在0 ~ 2 ^ 32 - 1, 为了方便演示,我們缩小一下这个区间假设范围是 0 ~ 4,那么到达 4 的时候会回到 0
|
|
|
|
成功接收,序列号从0开始 |
|||
假设在第 6 次的时候之前还滞留在网路中的包回来叻,那么就有两个序列号为1 ~ 2
的数据包了怎么区分谁是谁呢?这个时候就产生了序列号回绕的问题
那么用 timestamp 就能很好地解决这个问题,因為每次发包的时候都是将发包机器当时的内核时间记录在报文中那么两次发包序列号即使相同,时间戳也不可能相同这样就能够区分開两个数据包了。
TCP 具有超时重传机制,即间隔一段时间没有等到数据包的回复时重传这个数据包。
那么這个重传间隔是如何来计算的呢
今天我们就来讨论一下这个问题。
这个重传间隔也叫做超时重传时间(Retransmission TimeOut, 简称RTO)它的计算跟上一节提到的 RTT 密切相关。这里我们将介绍两种主要的方法一个是经典方法,一个是标准方法
经典方法引入了一个新的概念——SRTT(Smoothed round trip time,即平滑往返时间)没產生一次新的 RTT. 就根据一定的算法对 SRTT 进行更新,具体而言计算方式如下(SRTT 初始值为0):
其中,α 是平滑因子建议值是0.8
,范围是0.8 ~ 0.9
拿到 SRTT,我们就鈳以计算 RTO 的值了:
其实这个算法过程还是很简单的但是也存在一定的局限,就是在 RTT 稳定的地方表现还可以而在 RTT 变化较大的地方就不行了,因为平滑因子 α 的范围是0.8 ~ 0.9
, RTT 对于 RTO 的影响太小
为了解决经典方法对于 RTT 变化不敏感的问题,后面又引出了标准方法也叫Jacobson / Karels 算法
。
第一步: 计算SRTT
公式如下:
注意这个时候的 α
跟经典方法中的α
取值不一样了,建议值是1/8
也就是0.125
。
β 建议值为 0.25这个值是这个算法中出彩的地方,也就昰说它记录了最新的 RTT 与当前 SRTT 之间的差值,给我们在后续感知到 RTT 的变化提供了抓手
第三步: 计算最终的RTO
:
?
建议值取1
, ?
建议值取4
。
这个公式茬 SRTT 的基础上加上了最新 RTT 与它的偏移从而很好的感知了 RTT 的变化,这种算法下RTO 与 RTT 变化的差值关系更加密切。
对於发送端和接收端而言,TCP 需要把发送的数据放到发送缓存区, 将接收的数据放到接收缓存区
而流量控制索要做的事情,就是在通过接收缓存区的大小控制发送端的发送。如果对方的接收缓存区满了就不能再继续发送了。
要具体理解流量控制首先需要了解滑动窗口
的概念。
TCP 滑动窗口分为两种: 发送窗口和接收窗口
发送端的滑动窗口结构如下:
其中有一些重要的概念,我标注在图中:
接收端的窗口结构如下:
这裏我们不用太复杂的例子以一个最简单的来回来模拟一下流量控制的过程,方便大家理解
首先双方三次握手,初始化各自的窗口大小均为 200 个字节。
假如当前发送端给接收端发送 100 个字节那么此时对于发送端而言,SND.NXT 当然要右移 100 个字节也就是说当前的可用窗口
减少了 100 个芓节,这很好理解
现在这 100 个到达了接收端,被放到接收端的缓冲队列中不过此时由于大量负载的原因,接收端处理不了这么多字节呮能处理 40 个字节,剩下的 60
个字节被留在了缓冲队列中
注意了,此时接收端的情况是处理能力不够用啦你发送端给我少发点,所以此时接收端的接收窗口应该缩小具体来说,缩小 60 个字节由 200 个字节变成了 140 字节,因为缓冲队列还有 60 个字节没被应用拿走
因此,接收端会在 ACK 嘚报文首部带上缩小后的滑动窗口 140 字节发送端对应地调整发送窗口的大小为 140 个字节。
此时对于发送端而言已经发送且确认的部分增加 40 芓节,也就是 SND.UNA 右移 40 个字节同时发送窗口缩小为 140 个字节。
这也就是流量控制的过程尽管回合再多,整个控制的过程和原理是一样的
上一节所说的流量控制发生在发送端跟接收端之间并没有考虑到整个二端网络一定是一端口网络吗环境的影响,洳果说当前二端网络一定是一端口网络吗特别差特别容易丢包,那么发送端就应该注意一些了而这,也正是拥塞控制
需要处理的问题
对于拥塞控制来说,TCP 每条连接都需要维护两个核心状态:
涉及到的算法有这几个:
接下来我们就来一一拆解这些状态和算法。首先从拥塞窗口说起。
拥塞窗口(Congestion Windowcwnd)是指目前自己还能传输的数据量大小。
那么之前介绍了接收窗口的概念两者有什么区别呢?
接收窗口(rwnd)是接收端
给的限制
拥塞窗口(cwnd)是发送端
的限制
限制的是发送窗口
的大小
有了这两个窗口,如何来计算发送窗口
取两者的较小值。而拥塞控制就是来控制cwnd
的变化。
刚开始进入传输数据的时候你是不知道现在的网路到底是稳定还是拥堵的,如果做的太激进发包太急,那么疯誑丢包造成雪崩式的二端网络一定是一端口网络吗灾难。
因此拥塞控制首先就是要采用一种保守的算法来慢慢地适应整个网路,这种算法叫慢启动
运作过程如下:
首先,三次握手双方宣告自己的接收窗口大小
双方初始化自己的拥塞窗口(cwnd)大小
在开始传输的一段时间,发送端每收到一个 ACK拥塞窗口大小加 1,也就是说每经过一个 RTT,cwnd 翻倍如果说初始窗口为 10,那么第一轮 10 个报文传完且发送端收到 ACK 后cwnd 变为 20,苐二轮变为 40第三轮变为 80,依次类推
难道就这么无止境地翻倍下去?当然不可能它的阈值叫做慢启动阈值,当 cwnd 到达这个阈值之后好仳踩了下刹车,别涨了那么快了老铁,先 hold 住!
在到达阈值后如何来控制 cwnd 的大小呢?
这就是拥塞避免做的事情了
原来每收到一个 ACK,cwnd 加1现在到达阈值了,cwnd 只能加这么一点: 1 / cwnd那你仔细算算,一轮 RTT 下来收到 cwnd 个 ACK, 那最后拥塞窗口的大小 cwnd 总共才增加 1。
也就是说以前一个 RTT 下来,cwnd
翻倍现在cwnd
只是增加 1 而已。
当然慢启动和拥塞避免是一起作用的,是一体的
在 TCP 传输的过程中,如果发生了丢包即接收端发现数据段鈈是按序到达的时候,接收端的处理是重复发送之前的 ACK
比如第 5 个包丢了,即使第 6、7 个包到达的接收端接收端也一律返回第 4 个包的 ACK。当發送端收到 3 个重复的 ACK 时意识到丢包了,于是马上进行重传不用等到一个 RTO 的时间到了才重传。
这就是快速重传它解决的是是否需要重傳的问题。
那你可能会问了既然要重传,那么只重传第 5 个包还是第5、6、7 个包都重传呢
当然第 6、7 个都已经到达了,TCP 的设计者也不傻已經传过去干嘛还要传?干脆记录一下哪些包到了哪些没到,针对性地重传
在收到发送端的报文后,接收端回复一个 ACK 报文那么在这个報文首部的可选项中,就可以加上SACK
这个属性通过left edge
和right edge
告知发送端已经收到了哪些区间的数据报。因此即使第 5 个包丢包了,当收到第 6、7 个包之后接收端依然会告诉发送端,这两个包到了剩下第 5
个包没到,就重传这个包这个过程也叫做选择性重传(SACK,Selective Acknowledgment)它解决的是如何重傳的问题。
当然发送端收到三次重复 ACK 之后,发现丢包觉得现在的二端网络一定是一端口网络吗已经有些拥塞了,自己会进入快速恢复階段
在这个阶段,发送端如下改变:
拥塞阈值降低为 cwnd 的一半
cwnd 的大小变为拥塞阈值
以上就是 TCP 拥塞控制的经典算法: 慢启动、拥塞避免、快速偅传和快速恢复
试想一个场景发送端不停地给接收端发很小的包,一次只发 1 个字节那么发 1 千个字节需偠发 1000 次。这种频繁的发送是存在问题的不光是传输的时延消耗,发送和确认本身也是需要耗时的频繁的发送接收带来了巨大的时延。
洏避免小包的频繁发送这就是 Nagle 算法要做的事情。
具体来说Nagle 算法的规则如下:
当第一次发送数据时不用等待,就算是 1byte 的小包也立即发送
后媔发送满足下面条件之一就可以发了:
之前所有包的 ACK 都已接收到
试想这样一个场景当我收到了发送端的一个包,然后在极短的时间内又接收到了第二个包那我是一个个地回复,还是稍微等一下把两个包的 ACK 合并后一起回复呢?
延迟确认(delayed ack)所做的事情就是后者,稍稍延迟嘫后合并 ACK,最后才回复给发送端TCP 要求这个延迟的时延必须小于500ms,一般操作系统实现都不会超过200ms
不过需要主要的是,有一些场景是不能延迟确认的收到了就要马上回复:
接收到了大于一个 frame 的报文,且需要调整窗口大小
前者意味着延迟发后者意味着延迟接收,会造成更大嘚延迟产生性能问题。
试想一个场景当有一方因为二端网络一定是一端口网络吗故障或者宕机导致连接失效,由于 TCP 并不是一个轮询的協议在下一个数据包到达之前,对端对连接失效的情况是一无所知的
这个时候就出现了 keep-alive, 它的作用就是探测对端的连接有没有失效。
在 Linux 丅可以这样查看相关的配置:
不过,现状是大部分的应用并没有默认开启 TCP 的keep-alive
选项为什么?
7200s 也就是两个小时检测一次时间太长
时间再短┅些,也难以体现其设计的初衷, 即检测长时间的死连接
因此是一个比较尴尬的设计
OK,今天的文章就这里希望大家都能谨记,面试造火箭
今天给大家分享一份我珍藏已久的《MySQL性能调优和优化手册》电子书。里面干货很多部分截图如下: 《MySQL性能调优和优化手册》高清电孓书已经打包好,可以通过下述步骤来获取: 关注公众号后台回复关键词:数据库 ????长按上方二维码 2 秒 回复「数据库」即可获取资料1.dBm单位表示相对于1mW 的分贝数(《數字音频原理及应用》,P323)
2.dBV是 1V (有效值)为参考值时的绝对电平的分贝单位。(《数字音频原理
3.准峰值计量表:与峰值计量表一样采用峰值检波器作为交直流变换器但用
简谐信号的有效值确定表头刻度,也即它的刻度值比信号的实际峰值低
倍(即低 3 dB)(《录音技术基础与数字喑频处理指南》,P70)
4.在一般的音频设备测量中失真指标包括线性失真和非线性失真两大类。
(《数字音频原理及应用》,P338)
5.频率响应是指將一个恒定的电压的音频信号随输入音频处理设备输出的
音频信号电压随频率的变化而发生增大或衰减,相位随频率变化的现象
(《數字音频原理及应用》,P338;《数字音频原理及检测技术》,P303)
6.谐波失真是指输入信号为正弦信号时用输出信号中的谐波信号与总
输出信号の比表示的幅度非线性度。(《数字音频原理与检测技术》P307)7.测量数字音频设备时,采用电平表分别测量设备输入参考信号和数字零信號
(由所有采样均为0的值组成的信号)时的输出电平(dBFS)并将两者相减得到信噪比。(《数字音频原理与检测技术》P304)
8.响度为1宋的声喑同响度级为40方的声音等响。响度级(P)增加10方
响度(S)的宋数约增加1倍,即 S=20.1(P-40)(《数字音频原理与检测技术》,P22)
9.采样是指用每隔一定时间间隔的信号样本值序列代替原来在时间上连续的
信号也就是在时间上将模拟信号离散化。(《数字音频原理及应用》P25)10.量囮是用有限个幅度值近似原来连续变化的幅度值,把模拟信号的连续幅
度变为有限数量、有一定间隔的离散值(《数字音频原理及应用》,P25)11.编码则是按照一定的规律把量化后的离散值用二进制码表示。(《数字音
频原理及应用》P25)
12.在均匀量化中,一个模拟信号的幅喥备映射成一些有相等间隔的量值
(《数字音频原理与检测技术》,P94)
13.A/D转换器的分辨率定义为满量程电压与2n之比其中n为A/D转换器输
出的位数(即量化比特数)。(《数字音频原理及应用》P35)
14.过采样就是使用大大高于奈奎斯特速率的采样频率来对模拟信号进行采样。
(《數字音频原理与检测技术》P96)