WebRTC学习(一)WebRTC了解_webrtc难点-程序员宅基地

技术标签: 学习  webrtc  音视频  

一:WebRTC学习了解

(一)WebRTC应用场景


WebRTC的愿景就是各浏览器之间可以快速开发可以实时互动的音视频的应用场景!!!

在这里插入图片描述

(二)WebRTC的难点

1.过多的协议,WebRTC太庞大、烦杂,门槛高

2.客户端与服务端分离,WebRTC只有客户端,没有服务端,需要自己根据业务实现

3.相关资料少

4.网上代码错误太多

(三)学习流程

在这里插入图片描述

(四)学习目标

在这里插入图片描述

二:WebRTC介绍

WebRTC与FFmpeg是音视频领域的两个佼佼者,两个侧重点不同,FFmpeg侧重于多媒体文件的编辑,音视频的编解码....;WebRTC侧重于处理网络抖动、丢包、评估以及音频处理,回音降噪等等。

(一)概述

在这里插入图片描述

(二)WebRTC可以实现的功能

(三)WebRTC学习内容

在这里插入图片描述

三:WebRTC原理与架构

WebRTC实现了基于网页的视频会议,标准是WHATWG 协议,目的是通过浏览器提供简单的javascript就可以达到实时通讯(Real-Time Communications (RTC))能力。

WebRTC整体架构主要分为两部分:

第一部分为绿色区域,为webrtc库所提供的核心功能

第二部分为紫色区域,是浏览器提供的javascript的API层—也就是说浏览器对webrtc的核心层的C++ API做了一层封装,封装成为了javascript接口

第三部分为箭头区域,是很多的上层应用

调用顺序就是从上到下!!!

(一)核心层解析

分为如下4层:
在这里插入图片描述

第一层为C++ API,是WebRTC库提供给浏览器javascript层的核心功能API接口(不多,简单,比如:连接、P2P进行连接、传输质量、设备管理....)

第二层为Session层,上下文管理层,音频、视频、非音视频的数据传输,都通过session层处理,实现相关逻辑

第三层包括音频引擎、视频引擎、传输模块

第四层与硬件相关,包括音视频的采集、网络IO (可重载的,可以使用自己的方案)

注意:在webrtc中没有对视频进行渲染处理,所以需要我们在应用中自己实现!!

(二)引擎层:音频引擎、视频引擎、传输模块

将这3个模块分隔开来,逻辑更加清晰。另外音视频的同步不是在引擎层实现

在这里插入图片描述

1.音频引擎:包含一系列音频多媒体处理的框架,包括从视频采集卡到网络传输端等整个解决方案。VoiceEngine是WebRTC极具价值的技术之一,是Google收购GIPS公司后开源的。

在这里插入图片描述

(1)编解码器

iSAC(Internet Speech Audio Codec):针对VoIP和音频流的宽带和超宽带音频编解码器,是WebRTC音频引擎的默认的编解码器

采样频率:16khz,24khz,32khz;(默认为16khz)
自适应速率为10kbit/s ~ 52kbit/s;
自适应包大小:30~60ms;
算法延时:frame + 3ms
iLBC(Internet Low Bitrate Codec):VoIP音频流的 窄带语音编解码器
采样频率:8khz;

20ms帧比特率为15.2kbps

30ms帧比特率为13.33kbps

标准由IETF RFC3951和RFC3952定义

(2)防止抖动与丢失

NetEQ for Voice:针对音频软件实现的语音信号处理元件

NetEQ算法:自适应抖动控制算法以及语音包丢失隐藏算法。使其能够快速且高解析度地适应不断变化的网络环境,确保音质优美且缓冲延迟最小。
是GIPS公司独步天下的技术,能够有效的处理由于网络抖动和语音包丢失时候对语音质量产生的影响。

PS:NetEQ 也是WebRTC中一个极具价值的技术,对于提高VoIP质量有明显效果,加以AEC\NR\AGC等模块集成使用,效果更好。

(3)回音消除、降噪
Acoustic Echo Canceler (AEC) :回声消除器是一个基于软件的信号处理元件,能实时的去除mic采集到的回声。

Noise Reduction (NR):噪声抑制也是一个基于软件的信号处理元件,用于消除与相关VoIP的某些类型的背景噪声(嘶嘶声,风扇噪音等等… …)

2.视频引擎:包含一系列视频处理的整体框架,从摄像头采集视频到视频信息网络传输再到视频显示整个完整过程的解决方案。

在这里插入图片描述

(1)编解码器:视频图像编解码器,是WebRTC视频引擎的默认的编解码器
VP8适合实时通信应用场景,因为它主要是针对低延时而设计的编解码器

PS:VPx编解码器是Google收购ON2公司后开源的,VPx现在是WebM项目的一部分,而WebM项目是Google致力于推动的HTML5标准之一

(2)视频抖动缓冲器:Video Jitter Buffer,可以降低由于视频抖动和视频信息包丢失带来的不良影响。
(3)图像质量增强模块:Image enhancements,对网络摄像头采集到的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量

3.传输:底层使用UDP,上层使用RTP。所有的音视频的接收与发送,都是通过传输模块实现的。此外在传输层实现了网络链路的检测,进行网络带宽的估计,从而对(音视频、非音视频)数据的传输进行控制。

由于浏览器需要安全传输,所以使用了SRTP协议,为了进行控制,使用了RTCP;
为了处理多个流复用同一个通道,实现了Multiplexing
最下面实现了P2P相关的协议,比如STUN + TRUN + ICE
补充:虽然UDP很适合实时通讯,但是也有需要使用TCP的场景

连通性TCP要优于UDP,假如国内外通信,可能某些区域不允许通过UDP进行实时传输。为了保证连通率,优先选择UDP,如果UDP无法通信,则选择TCP,以此来保证连通率。
当然,也存在部分情况,TCP依旧不通,比如通过企业内部网访问,网关拒绝访问外网,这时可以使用Https。这时不太保证实时性了

四:WebRTC目录结构

(一)主目录结构

在这里插入图片描述

api目录 如果我们要增加接口或者调整接口,就需要到API目录下去修改相关接口!
call目录 当与对端进行连接之后,同一个端的流通过Call进行管理;如果与多个对端进行连接,就会存在多个Call
media目录 内部实现了编解码的逻辑处理(并没有实现编解码内部逻辑,是在Module中实现的),只是对编解码算法进行了调用控制(决定在哪调用)
mudule目录 有很多子模块
pc目录  代表与对端的连接,可以获取流,获取统计信息(上层的统一接口层)

(二)WebRTC Module目录

在这里插入图片描述

audio_mixer目录 实现混音操作,比如在多人通话时候,需要对多个音频进行混合处理,这样在传输时比较方便,减少了音频流
audio_processing目录 实现音频的前后处理,比如降噪、回音消除...
video_processing目录 实现视频的前后处理,可以添加如人脸识别等操作.... 

五:WebRTC运行机制

(一)轨与流(流包含多个轨)

在这里插入图片描述

在这里插入图片描述

轨:比如一路音频,就是一路轨;一路视频,也是一路轨。两条轨之间是不相交的,单独存放!!两路音频也是两路轨,也是不相交的

流:媒体流,内部包含了很多轨,两者属于层级关系

(二)WebRTC的重要类

在这里插入图片描述

MediaStream同前面的讲解

RTCPeerConnection:是整个WebRTC中最重要的类(大而全),包含了很多的功能。对于应用层非常方便,在应用层只要创建了PeerConnection,然后将流放入PeerConnection中即可,其他的逻辑全部由peerConnection内部实现

RTCDataChannel:对于非音视频的数据,都通过dataChannel进行传输。其中RTCDataChannel是通过RTCPeerConnection获取的

(三)PeerConnection调用过程

在这里插入图片描述

PeerConnection中包含两个线程,Worker线程和Signaling线程,可以创建PeerConnectionFactory,

之后PerrConnectionFactory可以创建PeerConnection和LocalMediaStream和LocalVideo/AudioTrack

通过AddTrack将我们创建的多个Track轨加入到MediaStream流中,通过AddStream可以将多个MediaStream流(与多方通信,每一方(每一个参与单位)都是对应一个Stream)加入同一个PeerConnection中(复用),

(四)调用时序图

在这里插入图片描述

1.首先应用层Application【注意这里Application本身就是一个PeerConnectionObserver】,创建出一个PeerConnectionFactory【CreatePeerConnectionFactory】;

2.PeerConnectionFactory触发CreatePeerConnection、CreateLocalMediaStream、CreateLocalVideoTrack、CreateLocalAudioTrack创建了PeerConnection、MediaStream等等实例;

3.然后通过AddTrack,把各种轨(track)加到流(LocalMediaStream)中去,然后通过AddStream,把流加到PeerConnection中;

4.流加到连接之后,会通过CommitStreamChanges提交流的变化;当流发生变化的时候,会触发OnSignalingMessage事件,创造出一个offer【SDP描述信息】;

5.有了offer【SDP描述信息】之后,就会通过应用层【Application】,通过信令,发送到远端【Send offer to the remote peer】;

【SDP描述信息】内容:有哪些音视频数据,音视频数据的格式分别是什么,传输地址是什么等;

6.远端收到数据后,则根据offerSDP,回复一个answerSDP【Get answer from the remote peer】,交给本地信令;

7.信令收到远端的answerSDP之后,会把信息传给本地PeerConnection【ProcessSignalingMessage】,本地PeerConnection就会拿到对方的媒体流信息、传输端口、传输地址;

至此,远端和本地就打通连接,可以相互传媒体数据;

8.远端数据来的时候,PeerConnection还会将远端的流添加到Application中去;【OnAddStream(注意区分AddStream)】

FROM https://www.cnblogs.com/ssyfj/p/14778839.html

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/m0_47634756/article/details/124713886

智能推荐

EL表达式截取字符串-程序员宅基地

文章浏览阅读177次。  日常工作中,经常会对EL表达式输出的字符进行截取。所以查bd整理了一下方法,方便以后自己查阅。  首先jsp页面都不引用:<%@ taglib prefix="fn" uri="http://java.sun.com/jsp/jstl/functions" %>  下面是JSTL中自带的方法列表&其描述:  fn:contains 判定字符串是否包含另..._mvel 表达式截取字符串

让你的「文件传输助手」歇一歇吧,你完全有更实用的备忘录工具选择_备忘录网页版-程序员宅基地

文章浏览阅读5.7k次,点赞2次,收藏3次。好用的便签软件推荐_备忘录网页版

Apache Http 服务器安装教程-程序员宅基地

文章浏览阅读4.2w次,点赞3次,收藏18次。Apache Http 服务器安装教程_http

Qt设置按钮的图标_qt 按钮点击时设置icon-程序员宅基地

文章浏览阅读5.3k次,点赞4次,收藏24次。转自:https://blog.csdn.net/qq_38313246/article/details/81866604https://blog.csdn.net/weixin_44100850/article/details/90521859一、使用QIcon类 QIcon icon; icon.addFile(tr("res/icon/wall.png")); ui->toolButton->setIcon(icon);二、使用QPixmap和QBitmap类 _qt 按钮点击时设置icon

linux块设备4_blkdev_issue_discard-程序员宅基地

文章浏览阅读5.1k次。linux 3.1.5blk-exec.c: 起动request1. blk_end_sync_rq: request end 函数, 被blk_finish_request的end_io处理调用, 而blk_finish_request会被blk的软中断处理, 软中端被具体的块驱动的中断唤醒。该函数__blk_put_request, 然后唤醒等待队列,2. blk__blkdev_issue_discard

Error[e16]: Segment CSTACK (size: 0x50 align: 0x1) is too long for segment-程序员宅基地

文章浏览阅读3.2k次。Copyright 1987-2008 IAR Systems. All rights reserved. Error[e16]: Segment CSTACK (size: 0x50 align: 0x1) is too long for segment definition. At least 0x3e more bytes needed. The pro××em occu_error[e16]: segment cstack (size: 0x50 align: 0x1) is too long for segment d

随便推点

对mtcnn的人脸对齐的理解_tform.estimate-程序员宅基地

文章浏览阅读4.6k次,点赞3次,收藏21次。概念理解人脸识的流程:人脸检测 ——人脸对齐——特征提取——相似度对比人脸对齐也是关键的一步,在不同的应用场景下,会直接影响到人脸识别的结果。因为是否进行人脸对齐,会影响到提取到的特征,对齐前后提取到的特征是有差别的。人脸对齐(矫正):就是检测到人脸角度不正,关键点不对齐,然后需要对齐操作。人脸对齐前后的效果对比如下图,发现对齐后效果还是挺好的。 那么我们要怎么实施..._tform.estimate

Go+Wails学习笔记(三)Go与Js数据交互_wails runtime-程序员宅基地

文章浏览阅读3.6k次。前言下面会介绍Go+Wails最核心的、最重要的部分——前后端数据交互,即后端的Golang和前端的JavaScript如何交换数据。笔者通过分析前文提到的通过wails init生成的默认hello-world项目,和官方Github提供的示例项目todo,了解到具体的做法。todo项目的某些表达方式和新版本可能不同,以新版本wails的模板为准。项目结构下面是todo项目的大体结构:todo |__ build //最终程序生成的位置 |__ frontend //前端目录 _wails runtime

自从上了 SkyWalking,睡觉真香!!-程序员宅基地

文章浏览阅读89次。作者:废物大师兄来源:www.cnblogs.com/cjsblog/p/14075486.htmlSkyWalking 是一个应用性能监控系统,特别为微服务、云原生和基于容器(Dock..._listofservers: 127.0.0.1:12800

POJ 2181-Jumping Cows_2181jumping cows-程序员宅基地

文章浏览阅读1.9k次。题目:http://poj.org/problem?id=2181大意:给你n个数,让你找出一个子序列,子序列计算的规则是:奇数次运算则加上这个数,偶数次运算就减去这个数。求这个子序列的最大值。思路:跟物理上的波一样:如果为区间最大值,则为波峰。则_2181jumping cows

2021-11-13-程序员宅基地

文章浏览阅读700次。渣渣Python学习打卡之爬虫篇——第二天(requests高级)一、SSL验证#一、SSL验证import requestsresponse = requests.get('https://www.12306.cn/index/')print(response.status_code)运行结果:#若报错SSLError,表示证书验证错误,把 verify 参数设置为 False 即可import requestsresponse = requests.get('https://w

5个python数据可视化工具,赶快收藏起来!_python数据可视化库-程序员宅基地

文章浏览阅读1.9k次。5个python数据可视化工具,赶快收藏起来!_python数据可视化库

推荐文章

热门文章

相关标签