作为前端开发对于后端的东西不是很熟悉,只能使用现成的一些服务器软件和nodejs来搭建信令服务器。
业务逻辑
当两个用户要进行通信时,他们首先要创建一个房间,成功加入房间之后,双方才能交换必要的信息。
当通信的双方结束通话后,用户需要发送离开房间的消息给信令服务器,此时信令服务器需要将房间内的所有人清除;如果房间里已经没有人了,还需要将空房间销毁掉。
这样的逻辑socket.io已经帮我们实现了,我们只需要使用就行,不需要自己重新开发。
因此,我们使用nodejs+express+socket.io实现信令服务器。
创建服务器
const http = require('http')//引入http库
const express = require('express')//引入express库
//创建HTTP服务,并侦听8980端口
const app = express()
const http_server = http.createServer(app)
http_server.listen(8080, '0.0.0.0')
1
2
3
4
5
6
7
1
2
3
4
5
6
7
首先,通过express创建一个Web应用;之后调用HTTP库的createServer()方法创建HTTP对象,即http_server;最后调用http_server对象的listen()方法侦听8080端口。通过上面的步骤就实现了一个HTTP服务。
注册socket.io的回调函数
io.sockets.on('connection', (socket) =>{
//收到message时,进行转发
socket.on('message', (message) =>{
//给另一端转发消息
socket.to(room).emit('message', message)
})
//收到 join 消息
socket.on('join', (room) =>{
var o = io.sockets.adapter.rooms[room]
//得到房
WebRTC 的服务器大体分为信令服务器和媒体服务器
WebRTC 信令服务器是主要功能是为 WebRTC 通讯搭建一个了解彼此能力的通道, 交换信息, 同步改动.
而媒体服务器就是用来交换媒体,包括对媒体数据的加解密,编解码,带宽和速率控制等功能
不同的 RTP Toplogies 对服务器有不同的要求
WebRTC 或者说多媒体通信一般有如下的几种拓扑结构:
如果是两个人之间的端到端 (P2P) 的通信, 信令服务器的功能很简单
而由于是点对点的通信,媒体服务器也就不需要了。
如果是 SFU(Selective Forward Unit), 那么它的信令服务器除了上述的 SDP 媒体参数协商, ICE 连接地址交换,还有参加 RTP 会话的参加者信息的同步。
多个人之间的会议系统, 信令控制会麻烦很多,除了上述两个基本功能之外, 还要有
在 RFC4575 中有这样的定义
Multiple Control Unit 多点控制单元相比 SFU, 它有着对于媒体流的 Mix 和 translate 功能,可以很好地适配传统的通信设备,在实际应用中,一般我们会以 SFU 为主, MCU 为辅,共同形成一个服务器集群。
在 WebRTC 服务器上,我们一般会维护如下的领域对象
领域对象的具体内容从略,一般有如下的 Command 或 Event
应用层的事件大约可以分为 5 类
具体的有
在一个视频会议中,大家都在向会议室中发布自己的音视频流,也订阅他人的音视频媒体流,所以服务器,特别是 SFU 需要维护这样一个 pub-sub 发布者和订阅者之间的关系
WebRTC需要通过长链接查找到通信双方,然后通过 peer to peer 的方式传输音频数据。
WebRTC中最主要的就是一个叫做 PeerConnection 的对象,这个是WebRTC中已经封装好的对象。每一路的音视频会话都会有唯一的一个 PeerConnection 对象,WebRTC通过这个 PeerConnection 对象进行视频的发起、传输、接收和挂断等操作。
PeerConnection中包含的属性如下:
PeerConnection 中还包含了一些方法:
RTCSessionDescription 类型中包含了两个属性:
A向B发起通信请求
首先WebRTC需要一个信令服务器,也就是一个socket链接用来发起视频通信,发送WebRTC中的 offer 和回复 answer 。
如何搭建一个简单的socket服务器,可以找我的这篇文章《》,也可以是用webSocket搭建信令服务器。
WebRTC需要打洞服务器(一个 stun ,一个 turn )来穿透防火墙等,我们需要配置打洞服务器:
WebRTC由于是未来的一种即时通信的标准,所以目前在Chrome、Firefox和Opera浏览器中有内置插件,均提供一个全局的PeerConnection类。
创建PeerConnection的对象:
创建时需要传入打洞服务器的配置信息,如果不穿入打洞服务器的配置信息,则只可以在内网中使用实时音频通讯。
由于PeerConnection是全局的,所以我们可以通过另外的一种方式进行创建:
如何判断浏览器是否支持WebRTC:
WebRTC也提供了一个全局单例来获取本地的音视频信息:
GetUserMedia需要传入三个参数,第一个参数为配置信息,第二个参数为获取成功的回调,第三个参数为获取失败的回调。
获取到视频流之后
创建一个offer并发送给指定的对象:
创建offer时要同时发送打洞服务器配置信息,WebRTC给了一个监听:
返回的参数中有一个 candidate 属性,便是打洞服务器的配置信息。
音频通话请求是通过socket发来的,需要通过socket去监听。
如果收到了offer,那么需要将offer存到自己的peerConnection中,并且创建一个answer发送回对方。
将offer存入peerConnection中:
创建一个answer并返回给对方:
如果收到了打洞服务器的配置信息,那么需要将打洞服务器的配置信息存入到 peerConnection 中:
发送给对方answer后便可以等待接受对方的数据流了:
至此,整个简单的WebRTC的流程就完成了
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)