要在这样一个公共互联网上传输音视频数据,容联即时通讯云启动4月注册/认证送大礼活动

摘要为了回馈用户,在万物苏醒的四月春风中,容联即时通讯云启动4月注册/认证送大礼活动。注册就有礼!认证更加送大礼!介绍为什么云通讯服务偏爱容联?因为它拥有全通讯产品矩阵,一站式选择,一站式服务,一站式解决方案。容联云通讯,让您的每个应用会说话。为了回馈用户,在万物苏醒的四月春风中,容联云通讯给您送礼啦。注册就有礼!认证更加送大礼!活动时间及范围1、活动时间:2016-04-05
10:00至2016-04-28
15:002、活动对象:新注册用户及未进行企业认证的老用户活动礼品及发送方式(1)认证成功,即送500M流量(认证审核通过的两个工作日内,充值您认证的手机号中))(2)转盘抽奖,100%中奖100条短信、300分钟通话、云通讯产品1折折扣券:中奖后,可在资源余量中查询300M流量:中奖后,直接充值到您填写的手机号孙小圣、加湿器:中奖后,三个工作日内以快递的方式邮寄(3)特价资源包(为三选一,购买后,可在资源余量中查询)温馨提示为了便于您及时收到礼品,请填写正确信息,地址、电话、姓名,如信息,容联云通讯将不会补发礼品。活动地址

摘要因为音视频通话 = 音视频处理 +
网络传输,而公共互联网不是为了实时通信设计的。所以说开发真正可用的实时音视频服务,从demo到生产上线,中间还差1万个WebRTC。前言  WebRTC开源之前,实时音视频通信听起来好高级:回声消除、噪声抑制……对于看到傅里叶变换都头疼的工程师很难搞定这些专业领域的问题。  Google收购了GIPS,开源了WebRTC项目之后,开发者可以自己折腾出互联网音视频通信了。下载、编译、集成之后,第一次听到通过互联网传过来的喂喂喂,工程师会非常兴奋,demo到万人直播现场只差一步了。  但是,电信行业要求可用性4个9,而刚刚让人兴奋的“喂喂喂”,1个9都到不了。某公司在展会上演示跨国音视频,多次呼叫无法接通,自嘲说我们还没有做网络优化嘛。这就等于互联网全民创业时期的”就差个程序员了“,本质上是和demo与真正产品之间的差距,是外行与内行之间的差距。  小红说家里WIFI聊QQ、打斗地主毫无压力,用你的音视频通话就卡的不行。想开发分享到微信这个功能,百度个文档照着一步步干就好了;但是找不到这样一个文档,照着做就能解决用户报的这些问题,进而把音视频通话做到电信水平。  音视频通话对教育、社交、约会类APP是刚需功能,上述问题会迫使用户使用更稳定的skype或微信来沟通。技术原因造成用户流失,是每个工程师都不愿意看到的事情。实时音视频难在哪?  因为音视频通话
= 音视频处理 +
网络传输,而公共互联网不是为了实时通信设计的。难点如下:协议方面:tcp有无法忍受的延时,udp有丢包延时抖动乱序。政治方面:各个国家出口光缆屈指可数,带宽也有严格限制。商业方面:由于成本原因,跨运营商的网络传输惨不忍睹。用户设备:无线路由器从802.11G开始才支持实时通信模式;多个路由器使用相同的频段会造成信号污染;2G网络上行带宽只有20kbps。架构方面:公共网络每个节点都不可靠,后台工程师熟悉的mtr命令可以分析哪个路由节点丢包高,如果此时正在传输音视频,质量必然受到影响。  要在这样一个公共互联网上传输音视频数据,却没有做任何网络传输的工作,不遇到问题的话可以买彩票了。网络传输要怎么搞?老师没讲过、网上搜不到,是不是有一种深深的无力感。具体怎么解决?可以从以下几个方面入手:质量评估:声音卡成翔,首先需要通过网络参数来评估语音质量。数据统计:用户的使用情况到底怎么样,需要完善的数据统计模型和支撑系统,不然开发者就是睁眼瞎。智能接入:影响质量的原因——不同的ISP会有不同的丢包水平,需要多线服务器。智能路由:随着用户扩张到海外,比如电信用户和美国用户通话时丢包大,没有一边电信一边美国这种多线服务器,可能通过日本转发过去就不丢包了,这就是智能路由。虚拟专线:智能接入加上智能路由,可以媲美网络专线的质量了,这就是所谓的虚拟专线。丢包对抗:用户抱怨明显少了很多,还剩下一些自己网络不给力的用户。用户x一直用2G,用户y在公司里很多WIFI有信号污染,那么就需要丢包对抗机制。网络可用性:用户报虹桥机场打不通,小发现公共场所WIFI有很多限制,所以需要考虑网络可用性。后台高可用:用户没问题了,但各种互联网公司事件让运营者担心自己服务器电源也被挖掘机铲断,所以需要后台高可用。

摘要即时通讯云 LeanCloud
3月29日因少量大用户量应用的高在线量而发生了连锁服务故障,这个问题相信不是第1次发生,也不会是最后一次。对于即时通讯云服务商来说,要想在成本和服务质量上达成平衡,暂期内只能是个梦。2016
年 3 月 29 日晚间,LeanCloud
平台上的多个应用进行了推广活动,激增的访问量给我们的数据存储和实时通信服务带来了较大压力。从
20:50 至 22:15 有多次流量高峰出现,我们多台 Web
服务器的网络吞吐包超过虚拟机的能力极限,内外网通信中断,从而导致 HTTP
服务多次出现间歇性故障(数据存储 API
以及依赖于它的服务也都间歇性不可用)。具体情况汇报如下:故障时间20:53 –
21:03(持续约 10 分钟)数据存储 API 服务约 50% 的请求超时。21:17 –
21:40(持续约 23 分钟)数据存储 API 服务约 50% 的请求超时。22:00 –
22:15(持续约 15 分钟)数据存储 API 服务约 12.5%
的请求超时。故障总共持续约 48
分钟。影响范围本次故障只影响中国节点,美国节点的所有服务均工作正常。在故障期间凡是向
LeanCloud
平台发送过请求,并使用了数据存储服务的活跃应用都受到了影响;我们的统计服务也在短时间内无法正常接收来自应用的事件上报。事故过程20:52:内部监控系统报警,显示多个
Web
服务器节点出现故障。我们立刻上线进行紧急处理,在排除后端服务问题之后,开始追查前端资源和带宽配额。21:03:由于部分应用流量回落,同时也由于我们临时大幅增加了出口带宽,服务暂时恢复正常。21:05:我们开始扩容前端机集群,以应对接下来可能再次出现的流量高峰。21:17:前端机扩容时碰到了虚拟机
OS
故障以及网络环境问题,未能及时完成。此时恰好部分应用又迎来一次流量高峰,前端机再次吃紧。21:30:修复过程将近半小时,于是我们启动了公告和通知流程,在微博和用户群里发出通告。21:40:流量自然回落,前端机再次恢复正常,我们的平台开始正常处理
API
请求。22:00:线上部分前端机出现物理故障,我们又开始对它们进行紧急处理,期间有大约
1/8 的 API
请求丢失。22:15:新的前端机节点经过手动处理后终于达到可用状态,并加入集群,完成了扩容,至此全部服务彻底被恢复。后续改进措施增加新的监控措施,对前端机网络入包量进行监控,防止网络转发量超过
VM 能力限制。调整前端机 VM
配置,使用高包量机型,增大前端机的处理能力。改进前端机扩容方式,使用
docker
镜像来加快新节点部署上线的进度。公告流程中增加短信通知渠道,确保信息及时通知到开发者。

发表评论

电子邮件地址不会被公开。 必填项已用*标注

相关文章

网站地图xml地图