>

HTML5:使用Canvas实时管理Video

- 编辑:乐百家599手机首页 -

HTML5:使用Canvas实时管理Video

关于小编:cucr

乐百家前段 1

腾讯网博客园:@hop_ping 个人主页 · 笔者的小说 · 17

乐百家前段 2

来探问机智的前端童鞋怎么防盗

2016/07/12 · JavaScript · 4 评论 · HTML5

原稿出处: VaJoy   

不少支出的童鞋都以一身混江湖、夜宿城中村,如若居住的地点安全保卫欠缺,那么身在异地难免顾忌屋里的资金财产安全。

其实世面上有超多宏伟上的防盗设备,但对此灵动的前端童鞋来讲,只要有后生可畏台附带录制头的计算机,就能够总结地促成二个防盗监察和控制类别~

纯 JS 的“防盗”技巧十分的大程度依附于 H5 canvas 的手艺,且非凡常有趣。借使您对 canvas 还不熟习,能够先点这里阅读小编的层层教程。

step1. 调用录像头

我们需求先在浏览器上访谈和调用摄像头,用来监督房子里的举止。差异浏览器中调用录像头的 API 都略有出入,在那处大家以 chrome 做示范:

JavaScript

<video width="640" height="480" autoplay></video> <script> var video = document.querySelector('video'); navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.webkitURL.createObjectURL(stream); video.play(); } function error(err) { alert('video error: ' err) } </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
<video width="640" height="480" autoplay></video>
 
<script>
    var video = document.querySelector('video');
 
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
</script>

运营页面后,浏览器出于安全性思虑,会询问是或不是允许当前页面访谈你的摄像头设备,点击“允许”后便能一向在 <video> 上来看拍片头捕获到的镜头了:

乐百家前段 3

step2. 捕获 video 帧画面

只可是开着摄像头监视房间可不曾其它意义,浏览器不会帮你对监督画面进行拆解解析。所以这边我们顺遂动用脚本捕获 video 上的帧画面,用于在后续开展数量解析。

从那边开首大家将在依靠 canvas 力量了。在 Canvas入门(五)一文我们介绍过 ctx.drawImage() 方法,通过它能够捕获 video 帧画面并渲染到画布上。

我们供给成立三个画布,然后这么写:

JavaScript

<video width="640" height="480" autoplay></video> <canvas width="640" height="480"></canvas> <script> var video = document.querySelector('video'); var canvas = document.querySelector('canvas'); // video捕获录像头画面 navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.webkitU福特ExplorerL.createObjectU本田CR-VL(stream); video.play(); } function error(err) { alert('video error: ' err) } //canvas var context = canvas.getContext('2d'); setTimeout(function(){ //把当前摄像帧内容渲染到画布上 context.drawImage(video, 0, 0, 640, 480); }, 5000); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector('video');
    var canvas = document.querySelector('canvas');
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.webkitURL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
 
    //canvas
    var context = canvas.getContext('2d');
 
    setTimeout(function(){
        //把当前视频帧内容渲染到画布上
        context.drawImage(video, 0, 0, 640, 480);
    }, 5000);
 
</script>

如上代码所示,5秒后把录像帧内容渲染到画布上(下方右图)

乐百家前段 4

step3. 对抓获的多少个帧画面施行差别混合

在上头大家关系过,要卓有功效地辨别某些场景,须要对录制镜头实行数量深入分析。

那么要怎么分辨我们的屋宇是或不是有人猛然闯入了啊?答案超轻松 —— 准时地捕获 video 画面,然后相比较前后两帧内容是或不是存在异常的大变迁。

我们先简单地写贰个准时捕获的法子,并将捕获到的帧数据存起来:

JavaScript

//canvas var context = canvas.getContext('2d'); var preFrame, //前意气风发帧 curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){ console.log(context); preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataUHavalL; //转为base64并保存 } //定期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
    //canvas
    var context = canvas.getContext('2d');
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){ console.log(context);
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL;  //转为base64并保存
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            timer(delta)
        }, delta || 500);
    }
 
    timer();

如上代码所示,画布会每隔500皮秒捕获并渲染三次 video 的帧内容(夭寿哇,做完这一个动作相当的大心把饼干洒了少年老成地。。。(“▔□▔)/)

乐百家前段 5

静心这里我们使用了 canvas.toDataURL 方法来保存帧画面。

接着正是数据拆解剖析管理了,大家能够通过相比较前后捕获的帧画面来决断录像头是或不是监察和控制到变化,那么怎么办吧?

深谙设计的同学料定平常使用二个图层成效 —— 混合格局:

乐百家前段 6

当有四个图层时,对顶层图层设置“差值/Difference”的混合方式,能够洞察地收看七个图层的反差:

乐百家前段 7

“图A”是我2018年在商家楼下拍的肖像,然后本身把它微微调亮了一丝丝,并在上边画了三个X 和 O 获得“图B”。接着自个儿把它们以“差值”方式混合在同盟,获得了最右的这张图。

JavaScript

“差值”形式原理:要掺杂图层双方的EvoqueGB值中各种值分别张开相比,用高值减去低值作为合成后的颜料,平时用深橙图层合成后生可畏图像时,能够收获负片效果的反相图像。用深蓝的话不发出任何改造(粉红亮度最低,下层颜色减去最小颜色值0,结果和原本相近),而用梅红会获得反相效果(下层颜色被减去,获得补值),别的颜色则依据它们的亮度水平

1
“差值”模式原理:要混合图层双方的RGB值中每个值分别进行比较,用高值减去低值作为合成后的颜色,通常用白色图层合成一图像时,可以得到负片效果的反相图像。用黑色的话不发生任何变化(黑色亮度最低,下层颜色减去最小颜色值0,结果和原来一样),而用白色会得到反相效果(下层颜色被减去,得到补值),其它颜色则基于它们的亮度水平

在CSS3中,已经有 blend-mode 本性来支持那么些风趣的名不副实情势,可是我们开掘,在主流浏览器上,canvas 的 globalCompositeOperation 接口也早就能够扶持了图像混合形式:

于是咱们再建多二个画布来展现前后两帧差距:

JavaScript

<video width="640" height="480" autoplay></video> <canvas width="640" height="480"></canvas> <canvas width="640" height="480"></canvas> <script> var video = document.querySelector('video'); var canvas = document.querySelectorAll('canvas')[0]; var canvasForDiff = document.querySelectorAll('canvas')[1]; // video捕获录像头画面 navigator.webkitGetUserMedia({ video: true }, success, error); function success(stream) { video.src = window.UTiguanL.createObjectULANDL(stream); video.play(); } function error(err) { alert('video error: ' err) } //canvas var context = canvas.getContext('2d'), diffCtx = canvasForDiff.getContext('2d'); //将第贰个画布混合方式设为“差距” diffCtx.globalCompositeOperation = 'difference'; var preFrame, //前风流倜傥帧 curFrame; //当前帧 //捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataU昂CoraL(); //转为base64并保存 } //绘制base64图像到画布上 function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差别function renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame); } //准时捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); timer(delta) }, delta || 500); } timer(); </script>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
<video width="640" height="480" autoplay></video>
<canvas width="640" height="480"></canvas>
<canvas width="640" height="480"></canvas>
 
<script>
    var video = document.querySelector('video');
    var canvas = document.querySelectorAll('canvas')[0];
    var canvasForDiff = document.querySelectorAll('canvas')[1];
 
    // video捕获摄像头画面
    navigator.webkitGetUserMedia({
                video: true
            }, success, error);
 
    function success(stream) {
        video.src = window.URL.createObjectURL(stream);
        video.play();
    }
 
    function error(err) {
        alert('video error: ' err)
    }
 
    //canvas
    var context = canvas.getContext('2d'),
        diffCtx = canvasForDiff.getContext('2d');
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = 'difference';
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            timer(delta)
        }, delta || 500);
    }
 
    timer();
 
</script>

效率如下(夭寿啊,做完那一个动作小编又把Pepsi-Cola洒在键盘上了。。。(#--)/ )

乐百家前段 8

能够见到,当前后两帧差距非常小时,第多个画布差不离是盲指标一片,唯有当拍戏头捕获到动作了,第多少个画布才有真相大白的高亮内容现身。

故而,我们只要求对首个画布渲染后的图像进行像素深入分析——决断其高亮阈值是或不是达到规定的标准有个别钦赐预期:

JavaScript

var context = canvas.getContext('2d'), diffCtx = canvasForDiff.getContext('2d'); //将第二个画布混合情势设为“差别” diffCtx.globalCompositeOperation = 'difference'; var preFrame, //前大器晚成帧 curFrame; //当前帧 var diffFrame; //寄存差别帧的imageData //捕获并保存帧内容 function captureAndSaveFrame(){ preFrame = curFrame; context.drawImage(video, 0, 0, 640, 480); curFrame = canvas.toDataUHighlanderL(); //转为base64并保存 } //绘制base64图像到画布上 function drawImg(src, ctx){ ctx = ctx || diffCtx; var img = new Image(); img.src = src; ctx.drawImage(img, 0, 0, 640, 480); } //渲染前后两帧差别 function renderDiff(){ if(!preFrame || !curFrame) return; diffCtx.clearRect(0, 0, 640, 480); drawImg(preFrame); drawImg(curFrame); diffFrame = diffCtx.getImageData( 0, 0, 640, 480 ); //捕获差别帧的imageData对象 } //计算差距 function calcDiff(){ if(!diffFrame) return 0; var cache = arguments.callee, count = 0; cache.total = cache.total || 0; //整个画布都以反动时具备像素的值的总额 for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i = 4) { count = diffFrame.data[i] diffFrame.data[i 1] diffFrame.data[i 2]; if(!cache.isLoopEver){ //只需在第4回循环里实践 cache.total = 255 * 3; //单个反革命像素值 } } cache.isLoopEver = true; count *= 3; //亮度放大 //重返“差别画布高亮部分像素总值”占“画布全亮情况像素总值”的比例 return Number(count/cache.total).toFixed(2); } //按时捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); setTimeout(function(){ console.log(calcDiff()); }, 10); timer(delta) }, delta || 500); } timer();

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
    var context = canvas.getContext('2d'),
        diffCtx = canvasForDiff.getContext('2d');
    //将第二个画布混合模式设为“差异”
    diffCtx.globalCompositeOperation = 'difference';
 
    var preFrame,   //前一帧
        curFrame;   //当前帧
 
    var diffFrame;  //存放差异帧的imageData
 
    //捕获并保存帧内容
    function captureAndSaveFrame(){
        preFrame = curFrame;
        context.drawImage(video, 0, 0, 640, 480);
        curFrame = canvas.toDataURL();  //转为base64并保存
    }
 
    //绘制base64图像到画布上
    function drawImg(src, ctx){
        ctx = ctx || diffCtx;
        var img = new Image();
        img.src = src;
        ctx.drawImage(img, 0, 0, 640, 480);
    }
 
    //渲染前后两帧差异
    function renderDiff(){
        if(!preFrame || !curFrame) return;
        diffCtx.clearRect(0, 0, 640, 480);
        drawImg(preFrame);
        drawImg(curFrame);
        diffFrame = diffCtx.getImageData( 0, 0, 640, 480 );  //捕获差异帧的imageData对象
    }
 
    //计算差异
    function calcDiff(){
        if(!diffFrame) return 0;
        var cache = arguments.callee,
            count = 0;
        cache.total = cache.total || 0; //整个画布都是白色时所有像素的值的总和
        for (var i = 0, l = diffFrame.width * diffFrame.height * 4; i < l; i = 4) {
            count = diffFrame.data[i] diffFrame.data[i 1] diffFrame.data[i 2];
            if(!cache.isLoopEver){  //只需在第一次循环里执行
                cache.total = 255 * 3;   //单个白色像素值
            }
        }
        cache.isLoopEver = true;
        count *= 3;  //亮度放大
        //返回“差异画布高亮部分像素总值”占“画布全亮情况像素总值”的比例
        return Number(count/cache.total).toFixed(2);
    }
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            setTimeout(function(){
                console.log(calcDiff());
            }, 10);
 
            timer(delta)
        }, delta || 500);
    }
 
    timer();

专心这里我们使用了 count *= 3 来放手差别高亮像素的亮度值,否则得出的数值实在太小了。大家运营下页面(图片很大加载会有一点慢)

乐百家前段 9

透过试(xia)验(bai),个人感觉只要 calcDiff() 再次回到的比值假如过量 0.20,那么就可以定性为“后生可畏间空屋企,忽然有人闯进来”的意况了。

step4. 上报极度图片

当上述的企图开采存气象时,须求有某种渠道公告大家。有钱有生气的话能够配备个邮件服务器,直接发邮件以致短信通告到和煦,but 本文走的吃吐少年路径,就不搞的那么高级了。

这正是说要什么简单地得以达成充足图片的反映呢?作者临时想到的是 —— 直接把难点图片发送到有些站点中去。

那边我们选拔腾讯网的“日记”功用,它能够放肆上传相关内容。

JavaScript

p.s.,其实这里原本是想间接把图片传遍博客园相册上的,缺憾POST央求的图样实体必要走 file 格式,即无法通过脚本纠正文件的 input[type=file],转 Blob 再上传也没用,只能作罢。

1
p.s.,其实这里原本是想直接把图片传到博客园相册上的,可惜POST请求的图片实体要求走 file 格式,即无法通过脚本更改文件的 input[type=file],转 Blob 再上传也没用,只好作罢。

我们在管理后台创建日记时,通过 Fiddler 抓包能够看见其必要参数很简单:

乐百家前段 10

就此得以平昔协会叁个伸手:

JavaScript

//相当图片上传管理 function submit(){ //ajax 提交form $.ajax({ url : '', type : "POST", data : { '__VIEWSTATE': '', '__VIEWSTATEGENERATOR': '4773056F', 'Editor$Edit$txbTitle': '告警' Date.now(), 'Editor$Edit$EditorBody': '<img src="' curFrame '" />', 'Editor$Edit$lkbPost': '保存' }, success: function(){ console.log('submit done') } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
    //异常图片上传处理
    function submit(){
 
        //ajax 提交form
        $.ajax({
            url : 'http://i.cnblogs.com/EditDiary.aspx?opt=1',
            type : "POST",
            data : {
                '__VIEWSTATE': '',
                '__VIEWSTATEGENERATOR': '4773056F',
                'Editor$Edit$txbTitle': '告警' Date.now(),
                'Editor$Edit$EditorBody': '<img src="' curFrame '" />',
                'Editor$Edit$lkbPost': '保存'
            },
            success: function(){
                console.log('submit done')
            }
        });
    }

当然即便央浼页面跟天涯论坛域名不一致,是无可奈何发送 cookie 导致诉求跨域而失效,然而那几个很好解决,直接改造 host 就能够(怎么校勘就不介绍了,自行百度吗)

自身那边改完 host,通过  的地点访谈页面,开采录像头竟然失效了~

通过谷歌(Google)的文书档案能够摸清,那是为着安全性思索,非 HTTPS 的服务端央求都不能够联网摄像头。不过消除办法也可能有个别,以 window 系统为例,打开 cmd 命令行面板并一定到 chrome 安装文件夹下,然后实践:

ZSH

chrome --unsafely-treat-insecure-origin-as-secure="" --user-data-dir=C:testprofile

1
chrome --unsafely-treat-insecure-origin-as-secure="http://i.cnblogs.com/h5monitor/final.html"  --user-data-dir=C:testprofile

举措将以沙箱形式展开二个独立的 chrome 进度,并对点名的站点去掉安全范围。注意我们在新开的 chrome 中得重新登入天涯论坛。

这时便能正常访问录制头了,我们对代码做下管理,当差距检查测量试验发掘十分时,创造后生可畏份日记,最小间隔时间为5秒(可是后来意识没供给,因为微博已经有做了岁月约束,大概10秒后才干发表新的日志)

JavaScript

//定期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); renderDiff(); if(calcDiff() > 0.2){ //监察和控制到充足,发日志 submit() } timer(delta) }, delta || 500); } setTimeout(timer, 60000 * 10); //设定伸开页面十分钟后才起来监控//相当图片上传管理 function submit(){ var cache = arguments.callee, now = Date.now(); if(cache.reqTime && (now - cache.reqTime < 5000)) return; //日记创造最小间距为5秒 cache.reqTime = now; //ajax 提交form $.ajax({ url : '', type : "POST", timeout : 5000, data : { '__VIEWSTATE': '', '__VIEWSTATEGENERATOR': '4773056F', 'Editor$Edit$txbTitle': '告警' Date.now(), 'Editor$Edit$EditorBody': '<img src="' curFrame '" />', 'Editor$Edit$lkbPost': '保存' }, success: function(){ console.log('submit done') }, error: function(err){ cache.reqTime = 0; console.log('error: ' err) } }); }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            renderDiff();
            if(calcDiff() > 0.2){  //监控到异常,发日志
                submit()
            }
 
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控
 
 
    //异常图片上传处理
    function submit(){
        var cache = arguments.callee,
            now = Date.now();
        if(cache.reqTime && (now - cache.reqTime < 5000)) return;  //日记创建最小间隔为5秒
 
        cache.reqTime = now;
 
        //ajax 提交form
        $.ajax({
            url : 'http://i.cnblogs.com/EditDiary.aspx?opt=1',
            type : "POST",
            timeout : 5000,
            data : {
                '__VIEWSTATE': '',
                '__VIEWSTATEGENERATOR': '4773056F',
                'Editor$Edit$txbTitle': '告警' Date.now(),
                'Editor$Edit$EditorBody': '<img src="' curFrame '" />',
                'Editor$Edit$lkbPost': '保存'
            },
            success: function(){
                console.log('submit done')
            },
            error: function(err){
                cache.reqTime = 0;
                console.log('error: ' err)
            }
        });
    }

实施功用:

乐百家前段 11

日记也是妥妥的出来了:

乐百家前段 12

点开就可以观望这几个的那张图片了:

乐百家前段 13

要在乎的是,今日头条对日记揭橥数据是有做天天额度节制来防刷的,达到限额的话会导致当天的小说和文章也回天无力公布,所以得严苛运用:

乐百家前段 14

不过这种样式仅能反映格外图片,一时半刻无法让大家立即收悉告急,风野趣的童鞋能够试着再写个 chrome 插件,定期去拉取日记列表做决断,借使有新扩展日记则触发页面 alert。

除此以外大家当然希望能一向对闯入者进行警戒,那块比较好办 —— 搞个警示的韵律,在丰盛的时候接触播放就可以:

JavaScript

//播放音频 function fireAlarm(){ audio.play() } //准期捕获 function timer(delta){ setTimeout(function(){ captureAndSaveFrame(); if(preFrame && curFrame){ renderDiff(); if(calcDiff() > 0.2){ //监察和控制到不行 //发日记 submit(); //播放音频告急 fireAlarm(); } } timer(delta) }, delta || 500); } setTimeout(timer, 60000 * 10); //设定展开页面十分钟后才起来监察和控制

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
    //播放音频
    function fireAlarm(){
        audio.play()
    }
 
 
    //定时捕获
    function timer(delta){
        setTimeout(function(){
            captureAndSaveFrame();
            if(preFrame && curFrame){
                renderDiff();
                if(calcDiff() > 0.2){  //监控到异常
                    //发日记
                    submit();
                    //播放音频告警
                    fireAlarm();
                }
            }
            timer(delta)
        }, delta || 500);
    }
 
    setTimeout(timer, 60000 * 10);  //设定打开页面十分钟后才开始监控

最终说一下,本文代码均挂在我的github上,有野趣的童鞋能够自助下载。共勉~

1 赞 4 收藏 4 评论

乐百家前段 15

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame, &got_output); //将AVFrame中的像素音讯编码为AVPacket中的码流
if (ret < 0)
{
fprintf(stderr, “Error encoding framen”);
exit(1);
}

 

拍卖摄像帧数据

computeFrame()方法,如下所示,实际上担负抓取每风度翩翩帧的数码和推行chroma-keying特效。

JavaScript

computeFrame: function() { this.ctx1.drawImage(this.video, 0, 0, this.width, this.height); let frame = this.ctx1.getImageData(0, 0, this.width, this.height); let l = frame.data.length / 4; for (let i = 0; i < l; i ) { let r = frame.data[i * 4 0]; let g = frame.data[i * 4 1]; let b = frame.data[i * 4 2]; if (g > 100 && r > 100 && b < 43) frame.data[i * 4 3] = 0; } this.ctx2.putImageData(frame, 0, 0); return; }

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
computeFrame: function() {
    this.ctx1.drawImage(this.video, 0, 0, this.width, this.height);
    let frame = this.ctx1.getImageData(0, 0, this.width, this.height);
    let l = frame.data.length / 4;
 
    for (let i = 0; i < l; i ) {
      let r = frame.data[i * 4 0];
      let g = frame.data[i * 4 1];
      let b = frame.data[i * 4 2];
      if (g > 100 && r > 100 && b < 43)
        frame.data[i * 4 3] = 0;
    }
    this.ctx2.putImageData(frame, 0, 0);
    return;
  }

当它被调用后,video成分将展现方今的摄像帧数据,如下所示:

乐百家前段 16

在第2行,录像帧被复制到第三个canvas ctx1的图形上下文中,中度和宽度值钦赐为大家以前封存的帧大小的二分一。注意,您能够透过传递video成分到绘图上下文的drawImage()方法来绘制当前摄像帧。其结果是:

乐百家前段 17

第3行代码通过调用第二个canvas上下文的getImageData()方法,来得到原始图像数据当前录制帧的叁个副本。它提供了原始的叁拾叁人像素图像数据,那样大家就能够进行操作。第4行代码通过将帧图像数据的路途度除以4,来总结图像的总像素数。

第6行代码循环扫描全部像素,获取每一个像素的红、绿、蓝值,同时和预约义的背景观实行比较,那么些背景观将用foo.png中程导弹入的背景图像替换。

被检查测验成背景的每二个像素,将它的阿尔法值替换为零,评释该像素是一丝一毫透明的。结果,最后的图像背景有个别是百分百晶莹剔透的,这样在第13行代码,把它被绘制到目的的上下文中时,效果是内容叠合到静态背景上。

经过发出的图像看起来像这样:

乐百家前段 18

在录像播放时往往那样做,那样生龙活虎帧接生龙活虎帧处理,显示出chroma-key的特效。

请看这一个实例。

1 赞 1 收藏 评论

while (numCoded < maxNumToCode)
{
read_yuv_data();
encode_video_frame();
write_out_h264();
}
其中,read_yuv_data部分直接利用fread语句读取就可以,只须要驾驭的是,八个颜色分量Y/U/V的地点分别为AVframe::data[0]、AVframe::data[1]和AVframe::data[2],图像的宽窄分别为AVframe::linesize[0]、AVframe::linesize[1]和AVframe::linesize[2]。须要留意的是,linesize中的值常常指的是stride并不是width,也等于说,像素保存区大概是包蕴一定幅度的失效边区的,在读取数据时需注意。

 

文书档案内容

本文使用的XHTML文书档案如下所示。

XHTML

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "; <html xmlns="; <head> <style> body { background: black; color:#CCCCCC; } #c2 { background-image: url(foo.png); background-repeat: no-repeat; } div { float: left; border :1px solid #444444; padding:10px; margin: 10px; background:#3B3B3B; } </style> <script type="text/javascript;version=1.8" src="main.js"></script> </head> <body onload="processor.doLoad()"> <div> <video id="video" src="video.ogv" controls="true"/> </div> <div> <canvas id="c1" width="160" height="96"/> <canvas id="c2" width="160" height="96"/> </div> </body> </html>

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN"
        "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
  <head>
    <style>
      body {
        background: black;
        color:#CCCCCC;
      }
      #c2 {
        background-image: url(foo.png);
        background-repeat: no-repeat;
      }
      div {
        float: left;
        border :1px solid #444444;
        padding:10px;
        margin: 10px;
        background:#3B3B3B;
      }
    </style>
    <script type="text/javascript;version=1.8" src="main.js"></script>
  </head>
 
  <body onload="processor.doLoad()">
    <div>
      <video id="video" src="video.ogv" controls="true"/>
    </div>
    <div>
      <canvas id="c1" width="160" height="96"/>
      <canvas id="c2" width="160" height="96"/>
    </div>
  </body>
</html>

上述代码关键部分如下:

1.开立了七个canvas成分,ID分别为c1和c2。c1用以显示当前帧的庐山面目目摄像,c2是用来呈现实行chroma-keying特效后的摄像;c2预加载了一宁赵玄坛态图片,将用来顶替录像中的背景观部分。
2.JavaScript代码从main.js文件导入;这段脚本使用JavaScript 1.8的特征,所以在导入脚本时,第22行中钦定了本子。
3.当网页加载时,main.js中的processor.doLoad()方法会运营。

(2)、依据必要开端化供给的FFMpeg结构

代码如下:

JavaScript代码

main.js中的JS代码包括多个办法。

1、FFMpeg进行录像编码所需求的构造:

   ①imagedata.width  图像数据的宽窄

初始化chroma-key

doLoad()方法在XHTML文书档案初步加载时调用。那一个方式的效率是为chroma-key管理代码企图所需的变量,设置一个事变侦听器,当顾客开头播报摄像时大家能检查评定到。

JavaScript

doLoad: function() { this.video = document.getElementById("video"); this.c1 = document.getElementById("c1"); this.ctx1 = this.c1.getContext("2d"); this.c2 = document.getElementById("c2"); this.ctx2 = this.c2.getContext("2d"); let self = this; this.video.addEventListener("play", function() { self.width = self.video.videoWidth / 2; self.height = self.video.videoHeight / 2; self.timerCallback(); }, false); },

1
2
3
4
5
6
7
8
9
10
11
12
13
doLoad: function() {
    this.video = document.getElementById("video");
    this.c1 = document.getElementById("c1");
    this.ctx1 = this.c1.getContext("2d");
    this.c2 = document.getElementById("c2");
    this.ctx2 = this.c2.getContext("2d");
    let self = this;
    this.video.addEventListener("play", function() {
        self.width = self.video.videoWidth / 2;
        self.height = self.video.videoHeight / 2;
        self.timerCallback();
      }, false);
  },

这段代码获取XHTML文书档案中video元素和四个canvas成分的援用,还获得了七个canvas的图形上下文的引用。这么些将要大家兑现chroma-keying特效时使用。

add伊夫ntListener()监听video成分,当客户按下录像上的播放按键时被调用。为了酬答客商回看,这段代码获取摄像的幅度和惊人,何况减半(大家将在实行chroma-keying效果时将摄像的深浅减半),然后调用timerCallback()方法来运转视频捕捉和视觉效果总结。

建功立业将本来的YUV像素值保存到了AVframe结构中事后,便得以调用avcodec_encode_video2函数举办实际的编码操作。该函数可谓是百分百工程的基本所在,其声称方式为:

21   //使用颜色填充矩形

HTML5:使用Canvas实时管理Video

2015/09/11 · HTML5 · Canvas

本文由 伯乐在线 - cucr 翻译,唐尤华 校稿。未经许可,禁绝转载!
立陶宛(Lithuania)语出处:mozilla。迎接参加翻译组。

结合HTML5下的videocanvas的法力,你能够实时管理录像数据,为正值播放的摄像增多五花八门的视觉效果。本学科演示怎么着选取JavaScript代码完成chroma-keying特效(也被誉为“紫褐显示屏效应”)。

请看这一个实例.

假定大家就此截至编码器的所有事运转进程,大家会意识,编码实现之后的码流相比较原本的多寡少了风姿罗曼蒂克帧。那是因为大家是凭借读取原始像素数据结束来判定循环甘休的,那样结尾豆蔻梢头帧还保存在编码器中从不输出。所以在关闭全体解码进度早前,大家必得继续试行编码的操作,直到将最后风流倜傥帧输出停止。试行那项操作依旧调用avcodec_encode_video2函数,只是意味着AVFrame的参数设为NULL就可以:

34                ctx.beginPath();

停车计时器回调

停车计时器回调函数在录像初始播报时被调用(当“播放”事件发生时),然后肩负自个儿周期调用,为每风华正茂帧摄像达成keying特效。

JavaScript

timerCallback: function() { if (this.video.paused || this.video.ended) { return; } this.computeFrame(); let self = this; setTimeout(function () { self.timerCallback(); }, 0); },

1
2
3
4
5
6
7
8
9
10
timerCallback: function() {
    if (this.video.paused || this.video.ended) {
      return;
    }
    this.computeFrame();
    let self = this;
    setTimeout(function () {
        self.timerCallback();
      }, 0);
  },

回调函数首先检查录疑似否正在播放;若无,回调函数不做别的事并马上回去。

接下来调用computeFrame()方法,该方法对现阶段录制帧试行chroma-keying特效。

回调函数做的最后大器晚成件事正是调用setTimeout(),来让它本身尽快地被重新调用。在足履实地情状中,你大概会遵照录制的帧率来安装调用频率。

首先解析、处理输入参数,如编码器的参数、图像的参数、输入输出文件;
创立全方位FFMpeg编码器的各个零件工具,顺序依次为:avcodec_register_all -> avcodec_find_encoder -> avcodec_alloc_context3 -> avcodec_open2 -> av_frame_alloc -> av_image_alloc;
编码循环:av_init_packet -> avcodec_encode_video2(两次) -> av_packet_unref
关门编码器组件:avcodec_close,av_free,av_freep,av_frame_free

33   ctx.lineWidth=3;

AVCodec:AVCodec结构保留了三个编解码器的实例,完毕实际的编码成效。经常我们在程序中定义三个指向AVCodec结构的指针指向该实例。
AVCodecContext:AVCodecContext表示AVCodec所表示的上下文新闻,保存了AVCodec所急需的有个别参数。对于落到实处编码效能,大家可以在这里个布局中安装我们内定的编码参数。日常也是概念一个指针指向AVCodecContext。
AVFrame:AVFrame结构保留编码以前的像素数量,并作为编码器的输入数据。其在前后相继中也是多个指南针的花样。
AVPacket:AVPacket表示码流包结构,包罗编码之后的码流数据。该组织得以不定义指针,以一个目的的款式定义。
在大家的顺序中,大家将那些协会构成在了三个结构体中:

Canvas 的大旨用法

ret = av_image_alloc(ctx.frame->data, ctx.frame->linesize, ctx.c->width, ctx.c->height, ctx.c->pix_fmt, 32);
if (ret < 0)
{
fprintf(stderr, “Could not allocate raw picture buffern”);
return false;
}
(3)、编码循环体

 这一小节感到书上力争不太合理,小编落成以下那个程序是为着熟知下JS代码

AVCodecContext *avcodec_alloc_context3(const AVCodec *codec);
其性状同avcodec_find_encoder相符,重临三个指向AVCodecContext实例的指针。假若分配失败,会回来贰个空指针。调用方式为:

47       ctx.lineTo(loc.x r,loc.y r);

} //for (frameIdx = 0; frameIdx < io_param.nTotalFrames; frameIdx )
(4)、收尾管理

 1 <!DOCTYPE html>

avcodec_register_all();
编解码器注册成功现在,依据钦定的CODEC_ID查找钦命的codec实例。CODEC_ID平常钦定了编解码器的格式,在此大家应用当前使用最为常见的H.264格式为例。查找codec调用的函数为avcodec_find_encoder,其注脚格式为:

111                  }

/* get the delayed frames */
for (got_output = 1; got_output; frameIdx )
{
fflush(stdout);

 

/* encode 1 second of video */
for (frameIdx = 0; frameIdx < io_param.nTotalFrames; frameIdx )
{
av_init_packet(&(ctx.pkt)); //初始化AVPacket实例
ctx.pkt.data = NULL; // packet data will be allocated by the encoder
ctx.pkt.size = 0;

26 }

AVCodec *avcodec_find_encoder(enum AVCodecID id);
该函数的输入参数为一个AVCodecID的枚举类型,重临值为二个指向AVCodec结构的指针,用于吸纳找到的编解码器实例。若无找到,那么该函数会再次回到一个空指针。调用方法如下:

  2)window.addEventListener("load",function(){},false);

为了得以达成调用FFMpeg的API落成录像的编码,以下结构是少不了的:

37       var canvas=event.target;

编码前别的部必要要实现的操作时起初化AVPacket对象。该指标保存了编码之后的码流数据。对其开展开始化的操作非常轻便,只须求调用av_init_packet并传播AVPacket对象的指针。随后将AVPacket::data设为NULL,AVPacket::size赋值0.

 5 <style type="text/css">

} //for (got_output = 1; got_output; frameIdx )
未来,大家就能够按安插关闭编码器的大器晚成黄金时代零部件,甘休全体编码的流程。编码器组件的放飞流程可类比创建流程,必要关闭AVCocec、释放AVCodecContext、释放AVFrame中的图像缓存和对象自己:

 

ctx.c = avcodec_alloc_context3(ctx.codec); //分配AVCodecContext实例
if (!ctx.c)
{
fprintf(stderr, “Could not allocate video codec contextn”);
return false;
}
需注意,在分配成功未来,应将编码的参数设置赋值给AVCodecContext的成员。

32   ctx.strokeStyle="#ff0000";

使用FFMpeg进行录像编码的主要性流程如:

27   ctx.moveTo(20,20);

到此结束,大家的预备工作已经大致变成,下边开头实行实际编码的大循环进度。用伪代码大概表示编码的流水生产线为:

121 </div>

avctx: AVCodecContext结构,钦定了编码的局部参数;
avpkt: AVPacket对象的指针,用于保存输出码流;
frame:AVframe结构,用于传入原始的像素数量;
got_packet_ptr:输出参数,用于标记AVPacket中是还是不是曾经有了整机的豆蔻梢头帧;
再次回到值:编码是不是中标。成功重返0,战败则赶回负的错误码
由此输出参数*got_packet_ptr,大家能够看清是或不是应该豆蔻梢头帧完整的码流数据包输出,纵然是,那么能够将AVpacket中的码流数据输出出来,其地方为AVPacket::data,大小为AVPacket::size。具体调用格局如下:

 4 <meta charset="utf-8" />

int av_image_alloc(uint8_t *pointers[4], int linesizes[4], int w, int h, enum AVPixelFormat pix_fmt, int align);
该函数的几个参数分别表示AVFrame结构中的缓存指针、种种颜色分量的增长幅度、图像分辨率(宽、高)、像素格式和内部存款和储蓄器对其的高低。该函数会重临分配的内部存款和储蓄器的大小,假若战败则赶回贰个负值。具体调用情势如:

30 </html>

/*****************************************
Struct: CodecCtx
Description: FFMpeg编解码器上下文
*****************************************/
typedef struct
{
AVCodec *codec; //指向编解码器实例
AVFrame *frame; //保存解码之后/编码早前的像素数量
AVCodecContext *c; //编解码器上下文,保存编解码器的某些参数设置
AVPacket pkt; //码流包结构,包罗编码码流数据
} CodecCtx;
2、FFMpeg编码的机要步骤:

 图像绘制的骨干步骤如下:

首先,全部涉嫌到编解码的的意义,都必须要要注册音录像编解码器之后才具使用。注册编解码调用上边包车型地铁函数:

11 </style>

ctx.frame = av_frame_alloc(); //分配AVFrame对象
if (!ctx.frame)
{
fprintf(stderr, “Could not allocate video framen”);
return false;
}
ctx.frame->format = ctx.c->pix_fmt;
ctx.frame->width = ctx.c->width;
ctx.frame->height = ctx.c->height;
分配像素的仓库储存空间须求调用av_image_alloc函数,其宣称情势为:

 

if (got_output)
{
//获得二个完全的编码帧
printf(“Write frame = (size=])n”, frameIdx, ctx.pkt.size);
fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
av_packet_unref(&(ctx.pkt));
}
进而,三个完璧归赵的编码循环提就足以选取上面包车型大巴代码达成:

 5 <meta name="viewport" content="width=320,user-scalable=no" />

if (avcodec_open2(ctx.c, ctx.codec, NULL) < 0) //依据编码器上下文展开编码器
{
fprintf(stderr, “Could not open codecn”);
exit(1);
}
然后,大家需求管理AVFrame对象。AVFrame表示录制原始像素数据的贰个器皿,处理该项目数据需求四个步骤,其一是分配AVFrame对象,其二是分配实际的像素数量的存款和储蓄空间。分配成对象空间相似于new操作符同样,只是必要调用函数av_frame_alloc。尽管退步,那么函数再次来到一个空指针。AVFrame对象分配成功后,须求设置图像的分辨率和像素格式等。实际调用进度如下:

  6 body{

fflush(stdout);

Read_yuv_data(ctx, io_param, 0);        //Y分量
Read_yuv_data(ctx, io_param, 1);        //U分量
Read_yuv_data(ctx, io_param, 2);        //V分量

ctx.frame->pts = frameIdx;

/* encode the image */
ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), ctx.frame, &got_output); //将AVFrame中的像素信息编码为AVPacket中的码流
if (ret < 0) 
{
    fprintf(stderr, "Error encoding framen");
    exit(1);
}

if (got_output) 
{
    //获得一个完整的编码帧
    printf("Write frame = (size=])n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

 

int avcodec_encode_video2(AVCodecContext *avctx, AVPacket *avpkt, const AVFrame *frame, int *got_packet_ptr);
其参数和重返值的含义:

32   canvas.onmousemove=function(event)

avcodec_close(ctx.c);
av_free(ctx.c);
av_freep(&(ctx.frame->data[0]));
av_frame_free(&(ctx.frame));
3、总结

29 </body>

int avcodec_open2(AVCodecContext *avctx, const AVCodec *codec, AVDictionary **options);
该函数的前五个参数是大家正好确立的五个指标,第七个参数为一个字典类型对象,用于保存函数实践进度总不能识其余AVCodecContext和其它一些个体设置选项。函数的重回值表示编码器是或不是张开成功,若成功再次来到0,退步重临三个负数。调用情势为:

34       //获得鼠标移动处的坐标

/* find the mpeg1 video encoder */
ctx.codec = avcodec_find_encoder(AV_CODEC_ID_H264); //根据CODEC_ID查找编解码器对象实例的指针
if (!ctx.codec)
{
fprintf(stderr, “Codec not foundn”);
return false;
}
AVCodec查找成功后,下一步是分配AVCodecContext实例。分配AVCodecContext实例须求大家后面查找到的AVCodec作为参数,调用的是avcodec_alloc_context3函数。其注解形式为:

11 </style>

这一步大家得以设置多少个特地的布局文件,并将参数遵照某些事写入这么些布局文件中,再在前后相继中剖判这些布局文件获得编码的参数。假若参数相当的少的话,我们得以一贯动用命令行将编码参数字传送入就能够。

14 </head>

现行反革命,AVCodec、AVCodecContext的指针都曾经分配好,然后以那五个对象的指针作为参数展开编码器对象。调用的函数为avcodec_open2,注脚方式为:

32   ctx.strokeStyle="#ff0000";

(1)、输入编码参数

 1 <!DOCTYPE html>

ret = avcodec_encode_video2(ctx.c, &(ctx.pkt), NULL, &got_output);      //输出编码器中剩余的码流
if (ret < 0)
{
    fprintf(stderr, "Error encoding framen");
    exit(1);
}

if (got_output) 
{
    printf("Write frame = (size=])n", frameIdx, ctx.pkt.size);
    fwrite(ctx.pkt.data, 1, ctx.pkt.size, io_param.pFout);
    av_packet_unref(&(ctx.pkt));
}

28   ctx.arcTo(290,150,100,280,100);

19   //canvas对象的获得

31   //设置Canvas的onmouse事件

28 </script>

乐百家前段,119 <div id="dp">

2)绘制圆弧的arcTo()方法

22   ctx.fillStyle="#f00ff0";

26   ctx.beginPath();

 14    background-color:#eeeeee;

 53             //FileReader接口对象

 88                  

33   ctx.fill();

  9     }

 

 6      canvas {

复制代码

41 </script>

17 </body>

 3)lineWidth 钦定路线线的粗细

25        y: y - bbox.top * (canvas.height / bbox.height)};

21   //使用颜色填充矩形

11 }

120 <p>将桌面图像文件拖动到这里。</p>

 那么些相比较好明白就不做效果演示及代码。

 42           

 

 7     border-width: 5px;

复制代码

 

31                ctx.stroke();

47 </html>

20   

16 hello HTML5!

 87                  ctx.putImageData(imagedata,0,0);

 

 

35       var x=event.pageX;

  2 <html>

105                  //进行是非调换

18   var canvas=document.getElementById("c1");

 3 <head>

 

 

10 }

 17     }

11 </style>

19 

 70              image.onload=function(){

28                ctx.fillStyle='rgba(155,187,89,0.7)';

36       var y=event.pageY;

 4 <meta charset="utf-8" />

 ImageData对象是表示图像像素数量的目的。此指标定义了二种属性:

举个栗子:(本例中,当客户将桌面上的图像文件拖动到浏览器中后,首先读取图像文件并在浏览器中呈现,接着对图像实行是非转换,在原图的风华正茂侧显示调换后的图像)

 

 74                  //创制canvas对象,导入图像

43       

代码如下:

 16    margin:2em;

 25           //拖动区域的div成分

复制代码

 

29   

 6      canvas {

31   //绘制管理

  //创设CanvasGradient对象  CanvasGradient=context.createRadialGradient(x1,y1,r1,x2,y2,r2);  通过参数钦点以(x1,y1)为圆心,半径为r1的圆到以(x2,y2)为圆心,半径为r2的圆的渐变效果

 

31   //绘制管理

复制代码

 2)fill()填充路径

21   //获得绘图用的上下文对象

 

 3 <head>

 

代码如下:

 

 

13 <script> 

 

 

33   {

15 hello HTML5!

13 </head>

20   var canvas=document.getElementById("c1");

 4 <meta charset="utf-8" />

 

33   ctx.lineWidth=3;

 50             }

 

 ① context.strokeRect(x,y,w,h)    绘制矩形的大约

 1 <!DOCTYPE html>

 

107                  //将转换后的像素数量设置到原本数组成分中

  代码为:

 2 <html>

12 

 34                  //设置dragover事件的事件侦听

26   ctx.moveTo(0,0);

  2)在Canvas中张开绘图

27   ctx.lineTo(0,290);

 98              var pixels=len/4;

 7     border-width: 5px;

 9     border-color: rgba(20, 126, 239, 0.50)

 18 #dp img{

29                ctx.fill();

  

36 </html>

 

116 

 30           //页面导入时的拍卖

   //先创设CanvasGradient对象: CanvasGradient=context.createLinearGradient(x1,y1,x2,y2);  表示由地点(x1,y1)至地点(x2,y2)呈现渐变效果

  3) moveTo() 内定绘图带头时的关键性(x,y)

 

25   //路线开首

27   ctx.moveTo(20,20);

 80                  //猎取canvas像素数据

23   var bbox = canvas.getBoundingClientRect();

 1 <!DOCTYPE html>

 51             //拖动文件的File接口对象

  image.onload=function(){//图像读取时的管理}

 2 <html>

12 

 78                  var ctx=canvas.getContext("2d");

 1 <!DOCTYPE html>

 

  image.src="图像文件路线";

 79                  ctx.drawImage(image,0,0);

 

 

  语法格式如下:context.rect(x,y,宽度,中度); x,y为矩形左上角坐标

 33                  dp=document.getElementById("dp");

 

 4 <meta charset="utf-8" />

17 </body>

  ③图像截取 context.drawImage()

27   //canvas对象的获得

 6      canvas {

 

100                  //取出R,G,B值

 3 <head>

 

 8     border-style: dashed;

 32                  //获取拖动区域的div成分

 

53   };

 7      canvas {

 ctx.putImageData(imagedata,dx,dy) 将imagedata所代表的图像绘制在顶点坐标为(dx,dy)处。

26   ctx.fillRect(20,20,260,260);

 1 <!DOCTYPE html>

 36                                                          evt.preventDefault();},false);

24   g.addColorStop(1,"rgb(255,255,0)"); //黄色

 81                  var imagedata=ctx.getImageData(0,0,w,h);

本文由乐百家前段发布,转载请注明来源:HTML5:使用Canvas实时管理Video