阅读记录

第245章 人景分离[2/2页]

崛起于2009 平底锅煎蛋

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
以得到关于人物轮廓的特征库以及语意库,作为分离标准。
      对静动像素的神经网络进行算法分析,可以得到需要处理的目标区域。
      此外还有远近景的区分等等,这又是一个长长的课题清单。
      监督学习和深度学习不再表述,总之这就是个黑盒模式。黑盒就是人类看不懂也无法解释的意思,其过程是个有目的的随机碰撞的过程,依赖于高gu的计算能力。
      静动分析更好说,如果图片四角是静止的,那么目标可能就是动的。如果图片四角是移动的,那么目标可能是静止的。
      远近景就不说了,有些时候并不是所有图片中动的物体都需要切割。
      这里面临一个问题:英伟达支持ai计算的显卡目前还没布,所以这一项目想要实现,仍然还是依赖于服务器。
      所以整个项目流程被定为,ai服务器从新a站服务器得到视频数据,将视频数据解码变为图片集,对像素进行标记,处理好的图片集再次打包成视频吐回服务器,视频网站设置对应的人、景、弹幕三者的zdex,在网站上和移动端把弹幕置于人景之间,最终呈现给用户的就是一个人景分离的弹幕了。
      因为依赖于服务器的原因,算力是有限的,能从这一项目得到受惠的u主必然不会太多。因此这一成果将用于吸引优秀u主加入,作为优秀视频的奖励。
      当然这些扯远了,眼下八字还没一撇。好端端的突然跳到这个科研树,原因是因为需要强化语意分割。
      语意分割,其目标是知道图片中的物体是什么。
      以微软识图为例,一张绿草如茵的图片,可能会被识别为“羊”。原因是,有关羊的训练库都和草地有关,所以看到草地,计算机就会自动认为这是“羊”。这就是无语意分割。
      语意分割就是要搞清楚,“羊”是什么,“羊”长什么样,“羊”在哪。
      机械手识别商品并进行抓取,用到是就是有语意分割的深度学习神经网络,但是存在着一些缺陷。
      新开的这个项目就是为了强化语意分割的概念,进一步增加对图片的辨识度,并为图片中的物体赋予含义。
      并不涉及到未知技术,叶晓奇也没打算插手。人景分离项目继天网课堂的人脸识别项目后,成为了新的可选实训项目。而人景分离,也将为天网课堂的考核教程提供素材。
      叶晓奇点了一个人,做这个项目负责人,老实巴交的刘浩然,上一次刘浩然的展示给叶晓奇留下了深刻的印象。
      校企合作那边也相应的提了要求,近期需要侧重提供包含人物的图片,以供学习。
      (这个技术的灵感来源是b站的蒙版弹幕,早在蒙版弹幕出来的时候我就在搞这个玩了,fnc在这方面做的很好,再后来现可以不用这么玩,谷歌在2月份布了dee1abv3+可以直接做这个东西。这个技术真的很简单,当下的条件,一个人就能写了,只是跟团队比起来会有效率高低开快慢的不同,具体用到的工具和库也会不一样,有几个库可供选择,效果也不一样。到目前为止,本书中出现过的东西,都是现实里已经有的。ai弹幕,按道理来说,其实早就应该有了,可能是研ai的企业关注点都在别的方面,比如汽车和vr什么的,所以拖到2o18年才有。未来,本书也许会略带科幻元素,原则仍然还是以现有技术能否实现为基准,不会科幻的很离谱。)

第245章 人景分离[2/2页]