M5Stack UnitV2初体验 - 通过图像识别,来甄别流水线的异常品,发现异常品后灯光提示
首先说明下:因个人原因,时间条件有限,只能进行一个极简版的测试了,原计划选择第二个测试:通过图像识别,来甄别流水线的异常品,发现异常品后记录。既然是极简,我就省略了流水线,直接人工传送,发现异常也没有上传记录,只是在终端显示其生成的JSON数据,并通过LED指示灯进行简单提示。虽然简单,不过我觉得其核心功能我都摸了一遍,基本算是掌握了这款AI 摄像头的使用。
一、基本情况介绍
UnitV2是M5Stack推出的一款高效率的AI识别模块,官方称其为M5Stack首款全功能一体化,用于边缘计算的独立AI摄像头,采用Sigmstar SSD202D(集成双核Cortex-A7 1.2Ghz处理器)控制核心,集成128MB-DDR3内存,512MB NAND Flash, 1080P摄像头。内嵌Linux操作系统,集成丰富的软硬件资源与开发工具。
从来没玩过AI摄像头,老实说这款摄像头真不咋地,不过考虑其运算能力就放那,就不多想了。起初还有些犹豫,看了介绍说开箱即用,刚好硬禾做活动,就一起玩玩吧。
二、基本测试条件
条件有限,就地取材,使用摄像头的物体识别功能,对流水线上的物品进行检测。指定中性签字笔为正常品,遥控器、铅笔等为异常品。摄像头和PC机通过USB线连接,系统识别到物品后,当物品达到一定相似度(置信率大于50%时)后屏幕会打印出识别到的物品信息,当置信率大于85%时,闪白色LED灯,提示物品正常;否则闪红色LED灯。
先后使用了多个软件进行测试,包括360、Edge、Firefox浏览器,最终发现Firefox不兼;远程登录软件使用Putty、SecureCRT,不过在打了ssh等几个插件后最终主用VS Code解决几乎所有问题。
三、测试思路
第一步,首先采集数据,并上传到v-training.m5stack.com进行建模、训练输出自己的模型。
我这里采集了60+张各个角度的中性笔的图片。
第二步,用自建模型进行识别测试
第三步,用Python编写自己的代码并应用自建模型
第四步、上传到模块中进行验证
看到有人做图形界面进行结果显示,我觉得灯光提示还是更实用些,因此我将匹配80%作为正品显示白光LED闪烁,50%以上作为次品显示红光LED闪烁,其它认为不是鉴定的物品也不显示光线。
四、遇到的主要难题及下步计划
首先是Training的时候就是个体力活,起初还尝试标签用中文,发现后面都成乱码了,只能从新Training。
其次是敲代码,不太会Python,主要是第一次使用VSCODE,从基本配置到程序编写都是新的尝试,反复看了N遍直播视频后,总算搞清楚VSCODE咋用了,不过此时已临近截止日期了;先是远程登录密码太麻烦;然后代码上传一直不知道怎么搞,后来群里有人提示可以安装插件SSHTools,从此如虎添翼,从代码编辑,调试,上传,终端显示全部都在VScode里完成了。
另外,不知道是模型样本还不够还是模块太热还是代码没优化,识别总是有拖尾,比如识别正品后老半天都显示高置信率,即使把物品移开5秒后也一直会显示,后面还需进一步调整优化。
至于说后期计划,因为还有很多功能还没有完全测试,比如wifi、云端和GUI界面等都没有做,看到其他群友用python 抓取数据还没有练过,所以后期还有许多要学习。