用料
示例
在这个例子中,我们将使用 BW21-CBV-Kit 来检测 521 种不同的音频,如语音、动物声音、闹钟和还有很多。
在 “File” -> “Examples” -> “AmebaNN” 中打开音频分类例程 : “AudioClassification”。
使用 modelSelect() 函数选择神经网络 (NN) 任务和模型 强调。
此函数接受 5 个参数:神经网络任务, 对象检测模型、人脸检测模型、人脸识别模型和 音频分类模型。
如果不是,请替换为 “NA_MODEL” 对于您选择的神经网络任务是必需的。
请注意,它是 必须在调用 begin() 之前调用 modelSelect() 函数 功能。
有效的神经网络任务:OBJECT_DETECTION、FACE_DETECTION、 FACE_RECOGNITION、AUDIO_CLASSIFICATION
有效的对象检测模型:
YOLOv3 模型:DEFAULT_YOLOV3TINY、CUSTOMIZED_YOLOV3TINY
YOLOv4 模型:DEFAULT_YOLOV4TINY、CUSTOMIZED_YOLOV4TINY
YOLOv7 模型:DEFAULT_YOLOV7TINY、CUSTOMIZED_YOLOV7TINY
有效的人脸检测模型:DEFAULT_SCRFD、CUSTOMIZED_SCRFD
有效的人脸识别模型:DEFAULT_MOBILEFACENET、 CUSTOMIZED_MOBILEFACENET
有效的音频分类模型:DEFAULT_YAMNET、CUSTOMIZED_YAMNET
选择自定义选项(例如,CUSTOMIZED_YOLOV4TINY/ CUSTOMIZED_SCRFD/ CUSTOMIZED_MOBILEFACENET/ CUSTOMIZED_YAMNET) 如果您 希望使用您自己的 NN 模型。要了解流程 转换 AI 模型,请参阅 https://www.amebaiot.com/en/amebapro2-ai-convert-model/ 。此外 请参阅 https://www.amebaiot.com/en/amebapro2-apply-ai-model-docs/ 了解如何安装和使用转换后的模型。
编译代码并将其上传到 BW21-CBV-Kit 。按后重设按钮,板载麦克风将开始拾取音频。
如果未检测到音频,则将被识别为“静音”类 显示在 Serial Monitor 中。
当板载麦克风拾取到警报等音频时,识别结果将显示在 Serial monitor 中。
默认的预训练模型总共可以识别 521 种不同类型的音频。音频可以在 AudioClassList.h 中找到。索引号也称为每个音频类的类 ID 是固定的,不应被更改。要停用某些音频的识别,请将 filter 值设置为 0。
例如,将 filter 值设置为 0 以排除 检测语音。