【教程】小安派BW21-CBV-Kit——声音区分

[复制链接]
查看19 | 回复0 | 2025-1-20 15:18:00 | 显示全部楼层 |阅读模式

用料

示例

在这个例子中,我们将使用 BW21-CBV-Kit 来检测 521 种不同的音频,如语音、动物声音、闹钟和还有很多。

“File” -> “Examples” -> “AmebaNN” 中打开音频分类例程 : “AudioClassification”。

image.png

使用 modelSelect() 函数选择神经网络 (NN) 任务和模型 强调。

此函数接受 5 个参数:神经网络任务, 对象检测模型、人脸检测模型、人脸识别模型和 音频分类模型。

如果不是,请替换为 “NA_MODEL” 对于您选择的神经网络任务是必需的。

请注意,它是 必须在调用 begin() 之前调用 modelSelect() 函数 功能。

有效的神经网络任务:OBJECT_DETECTION、FACE_DETECTION、 FACE_RECOGNITION、AUDIO_CLASSIFICATION

有效的对象检测模型:

YOLOv3 模型:DEFAULT_YOLOV3TINY、CUSTOMIZED_YOLOV3TINY

YOLOv4 模型:DEFAULT_YOLOV4TINY、CUSTOMIZED_YOLOV4TINY

YOLOv7 模型:DEFAULT_YOLOV7TINY、CUSTOMIZED_YOLOV7TINY

有效的人脸检测模型:DEFAULT_SCRFD、CUSTOMIZED_SCRFD

有效的人脸识别模型:DEFAULT_MOBILEFACENET、 CUSTOMIZED_MOBILEFACENET

有效的音频分类模型:DEFAULT_YAMNET、CUSTOMIZED_YAMNET

选择自定义选项(例如,CUSTOMIZED_YOLOV4TINY/ CUSTOMIZED_SCRFD/ CUSTOMIZED_MOBILEFACENET/ CUSTOMIZED_YAMNET) 如果您 希望使用您自己的 NN 模型。要了解流程 转换 AI 模型,请参阅 https://www.amebaiot.com/en/amebapro2-ai-convert-model/ 。此外 请参阅 https://www.amebaiot.com/en/amebapro2-apply-ai-model-docs/ 了解如何安装和使用转换后的模型。

image.png

编译代码并将其上传到 BW21-CBV-Kit 。按后重设按钮,板载麦克风将开始拾取音频。

如果未检测到音频,则将被识别为“静音”类 显示在 Serial Monitor 中。

image.png

当板载麦克风拾取到警报等音频时,识别结果将显示在 Serial monitor 中。

image.png

默认的预训练模型总共可以识别 521 种不同类型的音频。音频可以在 AudioClassList.h 中找到。索引号也称为每个音频类的类 ID 是固定的,不应被更改。要停用某些音频的识别,请将 filter 值设置为 0。

例如,将 filter 值设置为 0 以排除 检测语音。

image.png

用心做好保姆工作
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则