鸣涧 发表于 2022-12-9 22:58:42

【RealtekRTL8722DM物联网开发套件】+云语音识别

【RealtekRTL8722DM物联网开发套件】+云语音识别

非常感谢 Realtek 与面包板平台提供的 RTL8722DM MINI 的测评机会。以下是我基于该套件实现的云语音识别开发流程以及最终效果。
项目源码:https://github.com/ha-zhuzhu/RTL8722DM-MINI-speech_recognizer
项目演示视频:
前言

Ameba RTL8722DM MINI 板载功能非常丰富,支持 Wifi,蓝牙,Codec,麦克风耳机孔,Micro SD卡接口等……并且还有丰富的外围接口可以连接各种传感器。因此我们能够通过这块套件实现绝大部分物联网场景下的应用,如云语音识别。
Realtek 官网上提供了 RTL8722DM MINI 详细资料,并给出了针对其不同功能的各种 ARDUINO 示例程序,数量多达七十多个,而且各种库写的非常简洁、源码注释清晰,因此开发起来非常舒适。
简单浏览,找到几个与本测评项目相关的库:
[*]HttpClient:支持http协议一些比较基本的操作。
[*]FatFs_SD:读写 Fat 文件格式的 SD 卡。
[*]RecordWav:能直接录制 wav 格式音频到 SD 卡上,也可以播放。

因此,云语音识别的实现流程为:
[*]按键检测,利用 RecordWav 录制音频到 SD 卡。
[*]利用 FatFs_SD 读取刚录制的音频。
[*]利用 HttpClient 将音频 POST 到服务器,服务器调用语音识别 api 后将识别结果返回给 Ameba。最后返回流程1。
开发流程


Ameba


HttpClient

HttpClient 支持 HTTP 的各种请求,不过功能还不够完善。目前该库还不支持持久连接,如 post() 源码的主要调用流程为:
[*]startRequest():

[*]sendInitialHeaders():发送请求头信息,包括“Connection: close”
[*]/* HttpClient.cpp */
[*]// We don't support persistent connections, so tell the server to
[*]// close this connection after we're done
[*]sendHeader(HTTP_HEADER_CONNECTION, "close");



[*]finishHeaders():发送空行结束 header

这样 POST 在发送请求头信息后就会结束连接,因此我们需要作一定的拓展。
POST 二进制流类型的文件对 POST 请求头和请求体的格式具有一定要求,我们只需要按照要求的格式和流程发送数据即可。由于我们一次流程只发送一个语音文件,并且其体积较大,因此请求体中只有头部及尾部的两个 boundary,以及中间的音频内容。因此我们可以提前设置好两个 boundary,以及 Content_Type, Content-Length 等内容以制作请求头,并在请求体中分三个部分发送即可:
[*]/* speech_recognizer.ino */
[*]char Content_Type[] = "multipart/form-data; boundary=----WebKitFormBoundarypNjgoVtFRlzPquKE";
[*]// 请求体头部及尾部数据
[*]char post_start[] = "------WebKitFormBoundarypNjgoVtFRlzPquKE\r\nContent-Disposition: form-data; name="file"; filename="ameba_recording"\r\nContent-Type: application/octet-stream\r\n\r\n";
[*]char post_end[] = "\r\n------WebKitFormBoundarypNjgoVtFRlzPquKE--\r\n";
[*]const int post_start_len = strlen(post_start);
[*]const int post_end_len = strlen(post_end);


在 setup() 中将它们写入我们在 HttpClient 中添加的成员变量中。在本项目中需要一边读取 sd 卡一边发送,因此不提前设置 post_content。
[*]/* speech_recognizer.ino */
[*]void setup()
[*]{
[*]    uint8_t *post_content = NULL;
[*]    http.mysetPostData(post_start, post_end, post_content, post_start_len, post_end_len, 0, Content_Type);
[*]}
[*]​
[*]/* HttpClient.cpp */
[*]int HttpClient::mysetPostData(char *post_start_d, char *post_end_d, uint8_t *post_content_d, int post_start_len_d,
[*]                              int post_end_len_d, int post_content_len_d, char *content_type_d)
[*]{
[*]    post_start = post_start_d;
[*]    post_end = post_end_d;
[*]    post_content = post_content_d;
[*]    post_start_len = post_start_len_d;
[*]    post_end_len = post_end_len_d;
[*]    post_content_len = post_content_len_d;
[*]    post_len = post_start_len_d + post_content_len_d + post_end_len_d;
[*]    content_type = content_type_d;
[*]}


每次录音成功后再读取文件,更新内容大小相关变量:
[*]/* HttpClient.cpp */
[*]int HttpClient::mysetPostContent(uint8_t *post_content_d, int post_content_len_d, int post_len_d)
[*]{
[*]    post_content = post_content_d;
[*]    post_content_len = post_content_len_d;
[*]    post_len = post_len_d;
[*]}


最后添加方法 mypost(),流程:

[*]mystartRequest():

[*]mysendInitialHeaders():发送请求头信息。
[*]finishHeaders():发送空行结束 header。

[*]发送请求体头部,一边读取音频一边发送,发送请求体尾部。

实现:
[*]/* HttpClient.h */
[*]#define HTTP_CONTENT_TYPE "Content-Type"
[*]​
[*]/* HttpClient.cpp */
[*]int HttpClient::mysendInitialHeaders(const char *aServerName, IPAddress aServerIP, uint16_t aPort, const char *aURLPath, const char *aHttpMethod, const char *aUserAgent)
[*]{
[*]// 与 sendInitialHeaders() 主要区别部分
[*]sendHeader(HTTP_HEADER_CONNECTION, "keep-alive");
[*]sendHeader(HTTP_HEADER_CONTENT_LENGTH, post_len);
[*]sendHeader(HTTP_CONTENT_TYPE, content_type);
[*]}/* HttpClient.cpp */
[*]int HttpClient::mypost(const char *aServerName, const char *aURLPath, SdFatFile file, const char *aUserAgent)
[*]{
[*]    const int MY_BODY_SIZE = 1000;
[*]    uint8_t buf_temp; // 读取音频并发送的缓冲
[*]    memset(buf_temp, 0, MY_BODY_SIZE);
[*]​
[*]    // 发送请求头
[*]    int req_ret = mystartRequest(aServerName, kHttpPort, aURLPath, HTTP_METHOD_POST, aUserAgent);
[*]    if (HTTP_SUCCESS != req_ret)
[*]    {
[*]      return req_ret;
[*]    }
[*]​
[*]    // 发送请求体头部
[*]    iClient->write((const uint8_t *)post_start, post_start_len);
[*]​
[*]    // 发送音频文件,可能分多次发送
[*]    int read_bytes = file.read(buf_temp, MY_BODY_SIZE);
[*]    iClient->write(buf_temp, read_bytes);
[*]    while (read_bytes == MY_BODY_SIZE)
[*]    {
[*]      read_bytes = file.read(buf_temp, MY_BODY_SIZE);
[*]      iClient->write(buf_temp, read_bytes);
[*]    }
[*]​
[*]    // 发送请求体尾部
[*]    iClient->write((const uint8_t *)post_end, post_end_len);
[*]​
[*]    return HTTP_SUCCESS;
[*]}



FatFs_SD

功能完善可以直接使用。貌似只支持Fat32?需要提前制备 SD 卡。
没有获取文件大小的方法,自己实现:
[*]/* SdFatFile.cpp */
[*]int SdFatFile::size() {
[*]    return f_size((FIL *)m_file);
[*]}



RecordWav

功能完善,可以直接录制生成 Wav 格式的音频文件,不需要手动给 PCM 文件写文件头,能直接发给云端进行语音识别,非常方便。只需要提前设置采样率位深等信息。
主循环

实现了各种方法后就能在主循环内实现云语音识别的流程了:
[*]void loop()
[*]{
[*]    if ((digitalRead(RECORDBTN) == HIGH) && (!recWav.fileOpened()))
[*]    {
[*]      // 按下按钮录制音频
[*]      sprintf(record_file_name, "%d.wav", record_counter);
[*]      sprintf(absolute_filename, "%s%s", fs.getRootPath(), record_file_name);
[*]      Serial.println("Recording started");
[*]      recWav.openFile(absolute_filename);
[*]    }
[*]    else if ((digitalRead(RECORDBTN) == LOW) && (recWav.fileOpened()))
[*]    {
[*]      // 松开按钮停止录制
[*]      Serial.println("Recording stopped");
[*]      recWav.closeFile();
[*]
[*]      // 文件保存后再打开文件,获取大小
[*]      SdFatFile record_file = fs.open(absolute_filename);
[*]      int record_file_len = record_file.size();
[*]      printf("size:%d", record_file_len);
[*]
[*]      // 设置 Post Content 相关变量
[*]      http.mysetPostContent(NULL, record_file_len, post_start_len + record_file_len + post_end_len);
[*]      // POST 音频数据
[*]      err = http.mypost(kHostname, kPath, record_file);
[*]      // 关闭文件句柄
[*]      record_file.close();
[*]
[*]      // 读取解析 response (省略)
[*]      if (err == 0){...}
[*]      delay(100);
[*]}


服务器

服务器端搭建在我的个人网站上,nginx+PHP架构,使用腾讯云提供的语音识别 api。假设板端将请求提交到 http://asr.hazhuzhu.com/ameba_asr.php
nginx

[*]server
[*]{
[*]    listen 80;
[*]    server_name asr.hazhuzhu.com;
[*]​
[*]    client_max_body_size 128m;
[*]​
[*]    root /home/wwwroot/asr;
[*]    index index.html index.htm index.php;
[*]​
[*]    location / {
[*]      try_files $uri $uri/ =404;
[*]    }
[*]​
[*]    location ~ \.php$ {
[*]      include fastcgi.conf;
[*]      fastcgi_pass    unix:/tmp/php-cgi.sock;
[*]      fastcgi_keep_conn on;
[*]    }
[*]}



PHP

后端负责存储音频文件并调用语音识别 api(需要使用腾讯云相关 SDK),最后返回识别结果。api 调用部分腾讯云提供了相关文档和代码生成工具,比较方便。
[*]<?php
[*]$uploads_dir = 'ameba_recordings';
[*]​
[*]if ($_FILES['file']['error'] == UPLOAD_ERR_OK)
[*]{
[*]      $tmp_name = $_FILES['file']['tmp_name'];
[*]      // $name = $_FILES['file']['name'];
[*]      $date_str=date('YmdHis');
[*]      move_uploaded_file($tmp_name, "$uploads_dir/$date_str".'.wav');
[*]
[*]         try {
[*]         // 调用 api 部分,省略
[*]                $result_str=$resp->getResult();
[*]                $result_file=fopen("$uploads_dir/$date_str".'.txt',"a");
[*]                fwrite($result_file,$result_str);
[*]                fclose($result_file);
[*]                echo $result_str;
[*]      }
[*]      catch(TencentCloudSDKException $e) {
[*]                echo $e;
[*]      }


至此我们完成了一个完整的基于 Ameba RTL8722DM MINI 的云语音识别应用。
总结

首先我想谈谈使用 Ameba RTL8722DM MINI 的开发体验。正如前文所述,MINI 体积小但功能强大,能够实现大部分物联网场景应用。并且 MINI 支持 Arduino 开发,很快就能上手实现,不需要构建繁杂的单片机工程。而且官网的文档非常详尽,大量的示例程序、api文档、硬件细节以及详细的源码注释等,极大地方便了我们的开发。相关工作人员也很有耐心,点赞!
其次,其它开发者有提到麦克风的问题。我感觉确实录制下来的声音比较小,可能是缺省增益不够大?不过最终实现的语音识别效果还不错,没有什么影响。
最后再次感谢 Realtek 与面包板平台提供的这次测评与学习的机会。囿于时间和技术水平,本项目还有许多值得改进的地方,包括代码规范与识别效率等,希望能和大家共同交流学习!也祝主办方的技术生态越来越好!


页: [1]
查看完整版本: 【RealtekRTL8722DM物联网开发套件】+云语音识别