JP2023117120A - エレベータ用の音声認識システム - Google Patents

エレベータ用の音声認識システム Download PDF

Info

Publication number
JP2023117120A
JP2023117120A JP2022019655A JP2022019655A JP2023117120A JP 2023117120 A JP2023117120 A JP 2023117120A JP 2022019655 A JP2022019655 A JP 2022019655A JP 2022019655 A JP2022019655 A JP 2022019655A JP 2023117120 A JP2023117120 A JP 2023117120A
Authority
JP
Japan
Prior art keywords
passenger
voice
data
information
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022019655A
Other languages
English (en)
Other versions
JP7349072B2 (ja
Inventor
行宏 宮川
Yukihiro Miyagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2022019655A priority Critical patent/JP7349072B2/ja
Publication of JP2023117120A publication Critical patent/JP2023117120A/ja
Application granted granted Critical
Publication of JP7349072B2 publication Critical patent/JP7349072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】音声認識の精度を向上させることができるエレベータ用の音声認識システムを提供することを課題とする。【解決手段】かご内で集音した音データから搭乗者の音声データを抽出し且つ該音声データの発生源の位置を特定する処理を実行する音処理手段2と、かご内を撮像した画像データに基づいて搭乗者の位置を特定する処理を実行する画像処理手段3と、前記音処理手段2で抽出した前記音声データのうち、前記発生源の位置が前記画像処理手段3で特定した前記搭乗者の位置と同じものに対して音声認識を行う音声認識手段6と、を備える、エレベータ用の音声認識システム1。【選択図】図1

Description

本発明は、エレベータの搭乗者の音声を認識するためのエレベータ用の音声認識システムに関する。
従来、エレベータには、搭乗者の音声を認識する音声認識システムが搭載されているものがあり、例えば、特許文献1のエレベータには、かご内マイクで集音した音声を認識し、認識した音声に基づいてかご内の状況を認識する音声認識装置を備える音声認識システムが搭載されている。
特開2011-073819号公報
ところで、上記従来のような音声認識システムのかご内マイクには、音声認識の対象とした搭乗者の音声だけでなく、音声認識の対象外の搭乗者の音声や環境音も入るため、音声認識装置が正しく音声を認識できないことがある。
そこで、本発明は、かかる実情に鑑み、音声認識の精度を向上させることができるエレベータ用の音声認識システムの提供を課題とする。
本発明のエレベータ用の音声認識システムは、
かご内で集音した音データから搭乗者の音声データを抽出し且つ該音声データの発生源の位置を特定する処理を実行する音処理手段と、
かご内を撮像した画像データに基づいて搭乗者の位置を特定する処理を実行する画像処理手段と、
前記音処理手段で抽出した前記音声データのうち、前記発生源の位置が前記画像処理手段で特定した前記搭乗者の位置と同じものに対して音声認識を行う音声認識手段と、を備える。
上記構成のエレベータ用の音声認識システムは、搭乗者の音声の発生源の位置と搭乗者の立ち位置の対応関係が一致している音声データに対して音声認識手段が音声認識を行えるように構成されているため、音声認識の対象とすべき音声データとは別の音声データに音声認識をしてしまうことが抑えられ、これにより、音声認識の精度が向上するようになっている。
本発明のエレベータ用の音声認識システムは、
前記音処理手段は、前記音声データに基づいて発声元の搭乗者の特徴を示す音声特徴情報を抽出する音声特徴抽出手段を有するように構成されていてもよい。
このようにすれば、搭乗者の特徴を示す情報を用いることができるため、音声認識を行うべき対象であるか否かの判定や音声認識の精度を高めることができる。
本発明のエレベータ用の音声認識システムは、
前記画像処理手段は、前記画像データに写る搭乗者の特徴を示す被写体特徴情報を抽出する被写体特徴抽出手段を有するように構成されていてもよい。
この場合においても、搭乗者の特徴を示す情報を用いることができるため、音声認識を行うべき対象であるか否かの判定や音声認識の精度を高めることができる。
本発明のエレベータ用の音声認識システムは、
前記画像データに写る搭乗者の挙動に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定する挙動判定手段を備え、
前記音声認識手段は、前記発生源の位置が、前記挙動判定手段によって音声認識を行う対象とすべき搭乗者であるか判定された前記画像データが示す前記搭乗者の位置と同じである前記音声データに対して音声認識を行うように構成されていてもよい。
このようにすれば、搭乗者の動きも用いて音声認識を行うべき対象であるか否かの判定を行うことができるため、音声認識を行うべき対象であるか否かの判定精度を高めることができる。
本発明のエレベータ用の音声認識システムは、
前記音声データに基づいて抽出された言葉に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定する言葉判定手段を備え、
前記音声認識手段は、前記言葉判定手段が音声認識を行う対象とすべき搭乗者であると判定した前記音声データに対して音声認識を行うようにしてもよい。
このようにすれば、搭乗者の言葉に基づいて音声認識を行うべき対象であるか否かの判定を行うことができるため、音声認識を行うべき対象であるか否かの判定精度を高めることができる。
以上のように、本発明のエレベータ用の音声認識システムは、音声認識の精度を向上させることができるという優れた効果を奏し得る。
図1は、本発明の一実施形態に係るエレベータ用の音声認識システムの構成の概要を示すブロック図である。 図2は、同実施形態に係るエレベータ用の音声認識システムで用いる搭乗者情報の説明図である。 図3は、同実施形態に係るエレベータ用の音声認識システムで用いる画像データの説明図である。 図4は、同実施形態に係るエレベータ用の音声認識システムのメインフローチャートである。 図5は、同実施形態に係るエレベータ用の音声認識システムのサブフローチャートであって、音声関連情報を作成する処理の流れを示すサブフローチャートである。 図6は、同実施形態に係るエレベータ用の音声認識システムのサブフローチャートであって、画像処理手段を作成する処理の流れを示すサブフローチャートである。 図7は、同実施形態に係るエレベータ用の音声認識システムのサブフローチャートであって、搭乗者情報を作成する処理の流れを示すサブフローチャートである。 図8は、同実施形態に係るエレベータ用の音声認識システムのサブフローチャートであって、搭乗者が連絡者であるか否かを判定する処理の流れを示すサブローチャートである。
以下、本発明の一実施形態にかかるエレベータ用の音声認識システム(以下、音声認識システムと称する)について、添付図面を参照しつつ説明する。
音声認識システムは、かご内の搭乗者の音声に対して音声認識を行うように構成されたシステムである。また、本実施形態では、かご内の搭乗者のうち、外部に連絡を取ろうとしている搭乗者(本実施形態では連絡者と称する)を特定したうえで、この搭乗者の音声を認識できるように構成されていることを一例に挙げて音声認識システムの説明を行う。
なお、音声認識システムで音声認識を行う対象とするかごは、例えば、図1に示すように、かご内の音を集音する集音装置Mと、かご内を撮像する撮像装置Cと、かごの外部に連絡をとるための外部連絡装置T(図3参照)とが設置されているものであればよい。
本発明の音声認識システム1は、かご内で集音した音データに基づいて、搭乗者一人ごとに該搭乗者の音声データを含む音声関連情報を作成する処理を実行する音処理手段2と、かご内を撮像した画像データに基づいて、搭乗者一人ごとに該搭乗者が写る被写体データを含む被写体関連情報を作成する処理を実行する画像処理手段3と、同一の搭乗者の音声関連情報と被写体関連情報とを関連付けて搭乗者情報を作成する搭乗者情報作成手段4と、搭乗者情報に基づいて音声認識を行う対象とする搭乗者を選択する対象選択手段5と、対象選択手段5が音声認識を行う対象として選択した搭乗者の音声データに対して音声認識を行う音声認識手段6と、を備える。
音処理手段2は、音データを取得する音データ取得手段20と、音データ取得手段20で取得した音データから搭乗者ごとの音声データを作成する音声作成手段21と、音声作成手段21が作成した音声データに基づいて音声の発生源(搭乗者の位置を示す情報であり、本実施形態では音声位置情報と称する)を導出する音声位置導出手段22と、音声作成手段21が抽出した音声データに基づいて発声元の搭乗者の特徴を示す情報(本実施形態では音声特徴情報と称する)を導出する音声特徴導出手段23と、を有する。
音データ取得手段20が取得する音データとは、かご内に設置されている集音装置Mが集音した音データのことである。また、音データ取得手段20は、集音装置Mから直接的に音データを取得してもよいし、集音装置Mによって集音された後に記憶手段に記憶された音データを取得するように構成されていてもよい(すなわち、集音装置Mから間接的に音データを取得するように構成されていてもよい。
音声作成手段21は、音データから雑音を除去する雑音除去処理と、雑音除去処理で雑音を除去した音データから搭乗者一人ごとの音声データを作成する音声抽出処理と、を実行するように構成されている。
雑音除去処理において音データから除去する雑音とは、搭乗者がいない状態のかご内で集音できる音のことであり、かごの動作音や、かご内でのアナウンス、かご外から入り込む外部の環境音等のことである。
さらに、雑音除去処理は、予め作成されている雑音のデータを取得し、該雑音のデータに基づいて音データから雑音の成分(雑音のデータに含まれている音成分と同一又は略同一の音成分)を除去するように構成されていればよい。
音声抽出処理は、音データから搭乗者の音声に該当する部分を切り出すことによって音声データを作成してもよいし、音データから搭乗者の音声成分を分離することによって音声データを作成するように構成されていてもよい。すなわち、音声抽出処理は、搭乗者一人分の音声が入った音声データを作成するように構成されていればよい。
音声位置導出手段22は、例えば、かご内に設置した複数の集音装置Mによって集音した複数の音データに基づいて音源位置情報を導出するように構成されていればよい。この場合、音声位置導出手段22は、複数の音データを比較して音の伝わる速さの差や、音圧の差を導出し、これらの情報と、各集音装置の設置位置等の情報とに基づいて音声の発生源の位置を導出するように構成されていればよい。
また、音声位置情報は、かご内の所定の範囲のエリア(例えば、かご内を前後方向と左右方向とで区画することで設定した複数のエリア)の位置を示す情報であってもよいし、かご内における前後方向と左右方向の座標を示す情報であってもよい。
音声特徴導出手段23は、音声データに基づいて音声成分(搭乗者の音声成分)の特徴を導出する音声成分導出処理と、音声成分導出処理で抽出した音声成分に基づいて搭乗者の特徴を示す音声特徴情報を導出する音声特徴導出処理とを実行するように構成されている。
音声成分導出処理は、例えば、ケプストラム分析により、音声データから搭乗者の音声成分を導出するように構成されていればよい。また、音声成分導出処理で導出する音声成分とは、例えば、音の大きさや、高さ、音色等のことである。
音声特徴導出処理は、音声成分導出処理で抽出した音声成分に基づいて性別や、年齢層等の搭乗者の外見に関連する特徴を導出するように構成されていればよい。
ここで、図2に示すように、本実施形態の音処理手段2では、音声位置導出手段22が抽出した音源位置情報D11は音声データD10に関連付けられ、音声特徴導出手段23が音声特徴導出処理で導出した音声特徴情報D12は音声データD10に関連付ける。そのため、音声関連情報D1には、音声データD10と、音源位置情報D11と、音声特徴情報D12とが含まれる。
画像処理手段3は、画像データを取得する画像データ取得手段30と、画像データ取得手段30で取得した画像データから搭乗者ごとの被写体データを抽出する被写体抽出手段31と、被写体抽出手段31が抽出した被写体データに基づいて搭乗者の位置情報(以下、被写体位置情報と称する)を導出する被写体位置導出手段32と、被写体抽出手段31が抽出した被写体データに基づいて被写体(搭乗者)の挙動を導出する挙動導出手段33と、被写体抽出手段31が抽出した被写体データに基づいて被写体(搭乗者)の特徴を示す情報(本実施形態では被写体特徴情報と称する)を導出する被写体特徴導出手段34と、を有する。
画像データ取得手段30が取得する画像データとは、かご内に設置されている撮像装置C(例えば、カメラ等)が撮像した画像のことである。また、画像データ取得手段30は、撮像装置Cから直接的に画像データを取得してもよいし、撮像装置Cによって撮像された後に記憶手段に記憶された画像データを取得するように構成されていてもよい(すなわち、撮像装置Cから間接的に画像データを取得するように構成されていてもよい)。
被写体抽出手段31は、画像データ内で搭乗者が写っている領域を指定する。本実施形態では、図3に示すように、画像データPに対して複数の区画領域P1が設定されており、被写体抽出手段31は、複数の区画領域P1のうち、搭乗者(H1,H2)が写っている区画領域P1を指定し、該区画領域P1を被写体データとするように構成されている。
図3では、連絡者である搭乗者に符号「H1」を付し、連絡者でない搭乗者には符号「H2」を付している。
なお、画像データPは、動画であってもよいし、静止画であってもよい。画像データPを静止画とする場合は、例えば、時系列順に連続する複数の静止画を一つの画像データとすればよい。
被写体位置導出手段32は、被写体抽出手段31が抽出した被写体データに基づいて搭乗者の位置情報(かご内における搭乗者の位置を示す情報)を導出する。
被写体位置導出手段32は、例えば、画像データP内での被写体データ(区画領域)P1の位置に基づいて搭乗者位置情報を導出するように構成されていてもよい。この場合、画像データの各区画領域には、予めかご内の対応する位置が関連付けておき、被写体位置導出手段32は、被写体抽出手段31が抽出した被写体データ(区画領域)Pの位置を搭乗者位置情報とするように構成されていればよい。
挙動導出手段33は、図1に示すように、搭乗者の挙動を導出する挙動導出処理と、挙動導出処理で抽出した搭乗者の挙動に基づいて、搭乗者がかごの外部に連絡をとろうとしている連絡者であるか否かを判定する連絡者判定処理と、連絡者判定処理の判定結果に基づいて搭乗者がかごの外部に連絡をとろうとしている連絡者であることを示す連絡者情報、又は搭乗者がかごの外部に連絡をとろうとしている連絡者ではないことを示す非連絡者情報を被写体データに関連付ける連絡者情報付与処理と、を実行するように構成されている。
本実施形態の挙動導出処理は、搭乗者の挙動の有無を判定し、搭乗者に挙動が有ると判定した場合は、搭乗者の挙動の種類と、搭乗者の向きとを導出するように構成されている。
挙動導出処理は、例えば、搭乗者の挙動の種類として、搭乗者が発話していると認められる発話動作や、搭乗者が発話していないと認められる非発話動作を導出するように構成されていればよい。
また、挙動導出処理は、例えば、搭乗者の向きとして、搭乗者が外部連絡装置の方に向いているか、搭乗者が外部連絡装置とは別の方に向いているかを導出するように構成されていればよい。
連絡者判定処理は、挙動導出処理で導出した搭乗者の挙動の種類が発話動作であり、且つ搭乗者の向きが外部連絡装置の方である場合は搭乗者が連絡者であると判定し、挙動導出処理で搭乗者に挙動がないと判定した場合、若しくは、搭乗者の挙動の種類が非発話動作であると導出されるか、搭乗者の向きが搭乗者の挙動の種類が非発話動作であると導出された場合に、搭乗者が連絡者ではないと判定するように構成されている。
連絡者情報付与処理は、図2に示すように、連絡者判定処理で搭乗者が連絡者であると判定した場合は被写体データD20に連絡者情報D22を関連付け、連絡者判定処理で搭乗者が連絡者でないと判定した場合は被写体データD20に非連絡者情報D23を関連付けるように構成されている。
被写体特徴抽出手段で抽出する搭乗者の特徴も、性別や、年齢層等の搭乗者の外見に関連する特徴である。
ここで、本実施形態の画像処理手段3では、被写体位置導出手段32が抽出した被写体位置情報D21は被写体データD20に関連付けられ、被写体特徴導出手段34が導出した被写体特徴情報D4も被写体データD20に関連付けられ、また、上述のように、連絡者情報D22又は非連絡者情報D23も被写体データD20に関連付けられる。そのため、画像関連情報D2には、被写体データD20と、被写体位置情報D21と、連絡者情報D22又は非連絡者情報D23の何れか一方と、被写体特徴情報D24とが含まれている。
搭乗者情報作成手段4は、図1に示すように、音声データに関連付けられている音声位置情報と、被写体データに関連付けられている被写体位置情報とを比較し、音声位置情報と被写体位置情報とが同じ位置を示している場合は、音声関連情報と被写体関連情報とを関連付けて搭乗者情報を作成するように構成されている。
なお、搭乗者情報作成手段4は、音声データに関連付けられている音声位置情報と、被写体データに関連付けられている被写体位置情報とが同じ位置を示しており、且つ音声特徴情報が示す搭乗者の特徴と被写体特徴情報が示す搭乗者の特徴とが対応している場合に音声データと被写体データとを関連付けて搭乗者情報を作成するように構成されていてもよい。
対象選択手段5は、搭乗者の挙動と搭乗者が発した言葉に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定するように構成されている。
より具体的に説明すると、対象選択手段5は、搭乗者情報を選択する選択手段50と、搭乗者の挙動情報に基づいて音声認識を行う対象とすべき搭乗者(本実施形態では連絡者)であるか否かを判定する挙動判定手段51と、搭乗者情報の音声データから搭乗者が発した言葉を抽出し、且つ抽出した言葉に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定する言葉判定手段52と、を有する。
挙動判定手段51は、被写体データに非連絡者情報が関連付けられている場合に、搭乗者が音声認識を行う対象とすべき搭乗者(連絡者)でないと判定するように構成されている。
言葉判定手段52は、搭乗者が連絡者であるか否かを判定するために予め設定されている判定用の言葉が音声データから抽出した言葉に含まれているか否かを判定し、音声データから抽出した言葉に判定用の言葉が含まれている場合は搭乗者を連絡者と判定し、音声データから抽出した言葉に判定用の言葉が含まれていない場合は搭乗者が連絡者でないと判定するように構成されている。判定用の言葉とは、例えば、かごの異常を示す言葉等のことである。
音声認識手段6は、挙動判定手段51と言葉判定手段52により連絡者が特定されていない状態においては、選択手段50が選択した搭乗者情報に含まれる音声データの音声認識を行い、連絡者が特定されている状態においては、連絡者の搭乗者情報に含まれる音声データの音声認識を行うように構成されている。
本実施形態に係る音声認識システム1の構成は、以上の通りである。続いて、音声認識システム1の動作を説明する。
音声認識システム1は、図4に示すように、音処理手段2が音声関連情報を作成し(S1)、画像処理手段3が被写体関連情報を作成し(S2)、搭乗者情報を作成する場合(音声位置情報と被写体位置情報とが一致している場合)は(S3でYes)、搭乗者情報作成手段4が音声関連情報と被写体関連情報とに基づいて搭乗者情報を作成する(S4)。
続いて、対象選択手段505が選択した搭乗者情報が連絡者のものであるか否かを判定し(S5)、対象選択手段505が搭乗者情報を連絡者のものであると判定した場合(S6でYes)は、音声データに対して音声認識手段6による音声認識を行う(S7)ように構成されている。
なお、本実施形態の音声認識システムは、音声認識手段6による音声データに対する音声認識を終了した後、または、搭乗者情報を作成しない場合(S3でNo)、または、対象選択手段505が搭乗者情報を連絡者のものでないと判定した場合(S6でNo)、処理を終了するか(S8でYes)、処理を続行するか(S8でNo)を判定する。
また、図4では、音処理手段2による処理の流れの後に画像処理手段3による処理の流れを図示しているが、搭乗者情報作成手段4による処理が実行される前に音処理手段2による処理と画像処理手段3による処理とを完了させることができれば、画像処理手段3による処理の後に音処理手段2の処理が実行されてもよいし、音処理手段2による処理と画像処理手段3による処理とが並列的に処理されてもよい。
音処理手段2は、図5に示すように、音データ取得手段20が音データを取得するまで処理を繰り返し(S10でNo)、そして、音データ取得手段20が音データを取得すると(S10でYes)と、音声作成手段21が音データ取得手段20で取得した音データから搭乗者ごとの音声データを作成し(S11)、音声作成手段21によって作成された音声データに基づいて音声位置導出手段22が音源位置情報を導出し(S12)、さらに、音声作成手段21によって作成された音声データに基づいて音声特徴導出手段23が搭乗者の特徴を示す音声特徴情報を導出する(S13)。
そして、導出された音源位置情報と音声特徴情報が音声データに関連付けられることによって、音声関連情報が作成される(S14)。
画像処理手段3は、図6に示すように、画像データ取得手段30が画像データを取得するまで処理を繰り返し(S20でNo)、そして、画像データ取得手段30が画像データを取得すると(S20でYes)、被写体抽出手段31が画像データ取得手段30で取得した画像データから搭乗者ごとの被写体データを抽出し(S21)、被写体抽出手段31が抽出した被写体データに基づいて被写体位置導出手段32が被写体位置情報を導出し(S22)、被写体抽出手段31が抽出した被写体データに基づいて挙動導出手段33が被写体(搭乗者)の挙動を導出し、該挙動に基づいて被写体データに連絡者情報又は非連絡者情報の何れか一方を関連付け(S23)、被写体抽出手段31が抽出した被写体データに基づいて被写体特徴導出手段34が被写体(搭乗者)の被写体特徴情報を導出する(S24)。
そして、連絡者情報又は非連絡者情報の何れか一方が関連付けられている被写体データに対して被写体位置情報と被写体特徴情報とを関連付けることによって画像関連情報を作成する(S25)。
搭乗者情報作成手段4は、図7に示すように、音声データに関連付けられている音声位置情報と、被写体データに関連付けられている被写体位置情報とを比較し(S30)、音声位置情報と被写体位置情報とが同じ位置かを比較する処理を繰り返し(S31でNo)、音声位置情報と被写体位置情報とが同じ位置を示している場合(S31でYes)は、音声関連情報と被写体関連情報とを関連付けて搭乗者情報を作成する(S32)。
対象選択手段505は、図8に示すように、選択手段50が搭乗者情報を選択し(S50)、挙動判定手段51により搭乗者が連絡者でないと判定され(S51でNo)、言葉判定手段52により搭乗者が連絡者でないと判定された場合(S52でNo)、搭乗者が連絡者でない旨を示す判定結果を出力し(S53)、言葉判定手段52により搭乗者が連絡者でないと判定された場合(S52でNo)、搭乗者が連絡者でない旨を示す判定結果を出力する(S53)。
一方で、挙動判定手段51により搭乗者が連絡者であると判定されるか(S51でYes)、言葉判定手段52により搭乗者が連絡者であると判定された場合(S52でYes)、搭乗者が連絡者である旨を示す判定結果を出力する(S53)、言葉判定手段52により搭乗者が連絡者でないと判定された場合(S52でNo)、搭乗者が連絡者である旨を示す判定結果を出力する(S54)。
そして、図4に示すように、搭乗者が連絡者であると判定結果が出力されている場合は(S6でYes)、音声認識手段6による音声認識を行う。
そして、音声認識手段6による音声認識が行われる。
以上のように、本実施形態の音声認識システム1によれば、搭乗者の音声の発生源の位置と搭乗者の立ち位置の対応関係が一致している音声データに対して音声認識手段が音声認識を行えるように構成されているため、音声認識の対象とすべき音声データとは別の音声データに音声認識をしてしまうことが抑えられる。
このように、本実施形態の音声認識システム1は、音声認識の対象を適切に選択できるようにすることによって、音声認識の精度を向上させることができるようになっている。
また、音声関連情報に含まれる音声特徴情報や、被写体特徴情報に含まれる被写体特徴情報等の発声元の搭乗者の特徴を示す情報を用いることができるため、これらの情報を用いることによって音声認識を行うべき対象であるか否かの判定や、音声認識の精度を高めることもできる。
特に、本実施形態の音声特徴情報や被写体特徴情報は、搭乗者の外見に関連する特徴であるため、これらの情報を用いることによって音声認識を行うべき対象であるか否かの判定や、音声認識の精度を高めやすい。
なお、上述のように、搭乗者情報作成手段4が、音声データに関連付けられている音声位置情報と被写体データに関連付けられている被写体位置情報とが同じ位置を示しており、且つ音声特徴情報が示す搭乗者の特徴と被写体特徴情報が示す搭乗者の特徴とが対応している場合に音声データと被写体データとを関連付けて搭乗者情報を作成するように構成されている場合は、連絡者の特定誤りを抑えることができる。
さらに、本実施形態の音声認識システム1では、音声の発生源の位置(音声関連情報の音声位置情報)と搭乗者の位置(被写体関連情報の被写体位置情報)との対応関係に加えて、搭乗者の挙動に基づいても搭乗者が連絡者であるか否かを判定するように構成されているため、音声認識を行うべき対象を選択する精度が向上する。
また、本実施形態の音声認識システム1においては、搭乗者が発した言葉に基づいても搭乗者が連絡者であるか否かを判定するように構成されているため、音声認識を行うべき対象を柔軟に選択できるようになる。
なお、本発明に係るエレベータ用の音声認識システムは、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変更を加え得ることは勿論である。
上記実施形態において特に言及しなかったが、外部連絡装置Tとは、例えば、インターホンや、携帯情報端末(例えば、スマートホン)等のことである。
上記実施形態の音声位置導出手段22は、複数の集音装置Mを用いるように構成されていたが、例えば、1つの集音装置Mを用いるように構成されていてもよい。但し、複数の集音装置Mを用いた方が、音声の発生源の位置を導出する精度が高まる。
上記実施形態において特に言及しなかったが、音声認識手段6による音声認識を繰り返し行う際においては、連絡者を特定するための音処理手段2、画像処理手段3、搭乗者情報作成手段4、対象選択手段5による一連の処理を再度行ったうえで音声認識手段6による音声認識を行っても良いし、連絡者を特定した際に既に導出した情報(例えば、音声特徴情報や、被写体特徴情報等)を利用して、連絡者を特定するための一連の処理を行わずに音声認識手段6による音声認識を行っても良い。
上記実施形態では、かご内の搭乗者のうち、連絡者を特定したうえで、この連絡者の音声を認識できるように構成されていることを一例に挙げて音声認識システム1の説明を行ったが、この構成に限定されない。音声認識システム1は、例えば、連絡者とは別の種類の搭乗者を特定したうえで、この搭乗者の音声を認識できるように構成されていてもよい。
上記実施形態において特に言及しなかったが、音声認識システム1は、例えば、情報を記憶するための記憶装置や、制御用のマイコンを備え、かごに記憶装置と制御用のマイコンとが設置されるように構成されていてもよい。この場合、記憶装置には、かご内を撮像した画像データや、言葉判定手段52で用いる判定用の言葉(キーワード)を示す情報等が記憶され、また、音処理手段2や、画像処理手段3、搭乗者情報作成手段4と、対象選択手段5と、音声認識手段6による処理は制御用のマイコンにより実行される。なお、記憶装置に記憶させる情報は、例えば、データベース形式であってもよい。
上記実施形態では、集音装置Mが外部連絡装置Tで構成されることを一例に挙げて説明を行ったが、外部連絡装置Tは、例えば、インターホンのように、かご内の音を集音する集音部と、かご内に音(より具体的には、搭乗者へのアナウンスや、搭乗者と対話するための音声等)を出力する出力部を備えているものであればよい。
また、集音装置Mは、外部連絡装置T以外の装置によって構成することも可能であり、例えば、外部連絡装置Tではなく、かご内に設置されたマイクにより構成されていてもよい。この場合、かご内にスピーカーを設置すれば、このスピーカーを外部連絡装置Tの出力部の代用として用いれば、外部連絡装置Tを必要とせず、集音機能を重複させない構成にすることができる。
上記実施形態において特に言及しなかったが、音声認識システム1では、かご内で集音した音データと、かご内を撮像した画像データとに基づいてかご内の状況を判定し、この判定結果に応じて必要なアクション(例えば、エレベータの動作の制御や、搭乗者への問いかけ等)を行うように構成されていてもよい。このようにすれば、判定したかご内の状況に基づいて、どのようなアクションをとるべきかを正しく判定できるようになる。
1…音声認識システム、2…音処理手段、3…画像処理手段、4…搭乗者情報作成手段、5…対象選択手段、6…音声認識手段、20…音データ取得手段、21…音声作成手段、22…音声位置導出手段、23…音声特徴導出手段、30…画像データ取得手段、31…被写体抽出手段、32…被写体位置導出手段、33…挙動導出手段、34…被写体特徴導出手段、50…選択手段、51…挙動判定手段、52…言葉判定手段、505…対象選択手段、C…撮像装置、D1…音声関連情報、D10…音声データ、D11…音源位置情報、D12…音声特徴情報、D2…画像関連情報、D20…被写体データ、D21…被写体位置情報、D22…連絡者情報、D23…非連絡者情報、D24…被写体特徴情報、D4…被写体特徴情報、M…集音装置、P…画像データ、P1…区画領域、T…外部連絡装置

Claims (5)

  1. かご内で集音した音データから搭乗者の音声データを抽出し且つ該音声データの発生源の位置を特定する処理を実行する音処理手段と、
    かご内を撮像した画像データに基づいて搭乗者の位置を特定する処理を実行する画像処理手段と、
    前記音処理手段で抽出した前記音声データのうち、前記発生源の位置が前記画像処理手段で特定した前記搭乗者の位置と同じものに対して音声認識を行う音声認識手段と、を備える、
    エレベータ用の音声認識システム。
  2. 前記音処理手段は、前記音声データに基づいて発声元の搭乗者の特徴を示す音声特徴情報を抽出する音声特徴抽出手段を有する、
    請求項1に記載のエレベータ用の音声認識システム。
  3. 前記画像処理手段は、前記画像データに写る搭乗者の特徴を示す被写体特徴情報を抽出する被写体特徴抽出手段を有するように構成される、
    請求項1又は請求項2に記載のエレベータ用の音声認識システム。
  4. 前記画像データに写る搭乗者の挙動に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定する挙動判定手段を備え、
    前記音声認識手段は、前記発生源の位置が、前記挙動判定手段によって音声認識を行う対象とすべき搭乗者であるか判定された前記画像データが示す前記搭乗者の位置と同じである前記音声データに対して音声認識を行う、
    請求項1乃至請求項3の何れか1項に記載のエレベータ用の音声認識システム。
  5. 前記音声データに基づいて抽出された言葉に基づいて音声認識を行う対象とすべき搭乗者であるか否かを判定する言葉判定手段を備え、
    前記音声認識手段は、前記言葉判定手段が音声認識を行う対象とすべき搭乗者であると判定した前記音声データに対して音声認識を行う、
    請求項1乃至請求項4の何れか1項に記載のエレベータ用の音声認識システム。
JP2022019655A 2022-02-10 2022-02-10 エレベータ用の音声認識システム Active JP7349072B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022019655A JP7349072B2 (ja) 2022-02-10 2022-02-10 エレベータ用の音声認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022019655A JP7349072B2 (ja) 2022-02-10 2022-02-10 エレベータ用の音声認識システム

Publications (2)

Publication Number Publication Date
JP2023117120A true JP2023117120A (ja) 2023-08-23
JP7349072B2 JP7349072B2 (ja) 2023-09-22

Family

ID=87579694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022019655A Active JP7349072B2 (ja) 2022-02-10 2022-02-10 エレベータ用の音声認識システム

Country Status (1)

Country Link
JP (1) JP7349072B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210559Y2 (ja) * 1984-11-05 1990-03-15
JPH0728488A (ja) * 1993-06-24 1995-01-31 Canon Inc 情報処理方法及び装置
JP2006123161A (ja) * 2004-09-30 2006-05-18 Samsung Electronics Co Ltd 位置把握、追跡および分離のためのオーディオビデオセンサー融合装置および融合方法
JP2016051081A (ja) * 2014-08-29 2016-04-11 本田技研工業株式会社 音源分離装置、及び音源分離方法
JP2017219746A (ja) * 2016-06-09 2017-12-14 三菱電機株式会社 音声出力制御装置および音声出力制御プログラム
JP6648728B2 (ja) * 2017-03-31 2020-02-14 フジテック株式会社 エレベータの防犯運転システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210559Y2 (ja) * 1984-11-05 1990-03-15
JPH0728488A (ja) * 1993-06-24 1995-01-31 Canon Inc 情報処理方法及び装置
JP2006123161A (ja) * 2004-09-30 2006-05-18 Samsung Electronics Co Ltd 位置把握、追跡および分離のためのオーディオビデオセンサー融合装置および融合方法
JP2016051081A (ja) * 2014-08-29 2016-04-11 本田技研工業株式会社 音源分離装置、及び音源分離方法
JP2017219746A (ja) * 2016-06-09 2017-12-14 三菱電機株式会社 音声出力制御装置および音声出力制御プログラム
JP6648728B2 (ja) * 2017-03-31 2020-02-14 フジテック株式会社 エレベータの防犯運転システム

Also Published As

Publication number Publication date
JP7349072B2 (ja) 2023-09-22

Similar Documents

Publication Publication Date Title
CN105529026B (zh) 语音识别装置和语音识别方法
US9336780B2 (en) Identification of a local speaker
JP2019191828A (ja) 情報提供システムおよび情報提供方法
CN112397065A (zh) 语音交互方法、装置、计算机可读存储介质及电子设备
CN1199488A (zh) 模式识别
JPH07334184A (ja) 音響カテゴリ平均値計算装置及び適応化装置
EP1734509A1 (en) Method and system for speech recognition
US20210183362A1 (en) Information processing device, information processing method, and computer-readable storage medium
JPWO2005096271A1 (ja) 音声認識装置及び音声認識方法
KR102550598B1 (ko) 음성 화자 인식 장치 및 그 방법
JP2016061888A (ja) 音声認識装置、音声認識対象区間設定方法、及び音声認識区間設定プログラム
CN112823387A (zh) 语音识别装置、语音识别系统以及语音识别方法
JP2023117120A (ja) エレベータ用の音声認識システム
Loh et al. Speech recognition interactive system for vehicle
CN113707156B (zh) 一种用于车载的语音识别方法及系统
JP7347511B2 (ja) 音声処理装置、音声処理方法、およびプログラム
JP2000194392A (ja) 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
JP2004318026A (ja) セキュリティペットロボット及びその装置に関する信号処理方法
KR20140035164A (ko) 음성인식시스템의 동작방법
JP4281369B2 (ja) 音声認識装置
JP5535746B2 (ja) 音データ処理装置及び音データ処理方法
JPH11327593A (ja) 音声認識システム
WO2022049613A1 (ja) 情報処理装置、推定方法、及び推定プログラム
JP2020091435A (ja) 音声認識システム、音声認識システムの通知方法、プログラム、及び移動体搭載機器
JP2001175276A (ja) 音声認識装置及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7349072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150