JP7402721B2 - 発話制御装置 - Google Patents
発話制御装置 Download PDFInfo
- Publication number
- JP7402721B2 JP7402721B2 JP2020052772A JP2020052772A JP7402721B2 JP 7402721 B2 JP7402721 B2 JP 7402721B2 JP 2020052772 A JP2020052772 A JP 2020052772A JP 2020052772 A JP2020052772 A JP 2020052772A JP 7402721 B2 JP7402721 B2 JP 7402721B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- detection
- determination
- face
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 254
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000001788 irregular Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 91
- 238000000034 method Methods 0.000 description 90
- 230000008569 process Effects 0.000 description 72
- 238000001914 filtration Methods 0.000 description 66
- 238000013473 artificial intelligence Methods 0.000 description 35
- 238000004364 calculation method Methods 0.000 description 33
- 238000010276 construction Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 230000001815 facial effect Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010019345 Heat stroke Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
(1)高速モデルの一連の判定結果に含まれる成功(人物判定あり)の場合と不成功(人物判定なし)の場合との比率から、擬制的に人物を検出又は未検出とする検出結果を生成する。例えば、ある回数の連続する判定結果の群に着目したとき、その中で成功(人物判定あり)が所定割合以上あれば、「人物検出あり」と擬制する検出結果を生成する。逆に、ある回数の連続する判定結果の群の中で、成功(人物判定あり)が所定割合に達していなければ、「人物検出なし(未検出)」と擬制する検出結果を生成する。したがって、高速モデルによる判定結果が一時的(瞬間的)に振れたとしても、生成される検出結果は大きく振れることがなく、平滑化されることになる。
ここで、本実施形態の発話制御装置が取り扱う主題は、移動ロボットRBで対象となる人物の検知に要する処理の高速化である。すなわち、移動ロボットRBが建設現場CS内を自律的に移動しつつ、様々な場所で人物(作業関係者)を認識した場合、その都度、適切なタイミングで発話音声を出力させる必要がある。このとき、どのようなタイミングで発話音声を出力させるかは、移動ロボットRBを発話元としたときの人物との位置関係にあり、具体的には人物までの距離に依存する。ただし、人物は常に一箇所に留まっているわけではなく、必要な作業をするために移動しているし、移動ロボットRBの方も自律移動している。このため、移動ロボットRBの方で人物を判定(検知又は検出)し、位置関係に基づいて声掛けさせる際、人物の検知にあまり長い処理時間を要していると、その間に人物が先に移動してしまい、声掛けのタイミングが遅れることになる。
図3は、一実施形態の発話制御装置100の構成例を示すブロック図である。なお、図3では一部に移動ロボットRBの構成要素も合わせて示されている。
ここで、図4は、人工知能モデルを用いた画像認識処理別の特性を比較して示した図である。ここでは、画像認識処理として、「顔検知」、「人物検知(高精度)」及び「人物検知(高速)」の3種類を例に挙げている。「人物検知(高精度)」と「人物検知(高速)」との違いは、適用する人工知能モデルの違いを表している。なお、「顔検知」は高速モデルとする。
「検知スピード」は、人工知能モデルが画像認識処理に要する時間を意味し、処理時間が短いほど評価が高い。3つのうち「顔検知」の評価(◎)が最も高く、次に「人物検知(高速)」の評価(○)が高いが、「人物検知(高精度)」の評価(△)は他の2つには及ばない。したがって、ここが「人物検知(高精度)」の弱点といえる。
「検知率」は、人工知能モデルによる画像認識処理の結果(判定結果)の精度を意味し、結果が正確であるほど評価が高い。ここでも、3つのうち「顔検知」の評価(◎)が最も高いが、2番目は「人物検知(高精度)」の評価(○)であり、「人物検知(高速)」の評価(△)は最も低い。したがって、ここが「人物検知(高速)」にとって弱点といえる。
「距離推定」は、人工知能モデルによる画像認識処理の結果を用いて推定した人物(人物全体又は検知した顔の人物)までの距離の精度を意味し、推定結果が正確であるほど評価が高い。ここでは、3つのうち「人物検知(高精度)」の評価(◎)が最も高く、次に「人物検知(高速)」の評価(○)が高いが、「顔検知」の評価(△)は他の2つには及ばない。したがって、ここが「顔検知」の弱点といえる。
「距離変位推定」は、先の「距離推定」の結果から推定した距離の変化量(単位時間Δtあたりの距離変位ΔD)の精度を意味し、推定結果が正確であるほど評価が高い。この項目は、「距離推定」の精度にそのまま依存するので、評価順は先と同じである。
「人物の後面検知」は、人物の後面(背面、後方)から人工知能モデルで画像認識処理を実行した場合の結果の精度を意味し、結果が正確であるほど評価が高い。ここでは、3つのうち「人物検知(高精度)」が評価(○)で、ある程度は正確であるが、「人物検知(高速)」が評価(△)であまり正確に検知できない。また、評価(×)で示すように、後面からの「顔認識」はできない。この点もまた、「顔検知」の弱点といえる。
本実施形態では、「人物検知(高精度)」を除いた「顔検知」と「人物検知(高速)」の2つの画像認識処理を相補的に利用する。特に図4中にグレーで着色した項目は、各画像認識処理の強みである(少なくとも弱点でない)ことから、これらを相補的に活用することで、声掛けシステム110による処理を高速化させることができる。以下、より具体的に説明する。
例えば、図5中(A)~(H)に示すように、声掛けシステム110には、移動ロボットRBに内蔵のIPカメラ112(図5では省略)からの撮像信号が入力される。IPカメラ112による撮像は連続的に(例えば30~60フレーム毎秒(fps)で)行われ、それらのフレーム画像が連続的に声掛けシステム110に入力されている。なお、ここでは簡略化のため、フレーム数は適宜間引いて示している(これ以降も同様。)。
図5中の中央領域に示すように、撮像エリアはIPカメラ112の画角(例えば水平方向で左右64°程度、垂直方向で上方28°程度、下方10°程度)により規定される。フレーム画像は、この画角(視野)内に入る周囲環境を撮像したものとなる。なお、撮像エリアの範囲(角度)はこの例に限定されない。
声掛けシステム110は、撮像エリア内に検出エリアDA(図5にグレーで示す範囲)を予め規定している。検出エリアDAは、例えば移動ロボットRBの中心(IPカメラ112による撮像地点)を基準点とした一定の範囲であり、ここでは半径R1~R3(例えば2m~5m)で示す扇状に近い帯状の範囲である。検出エリアDAには、移動ロボットRBからの声掛けに最適距離(例えば4m)と考えられる発話地点が含まれる。なお、発話地点までの距離や検出エリアDAの範囲はこの例に限定されない。
顔判定部144は、連続するフレーム画像から高速AIモデルを用いた人物の顔部分の判定処理(顔検知)を実行する。顔部分の判定は、例えば畳み込みニューラルネットワークを用いた画像認識処理で行われる。上記のように「顔検知」の検知スピードは最も高速である。ここでは、AI処理高速化装置114のサポートを用いて、例えば1秒間に数十回(ほぼ毎フレーム)の頻度で顔部分を高速に判定することができる。なお、顔部分の検知スピードはこれ以外でもよい。
人物判定部136もまた、連続するフレーム画像から高速AIモデルを用いた人物の判定処理を実行する。人物の判定についても、例えば畳み込みニューラルネットワークを用いた画像認識処理で行われる。「人物検知(高速)」の検知スピードは、「顔検知」には及ばないものの、ある程度の高速性能を有する。ここでは、AI処理高速化装置114のサポートを用いて、例えば1秒間に数回(3~4回)以上の頻度で人物を高速に判定することができる。比較として高精度AIモデルを用いた場合、人物の判定は例えば1秒間に1回程度である。
声掛けシステム110では、顔判定部144の判定結果と人物判定部136の判定結果とを交互に利用する。なお、人物判定部136の判定結果は、フィルタリング部142によって処理されたものでもよい。
例えば、図5中(A)のフレーム画像では、人物判定部136で人物を判定(人物検知)した画像領域が一点鎖線の矩形枠(バウンディングボックス)で示されている。この場合、ある程度の遠方(例えば15m以上)で得られた人物検知の結果に基づいて、声掛けシステム110の演算部122が人物までの距離を判定(推定)する。人物までの距離については、人物検知時のバウンディングボックスの大きさから推定することができる。したがって、人物までの距離とバウンディングボックスの大きさ(高さ)との関係を予め相関データとして記憶しておくことで、演算部122でバウンディングボックスの大きさから人物までの距離を推定することができる。
次に、図5中(B)のフレーム画像では、顔判定部144で人物の顔部分を判定(顔検知)した画像領域が一点鎖線のバウンディングボックスで示される。この場合も同様に、ある程度の遠方(例えば13m程度)で得られた顔検知の結果に基づいて、演算部122が人物までの距離を判定(推定)する。顔検知に基づく人物までの距離についても、顔検知時のバウンディングボックスの大きさから推定することができる。したがって、人物までの距離と顔検知時のバウンディングボックスの大きさ(高さ)との関係を予め相関データとして記憶しておくことで、演算部122で顔検知時のバウンディングボックスの大きさから人物までの距離を推定することができる。
図6は、演算部122により制御される発話タイミングを示す図である。演算部122は、例えば「人物検知」又は「顔検知」の結果から推定して得られる人物Pまでの距離に基づいて、人物Pが検出エリアDAに進入したか否かを判定している。ここでは、「顔検知」の結果を利用して検出エリアDA外の遠方から人物Pを追跡し、常時、その距離を推定する。その結果、人物Pが検出エリアDA(この例では5m以内)に進入したと判定すると、そのタイミングで演算部122は出力装置126を駆動し、マイク・スピーカ128から発話音声を出力させる。これにより、実際に人物Pが検出エリアDAに進入したタイミングで、直ちに(遅延することなく)移動ロボットRBから「こんにちは 熱中症に注意してください」といった声掛けが適切に実行されることになる。なお、声掛けの内容はこれに限定されない。
図7は、人物が前方から検出エリアDAに進入した場合の声掛けパターンを示す図である。この声掛けパターンは、人物P6が唐突に判定され、かつ、判定された時点で人物P6までの距離が直近(例えば2m程度)であるような場合が該当する。すなわち、人物P6は移動ロボットRBの近傍から撮像エリア内に入ってきて、こちらに背を向けて検出エリアDA内に進入している。この場合、顔判定部144では判定(顔検知)できないため、演算部122は、人物判定部136の判定結果(人物検知)を利用して人物P6までの距離を推定する。
次に、人物判定部136の判定結果(人物検知データ)のフィルタリング処理について説明する。上記のように高速AIモデルによる人物の判定結果には、ある程度の成功サンプルと不成功サンプルとが混在して得られるため、そのままでは判定結果に不連続性(チラツキ、振れ)が現れるため、入力として実用的でない。そこで、フィルタリング部142による処理が用いられる。
処理テーブルの上段に示されているように、「検出結果」のデータ領域には、左(時系列の最古)から右(最新)に向かって人物判定部136による一連の判定結果(検出結果)が順次配列される。ここでは、左から3個目までのフレームが全てデータなしであり、4個目から9個目までのフレームには、「A」~「F」の検出データが順に配列されている。また、10個目のフレームがデータなしであり、11個目から14個目のフレームには「G」~「J」の検出データが順に配列されている。15個目のフレームが再度データなしであるが、16個目のフレームには「K」の検出データが配列されている。そして、17個目以降のフレームはデータなしが連続している。このようなデータ配列は、図8中の上部枠内に示した一連のフレーム画像毎の判定結果に対応している。
処理テーブルの中段に示される「内部状態」のデータ配列は、上段の「検出結果」のデータ配列に基づいて決定される。具体的には、フィルタリング部142は、連続するn個(例えば3個)のデータ中に検出データが所定割合(例えば6割)以上含まれる場合、内部状態を「検出状態」とし、所定割合に満たない場合は内部状態を「未検出状態」とする。この例では、左から3個のフレームには検出データがないため、ここまでの内部状態は「未検出状態」となっている。2個目から4個目のフレームには検出データAが1つあるが、6割に満たないため内部状態は「未検出状態」のままである。3個目から5個目のフレームには検出データA及びBがあり、6割以上となることから、ここから内部状態は「検出状態」となる。以後も同様に、連続するn個のデータ中に6割以上の検出データがあれば、内部状態は「検出状態」となる。そして、15個目から17個目のフレームには検出データKが1つとなり、ここから内部状態は「未検出状態」となる。
処理テーブルの下段に示される「出力」のデータ配列は、フィルタリング部142が出力する検出データを示している。フィルタリング部142からの出力は、人物判定部136の判定結果に基づいて生成した擬制的な検出結果である。具体的には、「内部状態」が「検出状態」である場合、フィルタリング部142は、最後に得られた検出データをその時点での検出結果と擬制して(みなして)出力する。この例では、時系列で最初に内部状態が「検出状態」となった時点では、最後に得られた検出データBを出力している。以後は順次、検出データC、D、E、Fを出力するが、10個目のフレームで検出データなしとなった場合、この時点で最後に得られていた検出データFを出力している。次からは再び、検出データG、H、I、Jが出力されるが、15個目のフレームでは検出データなしとなっているため、この時点で最後に得られていた検出データJを出力している。そして、16個目では検出データKが最後となるため、この時点で検出データKを出力する。
以上の説明で声掛けシステム110の各機能ブロックによる処理の概要は明らかとなっているが、以下では、フローチャートを用いて具体的な処理の手順を説明する。
図9は、フィルタリング部142で実行されるプログラムの一部として、フィルタリング処理の手順例を示すフローチャートである。この処理は、図8に示す処理テーブルに対応する。以下、手順例に沿って説明する。
ステップS104:フィルタリング部142は、検出データがある場合(Yes)、ステップS106に進むが、図8の処理テーブルの例では、1個目のフレームに検出データがないため(No)、ステップS118に進む。
ステップS126:フィルタリング部142、内部状態を「未検出」に設定する。したがって、図8の処理テーブルの例では、1個目のフレームで内部状態が「未検出」となる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、2フレーム目について本処理を実行する。
ステップS118:2フレーム目の処理では、検出データなし(ステップS104=No)の場合でも変数Nが0より大となっているため(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。2フレーム目では、変数Nに値「2」が代入されることになる。
ステップS128:そして、フィルタリング部142は、検出データ「なし」を出力する。すなわち、図8の処理テーブルの例では、2個目のフレームで出力なしとなる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、3フレーム目について本処理を実行する。
ステップS118:3フレーム目の処理では、検出データなし(ステップS104=No)の場合でも変数Nが0より大となっているため(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。3フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:フィルタリング部142は、nフレーム中の検出データ数と閾値x(例えばx=2)とを比較し、閾値x以上(Yes)の場合はステップS112に進む。ただし、図8の処理テーブルの例では、3フレーム目で検出データ数は未だ0であるため(No)、ステップS120に進む。なお、閾値xの値は任意に書き換え可能である。
ステップS116:ここで、フィルタリング部142は変数Nを1デクリメントする。これにより、変数Nに値「2=3-1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、4フレーム目について本処理を実行する。
ステップS104:図8の処理テーブルの例では、4フレーム目で検出データAが入力されている。このため、検出データありとなり(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。4フレーム目では、再び変数Nに値「3=2+1」が代入されることになる。
ステップS110:図8の処理テーブルの例では、4フレーム目で検出データ数は1であるため(No)、ステップS120に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3-1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、5フレーム目について本処理を実行する。
ステップS104:図8の処理テーブルの例では、5フレーム目で検出データBが入力されている。このため、検出データありとなり(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。5フレーム目では、再び変数Nに値「3=2+1」が代入される。
ステップS110:図8の処理テーブルの例では、5フレーム目で検出データ数は2であるため(Yes)、ステップS112に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3-1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、6フレーム目以降についても順次、本処理を実行する。
10フレーム目の処理は以下となる。
ステップS118:図8の処理テーブルの例では、10フレーム目の処理で検出データなし(ステップS104=No)の場合でも、変数Nが0より大となっており(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。10フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:図8の処理テーブルの例では、10フレーム目で検出データ数は2であるため(Yes)、ステップS112に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3-1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、11フレーム目以降についても順次、本処理を実行する。
17フレーム目の処理は以下となる。
ステップS118:図8の処理テーブルの例では、17フレーム目の処理で検出データなし(ステップS104=No)の場合でも、変数Nが0より大となっており(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。10フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:図8の処理テーブルの例では、17フレーム目で検出データ数は1であるため(No)、ステップS120に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3-1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、18フレーム目以降についても順次、本処理を実行する。
図10は、演算部122で実行されるプログラムの一部として声掛け音声出力処理の手順例を示すフローチャートである。以下、手順例に沿って説明する。
ステップS212:演算部122は、人物判定部136の判定結果(人物検知結果)がある場合(Yes)、ステップS206に進むが、ここでは、人物検知結果がなかったとして(No)、演算部122はここで本処理を一旦離脱(リターン)する。
ステップS202:そして、今回は「顔判定フェーズ」であるため(Yes)、ステップS204に進む。
ステップS204:演算部122は、顔判定部144の判定結果(顔検知結果)がある場合(Yes)、ステップS206に進むが、ここでは、顔検知結果がなかったとして(No)、ステップS208に進むものとする。
そして、演算部122はここで本処理を一旦離脱(リターン)する。
ステップS202:そして、この回は「人物判定フェーズ」であるため(No)、ステップS210に進む。
ステップS210:演算部122は、ここで「顔判定フェーズ」を設定する。これにより、フラグ値又は内部状態が切り替わることになる。
ステップS212:ここでは、人物検知結果があるとして(Yes)、ステップS206に進む。
ステップS206:演算部122は、人物検知結果に基づいて人物までの距離を判定し、人物が検出エリアDA内に進入したかを判定する。そして、検出エリアDA内に人物がいなければ(No)、演算部122はここで本処理を離脱(リターン)する。
ステップS202:そして、この回は引き続き「顔判定フェーズ」であるため(Yes)、ステップS204に進む。
ステップS204:ここでは、顔検知結果があるとして(Yes)、ステップS206に進む。
ステップS206:演算部122は、顔検知結果に基づいて人物までの距離を判定し、人物が検出エリアDA内に進入したかを判定する。そして、検出エリアDA内に人物がいなければ(No)、演算部122はここで本処理を離脱(リターン)する。
上記のように、顔検知結果があった場合(ステップS204=Yes)、以後で演算部122は「顔判定フェーズ」を継続する。したがって、以後は顔検知結果のみを用いて判定が行われることになる。
ステップS204:演算部122は、顔検知結果があるとして(Yes)、ステップS206に進む。
ステップS206:演算部122は、顔検知結果に基づいて人物が検出エリアDA内に進入したことを判定する(Yes)。この場合、演算部122はステップS214に進む。
既に述べたように、発話制御装置100を適用する対象は移動ロボットRBに限られず、固定式のロボットであってもよいし、ロボットの形態ではない車両その他のマシン、あるいは据え置き型の機器であってもよい。
110 声掛けシステム
112 IPカメラ
118 対人距離判定部
122 演算部(音声出力部)
126 出力装置(音声出力部)
128 マイク・スピーカ(音声出力部)
136 人物判定部
142 フィルタリング部
144 顔判定部
DA 検出エリア
Claims (4)
- 所定の撮像エリアを撮像して得られた画像から人物の判定を実行する人物判定部と、
前記画像から人物の顔部分の判定を実行する顔判定部と、
前記人物判定部による人物の判定結果と前記顔判定部による顔部分の判定結果とを交互に利用し、いずれか一方の判定結果から得られる人物までの距離が所定範囲内にあると判定したタイミングで発話音声を出力させる音声出力部と
を備えた発話制御装置。 - 請求項1に記載の発話制御装置において、
前記音声出力部は、
人物までの距離が前記所定範囲外にあると判定している間に前記顔判定部による顔部分の判定結果が得られた場合、前記人物判定部による判定結果を利用することなく、前記顔判定部による判定結果から人物までの距離を判定することを特徴とする発話制御装置。 - 請求項1又は2に記載の発話制御装置において、
前記音声出力部は、
前記顔判定部から顔部分の判定結果が得られない状態で、前記所定範囲内の距離にある人物の判定結果が前記人物判定部から得られた場合、当該人物の判定結果が得られたタイミングで発話音声を出力させることを特徴とする発話制御装置。 - 請求項1から3のいずれかに記載の発話制御装置において、
前記人物判定部は、
人物が存在する撮像エリアを連続的に撮像して得られた画像から人物の判定を連続的に実行したとき、一連の判定結果には人物の判定が成功の場合と不成功の場合が不規則に含まれる判定能力を有しており、
前記音声出力部は、
前記人物判定部による一連の判定結果に基づいて擬制的に生成した人物の検出結果を利用して人物までの距離を判定することを特徴とする発話制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052772A JP7402721B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052772A JP7402721B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021152740A JP2021152740A (ja) | 2021-09-30 |
JP7402721B2 true JP7402721B2 (ja) | 2023-12-21 |
Family
ID=77887328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020052772A Active JP7402721B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7402721B2 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002056388A (ja) | 2001-05-28 | 2002-02-20 | Nec Corp | ロボット装置 |
JP2013182325A (ja) | 2012-02-29 | 2013-09-12 | Toshiba Corp | 顔登録装置、プログラムおよび顔登録方法 |
JP2016170603A (ja) | 2015-03-12 | 2016-09-23 | セコム株式会社 | 移動物体追跡装置 |
JP2019160289A (ja) | 2018-03-07 | 2019-09-19 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
-
2020
- 2020-03-24 JP JP2020052772A patent/JP7402721B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002056388A (ja) | 2001-05-28 | 2002-02-20 | Nec Corp | ロボット装置 |
JP2013182325A (ja) | 2012-02-29 | 2013-09-12 | Toshiba Corp | 顔登録装置、プログラムおよび顔登録方法 |
JP2016170603A (ja) | 2015-03-12 | 2016-09-23 | セコム株式会社 | 移動物体追跡装置 |
JP2019160289A (ja) | 2018-03-07 | 2019-09-19 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021152740A (ja) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7840308B2 (en) | Robot device control based on environment and position of a movable robot | |
US10614693B2 (en) | Dangerous situation notification apparatus and method | |
JP5768273B2 (ja) | 歩行者の軌跡を予測して自己の回避行動を決定するロボット | |
JP2003051016A (ja) | 接近検出装置、接近検出方法、及び接近検出プログラム | |
KR101687296B1 (ko) | 음향 및 행동 패턴 인식 기반의 하이브리드 패턴 분석이 가능한 객체 추적 시스템 및 객체 추적 방법 | |
JP4315872B2 (ja) | 移動ロボットの制御装置 | |
JP2009166184A (ja) | ガイドロボット | |
JP2018030499A (ja) | 車外情報提供装置および車外情報提供方法 | |
JP5147760B2 (ja) | 画像監視装置 | |
CN110634506A (zh) | 一种语音数据的处理方法及装置 | |
JP2022111128A (ja) | 警備システム及び監視表示装置 | |
JP7430088B2 (ja) | 発話制御装置 | |
JP6822571B2 (ja) | 端末装置、危険予測方法、プログラム | |
JP7402721B2 (ja) | 発話制御装置 | |
JP7426631B2 (ja) | 無人移動体及び情報処理方法 | |
JP6810914B2 (ja) | エレベータの遠隔監視システム | |
JP7430083B2 (ja) | 発話制御装置 | |
JP4175180B2 (ja) | 監視通報システム | |
JP7430087B2 (ja) | 発話制御装置 | |
JP4326437B2 (ja) | ロボットの制御装置 | |
KR102615768B1 (ko) | 영상 및 음원을 이용한 이벤트 탐지 시스템 및 방법 | |
JP6667144B2 (ja) | エレベータの遠隔監視システム | |
JP7416253B2 (ja) | 会話監視装置、制御方法、及びプログラム | |
JP7434635B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7476965B2 (ja) | 通知制御装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7402721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |