JP2021152741A - 発話制御装置 - Google Patents
発話制御装置 Download PDFInfo
- Publication number
- JP2021152741A JP2021152741A JP2020052773A JP2020052773A JP2021152741A JP 2021152741 A JP2021152741 A JP 2021152741A JP 2020052773 A JP2020052773 A JP 2020052773A JP 2020052773 A JP2020052773 A JP 2020052773A JP 2021152741 A JP2021152741 A JP 2021152741A
- Authority
- JP
- Japan
- Prior art keywords
- person
- detection
- determination
- unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 199
- 238000001914 filtration Methods 0.000 claims abstract description 112
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 230000001788 irregular Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 108
- 230000008569 process Effects 0.000 description 90
- 238000013473 artificial intelligence Methods 0.000 description 23
- 238000010276 construction Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010019345 Heat stroke Diseases 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
(1)高速モデルの一連の判定結果に含まれる成功(人物判定あり)の場合と不成功(人物判定なし)の場合との比率から、擬制的に人物を検出又は未検出とする検出結果を生成する。例えば、ある回数の連続する判定結果の群に着目したとき、その中で成功(人物判定あり)が所定割合以上あれば、「人物検出あり」と擬制する検出結果を生成する。逆に、ある回数の連続する判定結果の群の中で、成功(人物判定あり)が所定割合に達していなければ、「人物検出なし(未検出)」と擬制する検出結果を生成する。したがって、高速モデルによる判定結果が一時的(瞬間的)に振れたとしても、生成される検出結果は大きく振れることがなく、平滑化されることになる。
ここで、本実施形態の発話制御装置が取り扱う主題は、移動ロボットRBで人物の検出に要する処理速度と正確性とのバランスである。すなわち、移動ロボットRBが建設現場CS内を自律的に移動しつつ、様々な場所で人物(作業関係者)を認識した場合、その都度、適切なタイミングで発話音声を出力させる必要がある。このとき、どのようなタイミングで発話音声を出力させるかは、移動ロボットRBを発話元としたときの人物との位置関係にあり、具体的には人物までの距離に依存する。ただし、人物は常に一箇所に留まっているわけではなく、必要な作業をするために移動しているし、移動ロボットRBの方も自律移動している。このため、移動ロボットRBの方で人物を判定(検出)し、位置関係に基づいて声掛けさせる際、人物の認識にあまり長い処理時間を要していると、その間に人物が先に移動してしまい、声掛けのタイミングが遅れることになる。
図3は、一実施形態の発話制御装置100の構成例を示すブロック図である。なお、図3では一部に移動ロボットRBの構成要素も合わせて示されている。
図4中の中央領域に示すように、撮像エリアはIPカメラ112の画角(例えば水平方向で左右64°程度、垂直方向で上方28°程度、下方10°程度)により規定される。フレーム画像は、この画角(視野)内に入る周囲環境を撮像したものとなる。なお、撮像エリアの範囲(角度)はこの例に限定されない。
声掛けシステム110は、撮像エリア内に検出エリアDA(図4にグレーで示す範囲)を予め規定している。検出エリアDAは、例えば移動ロボットRBの中心(IPカメラ112による撮像地点)を基準点とした一定の範囲であり、ここでは半径R1〜R3(例えば2m〜5m)で示す扇状に近い帯状の範囲である。検出エリアDAには、移動ロボットRBからの声掛けに最適距離(例えば4m)と考えられる発話地点が含まれる。なお、発話地点までの距離や検出エリアDAの範囲はこの例に限定されない。
人物判定部136は、連続するフレーム画像から高速AIモデルを用いた人物の判定処理を実行する。人物の判定は、例えば畳み込みニューラルネットワークを用いた画像認識処理で行われる。ここでは、AI処理高速化装置114のサポートを用いて、例えば1秒間に数回(3〜4回)以上の頻度で人物を高速に判定することができる。
ただし、上記のように高速AIモデルによる人物の判定結果には、ある程度の成功サンプルと不成功サンプルとが混在して得られる。例えば、図4中(A)及び(B)のフレーム画像では、人物を判定した画像領域が一点鎖線の矩形枠(バウンディングボックス)で示されており、これらは人物判定部136で人物の判定に成功(検出)していることを意味している。しかし、次の図4中(C)のフレーム画像では、バウンディングボックスが消失しており、これは人物判定部136で人物の判定が不成功(未検出)となっていることを意味している。
このため本実施形態では、フィルタリング部142による処理を用いる。図5及び図6は、フィルタリング部142による処理の概要を示す図である。本実施形態のフィルタリング部142は、例えば異なる2つの態様でフィルタリング処理を実行することができる。このため、フィルタリング処理(1)の概要を図5に示し、フィルタリング処理(2)の概要を図6にしめしている。以下、フィルタリング部142の処理について説明する。
フィルタリング部142は、人物判定部136による人物の判定結果を連続的に観測する。この例では、図5中の上部枠内に(検出データA)、(検出データB)、(検出データC)、(検出データD)、(検出データE)、(検出データF)、(検出データなし)、(検出データG)、(検出データH)、(検出データI)、(検出データJ)、(検出データなし)、(検出データK)、(検出データなし)、(検出データなし)、(検出データなし)で示される一連のフレーム画像毎に判定結果が得られている。
処理テーブルの上段に示されているように、「検出結果」のデータ領域には、左(時系列の最古)から右(最新)に向かって人物判定部136による一連の判定結果(検出結果)が順次配列される。ここでは、左から3個目までのフレームが全てデータなしであり、4個目から9個目までのフレームには、「A」〜「F」の検出データが順に配列されている。また、10個目のフレームがデータなしであり、11個目から14個目のフレームには「G」〜「J」の検出データが順に配列されている。15個目のフレームが再度データなしであるが、16個目のフレームには「K」の検出データが配列されている。そして、17個目以降のフレームはデータなしが連続している。このようなデータ配列は、図5中の上部枠内に示した一連のフレーム画像毎の判定結果に対応している。
処理テーブルの中段に示される「内部状態」のデータ配列は、上段の「検出結果」のデータ配列に基づいて決定される。具体的には、フィルタリング部142は、連続するn個(例えば3個)のデータ中に検出データが所定割合(例えば6割)以上含まれる場合、内部状態を「検出状態」とし、所定割合に満たない場合は内部状態を「未検出状態」とする。この例では、左から3個のフレームには検出データがないため、ここまでの内部状態は「未検出状態」となっている。2個目から4個目のフレームには検出データAが1つあるが、6割に満たないため内部状態は「未検出状態」のままである。3個目から5個目のフレームには検出データA及びBがあり、6割以上となることから、ここから内部状態は「検出状態」となる。以後も同様に、連続するn個のデータ中に6割以上の検出データがあれば、内部状態は「検出状態」となる。そして、15個目から17個目のフレームには検出データKが1つとなり、ここから内部状態は「未検出状態」となる。
処理テーブルの下段に示される「出力」のデータ配列は、フィルタリング部142が出力する検出データを示している。フィルタリング部142からの出力は、人物判定部136の判定結果に基づいて生成した擬制的な検出結果である。具体的には、「内部状態」が「検出状態」である場合、フィルタリング部142は、最後に得られた検出データをその時点での検出結果と擬制して(みなして)出力する。この例では、時系列で最初に内部状態が「検出状態」となった時点では、最後に得られた検出データBを出力している。以後は順次、検出データC、D、E、Fを出力するが、10個目のフレームで検出データなしとなった場合、この時点で最後に得られていた検出データFを出力している。次からは再び、検出データG、H、I、Jが出力されるが、15個目のフレームでは検出データなしとなっているため、この時点で最後に得られていた検出データJを出力している。そして、16個目では検出データKが最後となるため、この時点で検出データKを出力する。
図6に示されるフィルタリング処理(2)は、上記のフィルタリング処理(1)と異なるロジックで「内部状態」及び「出力」を処理する。すなわち、図6中の上部枠内に示される判定結果は同じであるが、下部領域に示される処理テーブル中段の「内部状態」及び下段の「出力」のデータ配列が図5と異なっている。なお、処理テーブル上段の「検出結果」は図5と同じである。
例えば、検出データが未だ得られていない初期の段階では、内部状態が「未検出状態」となっている。ここから、nフレーム(例えば3フレーム)連続で検出データが得られた場合、フィルタリング部142は内部状態を「検出状態」とする。この例では、太枠で示す4個目から6個目のフレームには検出データA、B及びCがあり、nフレーム連続していることから、ここから内部状態は「検出状態」となる。そして、これ以後は同じ内部状態を継続し、nフレーム連続して検出データが得られなかった場合は内部状態を「未検出状態」とする。この例では、太枠で示す17個目から19個目のフレームがデータなしとなっており、nフレーム連続していることから、ここから内部状態は「未検出状態」となる。
フィルタリング処理(2)でも同様に、「内部状態」が「検出状態」である場合、フィルタリング部142は、最後に得られた検出データをその時点での検出結果と擬制して(みなして)出力する。この例では、時系列で最初に内部状態が「検出状態」となった時点では、最後に得られた検出データCから出力する点がフィルタリング処理(1)と異なる。以後は順次、検出データD、E、Fを出力し、10個目のフレームで検出データなしとなった場合、この時点で最後に得られていた検出データFを出力する点は同じである。次からは、検出データG、H、I、Jが出力されるが、15個目のフレームでは検出データなしとなっているため、この時点で最後に得られていた検出データJを出力し、そして、17個目と18個目のフレームでは検出データKが最後となるため、それぞれ検出データKを出力する。
図7は、検出エリア判定部140による処理の概要を示す図である。検出エリア判定部140は、フィルタリング部142による検出結果(検出データB、C、・・・K)で示される人物Pに基づいて、人物Pが検出エリアDAに進入したか否かを判定する。このとき、人物Pがどの場所(距離)にいるかについては、各検出データに示されるバウンディングボックスの大きさから推定する。人物Pまでの距離とバウンディングボックスの大きさ(高さ)との関係を予め相関データとして記憶しておくことで、各検出データに示されるバウンディングボックスの大きさから人物Pまでの距離を推定する。
以上の説明で声掛けシステム110の各機能ブロックによる処理の概要は明らかとなっているが、以下では、フローチャートを用いて具体的な処理の手順を説明する。
図8は、フィルタリング部142で実行されるプログラムの一部として、フィルタリング処理(1)の手順例を示すフローチャートである。この処理は、図5に示す処理テーブルに対応する。以下、手順例に沿って説明する。
ステップS104:フィルタリング部142は、検出データがある場合(Yes)、ステップS106に進むが、図5の処理テーブルの例では、1個目のフレームに検出データがないため(No)、ステップS118に進む。
ステップS126:フィルタリング部142、内部状態を「未検出」に設定する。したがって、図5の処理テーブルの例では、1個目のフレームで内部状態が「未検出」となる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、2フレーム目について本処理を実行する。
ステップS118:2フレーム目の処理では、検出データなし(ステップS104=No)の場合でも変数Nが0より大となっているため(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。2フレーム目では、変数Nに値「2」が代入されることになる。
ステップS128:そして、フィルタリング部142は、検出データ「なし」を出力する。すなわち、図5の処理テーブルの例では、2個目のフレームで出力なしとなる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、3フレーム目について本処理を実行する。
ステップS118:3フレーム目の処理では、検出データなし(ステップS104=No)の場合でも変数Nが0より大となっているため(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。3フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:フィルタリング部142は、nフレーム中の検出データ数と閾値x(例えばx=2)とを比較し、閾値x以上(Yes)の場合はステップS112に進む。ただし、図5の処理テーブルの例では、3フレーム目で検出データ数は未だ0であるため(No)、ステップS120に進む。なお、閾値xの値は任意に書き換え可能である。
ステップS116:ここで、フィルタリング部142は変数Nを1デクリメントする。これにより、変数Nに値「2=3−1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、4フレーム目について本処理を実行する。
ステップS104:図5の処理テーブルの例では、4フレーム目で検出データAが入力されている。このため、検出データありとなり(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。4フレーム目では、再び変数Nに値「3=2+1」が代入されることになる。
ステップS110:図5の処理テーブルの例では、4フレーム目で検出データ数は1であるため(No)、ステップS120に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3−1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、5フレーム目について本処理を実行する。
ステップS104:図5の処理テーブルの例では、5フレーム目で検出データBが入力されている。このため、検出データありとなり(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。5フレーム目では、再び変数Nに値「3=2+1」が代入される。
ステップS110:図5の処理テーブルの例では、5フレーム目で検出データ数は2であるため(Yes)、ステップS112に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3−1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、6フレーム目以降についても順次、本処理を実行する。
10フレーム目の処理は以下となる。
ステップS118:図5の処理テーブルの例では、10フレーム目の処理で検出データなし(ステップS104=No)の場合でも、変数Nが0より大となっており(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。10フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:図5の処理テーブルの例では、10フレーム目で検出データ数は2であるため(Yes)、ステップS112に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3−1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、11フレーム目以降についても順次、本処理を実行する。
17フレーム目の処理は以下となる。
ステップS118:図5の処理テーブルの例では、17フレーム目の処理で検出データなし(ステップS104=No)の場合でも、変数Nが0より大となっており(Yes)、ステップS106に進む。
ステップS106:フィルタリング部142は、変数Nを1インクリメントする。10フレーム目では、変数Nに値「3」が代入されることになる。
ステップS110:図5の処理テーブルの例では、17フレーム目で検出データ数は1であるため(No)、ステップS120に進む。
ステップS116:また、フィルタリング部142は変数Nを1デクリメントする。これにより、再び変数Nに値「2=3−1」が代入されることになる。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、18フレーム目以降についても順次、本処理を実行する。
図9は、フィルタリング処理(2)の手順例を示すフローチャートである。この処理は、図6に示す処理テーブルに対応する。以下、手順例に沿って説明する。
ステップS202:フィルタリング部142は、毎フレームの人物判定部136の判定結果(検出データ)を入力する。処理の内容はフィルタリング処理(1)のステップS102と同様である。
ステップS204:フィルタリング部142は、検出データがある場合(Yes)、ステップS206に進むが、図6の処理テーブルの例では、1個目のフレームに検出データがないため(No)、ステップS216に進む。
ステップS218:フィルタリング部142は、変数N2が定義したフレーム数nに等しければ(Yes)、ステップS224に進むが、ここではフレーム数n(3個)に満たないため(No)、ステップS220に進む。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、2フレーム目以降についても順次、上記と同様に本処理を実行する。
4フレーム目の処理は以下となる。
ステップS204:図6の処理テーブルの例では、4フレーム目に検出データAがあるため(Yes)、ステップS206に進む。
ステップS206:フィルタリング部142は、変数N2を値「0」にリセットし、変数N1を1インクリメントする。変数N1は初期値0に設定されているため、ここでは変数N1に値「1」が代入される。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、5フレーム目ついても順次、上記と同様に本処理を実行する。
6フレーム目の処理は以下となる。
ステップS204:図6の処理テーブルの例では、6フレーム目に検出データCがあるため(Yes)、ステップS206に進む。
ステップS206:フィルタリング部142は、変数N2を値「0」にリセットし、変数N1を1インクリメントする。前回の5フレーム目の処理で変数N1に値「2=1+1」が代入されているため、ここで変数N1に値「3=2+1」が代入される。
ステップS212:そして、変数N1を値「0」にリセットする。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、7フレーム目ついても順次、上記と同様に本処理を実行する。7フレーム目から18フレーム目までは、変数N2が定義したフレーム数nに満たないため、内部状態は「検出」となる。
19フレーム目の処理は以下となる。前回18フレーム目の処理までで、変数N2が値「2」となっている。
ステップS204:図6の処理テーブルの例では、19フレーム目が検出データなしであるため(No)、ステップS216に進む。
ステップS226:そして、変数N2を値「0」にリセットする。
フィルタリング部142は、ここで本処理を一旦離脱(リターン)する。そして、20フレーム目以降についても順次、上記と同様に本処理を実行する。
図10は、演算部122で実行されるプログラムの一部として声掛け音声出力処理の手順例を示すフローチャートである。以下、手順例に沿って説明する。
ステップS302:検出データがある場合(Yes)、ステップS304に進む。検出データがない場合(No)、ここで本処理を一旦離脱(リターン)する。
既に述べたように、発話制御装置100を適用する対象は移動ロボットRBに限られず、固定式のロボットであってもよいし、ロボットの形態ではない車両その他のマシン、あるいは据え置き型の機器であってもよい。
110 声掛けシステム
112 IPカメラ
118 対人距離判定部
122 演算部(音声出力部)
126 出力装置(音声出力部)
128 マイク・スピーカ(音声出力部)
136 人物判定部
140 検出エリア判定部
142 フィルタリング部
DA 検出エリア
Claims (4)
- 人物が存在する撮像エリアを連続的に撮像して得られた画像から人物の判定を連続的に実行したとき、一連の判定結果には人物の判定が成功の場合と不成功の場合が不規則に含まれる判定能力を有した人物判定部と、
前記人物判定部により得られた一連の判定結果に基づいて、擬制的な人物の検出結果を生成するフィルタリング部と、
前記撮像エリア内に所定の検出エリアを規定し、前記フィルタリング部による擬制的な検出結果で示される人物が前記検出エリア内に進入したか否かを判定する検出エリア判定部と、
前記検出エリア判定部により人物が前記検出エリア内に進入したと判定されたタイミングで発話音声を出力させる音声出力部と
を備えた発話制御装置。 - 請求項1に記載の発話制御装置において、
前記フィルタリング部は、
前記人物判定部により得られた一連の判定結果に含まれる成功の場合と不成功の場合との比率に基づいて、擬制的に人物を検出又は未検出とする検出結果を生成することを特徴とする発話制御装置。 - 請求項1に記載の発話制御装置において、
前記フィルタリング部は、
前記人物判定部により所定回数連続して成功の判定結果が得られた場合、擬制的に人物の検出状態とする検出結果を生成し、この後に所定回数連続して成功の判定結果が得られなかった場合、擬制的に人物の未検出状態とする検出結果を生成することを特徴とする発話制御装置。 - 請求項2又は3に記載の発話制御装置において、
前記フィルタリング部は、
前記人物判定部により成功の判定結果が得られた後に不成功の判定結果が得られた場合、最後に得られた成功の判定結果に基づいて、擬制的な人物の検出結果を生成することを特徴とする発話制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052773A JP7430088B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020052773A JP7430088B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021152741A true JP2021152741A (ja) | 2021-09-30 |
JP7430088B2 JP7430088B2 (ja) | 2024-02-09 |
Family
ID=77887347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020052773A Active JP7430088B2 (ja) | 2020-03-24 | 2020-03-24 | 発話制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7430088B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023195456A1 (ja) * | 2022-04-04 | 2023-10-12 | 京セラ株式会社 | 電子機器及び電子機器の制御方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007160442A (ja) * | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | 移動ロボット |
JP2010166263A (ja) * | 2009-01-14 | 2010-07-29 | Canon Inc | 画像処理装置および画像処理方法、ならびにプログラム |
JP2013210705A (ja) * | 2012-03-30 | 2013-10-10 | Mega Chips Corp | 物体検出装置 |
-
2020
- 2020-03-24 JP JP2020052773A patent/JP7430088B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007160442A (ja) * | 2005-12-12 | 2007-06-28 | Honda Motor Co Ltd | 移動ロボット |
JP2010166263A (ja) * | 2009-01-14 | 2010-07-29 | Canon Inc | 画像処理装置および画像処理方法、ならびにプログラム |
JP2013210705A (ja) * | 2012-03-30 | 2013-10-10 | Mega Chips Corp | 物体検出装置 |
Non-Patent Citations (1)
Title |
---|
"車両周辺環境に応じたカメラとLiDARによる歩行者検出の統合に関する初期検討", 電子情報通信学会技術研究報告 VOL.119 NO.64, JPN6023046733, 23 May 2019 (2019-05-23), ISSN: 0005195444 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023195456A1 (ja) * | 2022-04-04 | 2023-10-12 | 京セラ株式会社 | 電子機器及び電子機器の制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7430088B2 (ja) | 2024-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109624850B (zh) | 监视车辆的盲点的方法及使用该方法的盲点监视器 | |
JP5157595B2 (ja) | 接客システム及び接客方法 | |
EP2885777B1 (en) | Surveillance system | |
US7277559B2 (en) | Mobile apparatus | |
EP1981278A1 (en) | Automatic tracking device and automatic tracking method | |
JP2003051016A (ja) | 接近検出装置、接近検出方法、及び接近検出プログラム | |
US20230038000A1 (en) | Action identification method and apparatus, and electronic device | |
JP2007087089A (ja) | ジェスチャ認識装置、ジェスチャ認識プログラムおよびジェスチャ認識方法 | |
CN109068278B (zh) | 室内避障方法、装置、计算机设备及存储介质 | |
CN115609594B (zh) | 机械臂路径的规划方法、装置、上位控制端及存储介质 | |
JP5418661B2 (ja) | 車両周辺監視装置 | |
JP2021152741A (ja) | 発話制御装置 | |
JP4315872B2 (ja) | 移動ロボットの制御装置 | |
CN107578595A (zh) | 流动体分析装置 | |
JP2022033805A (ja) | 無人車内の乗客状態の識別方法、装置、機器及び記憶媒体 | |
JP5155110B2 (ja) | 監視装置 | |
JP7208610B2 (ja) | 車両認識システムおよび車両認識方法 | |
WO2018163492A1 (ja) | 運転モード切替制御装置、方法、及びプログラム | |
JP7402721B2 (ja) | 発話制御装置 | |
JP2020040839A (ja) | エレベータの遠隔監視システム | |
JP7430083B2 (ja) | 発話制御装置 | |
CN115903773A (zh) | 移动体控制装置、移动体、学习装置及方法、及存储介质 | |
US11076123B2 (en) | Photographing control device, photographing system and photographing control method | |
JP2021152739A (ja) | 発話制御装置 | |
JP4326437B2 (ja) | ロボットの制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |