JP7517416B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP7517416B2 JP7517416B2 JP2022527433A JP2022527433A JP7517416B2 JP 7517416 B2 JP7517416 B2 JP 7517416B2 JP 2022527433 A JP2022527433 A JP 2022527433A JP 2022527433 A JP2022527433 A JP 2022527433A JP 7517416 B2 JP7517416 B2 JP 7517416B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- detected
- image processing
- image
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title description 11
- 238000000034 method Methods 0.000 claims description 139
- 230000008569 process Effects 0.000 claims description 137
- 238000002360 preparation method Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 23
- 238000013500 data storage Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行手段は、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行する画像処理装置が提供される。
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記画像処理手段は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行手段は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する画像処理装置が提供される。
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行処理において、前記コンピュータは、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行する画像処理方法が提供される。
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記画像処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行処理において、前記コンピュータは、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する画像処理方法が提供される。
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行機能は、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行するプログラムが提供される。
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記画像処理機能は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行機能は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行するプログラムが提供される。
図1は、本実施形態に係る画像処理装置10の使用環境を説明するための図である。画像処理装置10は監視カメラ20が生成した映像を処理することにより、その映像に含まれている人が所定のジェスチャー(以下、第1ジェスチャーと記載)を行ったことを必要条件として、所定の処理(以下、第1処理と記載)を行う。本実施形態において、第1ジェスチャーを行ったことは必要十分条件となっている。そして、複数種類の第1ジェスチャーが予め定められている。そして第1処理は、複数種類の第1ジェスチャーごとに定められている。
(1)通知部22がスピーカーの場合、スピーカーから所定の音声を所定時間継続して出力させる。
(2)通知部22がスピーカーの場合、スピーカーからの出力を変更する。変更する対象は、音声が意味する内容、大きさ、及び音の高さの少なくとも一つである。
(3)通知部22がディスプレイの場合、ディスプレイに所定の内容を表示し始める。
(4)通知部22がディスプレイの場合、ディスプレイの表示を変更する。
(5)通知部22が発光部の場合、発光部を所定時間発光又は点滅させる。
(6)通知部22が発光部の場合、発光部の発光強度及び発光色の少なくとも一方を変更する。
本実施形態において、画像処理装置10は、第1ジェスチャーを検出した後、さらに第2ジェスチャーを検出することを必要条件として、第1処理を実行する。後述するフローチャートにおいて、第1及び第2ジェスチャーの検出は、第1処理を実行するための必要十分条件になっている。第2ジェスチャーは、第1ジェスチャーとは異なるのが好ましいが、第1ジェスチャーと同一であってもよい。
本実施形態に係る画像処理装置10は、第1ジェスチャー(及び第2ジェスチャー)を行っている人が予め定められた人であることを必要条件として、第1処理を実行する点を除いて、第1又は第2実施形態に係る画像処理装置10と同様の構成である。
1.監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理手段と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行手段は、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行する画像処理装置。
2.監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理手段と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記画像処理手段は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行手段は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する画像処理装置。
3.上記2に記載の画像処理装置において、
前記第2ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第2ジェスチャー毎に定められており、
前記実行手段は、検出された前記第2ジェスチャーの種類に対応する前記第1処理を実行する画像処理装置。
4.上記2又は3に記載の画像処理装置において、
前記実行手段は、前記第1ジェスチャーが検出された後、予め定められた時間以内に前記第2ジェスチャーを検出したときに、前記第1処理を実行する画像処理装置。
5.上記2~4のいずれか一項に記載の画像処理装置において、
前記実行手段は、前記第1ジェスチャーが検出された後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させる画像処理装置。
6.上記1~5のいずれか一項に記載の画像処理装置において、
前記第1処理は、外部の装置への通知処理である画像処理装置。
7.上記1~6のいずれか一項に記載の画像処理装置において、
前記実行手段は、前記第1処理が終了した後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させる画像処理装置。
8.上記1~5のいずれか一項に記載の画像処理装置において、
前記第1処理は、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させることである画像処理装置。
9.上記1~8のいずれか一項に記載の画像処理装置において、
前記画像処理手段は、前記人が予め定められた人であるか否かを判断し、
前記実行手段は、前記人が前記予め定められた人であることを必要条件として、第1処理を実行する画像処理装置。
10.コンピュータが、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行処理において、前記コンピュータは、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行する画像処理方法。
11.コンピュータが、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記画像処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行処理において、前記コンピュータは、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する画像処理方法。
12.上記11に記載の画像処理方法において、
前記第2ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第2ジェスチャー毎に定められており、
前記実行処理において、前記コンピュータは、検出された前記第2ジェスチャーの種類に対応する前記第1処理を実行する画像処理方法。
13.上記11又は12に記載の画像処理方法において、
前記実行処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、予め定められた時間以内に前記第2ジェスチャーを検出したときに、前記第1処理を実行する画像処理方法。
14.上記11~13のいずれか一項に記載の画像処理方法において、
前記実行処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させる画像処理方法。
15.上記10~14のいずれか一項に記載の画像処理方法において、
前記第1処理は、外部の装置への通知処理である画像処理方法。
16.上記10~15のいずれか一項に記載の画像処理方法において、
前記実行処理において、前記コンピュータは、前記第1処理が終了した後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させる画像処理方法。
17.上記10~14のいずれか一項に記載の画像処理方法において、
前記第1処理は、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させることである画像処理方法。
18.上記10~17のいずれか一項に記載の画像処理方法において、
前記画像処理において、前記コンピュータは、前記人が予め定められた人であるか否かを判断し、
前記実行処理において、前記コンピュータは、前記人が前記予め定められた人であることを必要条件として、第1処理を実行する画像処理方法。
19.コンピュータに、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行機能は、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行するプログラム。
20.コンピュータに、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記画像処理機能は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行機能は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行するプログラム。
21.上記20に記載のプログラムにおいて、
前記第2ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第2ジェスチャー毎に定められており、
前記実行機能は、検出された前記第2ジェスチャーの種類に対応する前記第1処理を実行するプログラム。
22.上記20又は21に記載のプログラムにおいて、
前記実行機能は、前記第1ジェスチャーが検出された後、予め定められた時間以内に前記第2ジェスチャーを検出したときに、前記第1処理を実行するプログラム。
23.上記20~22のいずれか一項に記載のプログラムにおいて、
前記実行機能は、前記第1ジェスチャーが検出された後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させるプログラム。
24.上記19~23のいずれか一項に記載のプログラムにおいて、
前記第1処理は、外部の装置への通知処理であるプログラム。
25.上記19~24のいずれか一項に記載のプログラムにおいて、
前記実行機能は、前記第1処理が終了した後、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させるプログラム。
26.上記19~23のいずれか一項に記載のプログラムにおいて、
前記第1処理は、前記監視カメラ又はその近傍に設けられた通知手段の状態を変化させることであるプログラム。
27.上記19~26のいずれか一項に記載のプログラムにおいて、
前記画像処理機能は、前記人が予め定められた人であるか否かを判断し、
前記実行機能は、前記人が前記予め定められた人であることを必要条件として、第1処理を実行するプログラム。
20 監視カメラ
30 外部装置
110 画像処理部
120 実行部
130 データ記憶部
Claims (10)
- 監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理手段と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記第1ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第1ジェスチャー毎に定められており、
前記実行手段は、検出された前記第1ジェスチャーの種類に対応する前記第1処理を実行し、前記第1処理が終了した後、前記第1処理が行われたことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる制御を実行する、画像処理装置。 - 監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理手段と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記画像処理手段は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行手段は、前記第1ジェスチャーが検出された後、前記第1処理を行うための準備が完了したことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる制御を実行し、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する、画像処理装置。 - 監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理手段と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行手段と、
を備え、
前記画像処理手段は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行手段は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行し、前記第1処理が終了した後、前記第1処理が行われたことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる制御を実行する、画像処理装置。 - 請求項2または3に記載の画像処理装置において、
前記第2ジェスチャーは複数種類あり、
前記第1処理は、前記複数種類の第2ジェスチャー毎に定められており、
前記実行手段は、検出された前記第2ジェスチャーの種類に対応する前記第1処理を実行する画像処理装置。 - 請求項2~4のいずれか一項に記載の画像処理装置において、
前記実行手段は、前記第1ジェスチャーが検出された後、予め定められた時間以内に前記第2ジェスチャーを検出したときに、前記第1処理を実行する画像処理装置。 - 請求項1~5のいずれか一項に記載の画像処理装置において、
前記画像処理手段は、前記人が予め定められた人であるか否かを判断し、
前記実行手段は、前記人が前記予め定められた人であることを必要条件として、第1処理を実行する画像処理装置。 - コンピュータが、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記画像処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、前記第1処理を行うための準備が完了したことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる制御を実行し、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する、画像処理方法。 - コンピュータが、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行処理と、
を行い、
前記画像処理において、前記コンピュータは、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行処理において、前記コンピュータは、前記第2ジェスチャーが検出されたときに、前記第1処理を実行し、前記第1処理が終了した後、前記第1処理が行われたことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる処理を実行する、画像処理方法。 - コンピュータに、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記画像処理機能は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行機能は、前記第1ジェスチャーが検出された後、前記第1処理を行うための準備が完了したことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる制御を実行し、前記第2ジェスチャーが検出されたときに、前記第1処理を実行する、プログラム。 - コンピュータに、
監視カメラが生成した映像を処理することにより、当該映像に含まれている人が第1ジェスチャーを行っているか否かを判断する画像処理機能と、
前記第1ジェスチャーが検出されたことを必要条件として、第1処理を実行する実行機能と、
を持たせ、
前記画像処理機能は、前記第1ジェスチャーが検出された後、さらに前記人が第2ジェスチャーを行っているか否かを判断し、
前記実行機能は、前記第2ジェスチャーが検出されたときに、前記第1処理を実行し、前記第1処理が終了した後、前記第1処理が行われたことを示す所定の情報を前記監視カメラ又はその近傍に設けられた通知手段から出力させる処理を実行する、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024104775A JP2024124461A (ja) | 2020-05-29 | 2024-06-28 | 画像処理装置、画像処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/021315 WO2021240771A1 (ja) | 2020-05-29 | 2020-05-29 | 画像処理装置、画像処理方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024104775A Division JP2024124461A (ja) | 2020-05-29 | 2024-06-28 | 画像処理装置、画像処理方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021240771A1 JPWO2021240771A1 (ja) | 2021-12-02 |
JPWO2021240771A5 JPWO2021240771A5 (ja) | 2023-02-07 |
JP7517416B2 true JP7517416B2 (ja) | 2024-07-17 |
Family
ID=78723264
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022527433A Active JP7517416B2 (ja) | 2020-05-29 | 2020-05-29 | 画像処理装置、画像処理方法、及びプログラム |
JP2024104775A Pending JP2024124461A (ja) | 2020-05-29 | 2024-06-28 | 画像処理装置、画像処理方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024104775A Pending JP2024124461A (ja) | 2020-05-29 | 2024-06-28 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230214024A1 (ja) |
JP (2) | JP7517416B2 (ja) |
WO (1) | WO2021240771A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185833A (ja) | 2012-04-17 | 2012-09-27 | Omron Corp | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
JP2015064714A (ja) | 2013-09-25 | 2015-04-09 | 日本電気通信システム株式会社 | 遠隔操作装置、遠隔操作方法、および遠隔操作プログラム |
JP2016161835A (ja) | 2015-03-03 | 2016-09-05 | シャープ株式会社 | 表示装置、制御プログラム、および制御方法 |
WO2017104227A1 (ja) | 2015-12-18 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012117570A1 (ja) * | 2011-03-03 | 2012-09-07 | オムロン株式会社 | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
US11112875B1 (en) * | 2020-03-20 | 2021-09-07 | Huawei Technologies Co., Ltd. | Methods and systems for controlling a device using hand gestures in multi-user environment |
-
2020
- 2020-05-29 US US17/927,914 patent/US20230214024A1/en active Pending
- 2020-05-29 JP JP2022527433A patent/JP7517416B2/ja active Active
- 2020-05-29 WO PCT/JP2020/021315 patent/WO2021240771A1/ja active Application Filing
-
2024
- 2024-06-28 JP JP2024104775A patent/JP2024124461A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185833A (ja) | 2012-04-17 | 2012-09-27 | Omron Corp | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
JP2015064714A (ja) | 2013-09-25 | 2015-04-09 | 日本電気通信システム株式会社 | 遠隔操作装置、遠隔操作方法、および遠隔操作プログラム |
JP2016161835A (ja) | 2015-03-03 | 2016-09-05 | シャープ株式会社 | 表示装置、制御プログラム、および制御方法 |
WO2017104227A1 (ja) | 2015-12-18 | 2017-06-22 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021240771A1 (ja) | 2021-12-02 |
JP2024124461A (ja) | 2024-09-12 |
US20230214024A1 (en) | 2023-07-06 |
JPWO2021240771A1 (ja) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7031588B2 (ja) | 不審者検出装置、不審者検出方法およびプログラム | |
WO2016147770A1 (ja) | 監視システム及び監視方法 | |
JP2018101317A (ja) | 異常監視システム | |
US20190213424A1 (en) | Image processing system and image processing method | |
JP5185196B2 (ja) | 防犯装置、その制御方法、プログラム、及び防犯システム | |
JP2020091812A (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2020014194A (ja) | コンピュータシステム、リソース割り当て方法およびその画像識別方法 | |
JP6268497B2 (ja) | 警備システム、及び人物画像表示方法 | |
WO2016124146A1 (zh) | 显示设备伪装/恢复系统和控制方法 | |
CN107122743A (zh) | 安防监控方法、装置和电子设备 | |
US20120169872A1 (en) | Method and system for detecting duress | |
JP2021196741A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Reza et al. | Design a Landmark Facial-Based Drowsiness Detection Using Dlib And Opencv For Four-Wheeled Vehicle Drivers | |
JP7517416B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2009239507A (ja) | 監視システム | |
US11670080B2 (en) | Techniques for enhancing awareness of personnel | |
US20140147011A1 (en) | Object removal detection using 3-d depth information | |
WO2017029779A1 (ja) | 警備システム、人物画像表示方法、及びレポート作成方法 | |
KR102650169B1 (ko) | 열화상 카메라로 산업현장의 이상 온도를 감지 및 표현하고 경보를 발생시켜 알리는 시스템 및 이의 동작 방법 | |
KR102484198B1 (ko) | 이상 이벤트 탐지 방법, 장치 및 시스템 | |
JP2006039906A (ja) | 警報発生システムおよびビデオ処理装置 | |
Chandran et al. | A Smart Gas Stove with Gas Leakage Detection and Multistage Prevention System Using IoT | |
JP2020102676A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR102608625B1 (ko) | 효율적 운영이 가능한 딥러닝 기반 영상 감시 장치 및 방법 | |
KR102644648B1 (ko) | 교통표지 모니터링 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240326 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7517416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |