JP6266675B2 - 捜索支援装置、捜索支援方法及び捜索支援プログラム - Google Patents

捜索支援装置、捜索支援方法及び捜索支援プログラム Download PDF

Info

Publication number
JP6266675B2
JP6266675B2 JP2016055165A JP2016055165A JP6266675B2 JP 6266675 B2 JP6266675 B2 JP 6266675B2 JP 2016055165 A JP2016055165 A JP 2016055165A JP 2016055165 A JP2016055165 A JP 2016055165A JP 6266675 B2 JP6266675 B2 JP 6266675B2
Authority
JP
Japan
Prior art keywords
gaze
gaze area
distance
operator
search support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016055165A
Other languages
English (en)
Other versions
JP2017169167A (ja
Inventor
陽一 小野村
陽一 小野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2016055165A priority Critical patent/JP6266675B2/ja
Priority to US15/461,749 priority patent/US10176394B2/en
Publication of JP2017169167A publication Critical patent/JP2017169167A/ja
Application granted granted Critical
Publication of JP6266675B2 publication Critical patent/JP6266675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、カメラを操作する操作員が高所からのカメラ映像を見ながら行う所定の探知目標の捜索を支援する技術に関し、特に、操作員の操作負荷を軽減するのに有用な技術である。
航空機などに設置された光学カメラを使用し、その操作員が高所からのカメラ映像(画像)を見ながら地上(または海上)の所定の探知目標の捜索を行う場合がある(例えば、特許文献1参照)。
このような捜索活動では、操作員が広画角のカメラ映像を見ながら広範囲での捜索を行い、疑わしい対象を発見したらその方向にカメラの視軸を向けて狭画角に切り替えて(ズームアップ)、それが探知目標か否かを確認する。そして、この対象が探知目標でなかった場合には再び広画角に戻して捜索を継続し、探知目標であった場合には当該探知目標の画像中の位置からその実際の位置(座標)を標定する。
このように、操作員は広画角での捜索と狭画角での識別とを探知目標を発見するまで繰り返し行う必要があり、その操作負荷が極めて大きかった。
特許第4170488号公報
本発明は、上記課題を鑑みてなされたもので、操作員が撮影画像を見ながら行う探知目標の捜索において、従来に比べて操作員の操作負荷を軽減することを目的とする。
上記目的を達成するために、請求項1に記載の発明は、高所に設置された撮影手段を用いて操作員が行う所定の探知目標の捜索を支援する捜索支援装置であって、
前記撮影手段が撮影した画像を表示する表示手段と、
前記表示手段に表示された表示画像上での前記操作員の視線軌跡を検出する視線軌跡検出手段と、
前記視線軌跡検出手段により検出された前記視線軌跡に基づいて、前記表示画像のうち前記操作員が注視した注視領域を抽出する注視領域抽出手段と、
前記注視領域抽出手段により抽出された前記注視領域内における前記撮影手段からの距離を計測する測距手段と、
前記測距手段により計測された前記撮影手段からの距離に基づいて、前記注視領域内に前記探知目標が存在するか否かを判定する目標有無判定手段と、
を備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の捜索支援装置において、
前記撮影手段は、当該撮影手段からの距離情報を取得可能なステレオカメラであり、前記測距手段を兼ねていることを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の捜索支援装置において、
前記注視領域抽出手段は、前記視線軌跡の平均位置を中心とし、前記視線軌跡の存在確率が所定値となる円形領域を、前記注視領域として前記表示画像から抽出することを特徴とする。
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の捜索支援装置において、
前記目標有無判定手段は、
前記注視領域内における前記撮影手段からの距離の平均値と、前記注視領域内において前記撮影手段から最も近い距離とが、所定値以上の差を有していた場合に、前記注視領域内に前記探知目標が存在すると判定し、
前記注視領域内において前記撮影手段から最も近い距離の位置を、前記探知目標の位置と標定することを特徴とする。
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の捜索支援装置において、
前記撮影手段が航空機に搭載されていることを特徴とする。
請求項6及び請求項7に記載の発明は、請求項1に記載の捜索支援装置と同様の特徴を具備する捜索支援方法及び捜索支援プログラムである。
本発明によれば、表示手段に表示された表示画像上での操作員の視線軌跡に基づいて、当該表示画像のなかから操作員が注視した注視領域が抽出され、この注視領域内における撮影手段からの距離に基づいて、当該注視領域内に探知目標が存在するか否かが判定される。
つまり、操作員が表示画像を注視していた場合に、その注視領域内に探知目標らしき対象が存在すると判定されたうえで、その対象が探知目標であるか否かが撮影手段からの距離に基づいて判定される。これにより、操作員が表示画像内で探知目標を探す(目で追う)だけで、探知目標の存在が自動的に確認される。
したがって、操作員が広画角での捜索と狭画角での識別を繰り返し行う必要があった従来に比べ、操作員の操作負荷を軽減することができる。
本実施形態における航空機の概略構成を示すブロック図である。 捜索支援処理でのデータの流れを示すデータフロー図である。 捜索支援処理を説明するための図である。
以下、本発明に係る捜索支援装置を航空機1に適用した場合の実施形態について、図面を参照して説明する。
[構成]
まず、本実施形態における航空機1の構成について、図1を参照して説明する。
図1は、航空機1の概略構成を示すブロック図である。
航空機1は、所定の探知目標の捜索を行うためのものであり、より詳しくは、本発明に係る捜索支援装置を具備することにより、搭載されたステレオカメラ14を用いてその操作員(搭乗員)が行う探知目標の捜索を支援可能に構成されたものである。
具体的には、図1に示すように、航空機1は、飛行機構11と、操作部12と、記憶部13と、ステレオカメラ14と、ディスプレイ15と、カメラ操作部16と、視線検出用カメラ17と、制御部18とを備えて構成されている。
このうち、飛行機構11は、航空機1を飛行させるための機構であり、推進力を発生させる内燃機関(例えばジェットエンジン)や舵面駆動用のアクチュエータ等から構成されている。
操作部12は、パイロットに操作される操縦桿や各種操作キー等を備えており、これら操縦桿や各種操作キー等の操作状態に対応する信号を制御部18に出力する。
記憶部13は、航空機1の各種機能を実現するためのプログラムやデータを記憶するとともに、作業領域としても機能するメモリである。本実施形態においては、記憶部13は、捜索支援プログラム130を記憶している。
捜索支援プログラム130は、後述の捜索支援処理を制御部18に実行させるためのプログラムである。
ステレオカメラ14は、航空機1の機外を撮影するためのものであり、図示しないジンバルに載置されて向きを変えられるように航空機1の機体に設けられている。このステレオカメラ14は、対象物を複数の異なる方向から同時に撮影することにより、その奥行き方向の情報(つまり、当該ステレオカメラ14からの距離情報)も取得できるものであり、取得した情報を制御部18に出力する。
ディスプレイ15は、制御部18から入力される表示信号に基づいて、ステレオカメラ14が撮影した画像を表示する。
カメラ操作部16は、ステレオカメラ14を操作するためのものであり、ステレオカメラ14の向きやズームアップ・ズームバックなどの操作が可能となっている。このカメラ操作部16は、本実施形態においては、パイロットとは異なる専用の操作員によって操作される。操作員は、ディスプレイ15によってステレオカメラ14の撮影画像を見ながら、カメラ操作部16を操作する。
視線検出用カメラ17は、ディスプレイ15を見る操作員の視線(目の動き)を検出するためのものであり、操作員の顔に対向するように設けられている。この視線検出用カメラ17は、操作員の目の動きを撮影し、その画像情報を制御部18に出力する。
なお、視線検出用カメラ17は、ディスプレイ15と一体的に構成されていてもよい。
制御部18は、航空機1の各部を中央制御する。具体的に、制御部18は、飛行機構11を駆動制御して航空機1の飛行を制御したり、記憶部13に記憶されているプログラムを展開し、展開されたプログラムと協働して各種処理を実行したりする。
また、制御部18は、後述するように、捜索支援処理における各種の機能部として、視線軌跡検出器181と、注視領域判定器182と、目標探知標定器183とを備えている(図2参照)。
[動作]
続いて、捜索支援処理を実行する際の航空機1の動作について説明する。
図2は、捜索支援処理でのデータの流れを示すデータフロー図である。また、図3は、捜索支援処理を説明するための図であって、(a)がディスプレイ15上での後述の視線軌跡LSを示す図であり、(b)がディスプレイ15上での後述の注視領域WAを示す図であり、(c)が注視領域WAにおける探知目標Tを示すイメージ図である。
捜索支援処理は、操作員がステレオカメラ14の撮影画像を見ながら行う探知目標Tの捜索を支援する処理である。この捜索支援処理は、例えば操作員の操作等により当該捜索支援処理の実行指示が入力されたときに、制御部18が記憶部13から捜索支援プログラム130を読み出して展開することで実行される。
なお、ここでは、飛行中の航空機1からステレオカメラ14により機体下方の地上(または海上)が撮影されて、その撮影画像がディスプレイ15に表示されており、このステレオカメラ14の広画角での撮影により、探知目標T(と思われるもの)がディスプレイ15の表示画像中に含まれているものとする(図3(a)参照)。
図2に示すように、捜索支援処理が実行されると、まず制御部18は、ディスプレイ15を見る操作員の目の動きを視線検出用カメラ17により撮影し、その画像情報に基づいて、視線軌跡検出器181により操作員の視線軌跡LSを検出する。
具体的に、視線軌跡検出器181は、例えば基準点を角膜反射、動点を瞳孔とし、或いは基準点を目頭、動点を虹彩にしてこれらの位置関係を用いることで、操作員の視線を検出する。そして、視線軌跡検出器181は、所定の時間間隔(例えば数秒間)に亘る当該視線の移動を記憶することにより、ディスプレイ15に表示された表示画像上での操作員の視線軌跡LSを検出する。
これにより、操作員が探知目標T(と思われれるもの)の真贋を判断しようとして、ディスプレイ15の表示画像上で当該探知目標Tの周辺を行き来している視線軌跡LSが得られる(図3(a))。
次に、制御部18は、検出された視線軌跡LSに基づいて、ディスプレイ15の表示画像のうち操作員が注視した注視領域WAを、注視領域判定器182により抽出する。
具体的に、注視領域判定器182は、視線軌跡LSの平均位置を中心とし、当該視線軌跡LSの存在確率が所定値となる円形領域を、注視領域WAと判定する(図3(b))。例えば、視線軌跡LSの存在確率が50%となる領域を求める場合には、CEP(平均誤差半径)値を半径とする円形領域が注視領域WAとなる。
これにより、操作員が注視している探知目標T(と思われるもの)を含む領域が、注視領域WAとしてディスプレイ15の表示画像から抽出される。
次に、制御部18は、抽出された注視領域WA内におけるステレオカメラ14からの距離に基づいて、目標探知標定器183により、当該注視領域WA内に探知目標Tが存在するか否かを判定し、存在する場合にはその位置を標定する。
具体的に、目標探知標定器183は、注視領域WA内(全体)におけるステレオカメラ14からの距離の平均値と、注視領域WA内においてステレオカメラ14から最も近い距離とが、所定値以上の差を有していた場合に、当該注視領域WA内に探知目標Tが存在すると判定する。このとき、ステレオカメラ14からの距離の値は、当該ステレオカメラ14から得られる距離情報に基づいて、他の機器に依ることなく直接的に取得することができる。
それから、目標探知標定器183は、注視領域WA内に探知目標Tが存在すると判定した場合に、注視領域WA内においてステレオカメラ14から最も近い距離の位置、すなわち注視領域WA内で最も高い位置を、探知目標Tの位置と標定する(図3(c))。
そして、制御部18は、視線軌跡LSの検出、注視領域WAの抽出、探知目標Tの有無判定・標定を、探知目標Tの位置が標定されるまで連続的に繰り返す。
[効果]
以上のように、本実施形態によれば、ディスプレイ15に表示された表示画像上での操作員の視線軌跡LSに基づいて、当該表示画像のなかから操作員が注視した注視領域WAが抽出され、この注視領域WA内におけるステレオカメラ14からの距離に基づいて、当該注視領域WA内に探知目標Tが存在するか否かが判定される。
つまり、操作員が表示画像を注視していた場合に、その注視領域WA内に探知目標Tらしき対象が存在すると判定されたうえで、その対象が探知目標Tであるか否かがステレオカメラ14からの距離に基づいて判定される。これにより、操作員はディスプレイ15の表示画像内で探知目標Tを探す(目で追う)だけで、探知目標Tの存在が自動的に確認される。
したがって、操作員が広画角での捜索と狭画角での識別を繰り返し行う必要があった従来に比べ、操作員の操作負荷を軽減することができる。
また、画像を撮影する撮影手段として、当該撮影手段からの距離情報を取得可能なステレオカメラ14を用いているので、距離を計測するためだけの測距手段を別途設ける必要がない。
[変形例]
なお、本発明を適用可能な実施形態は、上述した実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、上記実施形態では、注視領域WA内における撮影手段(ステレオカメラ14)からの距離の平均値と、注視領域WA内において撮影手段から最も近い距離との差に基づいて、注視領域WA内に探知目標Tが存在するか否かを判定することとしたが、探知目標T自体の範囲を考慮し、注視領域WA内における距離の平均値から当該範囲のものを除くようにしてもよい。
具体的には、「注視領域WA内における撮影手段からの距離の平均値」に代えて、「注視領域WA内のうち、撮影手段から最も近い距離の位置から所定半径内の範囲を除いた部分における撮影手段からの距離の平均値」を用いるようにしてもよい。
また、撮影手段(ステレオカメラ14)からの距離に基づいて注視領域WA内に探知目標Tが存在するか否かを判定することとしたが、「撮影手段からの距離」とはすなわちほぼ高度であるため、高度に基づいて探知目標Tの存在を判定することとしてもよい。
具体的に、この場合には、例えば捜索範囲内の高度情報のデータベースを予め記憶部13に記憶しておくか通信手段などにより参照可能に構成しておき、撮影手段からの距離を高度に換算して、高度情報のデータベースを参照するようにすればよい。そして、距離から換算した探知目標T(と思われるもの)の高度値がデータベース内のものと合致した場合に、その位置を探知目標Tの位置と判定すればよい。
また、撮影手段としてステレオカメラ14を用いることにより、距離情報を含む画像情報を取得することとしたが、距離情報を含まない画像情報を取得する撮影手段(単眼のカメラ)を用い、距離情報は例えば光学センサーやレーダーなどの別の測距手段から取得することとしてもよい。この場合、注視領域WAが抽出された後に、測距手段から注視領域WA内へレーザー照射や電波照射を行って、当該注視領域WA内における航空機1からの距離を計測すればよい。
また、操作員が航空機1に搭乗して探知目標Tの捜索を行うこととしたが、撮影手段(ステレオカメラ14)が航空機1に搭載されて高所からの画像を撮影可能であれば、操作員は、撮影手段以外の他の機器(ディスプレイ15、カメラ操作部16及び視線検出用カメラ17)とともに他の場所(例えば地上設備)にいることとしてもよい。つまり、機上の撮影手段から送信されてくる画像情報を用いて、操作員が地上設備などで捜索を行うこととしてもよい。
さらに、撮影手段は高所に設置されて地上または海上の画像を撮影可能であれば、航空機1に搭載されたものでなくともよく、例えば高い建造物の上部に設置されたものなどであってもよい。
1 航空機
13 記憶部
130 捜索支援プログラム
14 ステレオカメラ
15 ディスプレイ
16 カメラ操作部
17 視線検出用カメラ
18 制御部
LS 視線軌跡
WA 注視領域
T 探知目標

Claims (7)

  1. 高所に設置された撮影手段を用いて操作員が行う所定の探知目標の捜索を支援する捜索支援装置であって、
    前記撮影手段が撮影した画像を表示する表示手段と、
    前記表示手段に表示された表示画像上での前記操作員の視線軌跡を検出する視線軌跡検出手段と、
    前記視線軌跡検出手段により検出された前記視線軌跡に基づいて、前記表示画像のうち前記操作員が注視した注視領域を抽出する注視領域抽出手段と、
    前記注視領域抽出手段により抽出された前記注視領域内における前記撮影手段からの距離を計測する測距手段と、
    前記測距手段により計測された前記撮影手段からの距離に基づいて、前記注視領域内に前記探知目標が存在するか否かを判定する目標有無判定手段と、
    を備えることを特徴とする捜索支援装置。
  2. 前記撮影手段は、当該撮影手段からの距離情報を取得可能なステレオカメラであり、前記測距手段を兼ねていることを特徴とする請求項1に記載の捜索支援装置。
  3. 前記注視領域抽出手段は、前記視線軌跡の平均位置を中心とし、前記視線軌跡の存在確率が所定値となる円形領域を、前記注視領域として前記表示画像から抽出することを特徴とする請求項1または2に記載の捜索支援装置。
  4. 前記目標有無判定手段は、
    前記注視領域内における前記撮影手段からの距離の平均値と、前記注視領域内において前記撮影手段から最も近い距離とが、所定値以上の差を有していた場合に、前記注視領域内に前記探知目標が存在すると判定し、
    前記注視領域内において前記撮影手段から最も近い距離の位置を、前記探知目標の位置と標定することを特徴とする請求項1〜3のいずれか一項に記載の捜索支援装置。
  5. 前記撮影手段が航空機に搭載されていることを特徴とする請求項1〜4のいずれか一項に記載の捜索支援装置。
  6. 高所に設置された撮影手段を用いて操作員が行う所定の探知目標の捜索を支援する捜索支援方法であって、
    前記撮影手段が撮影した画像を表示する表示手段を備える捜索支援装置が、
    前記表示手段に表示された表示画像上での前記操作員の視線軌跡を検出する視線軌跡検出工程と、
    前記視線軌跡検出工程で検出された前記視線軌跡に基づいて、前記表示画像のうち前記操作員が注視した注視領域を抽出する注視領域抽出工程と、
    前記注視領域抽出工程で抽出された前記注視領域内における前記撮影手段からの距離を計測する測距工程と、
    前記測距工程で計測された前記撮影手段からの距離に基づいて、前記注視領域内に前記探知目標が存在するか否かを判定する目標有無判定工程と、
    実行することを特徴とする捜索支援方法。
  7. 高所に設置された撮影手段を用いて操作員が行う所定の探知目標の捜索を支援する捜索支援プログラムであって、
    前記撮影手段が撮影した画像を表示する表示手段備える捜索支援装置
    前記表示手段に表示された表示画像上での前記操作員の視線軌跡を検出する視線軌跡検出手段
    前記視線軌跡検出手段により検出された前記視線軌跡に基づいて、前記表示画像のうち前記操作員が注視した注視領域を抽出する注視領域抽出手段
    前記注視領域抽出手段で抽出された前記注視領域内における前記撮影手段からの距離を計測する測距手段、
    前記測距手段により計測された記撮影手段からの距離に基づいて、前記注視領域内に前記探知目標が存在するか否かを判定する目標有無判定手段
    として機能させることを特徴とする捜索支援プログラム。
JP2016055165A 2016-03-18 2016-03-18 捜索支援装置、捜索支援方法及び捜索支援プログラム Active JP6266675B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016055165A JP6266675B2 (ja) 2016-03-18 2016-03-18 捜索支援装置、捜索支援方法及び捜索支援プログラム
US15/461,749 US10176394B2 (en) 2016-03-18 2017-03-17 Search assisting apparatus, search assisting method, and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016055165A JP6266675B2 (ja) 2016-03-18 2016-03-18 捜索支援装置、捜索支援方法及び捜索支援プログラム

Publications (2)

Publication Number Publication Date
JP2017169167A JP2017169167A (ja) 2017-09-21
JP6266675B2 true JP6266675B2 (ja) 2018-01-24

Family

ID=59855777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016055165A Active JP6266675B2 (ja) 2016-03-18 2016-03-18 捜索支援装置、捜索支援方法及び捜索支援プログラム

Country Status (2)

Country Link
US (1) US10176394B2 (ja)
JP (1) JP6266675B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180050052A (ko) * 2016-11-04 2018-05-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP6694112B2 (ja) * 2017-03-17 2020-05-13 マクセル株式会社 Ar表示装置及びar表示方法
JP7070003B2 (ja) * 2018-04-13 2022-05-18 京セラドキュメントソリューションズ株式会社 表示装置及び画像形成装置
CN115315937A (zh) * 2020-03-30 2022-11-08 索尼集团公司 成像装置、控制成像装置的方法及程序
WO2023053557A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0781695A (ja) * 1993-09-17 1995-03-28 Shin Meiwa Ind Co Ltd 目標物の位置自動検出装置
JP4170488B2 (ja) * 1998-12-24 2008-10-22 富士重工業株式会社 航空機による目標捜索装置
JP4324403B2 (ja) * 2003-04-09 2009-09-02 富士重工業株式会社 移動体の視界装置
US8406457B2 (en) * 2006-03-15 2013-03-26 Omron Corporation Monitoring device, monitoring method, control device, control method, and program
WO2010143377A1 (ja) * 2009-06-08 2010-12-16 パナソニック株式会社 注視対象判定装置及び注視対象判定方法
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
JP5949319B2 (ja) * 2012-08-21 2016-07-06 富士通株式会社 視線検出装置及び視線検出方法
JP6547268B2 (ja) * 2014-10-02 2019-07-24 富士通株式会社 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム
CN109983755A (zh) * 2016-06-30 2019-07-05 北方公司 基于眼睛跟踪自动聚焦的图像捕获系统、设备和方法
US10255714B2 (en) * 2016-08-24 2019-04-09 Disney Enterprises, Inc. System and method of gaze predictive rendering of a focal area of an animation

Also Published As

Publication number Publication date
US10176394B2 (en) 2019-01-08
US20170270383A1 (en) 2017-09-21
JP2017169167A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6266675B2 (ja) 捜索支援装置、捜索支援方法及び捜索支援プログラム
US20240118701A1 (en) Systems and methods for controlling an unmanned aerial vehicle
US10878236B2 (en) Eye tracking using time multiplexing
US20160054795A1 (en) Information display device
JP5529660B2 (ja) 瞳孔検出装置及び瞳孔検出方法
WO2018058307A1 (en) Systems and methods for initialization of target object in a tracking system
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JP5001930B2 (ja) 動作認識装置及び方法
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
US10496186B2 (en) Information processing apparatus, information processing method, and program
US20200089252A1 (en) Guide robot and operating method thereof
JP6452235B2 (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
US20080205700A1 (en) Apparatus and Method for Assisted Target Designation
JP6463712B2 (ja) 目標捜索装置、目標捜索方法及び目標捜索プログラム
JP2016091192A (ja) 虚像表示装置、制御方法、プログラム、及び記憶媒体
CN105765608A (zh) 用于根据闪耀点进行眼睛检测的方法和设备
JP2014006188A (ja) レーダ監視システム、映像取得方法及び映像取得プログラム
US20210018911A1 (en) Display control system, display control device and display control method
KR20180060403A (ko) 영상 기반의 드론 제어장치
JP2014174880A (ja) 情報提供装置、及び情報提供プログラム
KR20220036399A (ko) 웨어러블 기기를 이용한 혼합현실 모니터링 시스템
KR20160015143A (ko) 포탄방향인식시스템, 글라스형 웨어러블 디바이스를 이용한 포탄 예상 탄착지 제공방법 및 프로그램
US11610398B1 (en) System and apparatus for augmented reality animal-watching
JP2014174879A (ja) 情報提供装置、及び情報提供プログラム
JP2014174091A (ja) 情報提供装置、及び情報提供プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

R150 Certificate of patent or registration of utility model

Ref document number: 6266675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250