JP6597235B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6597235B2
JP6597235B2 JP2015233974A JP2015233974A JP6597235B2 JP 6597235 B2 JP6597235 B2 JP 6597235B2 JP 2015233974 A JP2015233974 A JP 2015233974A JP 2015233974 A JP2015233974 A JP 2015233974A JP 6597235 B2 JP6597235 B2 JP 6597235B2
Authority
JP
Japan
Prior art keywords
hand
user
image
distance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015233974A
Other languages
English (en)
Other versions
JP2017102603A (ja
Inventor
厚一郎 新沼
敏幸 吉武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015233974A priority Critical patent/JP6597235B2/ja
Priority to US15/363,927 priority patent/US10082879B2/en
Publication of JP2017102603A publication Critical patent/JP2017102603A/ja
Application granted granted Critical
Publication of JP6597235B2 publication Critical patent/JP6597235B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、画像処理装置等に関する。
近年、HMD(Head Mounted Display)が普及している。HMDは、利用者の頭部に装着するディスプレイ装置であり、利用者にCG(Computer Graphics)映像や遠隔映像を見せることで、利用者は、バーチャルリアリティを体験することができる。
ここで、全画面型のHMDを装着した利用者は目がディスプレイによって覆われるため、利用者は、HMDを装着したまま、キーボード等の入力装置を操作することが難しく、映像内の視点を変更することが難しかった。このため、HMDを装着した利用者が所定のジェスチャ等を行うことで、映像内の視点を変更できる技術が求められている。
従来技術1について説明する。従来技術1は、Kinect(登録商標)等の固定センサを用いて、利用者の腕の移動に基づくジェスチャを認識し、6方向のナビゲーションを可能とするものである。図15は、従来技術1を説明するための図である。例えば、1Aに示すように、利用者が手の位置を固定すると、移動停止を装置に指示する。1Bに示すように、利用者が腕の位置を左に移動させると、左方向への移動を装置に指示し、腕の位置を右に移動させると、右方向への移動を装置に指示する。1Cに示すように、利用者が腕の位置を前方へ移動させると、前方への移動を装置に指示し、腕の位置を後方へ移動させると、後方への移動を装置に指示する。1Dに示すように、利用者が腕の位置を上方に移動させると、上方への移動を装置に指示し、腕の位置を下方へ移動させると、下方への移動を装置に指示する。
従来技術1は、HMDに適用されるものではないため、仮に、従来技術1をHMDに適用し、映像内の視点位置を変更する場合について検討する。HMDに搭載されるカメラは、利用者の頭部から視線方向を撮影するように取り付けられるため、撮影範囲に手のひらが含まれるものの、腕が含まれないため、腕の移動を検出できず、視点の移動方向を指示することが難しい。例えば、図15で説明した1B,1Dのジェスチャを認識することが難しい。
なお、従来技術1の1Cのように、腕を前方・後方に移動させる場合には、カメラの撮影範囲に腕を含めることが可能である。しかし、利用者毎に身体的な特徴が異なるため、利用者毎に手の長さが異なり、例えば、手のひらとカメラとの間の距離によって、腕の曲げ伸ばしを推定することが難しい。
従来技術2について説明する。従来技術2は、HMDのカメラの撮影範囲に、利用者の両手のひらが存在するか否かを判定し、両手のひらが存在する場合には、視点位置を前方に移動させる技術である。図16は、従来技術2を説明するための図である。図2に示すように、従来技術2では、利用者が両手のひらを前方に出すと、両手のひらが表示画面に表示され、視点位置を前方に移動させる。従来技術2は、従来技術1と比較して、両手のひらが存在するか否かを判定するだけでよいので、利用者はHMDを装着した状態で、視点位置を前方に移動させることができる。
特開2012−79177号公報 特開平10−177449号公報 特開2014−72575号公報
しかしながら、上述した従来技術では、複数種類のジェスチャを認識することができず、また、利用者の手によって視認可能な領域が隠れてしまうと言う問題があった。
例えば、従来技術2では、両手のひらが存在するか否かを判定するのみであるため、操作可能な視点位置の移動方向が限られてしまう。また、図16で説明したように、利用者が両手のひらを前方に出すと、利用者の両手のひらが表示画面に表示されるため、両手のひらと重複する領域が隠れてしまう。
1つの側面では、本発明は、ジェスチャ判定と共に手によって隠れた領域の視認ができ、直感的な操作ができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
第1の案では、画像処理装置は、距離センサと、認識部と、表示制御部とを有する。距離センサは、利用者側から利用者の視線方向に位置する物体までの距離情報を取得する。認識部は、距離センサから利用者の視線方向に存在する物体までの距離情報を距離画像として取得し、取得した前記距離画像が表す物体が前記利用者の手の形状か認識すると共に、認識結果が手の形状である場合に、更に手の形状が所定の形状に該当するか認識する。表示制御部は、認識部で認識した物体が利用者の手であり、かつ所定の形状であった場合に、利用者の視点位置に応じた画像表示に加え、画像を透過させる利用者の手の画像を重畳させた重畳画像を表示装置に表示させる。
ジェスチャ判定と共に手によって隠れた領域の視認ができ、直感的な操作ができる。
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。 図2は、手領域候補を切り出す処理を説明するための図である。 図3は、平滑化する処理を説明するための図である。 図4は、指先候補点と指根本候補点とを特定する処理を説明するための図(1)である。 図5は、指先候補点と指根本候補点とを特定する処理を説明するための図(2)である。 図6は、指根本候補点を検出するその他の処理を説明するための図である。 図7は、指領域を特定する処理を説明するための図である。 図8は、手領域を特定する処理を説明するための図である。 図9は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。 図10は、視点移動ベクトルを決定する処理手順を示すフローチャートである。 図11は、手領域の透明度を決定する処理手順を示すフローチャートである。 図12は、画像処理装置のその他の処理(1)を示すフローチャートである。 図13は、画像処理装置のその他の処理(2)を示すフローチャートである。 図14は、画像処理プログラムを実行するコンピュータの一例を示す図である。 図15は、従来技術1を説明するための図である。 図16は、従来技術2を説明するための図である。
以下に、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。画像処理装置100は、例えば、図示しないHMD(Head Mounted Display)に組み込まれる。画像処理装置100は、HMDに搭載された距離画像センサ50および表示装置60に接続される。利用者は、画像処理装置100が組み込まれたHMDを頭部に装着する。
距離画像センサ50は、距離画像センサ50から、距離画像センサ50の撮影範囲に含まれる物体までの距離情報を計測するセンサである。また、距離画像センサ50は、カメラを備え、撮影範囲の画像を撮影する。距離画像センサ50の撮影方向は、利用者の視線方向とする。
距離画像センサ50は、TOF(Time Of Flight)方式に基づいて、距離画像センサ50から物体までの距離情報を計測する。距離情報は、距離画像センサ50から物体上の各点までの距離をそれぞれ含む。
距離画像センサ50は、カメラによる撮影範囲の画像情報と距離情報とを組み合わせた距離画像情報を、画像処理装置100に出力する。例えば、距離画像情報は、画像上の点と、距離画像センサ50から画像上の点に対応する実空間上の点までの距離とを対応付けた情報である。また、距離画像情報としては、対象物体と距離センサ間の距離を画素値で表した距離画像であってもよい。
表示装置60は、画像処理装置100から出力される映像情報を表示する表示装置である。
画像処理装置100は、取得部110と、特定部120と、ジェスチャ認識部130と、表示制御部140とを有する。取得部110と、特定部120と、ジェスチャ認識部130とは、認識部に対応する。
取得部110は、距離画像センサ50から距離画像情報を取得する取得部である。取得部110は、取得した距離画像情報を、特定部120に出力する。
特定部120は、距離画像情報に含まれる物体上の点と基準点との距離を基にして、利用者の指先および指の根本を識別することで、指領域を特定し、特定した指領域を基にして手領域を特定する処理部である。特定部120は、手領域の情報を、ジェスチャ認識部130に出力する。
以下において、特定部120の処理を具体的に説明する。特定部120は、手領域候補を切り出す処理、手領域候補の輪郭を平滑化する処理、指先候補点と指根本候補点とを特定する処理、指領域を特定する処理、手領域候補が手領域か否かを判定する処理を実行する。
特定部120が、手領域候補を切り出す処理について説明する。特定部120は、距離画像情報に基づいて、距離画像センサ50からの距離が閾値未満となる領域に存在する物体を、手領域候補として切り出す。
図2は、手領域候補を切り出す処理を説明するための図である。図2において、例えば、距離画像情報10aには、物体11,12,13,14が含まれる。物体11〜14のうち、物体14が、距離画像センサ50からの距離が閾値未満となる領域に存在するものとする。この場合には、特定部120は、距離画像情報10aから物体14を切り出すことで、距離画像情報10bを生成する。
特定部120が、手領域候補の輪郭を平滑化する処理について説明する。特定部120は、手領域候補を切り出した距離画像情報の距離について、隣り合う輪郭との重み付き平均などを実行することで、平滑化を行う。
図3は、平滑化する処理を説明するための図である。特定部120は、距離画像情報全体の各点に対応する距離について、平滑化フィルタ20をかけることで、距離画像情報を平滑化する。平滑化フィルタ20は、中心画素21iの距離の値を、式(1)に基づき算出するフィルタである。
中心画素21iの距離の値=1/9(画素21aの距離の値+画素21bの距離の値+画素21cの距離の値+画素21dの距離の値+画素21eの距離の値+画素21fの距離の値+画素21gの距離の値+画素21hの距離の値)・・・(1)
特定部120が、指先候補点と指根本候補点とを特定する処理について説明する。図4および図5は、指先候補点と指根本候補点とを特定する処理を説明するための図である。特定部120は、平滑化が行われた距離画像情報に含まれる手領域候補14について、基準点15を設定する。図4に示すように、例えば、特定部120は、手領域候補14の重心位置を、基準点15として設定する。
特定部120は、手領域候補14の輪郭上の全点について、下記の第1条件および第2条件を満たす点を算出し、指先候補点と指根本候補点とを特定する。ここでは、図5に示すように、隣り合う輪郭上の点16A,点16B,点16Cを用いて説明する。基準点15と、点16Aとの距離をDaとする。基準点15と、点16Bとの距離をDbとする。基準点15と、点16Cとの距離をDcとする。
特定部120は、下記の第1条件を満たす場合に、点16Bを、指先候補点として特定する。
第1条件:Da<Db、Db>Dc
特定部120は、第2条件を満たす場合に、点16Bを、指根本候補点として特定する。
第2条件:Da>Db、Db<Dc
特定部120は、例えば、図4の手領域候補14の輪郭上の全点について、上記処理を繰り返し実行することで、指先候補点17a,17b,17c,17d,17e,17f,17gを特定する。また、特定部120は、指根本候補点18a,18b,18c,18d,18eを特定する。
特定部120は、各指先候補点17a〜17gの位置を比較し、各指先候補点間の距離が閾値未満となる指先候補点同士をマージする。また、特定部120は、各指根本候補点18a〜18eの位置を比較し、各指根本候補点間の距離が閾値未満となる指根本候補点同士をマージする。
例えば、図4に示す例では、指先候補点17eと指先候補点17fとの距離が閾値未満であるため、特定部120は、指先候補点17eと指先候補点17fとマージする。例えば、特定部120は、指先候補点17eを残し、指先候補点17fを削除することでマージする。なお、特定部120は、指先候補点17eの距離と、指先候補点17fの距離との平均距離を求め、求めた平均距離を、新たな指先候補点の距離とし、指先候補点17e,17fを削除することで、マージしても良い。
ここで、上記処理では、端の指における指根本候補点の検出が不安定となり、適切に指根本候補点を検出できない場合がある。このため、特定部120は、下記に示す処理を更に実行することで、上記処理では検出していない指根本候補点を検出してもよい。
図6は、指根本候補点を検出するその他の処理を説明するための図である。特定部120は、複数の指先候補点を通る直線と、手領域候補14の輪郭の交点とを求め、求めた交点を、指根本候補点として検出する。例えば、図6に示すように、特定部120は、指根本候補点18d,18eを通る直線19と、手領域候補14の輪郭の交点18fを、指根本候補点として検出する。
なお、特定部120は、後述する処理により手領域を特定した後に、手領域に含まれる指根本点を通る直線と、手領域候補14の輪郭の交点を、指根本点として検出しても良い。以下の説明では、指根本点を通る直線と、手領域候補14の輪郭の交点により特定した指根本点を、仮想指根本点と表記する。
特定部120が指領域を特定する処理について説明する。図7は、指領域を特定する処理を説明するための図である。特定部120は、下記の第3条件および第4条件を満たす指先候補点と2つの指根本候補点とからなる領域を指領域として特定する。
一例として、図7に示すように、指先候補点17Aと、二つの指根本候補点18B,18Cとを用いて説明する。ここでは、指先候補点17Aと、二つの指根本候補点18B,18Cとからなる三角形を三角形ABCと表記する。特定部120は、三角形ABCの形状を判定し、第3条件を満たし、かつ、第4条件を満たす場合に、三角形ABCの領域を指領域として判定する。
第3条件:三角形ABCの点17Aの角度が鋭角である。
第4条件:点17Aおよび点18Bを結ぶ辺ABの長さと、点17Aおよび点18Cを結ぶ辺ACとの長さの差分が閾値未満である。
図7に示す三角形ABCが、第3条件および第4条件を満たす場合には、特定部120は、指先候補点17Aと、二つの指根本候補点18B,18Cとに囲まれる領域を、指領域として特定する。特定部120は、他の指先候補点、他の二つの指根本候補点についても、上記処理を繰り返し実行することで、他の指領域を特定する。以下の説明では、指領域に含まれる指先候補点を指先点と表記し、指領域に含まれる指根本候補点を指根本点と表記する。
また、特定部120は、指先候補点と、1つの指根本候補点と、1つの仮想指根本点とから構成される三角形を特定し、特定した三角形が、第3条件および第4条件を満たす場合には、該当する三角形を指領域として特定する。
特定部120が、手領域候補が手領域か否かを判定する処理について説明する。特定部120は、手領域候補から検出した指領域の数を基にして、手領域候補が手領域であるか否かを判定する。例えば、特定部120は、手領域候補に含まれる指領域の数が、5である場合に、手領域候補が手領域であると判定する。
図8は、手領域を特定する処理を説明するための図である。例えば、図8に示す例では、手領域候補14から、指領域20a,20b,20c,20d,20eが特定されたものとする。特定部120は、指領域20a〜20eの数が「5」であるため、手領域候補14が、手領域であると判定する。
特定部120は、手領域の情報を、ジェスチャ認識部130に出力する。手領域の情報には、手領域に含まれる各指領域の指先点の距離および指根本点の距離が含まれる。指先点の距離は、距離画像センサ50から指先点までの距離を示す。指根本点の距離は、距離画像センサ50から指根本点までの距離を示す。なお、特定部120は、指先点の距離および指根本点の距離を、3次元座標に変換してもよい。
また、特定部120は、5本の指領域を検出したタイミングで、利用者が手の指を開いたと判定する。特定部120は、利用者が手の指を開いた旨の情報を、表示制御部140に通知する。
ジェスチャ認識部130は、手領域に含まれる指先点の距離と、指根本点の距離との差分値を基にして、ジェスチャの種別を認識する処理部である。例えば、ジェスチャ認識部130は、指先点の距離から指根本点の距離を引いた値が「正の値」である場合には、手領域が前方に傾いていると認識する。これに対して、ジェスチャ認識部130は、指先点の距離から指根本点の距離を引いた値が「負の値」である場合には、手領域が後方に傾いていると認識する。
なお、ジェスチャ認識部130は、指領域に含まれる指先点および指根本点の差分値を、各指領域からそれぞれ算出し、算出した複数の差分値の平均値を、上記の差分値としても良い。または、ジェスチャ認識部130は、複数の指領域のうち、いずれか一つの指領域を選択し、選択した指領域に含まれる指先点および指根本点に基づき、上記差分値を算出しても良い。
ジェスチャ認識部130は、ジェスチャの認識結果の情報を、表示制御部140に出力する。例えば、ジェスチャの認識結果の情報には、手領域が前方に傾いているか、手領域が後方に傾いているかの情報と、手領域に含まれる指先点の距離と、指根本点の距離との差分値の絶対値の情報が含まれる。
表示制御部140は、利用者の視点位置に応じたバーチャル空間の画像データを、表示装置60に表示させる処理部である。例えば、表示制御部140は、視点位置とバーチャル空間上の画像データとを対応付けたバーチャル空間情報を基にして、バーチャル空間の画像データを、表示装置60に表示させる。表示制御部140は、ジェスチャの認識結果の情報を基にして、表示装置60に表示させるバーチャル空間上の利用者の視点位置を移動させる。例えば、手領域が前方に傾いている場合には、視点位置を前方に移動させ、手領域が後方に傾いている場合には、視点位置を後方に移動させる。
また、表示制御部140は、利用者の手の形状が所定の形状となった場合に、利用者の視点位置に応じたバーチャル空間の画像データと、利用者の手の画像とを重畳させた重畳画像を表示装置60に表示させる。表示制御部140は、利用者の手の画像として、距離画像情報に含まれる利用者の手の画像を用いる。表示制御部140は、距離画像情報に含まれる利用者の手の画像を、特定部120が特定した手領域を基にして特定する。
ここで、所定の形状は、利用者が手の指を開いた状態の形状に対応する。表示制御部140は、特定部120から、利用者が手の指を開いた旨の情報を取得した場合に、利用者の手の形状が所定の形状となったと判定する。
更に、表示制御部140は、重畳画像を表示装置60に表示させる場合に、バーチャル空間の画像データを透過させるように、利用者の手の画像に対して透過処理を行い、透明度を調整する。表示制御部140が実行する透過処理は、例えば、透過PNG(Portable Network Graphics)等と同様の処理である。
表示制御部140は、利用者の手の指が開いている場合には、利用者の手の画像の透明度を透明度T1に調整する。一方、表示制御部140は、利用者の手の指が開いていない場合には、利用者の手の画像の透明度を透明度T2に設定する。ここで、透明度T1と透明度T2との透明度の大小関係を透明度T1>透明度T2とする。透明度が大きいほど、手の画像は、より多くのバーチャル空間の画像データを透過させることを意味する。なお、上記のように、利用者の手が開いていない場合には、利用者の手の画像は、バーチャル空間に重畳されない。
表示制御部140は、利用者の手の傾きに応じて、透明度を透明度T1から透明度T3の間で調整しても良い。ここで、透明度T1と透明度T3との透明度の大小関係を透明度T3>透明度T1とする。表示制御部140は、利用者の手の傾きが大きくなるにつれて、透明度を透明度T3に近づけ、手の傾きが小さくなるにつれて、透明度を透明度T1に近づける。例えば、表示制御部140は、手領域に含まれる指先点の距離と、指根本点の距離との差分値の絶対値を、手の傾きとして利用する。すなわち、利用者が手の傾きを大きくするにつれて、重畳される手の画像はより透明となる。
ところで、表示制御部140は、利用者の手の形状が所定の形状の場合に、視点移動ベクトルを算出し、視点移動ベクトルに従ってバーチャル空間上の利用者の視点位置を移動させる。以下において、視点移動ベクトルを算出する処理の一例について説明する。視点移動ベクトルを算出する処理は、視点移動ベクトルの向きを決定する処理、視点移動ベクトルの移動量を決定する処理が含まれる。
表示制御部140が視点移動ベクトルの向きを決定する処理について説明する。表示制御部140は、ジェスチャの認識結果の情報に、手領域が前方に傾いている旨の情報が含まれている場合には、視点移動ベクトルの方向が正方向であると判定する。既に説明したように、指先点の距離から指根本点の距離を引いた値が「正の値」である場合には、手領域が前方に傾いていることになる。
表示制御部140は、ジェスチャの認識結果の情報に、手領域が後方に傾いている旨の情報が含まれている場合には、視点移動ベクトルの方向が負方向であると判定する。既に説明したように、指先点の距離から指根本点の距離を引いた値が「負の値」である場合には、手領域が後方に傾いていることになる。
表示制御部140が視点移動ベクトルの移動量を決定する処理の一例について説明する。表示制御部140は、手領域に含まれる指先点の距離と、指根本点の距離との差分値の絶対値Kを基にして、視点移動ベクトルの移動量を決定する。例えば、表示制御部140は、移動量Xを、式(2)に基づき算出する。式(2)に含まれるαは、利用者に予め設定される係数である。
移動量X=α×K・・・(2)
表示制御部140は、上記処理を行うことで、視点移動ベクトルを算出する。表示制御部140は、視点移動ベクトルに従って視点位置を移動し、移動後の視点位置に応じたバーチャル空間上の画像データを特定する。表示制御部140は、バーチャル空間上の画像データと、透過処理を行った手の画像とを重畳した重畳画像を生成し、重畳画像を表示装置60に表示させる。
次に、本実施例に係る画像処理装置100の処理手順の一例について説明する。図9は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図9に示す処理は、画像処理装置100が、距離画像センサ50から距離画像情報を取得する度に実行される。図9に示すように、画像処理装置100の特定部120は、手領域を検出する(ステップS101)。
特定部120は、手形状を検出する(ステップS102)。画像処理装置100のジェスチャ認識部130は、手の傾きを検出する(ステップS103)。画像処理装置100の表示制御部140は、視点移動ベクトルを決定する(ステップS104)。
表示制御部140は、視点移動ベクトルに基づいて、視点移動後の画像データを生成する(ステップS105)。表示制御部140は、手領域の透明度を決定する(ステップS106)。表示制御部140は、画像データに手領域の画像データを重畳し、重畳画像を生成する(ステップS107)。表示制御部140は、重畳画像を、表示装置60に表示させる(ステップS108)。
次に、図9のステップS104に示した視点移動ベクトルを決定する処理の一例について説明する。図10は、視点移動ベクトルを決定する処理手順を示すフローチャートである。図10に示すように、画像処理装置100の表示制御部140は、手形状が所定の形状であるか否かを判定する(ステップS201)。表示制御部140は、手形状が所定の形状でない場合には(ステップS201,No)、視点移動ベクトルを0に設定し(ステップS202)、視点移動ベクトルを決定する処理を終了する。
一方、表示制御部140は、手形状が所定の形状である場合には(ステップS201,Yes)、視点移動ベクトルの向きを決定する(ステップS203)。表示制御部140は、視点移動ベクトルの移動量を決定する(ステップS204)。表示制御部140は、視点位置を移動させ(ステップS205)、視点移動ベクトルを決定する処理を終了する。
次に、図9のステップS106に示した手領域の透明度を決定する処理の一例について説明する。図11は、手領域の透明度を決定する処理手順を示すフローチャートである。図11に示すように、画像処理装置100の表示制御部140は、手形状が所定の形状であるか否かを判定する(ステップS301)。表示制御部140は、手形状が所定の形状でない場合には(ステップS301,No)、透明度をT2に設定し(ステップS303)、透明度を決定する処理を終了する。
一方、表示制御部140は、手形状が所定の形状である場合には(ステップS301,Yes)、透明度をT1に設定し(ステップS302)、透明度を決定する処理を終了する。
なお、図9では説明を省略したが、表示制御部140は、利用者の手の傾きに応じて、透明度を透明度T1から透明度T3の間で調整しても良い。
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、利用者の手の形状が所定の形状となった場合に、利用者の視点位置に応じたバーチャル空間上の画像と、透過処理した手領域の画像とを重畳させた重畳画像を、表示装置60に表示させる。このため、利用者は、視認可能な領域を邪魔されず、ジェスチャによる直感的な操作を行うことができる。
画像処理装置100は、利用者の手の傾きを更に特定し、手の傾きに応じて、視点位置を移動させつつ、利用者の手の画像の透明度を調整する。例えば、利用者の手の傾きが大きくなるほど、透明度を大きくする調整を行うことで、視点位置の移動量が大きい場合に、視認可能な領域をより邪魔しないで、視点移動を行うことができる。
画像処理装置100は、利用者の手の傾きに応じて、視点位置を移動させる移動量を調整する。このため、利用者は、手の傾き具合を調整する操作を行うだけで、移動量を調整することができる。
ところで、上述した画像処理装置100の処理は一例であり、画像処理装置100は、その他の処理を行ってもよい。以下では、画像処理装置100のその他の処理(1)、(2)について説明する。
画像処理装置100のその他の処理(1)について説明する。発明者の実験の結果、利用者は、視点位置を手前に戻そうとする場合に、手を距離画像センサ50に近づけすぎてしまい、画像処理装置100は、利用者の手の形状を認識できない場合がある。このような状況でも、利用者の意図通りに、視点位置を移動させるべく、画像処理装置100の表示制御部140は、距離画像センサ50から所定距離以内に物体が存在する場合には、予め設定した視点移動ベクトルに基づいて、視点位置を移動させる。例えば、予め設定した視点移動ベクトルの移動方向を「後方」とし、移動量を「移動量Xa」とする。移動量Xaは、利用者に予め設定される。
図12は、画像処理装置のその他の処理(1)を示すフローチャートである。図12に示す処理は、画像処理装置100が、距離画像センサ50から距離画像情報を取得する度に実行される。図12に示すように、画像処理装置100の特定部120は、手領域を検出する(ステップS401)。
特定部120は、手形状を検出する(ステップS402)。特定部120は、手形状の検出に成功したか否かを判定する(ステップS403)。特定部120が手形状の検出に成功した場合には(ステップS403,Yes)、画像処理装置100の表示制御部140は、視点移動ベクトルを決定し(ステップS404)、ステップS408に移行する。
特定部120が手形状の検出に成功しなかった場合には(ステップS403,No)、物体と距離画像センサ50との距離が閾値未満であるか否かを判定する(ステップS405)。特定部120により物体と距離画像センサ50との距離が閾値未満でないと判定された場合には(ステップS405,No)、表示制御部140は、視点位置の移動を停止する(ステップS406)。
一方、特定部120により物体と距離画像センサ50との距離が閾値未満であると判定された場合には(ステップS405,Yes)、ステップS407に移行する。表示制御部140は、手形状が所定の形状であると仮定し、予め設定された視点移動ベクトルを読み出す(ステップS407)。
表示制御部140は、視点移動ベクトルに基づいて、視点移動後の画像データを生成する(ステップS408)。表示制御部140は、手領域の透明度を決定する(ステップS409)。表示制御部140は、画像データに手領域の画像データを重畳し、重畳画像を生成する(ステップS410)。表示制御部140は、重畳画像を、表示装置60に表示させる(ステップS411)。
上記のように、画像処理装置100の表示制御部140は、距離画像センサ50から物体までの距離が閾値未満である場合には、利用者の手の形状が所定の形状であると仮定し、予め設定された視点移動ベクトルに基づいて、視点位置を移動させる。このため、利用者の手が距離画像センサ50に近づきすぎても、利用者の意図通りに、視点位置を後方に移動させることができる。
画像処理装置100のその他の処理(2)について説明する。発明者の実験の結果、利用者は、ジェスチャ操作を行っている途中で、利用者の手が距離画像センサ50の画角から外れることがあり、利用者の意図に反して、視点位置の移動が停止する場合がある。利用者の手が一時的に画角から外れた場合でも、スムーズな視点移動を継続させるべく、画像処理装置100の表示制御部140は、下記に示す処理を実行する。
表示制御部140は、手の一部が距離画像センサ50の画角からはみ出ている場合には、直前に決定した視点移動ベクトルを再度用いて、視点位置を移動させる。ここで、表示制御部140は、手の一部が距離画像センサ50の画角からはみ出ているか否かをどのように判定してもよい。例えば、表示制御部140は、特定部120から手領域候補に含まれる指領域の数を取得し、指領域の数が所定数以上である場合に、手の一部が距離画像センサ50の画角からはみ出ていると判定する。
なお、表示制御部140は、手形状の検出に成功し、視点移動ベクトルを決定する度に、決定した視点移動ベクトルの情報を、図示しない記憶部に格納する。
図13は、画像処理装置のその他の処理(2)を示すフローチャートである。図13に示す処理は、画像処理装置100が、距離画像センサ50から距離画像情報を取得する度に実行される。図13に示すように、画像処理装置100の特定部120は、手領域を検出する(ステップS501)。
特定部120は、手形状を検出する(ステップS502)。特定部120は、手形状の検出に成功したか否かを判定する(ステップS503)。特定部120が手形状の検出に成功した場合には(ステップS503,Yes)、画像処理装置100の表示制御部140は、視点移動ベクトルを決定し、視点移動ベクトルを記憶部に格納し(ステップS504)、ステップS508に移行する。
一方、特定部120による手形状の検出に成功しなかった場合には(ステップS503,No)、手の一部が距離画像センサ50の画角からはみ出ているか否かを判定する(ステップS505)。表示制御部140は、手の一部が距離画像センサ50の画角からはみ出ていない場合には(ステップS505,No)、視点位置の移動を停止する(ステップS506)。
一方、表示制御部140は、手の一部が距離画像センサ50の画角からはみ出ている場合には(ステップS505,Yes)、直前の視点移動ベクトルを記憶部から読み出す(ステップS507)。
表示制御部140は、視点移動ベクトルに基づいて、視点移動後の画像データを生成する(ステップS508)。表示制御部140は、手領域の透明度を決定する(ステップS509)。表示制御部140は、画像データに手領域の画像データを重畳し、重畳画像を生成する(ステップS510)。表示制御部140は、重畳画像を、表示装置60に表示させる(ステップS511)。
上記のように、画像処理装置100の表示制御部140は、手の一部が距離画像センサ50の画角からはみ出ている場合には、直前に決定した視点移動ベクトルを再度用いて、視点位置を移動させる。これによって、利用者の手が一時的に画角から外れた場合でも、スムーズな視点移動を継続することができる。
次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図14は、画像処理プログラムを実行するコンピュータの一例を示す図である。
図14に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、距離画像センサ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。
ハードディスク装置308は、認識プログラム308a、表示制御プログラム308bを有する。CPU301は、認識プログラム308a、表示制御プログラム308bを読み出してRAM307に展開する。
認識プログラム308aは、認識プロセス307aとして機能する。表示制御プログラム308bは、表示制御プロセス307bとして機能する。
認識プロセス307aの処理は、取得部110、特定部120、ジェスチャ認識部130の処理に対応する。表示制御プロセス307bの処理は、表示制御部140の処理に対応する。
なお、認識プログラム308a、表示制御プログラム308bについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a,308bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)利用者側から利用者の視線方向に位置する物体までの距離情報を取得する距離センサと、
前記距離センサから利用者の視線方向に存在する物体までの距離情報を距離画像として取得し、取得した前記距離画像が表す物体が前記利用者の手の形状か認識すると共に、認識結果が手の形状である場合に、更に手の形状が所定の形状に該当するか認識する認識部と、
前記認識部で認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる表示制御部と
を有することを特徴とする画像処理装置。
(付記2)前記認識部は、前記利用者の手の傾きを更に特定し、前記表示制御部は、前記手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする付記1に記載の画像処理装置。
(付記3)前記表示制御部は、前記利用者の手の傾きに応じて、前記視点位置を移動させる移動量を調整することを特徴とする付記2に記載の画像処理装置。
(付記4)前記表示制御部は、前記距離センサから前記物体までの距離が閾値未満である場合には、前記利用者の手の形状が所定の形状であると仮定し、予め設定された移動情報に基づいて、前記視点位置を移動させることを特徴とする付記1に記載の画像処理装置。
(付記5)前記表示制御部は、前記手の形状の一部が認識された場合に、直前に認識された手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする付記2、3または4に記載の画像処理装置。
(付記6)コンピュータが実行する画像処理方法であって、
利用者側から利用者の視線方向に位置する物体までの距離情報を距離画像として取得し、
取得した前記距離画像を基にして、取得された物体が前記利用者の手の形状か、また、手の形状である場合に、更に手の形状が所定の形状に該当するかを認識し、
認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる
処理を実行することを特徴とする画像処理方法。
(付記7)前記コンピュータは、前記利用者の手の傾きを更に特定し、前記手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする付記6に記載の画像処理方法。
(付記8)前記コンピュータは、前記利用者の手の傾きに応じて、前記視点位置を移動させる移動量を調整する処理を実行することを特徴とする付記7に記載の画像処理方法。
(付記9)前記コンピュータは、前記距離センサから前記物体までの距離が閾値未満である場合には、前記利用者の手の形状が所定の形状であると仮定し、予め設定された移動情報に基づいて、前記視点位置を移動させることを特徴とする付記6に記載の画像処理方法。
(付記10)前記コンピュータは、前記手の形状の一部が認識された場合に、直前に認識された手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする付記7、8または9に記載の画像処理方法。
(付記11)コンピュータに、
利用者側から利用者の視線方向に位置する物体までの距離情報を距離画像として取得し、
取得した前記距離画像を基にして、取得された物体が前記利用者の手の形状か、また、手の形状である場合に、更に手の形状が所定の形状に該当するかを認識し、
認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる
処理を実行させることを特徴とする画像処理プログラム。
(付記12)前記コンピュータに、前記利用者の手の傾きを更に特定し、前記手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整する処理を実行させることを特徴とする付記11に記載の画像処理プログラム。
(付記13)前記コンピュータに、前記利用者の手の傾きに応じて、前記視点位置を移動させる移動量を調整する処理を実行させることを特徴とする付記12に記載の画像処理プログラム。
(付記14)前記コンピュータに、前記距離センサから前記物体までの距離が閾値未満である場合には、前記利用者の手の形状が所定の形状であると仮定し、予め設定された移動情報に基づいて、前記視点位置を移動させる処理を実行させることを特徴とする付記11に記載の画像処理プログラム。
(付記15)前記コンピュータに、前記手の形状の一部が認識された場合に、直前に認識された手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整する処理を実行させることを特徴とする付記12、13または14に記載の画像処理プログラム。
50 距離画像センサ
60 表示装置
100 画像処理装置
110 取得部
120 特定部
130 ジェスチャ認識部
140 表示制御部

Claims (7)

  1. 利用者側から利用者の視線方向に位置する物体までの距離情報を取得する距離センサと、
    前記距離センサから利用者の視線方向に存在する物体までの距離情報を距離画像として取得し、取得した前記距離画像が表す物体が前記利用者の手の形状か認識すると共に、認識結果が手の形状である場合に、更に手の形状が所定の形状に該当するか認識し、前記利用者の手の傾きを認識する認識部と、
    前記認識部で認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記手の傾きに応じて、前記視点位置を移動させつつ、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる表示制御部と
    を有することを特徴とする画像処理装置。
  2. 記表示制御部は、前記利用者の手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御部は、前記利用者の手の傾きに応じて、前記視点位置を移動させる移動量を調整することを特徴とする請求項2に記載の画像処理装置。
  4. 前記表示制御部は、前記距離センサから前記物体までの距離が閾値未満である場合には、前記利用者の手の形状が所定の形状であると仮定し、予め設定された移動情報に基づいて、前記視点位置を移動させることを特徴とする請求項1に記載の画像処理装置。
  5. 前記表示制御部は、前記手の形状の一部が認識された場合に、直前に認識された手の傾きに応じて、前記視点位置を移動させつつ、前記利用者の手の画像の透明度を調整することを特徴とする請求項2、3または4に記載の画像処理装置。
  6. コンピュータが実行する画像処理方法であって、
    利用者側から利用者の視線方向に位置する物体までの距離情報を距離画像として取得し、
    取得した前記距離画像を基にして、取得された物体が前記利用者の手の形状か、また、手の形状である場合に、更に手の形状が所定の形状に該当するかを認識し、
    前記利用者の手の傾きを認識し、
    認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記手の傾きに応じて、前記視点位置を移動させつつ、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる
    処理を実行することを特徴とする画像処理方法。
  7. コンピュータに、
    利用者側から利用者の視線方向に位置する物体までの距離情報を距離画像として取得し、
    取得した前記距離画像を基にして、取得された物体が前記利用者の手の形状か、また、手の形状である場合に、更に手の形状が所定の形状に該当するかを認識し、
    前記利用者の手の傾きを認識し、
    認識した物体が利用者の手であり、かつ所定の形状であった場合に、前記利用者の視点位置に応じた画像表示に加え、前記手の傾きに応じて、前記視点位置を移動させつつ、前記画像を透過させる前記利用者の手の画像を重畳させた重畳画像を表示装置に表示させる
    処理を実行させることを特徴とする画像処理プログラム。
JP2015233974A 2015-11-30 2015-11-30 画像処理装置、画像処理方法および画像処理プログラム Expired - Fee Related JP6597235B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015233974A JP6597235B2 (ja) 2015-11-30 2015-11-30 画像処理装置、画像処理方法および画像処理プログラム
US15/363,927 US10082879B2 (en) 2015-11-30 2016-11-29 Head mounted display device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233974A JP6597235B2 (ja) 2015-11-30 2015-11-30 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017102603A JP2017102603A (ja) 2017-06-08
JP6597235B2 true JP6597235B2 (ja) 2019-10-30

Family

ID=58777498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233974A Expired - Fee Related JP6597235B2 (ja) 2015-11-30 2015-11-30 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US10082879B2 (ja)
JP (1) JP6597235B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016200197A1 (ko) * 2015-06-10 2016-12-15 (주)브이터치 사용자 기준 공간좌표계 상에서의 제스처 검출 방법 및 장치
US10113837B2 (en) 2015-11-03 2018-10-30 N2 Imaging Systems, LLC Non-contact optical connections for firearm accessories
JP6532393B2 (ja) * 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
CN110869880A (zh) * 2017-08-24 2020-03-06 麦克赛尔株式会社 头戴式显示装置
CN109710054B (zh) * 2017-10-26 2022-04-26 北京京东尚科信息技术有限公司 用于头戴式显示设备的虚拟物体呈现方法和装置
WO2019187862A1 (ja) * 2018-03-30 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US10753709B2 (en) 2018-05-17 2020-08-25 Sensors Unlimited, Inc. Tactical rails, tactical rail systems, and firearm assemblies having tactical rails
US11079202B2 (en) 2018-07-07 2021-08-03 Sensors Unlimited, Inc. Boresighting peripherals to digital weapon sights
US10645348B2 (en) * 2018-07-07 2020-05-05 Sensors Unlimited, Inc. Data communication between image sensors and image displays
US10742913B2 (en) 2018-08-08 2020-08-11 N2 Imaging Systems, LLC Shutterless calibration
US10921578B2 (en) 2018-09-07 2021-02-16 Sensors Unlimited, Inc. Eyecups for optics
JP2020049642A (ja) * 2018-09-28 2020-04-02 セイコーエプソン株式会社 制御装置、ロボットシステム、及びロボット
US11122698B2 (en) 2018-11-06 2021-09-14 N2 Imaging Systems, LLC Low stress electronic board retainers and assemblies
US10801813B2 (en) 2018-11-07 2020-10-13 N2 Imaging Systems, LLC Adjustable-power data rail on a digital weapon sight
US10796860B2 (en) 2018-12-12 2020-10-06 N2 Imaging Systems, LLC Hermetically sealed over-molded button assembly
US11143838B2 (en) 2019-01-08 2021-10-12 N2 Imaging Systems, LLC Optical element retainers
KR20210069491A (ko) 2019-12-03 2021-06-11 삼성전자주식회사 전자 장치 및 이의 제어 방법
US20230118515A1 (en) * 2020-03-30 2023-04-20 Sony Group Corporation Method for changing viewpoint in virtual space
CN112817445A (zh) * 2021-01-25 2021-05-18 暗物智能科技(广州)有限公司 一种信息采集方法、装置、电子设备及存储介质
US11436806B1 (en) * 2021-04-07 2022-09-06 Penumbra, Inc. Dual perspective rendering in virtual reality

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0837418A3 (en) 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
JP2008077572A (ja) * 2006-09-25 2008-04-03 Toshiba Corp 画像表示装置
JP5228439B2 (ja) * 2007-10-22 2013-07-03 三菱電機株式会社 操作入力装置
US9134798B2 (en) * 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
JP5597087B2 (ja) 2010-10-04 2014-10-01 パナソニック株式会社 仮想物体操作装置
KR20160084502A (ko) * 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
JP2014072575A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
WO2014050957A1 (ja) 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
WO2014128749A1 (ja) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス 形状認識装置、形状認識プログラム、および形状認識方法
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9367136B2 (en) * 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
JP5900468B2 (ja) * 2013-11-21 2016-04-06 コニカミノルタ株式会社 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
US9811170B2 (en) * 2014-05-14 2017-11-07 Cherif Algreatly Wearable input device
US10146318B2 (en) * 2014-06-13 2018-12-04 Thomas Malzbender Techniques for using gesture recognition to effectuate character selection
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality

Also Published As

Publication number Publication date
US10082879B2 (en) 2018-09-25
JP2017102603A (ja) 2017-06-08
US20170153713A1 (en) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6597235B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
TWI516093B (zh) 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
EP2480955B1 (en) Remote control of computer devices
KR101663452B1 (ko) 화면 조작장치 및 화면 조작방법
US20160292525A1 (en) Image analyzing apparatus and image analyzing method
CN108469899B (zh) 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
JP5765133B2 (ja) 入力装置、入力制御方法及び入力制御プログラム
JP6524589B2 (ja) クリック動作検出装置,方法およびプログラム
CN102884492A (zh) 增强现实的指向装置
JP2017102598A (ja) 認識装置、認識方法および認識プログラム
JP6693223B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN114690900B (zh) 一种虚拟场景中的输入识别方法、设备及存储介质
JP6739847B2 (ja) 画像表示制御装置および画像表示制御用プログラム
JP2012238293A (ja) 入力装置
KR20230072757A (ko) 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법
KR101338958B1 (ko) 멀티터치 단말기에서 가상물체의 3차원 움직임 조작시스템 및 방법
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
WO2017169272A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Schmieder et al. Thumbs up: 3D gesture input on mobile phones using the front facing camera
JP2016071824A (ja) インターフェース装置、手指追跡方法、及び、プログラム
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
CN104914981A (zh) 一种信息处理方法和电子设备
JP2020095671A (ja) 認識装置及び認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R150 Certificate of patent or registration of utility model

Ref document number: 6597235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees