JP5924407B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5924407B2
JP5924407B2 JP2014516698A JP2014516698A JP5924407B2 JP 5924407 B2 JP5924407 B2 JP 5924407B2 JP 2014516698 A JP2014516698 A JP 2014516698A JP 2014516698 A JP2014516698 A JP 2014516698A JP 5924407 B2 JP5924407 B2 JP 5924407B2
Authority
JP
Japan
Prior art keywords
image
user
control unit
display
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014516698A
Other languages
English (en)
Other versions
JPWO2013175847A1 (ja
Inventor
誠司 鈴木
誠司 鈴木
麗子 宮崎
麗子 宮崎
康之 古賀
康之 古賀
池田 卓郎
卓郎 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014516698A priority Critical patent/JP5924407B2/ja
Publication of JPWO2013175847A1 publication Critical patent/JPWO2013175847A1/ja
Application granted granted Critical
Publication of JP5924407B2 publication Critical patent/JP5924407B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本開示は、画像処理装置、画像処理方法、及びプログラムに関する。
特許文献1に、ユーザの掌が描かれた掌画像と背景画像とが重畳された重畳画像を表示し、掌画像をユーザのジェスチャ操作(掌の動き)に連動して移動させる技術が開示されている。ユーザは、掌画像を用いて入力操作を行う。
特許第4670860号公報
しかし、特許文献1に開示された技術は、重畳画像の表示状態(例えば掌画像の表示倍率等)を何ら調整するものではなかった。このため、操作性が良好でなかった。そこで、人体画像(例えば掌画像)の操作性を向上することができる技術が求められていた。
本開示によれば、人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、重畳画像を表示する制御を行う一方、重畳画像の表示状態を調整する制御部を備える、画像処理装置が提供される。
本開示によれば、人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、重畳画像を表示する制御を行う一方、重畳画像を調整することを含む、画像処理方法が提供される。
本開示によれば、コンピュータに、人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、重畳画像を表示する制御を行う一方、重畳画像を調整する制御機能を実現させる、プログラムが提供される。
本開示によれば、画像処理装置等は、重畳画像の表示状態を調整することができる。
以上説明したように本開示によれば、画像処理装置等は、重畳画像の表示状態を調整することができるので、人体画像の操作性を向上させることができる。
本開示の実施形態に係る画像処理システムの構成を示すブロック図である。 同実施形態に係る表示装置の構成を示すブロック図である。 サーバの構成を示すブロック図である。 画像処理システムによる処理の手順を示すフローチャートである。 画像処理システムによる処理の手順を示すフローチャートである。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。 表示装置が表示する表示画面の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.大画面ディスプレイに関する検討
2.情報処理システムの構成
2−1.全体構成
2−2.大画面ディスプレイの構成
2−3.サーバ(画像処理装置)の構成
3.情報処理システムによる処理の手順
<1.大画面ディスプレイに関する検討>
本発明者は、大画面ディスプレイに関する検討を行うことで、本実施形態に係る画像処理システムに想到するに至った。そこで、まず、本発明者が行った検討について説明する。
図6は大画面ディスプレイ20の一例を示す。図6では、部屋200の壁一面が大画面ディスプレイ20となっている。もちろん、大画面ディスプレイ20はこの例に限られず、例えば壁の一部がディスプレイとなっているものであってもよい。また、壁とは別体のディスプレイであってもよい。
このように、大画面ディスプレイ20は、部屋200のインテリアとなりうるものである。大画面ディスプレイ20に何らかの画像を表示することで、ユーザ100は、あたかもその画像のなかに自分が存在するかのような感覚を持つことが期待される。例えば、上空から高層ビル群を撮像した画像が大画面ディスプレイ20に表示された場合、ユーザ100は、あたかも上空から高層ビル群を眺めているような感覚を持つ。また、地面が部屋200の床と同一平面上に描かれた画像が大画面ディスプレイ20に表示された場合、ユーザ100は、部屋200の床がその地面に地続きでつながっているような感覚を持つ。
また、店舗内を撮像した画像が大画面ディスプレイ20に表示された場合、ユーザ100は、その店舗内で買い物をしているような感覚を持つ。また、ディスプレイ等が設置されたリビングが大画面ディスプレイ20に表示された場合、ユーザ100は、部屋200の奥にさらに別のリビングが存在するという感覚を持つ。また、大画面ディスプレイ20に絵画等を表示させることで、ユーザ100は、壁に絵画が掛けられているような感覚を持つ。このように、大画面ディスプレイ20は、例えばバーチャルリアリティを実現する装置としての用途が期待される。
一方、ディスプレイに表示されたオブジェクトをユーザ100が選択するためのデバイスとして、カーソル型ポインティングデバイス、タッチセンシング型ポインティングデバイス、レイキャスティング型ポインティングデバイスが提案されている。
カーソル型ポインティングデバイスは例えばマウス等のデバイスである。カーソル型ポインティングデバイスを大画面ディスプレイ20に適用した場合、ユーザ100は、カーソルを所望の位置まで移動させるためにマウスを何度も操作する必要がある。マウスの1回の操作によってカーソルが移動する量は、大画面ディスプレイ20の大きさに対して非常に小さいからである。このため、ユーザ100は、必然的に操作に手間と時間を要する。
操作に掛かる手間及び時間を低減する技術として、デバイスの移動速度に対して大画面ディスプレイ20内のカーソルの移動速度を大きくすることも考えられる。しかし、この技術では、ユーザ100は、デバイスの実際の移動速度に対してカーソルがどの程度移動するのかを容易に予測できない。このため、このような技術を大画面ディスプレイ20に適用した場合であっても、ユーザ100は、所望の位置にカーソルを合わせるのに手間及び時間がかかる。また、カーソル型ポインティングデバイスを用いた入力操作は、ユーザ100にとって直感的でない。
タッチセンシング型ポインティングデバイスは、例えばタッチパネル等のデバイスである。タッチセンシング型ポインティングデバイスを大画面ディスプレイ20に適用した場合、ユーザ100は、所望の位置にタッチするために、歩いて左右に移動する必要が生じる。さらに、大画面ディスプレイ20がユーザ100の背丈に対して上下に大きいとき、手が届かない領域が存在する。さらに、ユーザ100は、所望の位置にタッチするために、画面近くにいなければならないため、遠方から大画面を俯瞰することができない。
レイキャスティング型ポインティングデバイスは、例えばゲーム機のリモコン型コントローラ等のデバイスである。レイキャスティング型ポインティングデバイスは、大画面ディスプレイ20においては十分な精度を発揮できない。また、ユーザ100は、デバイスを手に持っていなければならない。また、ユーザ100は、大画面ディスプレイ20に近寄れない。
したがって、上記の各デバイスでは、操作性が良好でなく、また、操作が直感的でなかった。これに対し、特許文献1に開示された技術は、ユーザ100の掌が描かれた掌画像と背景画像とが重畳された重畳画像を表示し、掌画像をユーザ100のジェスチャ操作(掌の動き)に連動して移動させる技術が開示されている。ユーザ100は、掌画像を用いて入力操作を行う。特許文献1では、ユーザ100は、直感的な操作を行うことができる。
しかし、特許文献1に開示された技術は、PDAやデジタルカメラといった携帯機器に適用されるものであるので、大画面ディスプレイ20を何ら想定していない。さらに、特許文献1に開示された技術は、重畳画像の表示状態(例えば掌画像の表示倍率等)を何ら調整するものではなかった。このため、掌画像の操作性が良好でなかった。
具体的には、特許文献1に開示された技術を大画面ディスプレイ20に適用した場合、掌画像が大画面ディスプレイ20に表示されることになるが、大画面ディスプレイ20は掌画像に対して非常に大きい。また、ユーザ100が掌を動かせる範囲は限られている。これに対し、特許文献1に開示された技術は、掌画像をユーザ100の掌に連動して動かすだけなので、掌画像が届かない領域が生じる。すなわち、特許文献1は、PDAやデジタルカメラといった携帯機器、すなわち掌画像が表示画面の各領域に届くことを前提としているので、掌画像が届かない領域を何ら想定していない。したがって、特許文献1に開示された技術を大画面ディスプレイ20に適用した場合、掌画像の操作性は良好でなかった。
これに対し、本実施形態に係る画像処理システム10は、人体画像及び背景画像のうち、少なくとも一方の表示状態を調整することによって、人体画像の操作性の改善を図っている。
<2.画像処理システムの構成>
[2−1.全体構成]
次に、図1に基づいて、画像処理システム10の全体構成について説明する。画像処理システム10は、大画面ディスプレイ20と、通信ネットワーク30と、サーバ40と、撮像装置50と、音声取得装置60とを備える。なお、音声取得装置60はなくてもよい。
大画面ディスプレイ20は、図6に示すように、例えば部屋200の壁一面を構成する。通信ネットワーク30は、大画面ディスプレイ20とサーバ40とを接続する。サーバ40は、大画面ディスプレイ20に表示させる重畳画像(人体画像が背景画像に重畳された画像)を生成する。したがって、本実施形態は、いわゆるクラウドコンピューティングサービスを想定している。もちろん、表示装置が重畳画像を生成し、表示するようにしてもよい。
撮像装置50は、例えばビデオカメラであり、図6に示すように、部屋200の天井に設けられる。撮像装置50は、ユーザ100を撮影し、その結果に関する撮像画像を大画面ディスプレイ20に出力する。音声取得装置60は、例えばヘッドセットマイクであり、ユーザ100の頭部に装着される。音声取得装置60は、ユーザ100の音声を取得し、その結果に関する音声情報を大画面ディスプレイ20に出力する。
[2−2.大画面ディスプレイの構成]
次に、図2に基づいて、大画面ディスプレイ20の構成について説明する。大画面ディスプレイ20は、記憶部21と、表示部22と、通信部23と、制御部24とを備える。大画面ディスプレイ20は、CPU、ROM、RAM、ハードディスク、表示パネル、及び通信装置等のハードウェア構成を有する。ROMには、大画面ディスプレイ20に、記憶部21と、表示部22と、通信部23と、制御部24とを実現させるためのプログラムが記録されている。CPUは、ROMに記録されたプログラムを読みだして実行する。したがって、これらのハードウェア構成により、記憶部21と、表示部22と、通信部23と、制御部24とが実現される。
記憶部21は、上述したプログラム等を記憶する。表示部22は、各種の画面を表示する。通信部23は、通信ネットワーク30を介してサーバ40と通信を行う。制御部24は、大画面ディスプレイ20の各構成要素を制御する他、以下の処理を行う。すなわち、制御部24は、撮像装置50から与えられた撮像画像と、音声取得装置60から与えられた音声情報とを通信部23に出力する。通信部23は、撮像画像及び音声情報をサーバ40に送信する。一方、通信部23は、サーバ40から送信された重畳画像を受信し、制御部24に出力する。制御部24は、表示部22に重畳画像を表示する。
[2−3.サーバの構成]
次に、図3に基づいて、サーバ40の構成について説明する。サーバ40は、記憶部41と、通信部42と、制御部43とを備える。サーバ40は、CPU、ROM、RAM、ハードディスク、及び通信装置等のハードウェア構成を有する。ROMには、サーバ40に、記憶部41と、通信部42と、制御部43とを実現させるためのプログラムが記録されている。CPUは、ROMに記録されたプログラムを読みだして実行する。したがって、これらのハードウェア構成により、記憶部41と、通信部42と、制御部43とが実現される。
記憶部41は、上述したプログラムのほか、背景画像等を記憶する。この背景画像は、例えば、高層ビル群を上空から撮像した画像、地面が描かれた画像、店舗内の画像、リビングが描かれた画像、絵画が描かれた画像等となる。通信部42は、通信ネットワーク30を介して大画面ディスプレイ20と通信を行う。制御部43は、サーバ40の各構成要素を制御する他、以下の処理を行う。すなわち、制御部43は、撮像画像からユーザ100が描かれた画像、すなわち人体画像を抽出する。そして、制御部43は、人体画像を半透明(半透過)にすることで、ミラー画像を生成する。したがって、ミラー画像は、人体の少なくとも一部が描かれ、かつ、ユーザ100のジェスチャ操作に連動して動作する画像(すなわち人体画像)の一例である。
ここで、ミラー画像の変形例を幾つか示す。例えば、制御部43は、人体画像を黒く塗りつぶし、これを半透明にすることで、ミラー画像を生成してもよい。また、制御部43は、人体画像の輪郭のみを抽出し、これをミラー画像としてもよい。また、制御部41は、これらの処理により生成されたミラー画像に拡大縮小、平行移動、歪ませる、ぼかす等の処理を施した後に、後述する背景画像に重畳してもよい。また、ミラー画像は、人体の全体が描かれていてもよいが、人体の一部(例えば上半身のみ、掌のみ等)であってもよい。
さらに、制御部43は、記憶部41から背景画像を取得する。制御部43は、人体画像及び音声情報に基づいてユーザ100のジェスチャ操作を検出し、背景画像をユーザ100のジェスチャ操作に基づいてスクロールさせてもよい。例えば、制御部43は、ユーザ100が足踏みをした場合、背景画像を画面奥方向にスクロールさせる。なお、本実施形態では、ユーザ100が発声することもジェスチャ操作とされる。
そして、制御部43は、背景画像にミラー画像を重畳させることで、重畳画像を生成する。また、制御部43は、人体画像及び音声情報に基づいてユーザ100のジェスチャ操作を検出し、重畳画像をジェスチャ操作に基づいて調整する。例えば、制御部43は、ユーザ100のジェスチャ操作に基づいて、背景画像の一部を選択領域として選択し、選択領域を拡大する等の処理を行う。制御部43は、重畳画像を通信部42に出力し、通信部42は、重畳画像を大画面ディスプレイ20に送信する。
<3.画像処理システムによる処理の手順>
次に、画像処理システム10による処理の手順を、画像処理システム10が店舗(ここでは本屋)内の画像を表示する場合を一例として説明する。この例では、ユーザ100は、実際に店舗で買い物をした場合と同様の体験をすることができる。すなわち、ユーザ100は、バーチャルショッピングを楽しむことができる。なお、以下の処理では、大画面ディスプレイ20は、撮像画像及び音声情報を常時サーバ40に送信しているものとする。
まず、サーバ40の制御部43は、図6に示すように、店舗の玄関411及び地面412が描かれた背景画像410を大画面ディスプレイ20に表示する。ここで、地面412は部屋200の床と同一平面上に描かれており、玄関411は地面412上に配置されている。したがって、ユーザ100は、玄関411及び地面412が部屋200と地続きでつながっているかのような感覚を持つ。
ついで、ユーザ100は、例えば足踏みのジェスチャを行う。一方、制御部43は、足踏みのジェスチャを検出し、背景画像410を画面奥方向にスクロールさせる。そして、制御部43は、玄関411が大画面ディスプレイ20表示面に達した際に、玄関411が開く背景画像を表示する。
ついで、制御部43は、店舗内が描かれた背景画像を生成する。さらに、制御部43は、人体画像を黒く塗りつぶすことでシルエット画像を生成し、背景画像の地面部分に投影する。そして、制御部43は、生成された背景画像を大画面ディスプレイ20に表示する。図7に一例を示す。以下、図7に示すような店舗内の画像を、通常店舗画像とも称する。この例では、制御部43は、背景画像420を大画面ディスプレイ20に表示している。背景画像420には、シルエット画像110、本棚430、及び地面421が描かれている。地面421は、部屋200の床と同一平面上に配置される。したがって、ユーザ100は、実際に店舗内を散策しているかのような感覚を持つ。
その後、制御部43は、ユーザ100のジェスチャ操作に基づいて背景画像をスクロールさせる。例えば、制御部43は、ユーザ100が足踏みのジェスチャを行った場合、背景画像を画面奥方向にスクロールさせる。また、制御部43は、ユーザ100が水平方向に回転した場合には、その回転方向に背景画像を回転させる(すなわち、背景画像内でのユーザ100の進行方向を変更する)。
そして、制御部43は、ユーザ100が本棚430に相対した場合には、図4に示すフローチャートに沿った処理を行う。ステップS10において、制御部43は、撮像画像を取得する。ステップS20において、制御部43は、撮像画像から人体画像を検出し、人体画像に基づいて、上述したミラー画像を生成する。ステップS30において、制御部43は、ミラー画像を背景画像に重畳させることで重畳画像を生成する。さらに、制御部43は、ミラー画像のうち掌画像にカーソルを重畳する。ステップS40において、制御部43は、重畳画像を大画面ディスプレイ20に表示する。なお、ミラー画像は、ユーザ100から見て背景画像よりも手前側に配置されるが、ミラー画像は半透明なので、ユーザ100は、ミラー画像の後方の背景画像も視認することができる。
図8に重畳画像の一例を示す。この例では、ユーザ100は、本棚430に相対している。すなわち、背景画像のほぼ全面に本棚430が描かれている。本棚430には、複数の本440が配置されている。また、背景画像の水平方向中央部分にミラー画像120が重畳されている。ミラー画像120のうち、掌画像にはカーソル130が重畳されている。制御部43は、ミラー画像120をユーザ100のジェスチャ操作に連動して動作させる。すなわち、ミラー画像120は、ユーザ100と同じ動きをする。また、制御部43は、カーソル130を掌画像の動きに追従させる。したがって、ユーザ100は、自己の掌を動かすことで、カーソル130を所望の位置(例えば、所望の本440が配置されている位置)まで動かすことができる。
なお、制御部43は、上述したシルエット画像が本棚430に沿ってせり上がるアニメーションを表示し、その後、シルエット画像をミラー画像に変更してもよい。これにより、ユーザ100は、シルエット画像がミラー画像遷移したことを容易に把握することができる。また、制御部43は、本棚430内のオブジェクト(すなわち本440)がユーザ100によって選択できないもの(例えば非売品)である場合には、ミラー画像120を表示しないようにしてもよい。これにより、ユーザ100は、本棚430内の本440を選択できないことを容易に把握することができる。また、図8の例では、カーソル130は両方の掌画像に重畳されているが、一方の掌画像にのみ重畳されていてもよい。また、掌画像以外の部分、例えば足の指先の画像にカーソル130を重畳させてもよい。
このように、大画面ディスプレイ20は、ユーザ100のジェスチャ操作に連動して動作するミラー画像を表示し、ミラー画像の掌画像にカーソル130を重畳する。このため、ユーザ100は、ミラー画像の動きに基づいて、カーソル130の移動速度を容易に予測することができる。したがって、画像処理システム10は、カーソル130の操作性を向上させることができる。また、ユーザ100は、自己の体(特に掌画像)を動かすことで、カーソル130を動かすことができるので、カーソル130を直感的に操作することができる。
ステップS50において、制御部43は、撮像画像から抽出した人体画像に基づいて、ユーザ100がいずれかのオブジェクト(ここでは本440)を選択したか否かを判定する。なお、制御部43は、例えば、ユーザ100が物をつかむジェスチャをした場合、ユーザ100がオブジェクトを選択したと判定する。制御部43は、ユーザ100がいずれかのオブジェクトを選択したと判定した場合には、ステップS60に進み、ユーザ100がオブジェクトを選択していないと判定した場合には、本処理を終了する。ステップS60において、制御部64は、詳細選択処理を行う。詳細選択処理については後述する。
なお、制御部43は、ユーザ100の掌の移動速度と、ミラー画像120の掌画像の移動速度(すなわち、カーソル130の移動速度)とを一致させる。ユーザ100にカーソル130の移動速度を容易に予測させるためである。ただし、この処理では、カーソル130の移動範囲がミラー画像120の掌画像の移動範囲に一致するので、カーソル130が届かない領域が生じうる。すなわち、ユーザ100は、大画面ディスプレイ20に表示されたオブジェクトのうち、ミラー画像120の掌画像の移動範囲外のオブジェクトを選択することができない。ユーザ100は、このようなオブジェクトを選択するためには、左右に移動する等のジェスチャ操作を行う必要があるので、これらのオブジェクトを選択するのに手間がかかる。
カーソル130を大画面ディスプレイ20のすべての領域に移動させるための方法としては、例えば、カーソル130をミラー画像120から分離し、かつ、カーソル130をユーザ100の掌よりも早く(大きく)移動させることが考えられる。この方法では、例えば、ユーザ100が掌を5cm動かした場合、カーソル130は例えば20cm移動する。しかし、この処理では、ユーザ100は、細かなオブジェクトを選択することが難しくなる。また、ユーザ100は、カーソル130の移動速度を容易に予測することができない。
一方、ユーザ100が細かなオブジェクトを選択しやすくする方法として、例えば、カーソル130をミラー画像120から分離し、かつ、カーソル130をユーザ100の掌よりも遅く(小さく)移動させることが考えられる。この方法では、例えば、ユーザ100が掌を5cm動かした場合、カーソル130は例えば1cm移動する。しかし、この処理では、大画面ディスプレイ20にカーソル130が届かない領域が生じうる。
このように、上記の方法では、「画面全体を選択できること」と「細かなオブジェクトを選択できること」とがトレードオフの関係にある。そこで、画像処理システム10は、背景画像の一部を選択領域として選択し、選択領域及びミラー画像のうち、少なくとも一方の表示状態を調整する。これにより、ユーザ100は、画面全体を選択することができ、かつ、細かなオブジェクトも選択することができるようになる。具体的には、画像処理システム10は、図5に示すフローチャートに沿った処理を行う。
ステップS100において、制御部43は、音声情報及び撮像画像を取得する。ステップS110において、制御部43は、音声情報及び撮像画像に基づいて、ユーザ100のジェスチャ操作を認識し、ユーザ100のジェスチャ操作に基づいて、選択領域を選択する。
具体的には、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100の視線を検出する。そして、制御部43は、ユーザ100の視線と大画面ディスプレイ20との交点を含む領域を選択領域として選択する。そして、制御部43は、選択領域を重畳画像に重畳して表示する。図9に表示例を示す。この例では、制御部43は、背景画像の左上の領域を選択領域500としている。選択領域500は、ユーザ100にとってわかりやすいように、ハイライト表示されるようにしてもよい。例えば、選択領域500は、背景画像とは異なる色で表示されてもよい。
ここで、選択領域を選択する処理の変形例としては、以下の処理が挙げられる。すなわち、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100の顔の向きを検出する。具体的には、制御部43は、顔領域の中心を通り、かつ、顔領域に垂直な顔向きベクトルを検出する。そして、制御部43は、顔向きベクトルと大画面ディスプレイ20との交点を含む領域を選択領域として選択してもよい。
また、制御部43は、大画面ディスプレイ20中の任意の初期位置に選択領域を表示する一方、ユーザ100のジェスチャ操作として、ユーザ100の右手(掌)の動きを認識する。そして、制御部43は、選択領域をユーザ100の右手の動きに連動して動かすことで、選択領域を選択してもよい。なお、ユーザ100は、選択領域内でのオブジェクトの選択を左手で行なってもよい。
また、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100の音声を認識し、音声情報に基づいて、選択領域を選択してもよい。具体的には、例えば、制御部43は、ユーザ100が「右上」と言った場合には、大画面ディスプレイ20のうち、右上の領域を選択領域として選択してもよい。
その他、制御部43は、あらゆるジェスチャ操作に基づいて選択領域を選択することができる。例えば、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100が背伸びしたことを認識する。そして、制御部43は、大画面ディスプレイ20の上側の領域を選択領域として選択する。ユーザ100は、大画面ディスプレイ20の上側の領域に表示されたオブジェクトを選択したいと考えていると推定されるからである。
また、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100がしゃがんだことを認識する。そして、制御部43は、大画面ディスプレイ20の下側の領域を選択領域として選択する。ユーザ100は、大画面ディスプレイ20の下側の領域に表示されたオブジェクトを選択したいと考えていると推定されるからである。また、制御部43は、カーソル130が届かない領域を検出し、この領域を自動的に選択領域としてもよい。
また、制御部43は、ユーザ100のジェスチャ操作に基づいて、選択領域500の大きさを変更してもよい。例えば、制御部43は、ユーザ100が両掌を上下方向に配置し、その後、両掌を離した場合に、選択領域500を上下方向に拡大してもよい。また、制御部43は、ユーザ100が両掌を近づけた場合には、選択領域500を上下方向に縮小してもよい。さらに、制御部43は、ユーザ100が両掌を左右方向に配置し、その後、両掌を離した場合に、選択領域500を左右方向に拡大してもよい。また、制御部43は、ユーザ100が両掌を近づけた場合には、選択領域500を左右方向に縮小してもよい。
ステップS120において、制御部43は、選択領域内でユーザ100がオブジェクトを選択しやすくする処理を行う。以下、この処理の具体例を幾つか説明する。
すなわち、制御部43は、選択領域を拡大することで拡大選択領域を生成し、拡大選択領域にミラー画像を重畳する。表示例を図10に示す。この例では、制御部43は、図9の選択領域500を拡大することで、拡大選択領域510を生成し、拡大選択領域510にミラー画像120(ミラー画像120のサイズは変わらない)を重畳する。そして、制御部43は、重畳画像を大画面ディスプレイ20に表示する。この例では、大画面ディスプレイ20の全面に拡大選択領域510が表示されているが、大画面ディスプレイ20の一部に拡大選択領域510が表示されてもよい。
この例によれば、選択領域500が拡大された拡大選択領域510が表示されるので、拡大選択領域510のオブジェクトも拡大されている。したがって、ユーザ100は、拡大選択領域510内のオブジェクトを容易に選択することができる。
一方、制御部43は、ミラー画像120を拡大してもよい。図11に表示例を示す。この例によれば、ミラー画像120の掌画像が選択領域500内に届くようになるので、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
一方、制御部43は、ミラー画像120の腕部分を伸ばしてもよい。例えば、制御部43は、撮像画像から人体画像を抽出し、この人体画像に基づいて、ユーザ100のジェスチャ操作を認識する。そして、制御部43は、ユーザ100が腕を伸ばしきった状態を維持している場合、ユーザ100が腕を伸ばしている方向にミラー画像120の腕部分を伸ばす。なお、制御部43は、ユーザ100が腕を伸ばすジェスチャ操作をしている場合、腕の移動量にゲインを付けることで、ミラー画像120の腕部分を伸ばしてもよい。すなわち、この例では、制御部43は、ユーザ100のジェスチャ操作に基づいて、ミラー画像120を調整している。
図12に表示例を示す。この例では、ミラー画像120の腕部分が選択領域500まで伸びている。この例によれば、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
一方、制御部43は、ミラー画像120を選択領域500内に配置してもよい。制御部43は、選択領域500よりもミラー画像120が大きい場合、ミラー画像120を縮小した後に、ミラー画像120を選択領域500内に配置する。図13に表示例を示す。この例によれば、選択領域500内にミラー画像120が配置されているので、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
一方、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100が背伸びしたことを認識する。そして、制御部43は、大画面ディスプレイ20の上側の領域を選択領域として選択する。そして、制御部43は、選択領域を下方に移動させる。表示例を図14、図15に示す。図14に示すように、制御部43は、ユーザ100が背伸びした場合には、大画面ディスプレイ20の上側の領域を選択領域500として選択する。なお、図14に示すように、この例では、ユーザ100は比較的背丈が低い。すなわち、ユーザ100は、例えば子供である。したがって、ミラー画像120も小さい。したがって、ユーザ100が背伸びをすることは多くなると想定されるので、本例が好適な処理となる。そして、制御部43は、図15に示すように、選択領域500を下方に移動させる。好ましくは、制御部43は、ミラー画像120と選択領域500とが重なるまで選択領域500を移動させる。これにより、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。すなわち、この例では、制御部43は、ユーザ100のジェスチャ操作に基づいて、ミラー画像120を調整している。
一方、制御部43は、ユーザ100のジェスチャ操作として、ユーザ100がしゃがんだことを認識する。そして、制御部43は、大画面ディスプレイ20の下側の領域を選択領域として選択する。そして、制御部43は、選択領域を上方に移動させる。この例は、ユーザ100が比較的背が高い場合に特に好適である。この場合、ユーザ100がしゃがむことは多くなると想定されるからである。この例でも、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。すなわち、この例では、制御部43は、ユーザ100のジェスチャ操作に基づいて、ミラー画像120を調整している。
なお、上記の各例では、制御部43は、選択領域500内でのミラー画像の掌画像の移動速度をユーザ100の掌の移動速度よりも小さくしてもよい。これにより、ユーザ100は、選択領域500内のオブジェクトをより正確に選択することができる。また、制御部43は、選択領域500内のオブジェクトの数等に応じて、掌画像の移動速度を調整してもよい。例えば、制御部43は、選択領域500内のオブジェクトの数が多いほど、掌画像の移動速度を小さくしてもよい。これにより、ユーザ100は、細かなオブジェクトをより正確に選択することができる。
また、制御部43は、例えばユーザ100が左足を上げるジェスチャ操作をした場合には、画面全体を左側にスクロールさせてもよい。同様に、制御部43は、例えばユーザ100が右足を上げるジェスチャ操作をした場合には、画面全体を右側にスクロールさせてもよい。これにより、ユーザ100は、本棚430に所望のオブジェクトを発見することができない場合に、別の本棚から所望のオブジェクトを発見することができる。
一方、制御部43は、選択領域内のオブジェクトをユーザ100の音声情報に基づいて特定してもよい。例えば、制御部43は、ユーザ100が本440のタイトルを発声した場合には、そのタイトルを有する本440を選択領域500から選択する。また、制御部43は、オブジェクトがCDとなり、かつ、ユーザ100が「これを再生」と発声した場合には、そのCDを再生する処理を行ってもよい。
なお、ユーザ100は、予め設定されたキャンセル用のジェスチャ操作を行うことで、上述した各調整処理(ミラー画像120及び選択領域500の少なくとも一方を調整する処理)をキャンセルすることができる。キャンセル用のジェスチャ操作としては、例えば、「キャンセル」という音声を発する、視線(または顔の向き)を選択領域から外す、手を叩く等が考えられる。
したがって、制御部43は、背景画像の一部を選択領域500として選択し、選択領域500内でユーザ100がオブジェクトを選択しやすくする処理を行う。これにより、ユーザ100は、大画面ディスプレイ20内の全領域からオブジェクトを選択することができ、かつ、細かなオブジェクトを選択することができる。すなわち、ユーザ100は、大画面ディスプレイ20においても、手間なく(左右に歩かなくてよい、常に手が届く、むやみに画面に近づかなくてよい)所望のオブジェクトを選択することができる。また、ユーザ100は、精度よく(手をこまごま動かさなくてもよい)、直感的に(見ただけでその辺りのものを選択できる等)所望のオブジェクトを選択することができる。
ステップS130において、制御部43は、ミラー画像によるポインティング処理、具体的には図4に示す処理を行う。
次に、詳細選択処理について、図16〜図18に基づいて説明する。制御部43は、ユーザ100がなんらかのオブジェクトを選択した(カーソル130をオブジェクトに重ねた状態で物をつかむジェスチャをした)場合、詳細選択処理を行う。まず図16に示すように、制御部43は、ユーザ100が選択したオブジェクト及びそれに隣接した本440を並べて表示する。制御部43は、ユーザ100が選択した本440を大画面ディスプレイ20の中央に配置する。この例では、「Book1」が中央に配置されている。さらに、制御部43は、ミラー画像120から掌画像140を切り出し、掌画像140を拡大して表示する。さらに、制御部43は、カートアイコン600も表示する。
そして、制御部43は、ユーザ100の掌が「パー」の状態となっており、かつ、右方向に動かされた場合には、掌画像140を矢印A1方向(右方向)に移動させるとともに、本440の列を矢印A1方向(右方向)にスクロールさせる。スクロール量は、本440の1冊分とする。これにより、「Book3」が新たに中央に配置される。
一方、制御部43は、ユーザ100の掌が「パー」の状態となっており、かつ、左方向に動かされた場合には、掌画像140を矢印A2方向(左方向)に移動させるとともに、本440の列を矢印A2方向(左方向)にスクロールさせる。スクロール量は本440の一冊分とする。これにより、制御部43は、図17に示すように、「Book1」の右側に配置された「Book2」を大画面ディスプレイ20の中央に表示する。制御部43は、このような処理を行うことで、ユーザ100により詳細なオブジェクト選択を行わせることができる。これにより、ユーザ100は、誤って所望の本440と異なる本440を選択した場合でも、詳細選択処理において、所望の本440を選択することができる。
一方、制御部43は、ユーザ100の掌が人差し指だけ伸びた状態となっており、かつ、右方向に動かされた場合には、図18に示すように、掌画像140を矢印B1方向(右方向)に移動させるとともに、本440を右方向に1ページめくる。一方、制御部43は、ユーザ100の掌が人差し指だけ伸びた状態となっており、かつ、左方向に動かされた場合には、掌画像140を矢印B2方向(左方向)に移動させるとともに、本440を左方向に1ページめくる。制御部43は、このような処理を行うことで、ユーザ100に本440の試し読みをさせることができる。これにより、ユーザ100は、本440の内容を確認した上で、本440を購入することができる。
制御部43は、ユーザ100の掌が「パー」の状態となっており、かつ、掌画像140がカートアイコン600に重なった場合には、中央に配置された本440をカートに入れる。
その後、制御部43は、ユーザ100が「キャンセル」という音声を発する、または、予め設定されたキャンセル用のジェスチャ操作を行った場合、図7に示すような通常店舗画像を大画面ディスプレイ20に表示する。そして、制御部43は、ユーザ100のジェスチャ操作に基づいて通常店舗画像をスクロールさせる。具体的な処理内容は上述したとおりである。
そして、制御部43は、図19に示すレジ700を表示した場合(すなわち、ユーザ100がレジ700まで到達した場合)には、会計処理(例えばクレジットカードからの引き落とし)を行う。また、制御部43は、レジ700の会計表示窓710に、購入金額を表示する。以上により、制御部43は、バーチャルショッピングに関する処理を終了する。
なお、店舗は本屋以外であっても良いのはもちろんである。例えば、店舗はレコードショップ、スーパー、デパート等であってもよい。また、背景画像は店舗以外のものであってもよい。店舗以外の例を図20〜図21に示す。
この例では、制御部43は、大画面ディスプレイ20に背景画像としてリビング画像を表示する。このリビング画像には、ディスプレイ800、リモコン810、及び地面830が描かれている。すなわち、この例では、いわゆるディスプレイオンディスプレイ(大画面ディスプレイ20の中に架空のディスプレイ800が表示されている)が実現されている。地面830は、部屋200の床と同一平面上に配置される。したがって、ユーザ100は、部屋200の奥に別のリビングがあるという感覚をもつ。また、制御部43は、上述したミラー画像120及びカーソル130を背景画像に重畳する。
この例においても、制御部43は、背景画像及びミラー画像120に対して上述した処理を行うことができる。また、制御部43は、ユーザ100の掌が「パー」となり、かつ、カーソル130がリモコン810に重なった場合、リモコン810をカーソル130に追従させる。さらに、制御部43は、ユーザ100の掌が人差し指だけ伸びた状態となった場合、図21に示すように、リモコン810を拡大する。そして、制御部43は、ユーザ100が選択したボタン(すなわち、ミラー画像120の人差し指部分が重なったボタン)を検出する。そして、制御部43は、ユーザ100が選択したボタンに応じた画面820をディスプレイ800に表示する。
以上により、本実施形態では、画像処理システム10は、ミラー画像120を背景画像に重畳することで、重畳画像を生成し、重畳画像を大画面ディスプレイ20に表示する一方、重畳画像の表示状態を調整する。これにより、画像処理システム10は、ミラー画像120の操作性を向上させることができる。具体的には、画像処理システム10は、ユーザ100に大画面ディスプレイ20の全領域を選択させることができ、かつ、細かなオブジェクトを選択させることができる。
また、画像処理システム10は、ミラー画像120及び背景画像のうち、少なくとも一方の表示状態を調整する。したがって、画像処理システム10は、ミラー画像120の操作性を向上させることができる。
さらに、画像処理システム10は、背景画像の一部を選択領域500として選択し、選択領域500及びミラー画像120のうち、少なくとも一方の表示状態を調整する。したがって、画像処理システム10は、ミラー画像120の操作性を向上させることができる。
さらに、画像処理システム10は、選択領域500をユーザ100のジェスチャ操作に基づいて選択するので、ユーザ100は、所望の領域を容易に選択することができる。
さらに、画像処理システム10は、選択領域500及びミラー画像120のうち、少なくとも一方の表示状態を、ユーザ100のジェスチャ操作に基づいて調整するので、ミラー画像120の操作性をより向上させることができる。
さらに、画像処理システム10は、選択領域500を拡大することで拡大選択領域510を生成し、拡大選択領域510にミラー画像120を重畳する。したがって、ユーザ100は、選択領域内のオブジェクトを容易に選択することができる。
さらに、画像処理システム10は、ミラー画像120を拡大するので、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
さらに、画像処理システム10は、ミラー画像120を構成する腕画像を選択領域500まで伸ばすので、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
さらに、画像処理システム10は、ミラー画像120を選択領域500内に配置するので、ユーザ100は、選択領域500内のオブジェクトを容易に選択することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、大画面ディスプレイ20に店舗内の画像またはリビング画像を表示する例を示したが、他の画像を大画面ディスプレイ20に表示しても良いことはもちろんである。また、本実施形態は、大画面ディスプレイ20よりも小型のディスプレイ、例えば数十インチ程度のディスプレイにも適用可能である。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像の表示状態を調整する制御部を備える、画像処理装置。
(2)
前記制御部は、人体画像及び前記背景画像のうち、少なくとも一方の表示状態を調整する、前記(1)記載の画像処理装置。
(3)
前記制御部は、前記背景画像の一部を選択領域として選択し、前記選択領域及び前記人体画像のうち、少なくとも一方の表示状態を調整する、前記(2)記載の画像処理装置。
(4)
前記制御部は、前記選択領域をユーザのジェスチャ操作に基づいて選択する、前記(3)記載の画像処理装置。
(5)
前記制御部は、前記選択領域及び前記人体画像のうち、少なくとも一方の表示状態を、ユーザのジェスチャ操作に基づいて調整する、前記(3)または(4)記載の画像処理装置。
(6)
前記制御部は、前記選択領域を拡大することで拡大選択領域を生成し、前記拡大選択領域に前記人体画像を重畳する、前記(3)〜(5)のいずれか1項に記載の画像処理装置。
(7)
前記制御部は、前記人体画像を拡大することを特徴とする、前記(3)〜(5)のいずれか1項に記載の画像処理装置。
(8)
前記制御部は、前記人体画像を構成する腕画像を前記選択領域まで伸ばす、前記(3)〜(5)のいずれか1項に記載の画像処理装置。
(9)
前記制御部は、前記人体画像を前記選択領域内に配置する、前記(3)〜(5)のいずれか1項に記載の画像処理装置。
(10)
人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像を調整することを含む、画像処理方法。
(11)
コンピュータに、
人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像を調整する制御機能を実現させる、プログラム。
10 画像処理システム
20 大画面ディスプレイ
30 通信ネットワーク
40 サーバ
120 ミラー画像
410、420 背景画像
430 本棚
500 選択領域

Claims (3)

  1. 人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像の表示状態を調整する制御部を備え、
    前記制御部は、前記ユーザが背伸びしたことが認識された場合、前記背景画像のうち前記ユーザの掌が届かない上側領域を選択領域として選択し、前記選択領域を前記上側領域から前記ユーザの掌が届く下方の領域に移動させることによって、前記選択領域の表示状態を調整する、
    画像処理装置。
  2. 人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像を調整することを含み、
    前記ユーザが背伸びしたことが認識された場合、前記背景画像のうち前記ユーザの掌が届かない上側領域を選択領域として選択し、前記選択領域を前記上側領域から前記ユーザの掌が届く下方の領域に移動させることによって、前記選択領域の表示状態を調整する、
    画像処理方法。
  3. コンピュータに、
    人体の少なくとも一部が描かれ、かつ、ユーザのジェスチャ操作に連動して動作する人体画像を背景画像に重畳することで、重畳画像を生成し、前記重畳画像を表示する制御を行う一方、前記重畳画像を調整する制御機能を実現させ、
    前記ユーザが背伸びしたことが認識された場合、前記背景画像のうち前記ユーザの掌が届かない上側領域を選択領域として選択し、前記選択領域を前記上側領域から前記ユーザの掌が届く下方の領域に移動させることによって、前記選択領域の表示状態を調整する制御機能を実現させる、
    プログラム。
JP2014516698A 2012-05-22 2013-03-22 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP5924407B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014516698A JP5924407B2 (ja) 2012-05-22 2013-03-22 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012116586 2012-05-22
JP2012116586 2012-05-22
PCT/JP2013/058326 WO2013175847A1 (ja) 2012-05-22 2013-03-22 画像処理装置、画像処理方法、及びプログラム
JP2014516698A JP5924407B2 (ja) 2012-05-22 2013-03-22 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2013175847A1 JPWO2013175847A1 (ja) 2016-01-12
JP5924407B2 true JP5924407B2 (ja) 2016-05-25

Family

ID=49623551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014516698A Expired - Fee Related JP5924407B2 (ja) 2012-05-22 2013-03-22 画像処理装置、画像処理方法、及びプログラム

Country Status (5)

Country Link
US (2) US10360706B2 (ja)
EP (1) EP2853986B1 (ja)
JP (1) JP5924407B2 (ja)
CN (1) CN104303131B (ja)
WO (1) WO2013175847A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9883138B2 (en) 2014-02-26 2018-01-30 Microsoft Technology Licensing, Llc Telepresence experience
JP6358038B2 (ja) * 2014-10-17 2018-07-18 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6421543B2 (ja) * 2014-10-17 2018-11-14 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6409517B2 (ja) * 2014-11-13 2018-10-24 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2016146104A (ja) * 2015-02-09 2016-08-12 富士ゼロックス株式会社 入力システム、入力装置およびプログラム
JP6670549B2 (ja) * 2015-03-30 2020-03-25 大和ハウス工業株式会社 取引支援システム及び取引支援方法
WO2017030255A1 (en) * 2015-08-18 2017-02-23 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
US10976819B2 (en) 2015-12-28 2021-04-13 Microsoft Technology Licensing, Llc Haptic feedback for non-touch surface interaction
US11188143B2 (en) * 2016-01-04 2021-11-30 Microsoft Technology Licensing, Llc Three-dimensional object tracking to augment display area
US10509556B2 (en) * 2017-05-02 2019-12-17 Kyocera Document Solutions Inc. Display device
CN111258414B (zh) * 2018-11-30 2023-08-04 百度在线网络技术(北京)有限公司 用于调整屏幕的方法和装置
WO2021235147A1 (ja) * 2020-05-18 2021-11-25 株式会社Nttドコモ 情報処理システム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515130A (en) * 1990-12-10 1996-05-07 Nikon Corporation Camera control device
JP3344499B2 (ja) * 1993-06-30 2002-11-11 株式会社東芝 オブジェクト操作支援装置
KR100588042B1 (ko) 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
JP2007156922A (ja) * 2005-12-06 2007-06-21 Sharp Corp 処理指示受付方法、電子機器、及びコンピュータプログラム
US8953909B2 (en) * 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
CN101952818B (zh) * 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
WO2009042579A1 (en) * 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
JP4670860B2 (ja) 2007-11-22 2011-04-13 ソニー株式会社 記録再生装置
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP5635736B2 (ja) 2009-02-19 2014-12-03 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
FR2960986A1 (fr) * 2010-06-04 2011-12-09 Thomson Licensing Procede de selection d’un objet dans un environnement virtuel
JP5665396B2 (ja) * 2010-07-09 2015-02-04 キヤノン株式会社 情報処理装置およびその制御方法
JP5598232B2 (ja) * 2010-10-04 2014-10-01 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
US8929609B2 (en) * 2011-01-05 2015-01-06 Qualcomm Incorporated Method and apparatus for scaling gesture recognition to physical dimensions of a user
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
WO2013051047A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 表示装置、表示プログラム、及び表示方法

Also Published As

Publication number Publication date
US20150123994A1 (en) 2015-05-07
JPWO2013175847A1 (ja) 2016-01-12
EP2853986A4 (en) 2016-01-06
WO2013175847A1 (ja) 2013-11-28
US10360706B2 (en) 2019-07-23
US20190259191A1 (en) 2019-08-22
EP2853986B1 (en) 2020-09-23
CN104303131B (zh) 2017-03-29
EP2853986A1 (en) 2015-04-01
CN104303131A (zh) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5924407B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US11740755B2 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US20220091722A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP6382261B2 (ja) 高度なカメラをベースとした入力
US9791918B2 (en) Breath-sensitive digital interface
CN106227344A (zh) 电子设备及其控制方法
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
US20230092282A1 (en) Methods for moving objects in a three-dimensional environment
JP4912377B2 (ja) 表示装置、表示方法、ならびに、プログラム
JP5668385B2 (ja) 情報処理装置、プログラムおよび情報処理方法
WO2023034012A1 (en) Handcrafted augmented reality effort evidence
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
US20230115736A1 (en) Interactive environment with virtual environment space scanning
WO2016102948A1 (en) Coherent touchless interaction with stereoscopic 3d images
US20230060150A1 (en) Physical action-based augmented reality communication exchanges
CN115814405A (zh) 游戏中的录像方法、装置、电子设备及存储介质
WO2023034009A1 (en) Handcrafted augmented reality experiences

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160404

R151 Written notification of patent or utility model registration

Ref document number: 5924407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees