JP7427937B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7427937B2
JP7427937B2 JP2019217217A JP2019217217A JP7427937B2 JP 7427937 B2 JP7427937 B2 JP 7427937B2 JP 2019217217 A JP2019217217 A JP 2019217217A JP 2019217217 A JP2019217217 A JP 2019217217A JP 7427937 B2 JP7427937 B2 JP 7427937B2
Authority
JP
Japan
Prior art keywords
image
half mirror
display
image processing
operation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019217217A
Other languages
English (en)
Other versions
JP2021086548A (ja
Inventor
政伸 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019217217A priority Critical patent/JP7427937B2/ja
Publication of JP2021086548A publication Critical patent/JP2021086548A/ja
Application granted granted Critical
Publication of JP7427937B2 publication Critical patent/JP7427937B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理システム、画像処理装置、画像処理方法、およびプログラムに関する。
人の動きを検出(モーションキャプチャ)して、検出された人の動き(ジェスチャ)、姿勢、身体の一部の形状などに対応する機器の操作を行う技術が様々な場面で用いられるようになってきている。
特許文献1に記載のデータ入力装置は、表示装置を操作するユーザの撮像画像から画像認識処理により判別し、操作者として判別された場合に、操作者の手が操作可能領域に所在していることを判別すると操作が開始されたと判断し、操作者の手の形状を認識し、手の形状情報に対応する処理を行う。この対応する処理とは、例えば、案内画面の表示、映像コンテンツの表示、ネットワークからの情報検索などである。
特許文献2に記載の装置は、車載装置のタッチパネルの操作を、ユーザが手を大きく伸ばさなくても行えるように、タッチパネルの前方にある物体(ドライバの手)の距離を監視し、特定の領域にドライバの手が侵入したことを検知すると、操作用のアイコンなどをドライバ側に移動させて表示するとともに効果音を出力している。
特許文献3に記載の入力装置は、ユーザから離れた位置に設置されるディスプレイと、ユーザの手元に設置される操作用のタッチパッドと、タッチパッドの上方に設けられたカメラを備えている。ディスプレイにはユーザが所望の命令や情報を入力するためのGUI(Graphical User Interface)部品が表示され、ユーザが手元のタッチパッドを操作すると、カメラで撮像された手の形状やジェスチャを認識し、操作されたGUI部品に関連付けられた命令や情報が入力される。
特開2016-186809号公報 国際公開第2015/001875号 国際公開第2007/088942号
上述した文献に記載の技術においては、操作者の身体の一部の形状やジェスチャを認識して対応する処理を行っているが、操作毎の形状やジェスチャを複数覚えるのは意外に難しく、ジェスチャや形状を正確に行わないと誤操作にも成り兼ねなかった。
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、非接触での操作を容易にして誤操作を低減することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第一の側面は、画像処理装置に関する。
第一の側面に係る画像処理装置は、
ディスプレイと、ハーフミラーとともに使用される画像処理装置であって、
前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
前記ハーフミラーに映る特定部位に映る人物の特定部位の、前記ハーフミラーを基準とした相対位置を検出する検出手段と、
当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる制御手段と、
前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する処理手段と、を有する。
第二の側面は、少なくとも1つのコンピュータにより実行される画像処理方法に関する。
第二の側面に係る画像処理方法は、
ディスプレイと、ハーフミラーとともに使用される画像処理装置の画像処理方法であって、
前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
前記画像処理装置が、
前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出し、
当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させ、
前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する、ことを含む。
なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
このコンピュータプログラムは、コンピュータにより実行されたとき、コンピュータに、画像処理装置上で、その画像処理方法を実施させるコンピュータプログラムコードを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。
また、本発明の方法およびコンピュータプログラムには複数の手順を順番に記載してあるが、その記載の順番は複数の手順を実行する順番を限定するものではない。このため、本発明の方法およびコンピュータプログラムを実施するときには、その複数の手順の順番は内容的に支障のない範囲で変更することができる。
さらに、本発明の方法およびコンピュータプログラムの複数の手順は個々に相違するタイミングで実行されることに限定されない。このため、ある手順の実行中に他の手順が発生すること、ある手順の実行タイミングと他の手順の実行タイミングとの一部ないし全部が重複していること、等でもよい。
上記各側面によれば、非接触での操作を容易にして誤操作を低減できる。
本発明の実施の形態に係る画像処理システムの概要を説明するための図である。 本発明の実施の形態に係る画像処理装置の論理的な構成例を示す機能ブロック図である。 図2に示す画像処理装置を実現するコンピュータのハードウェア構成を例示するブロック図である。 本実施形態の画像処理装置の動作例を示すフローチャートである。 ハーフミラーの撮像画像と実鏡面上の映像の補正処理を説明するための図である。 ハーフミラーに映った操作者の位置情報の取得方法を説明するための図である。 ハーフミラーに映った操作者の位置情報を2台のカメラを用いて取得する方法を説明するための図である。 ハーフミラーに映った操作者の位置情報を2台のカメラを用いて取得する方法を説明するための図である。 ハーフミラーに映った身体の特定部位に操作部を重畳表示する方法の一例を説明するための図である。 本発明の実施の形態に係る画像処理装置の論理的な構成例を示す機能ブロック図である。 画像処理システムのカメラの設置位置の他の例を説明するための図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。以下の各図において、本発明の本質に関わらない部分の構成については省略してあり、図示されていない。
実施形態において「取得」とは、自装置が他の装置や記憶媒体に格納されているデータまたは情報を取りに行くこと(能動的な取得)、および、自装置に他の装置から出力されるデータまたは情報を入力すること(受動的な取得)の少なくとも一方を含む。能動的な取得の例は、他の装置にリクエストまたは問い合わせしてその返信を受信すること、及び、他の装置や記憶媒体にアクセスして読み出すこと等がある。また、受動的な取得の例は、配信(または、送信、プッシュ通知等)される情報を受信すること等がある。さらに、「取得」とは、受信したデータまたは情報の中から選択して取得すること、または、配信されたデータまたは情報を選択して受信することであってもよい。
(第1実施形態)
<システム概要>
図1は、本発明の実施の形態に係る画像処理システム1の概要を説明するための図である。ハーフミラー10と、ディスプレイ20と、カメラ30と、画像処理装置100と、を備える。ディスプレイ20、カメラ30、および画像処理装置100は、通信ネットワーク3を介して互いに接続される。なお、各装置は、通信ネットワーク3を介さずに直接接続されてもよい。
ハーフミラー10は、その背面にディスプレイ20が設置され、ディスプレイ20に表示される画像を前面に透過させる。ディスプレイ20は、例えば、液晶ディスプレイ、有機ELディスプレイなどである。カメラ30は、ハーフミラー10を撮像して画像を生成する。ハーフミラー10の前に立った人物等の映像はハーフミラー10の鏡面に映る。このため、カメラ30の撮像画像には、ハーフミラー10に映った映像とディスプレイ20に表示される画像が重なったものとなる。画像処理装置100は、カメラ30が生成した画像を取得して処理を行う。
カメラ30は、レンズとCCD(Charge Coupled Device)イメージセンサといった撮像素子を備え、例えばIP(Internet Protocol)カメラ等のネットワークカメラである。ネットワークカメラは、たとえば、無線LAN(Local Area Network)通信機能を有し、通信ネットワーク3のルータなどの中継装置(不図示)を介して画像処理装置100に接続される。そして、カメラ30は、ハーフミラー10に映る人物の動きに合わせて追従してカメラ本体やメンズの向きの制御、ズーム制御、焦点合わせ等を行う機構を備えてもよい。
カメラ30により生成される画像は、リアルタイムに撮影され、画像処理装置100に送信されるのが好ましい。ただし、画像処理装置100に送信される画像は、カメラ30から直接送信されなくてもよく、所定の時間遅延した画像であってもよい。カメラ30で撮像された画像は、一旦他の記憶装置に格納され、画像処理装置100が記憶装置から逐次または所定間隔毎に読み出してもよい。さらに、画像処理装置100に送信される画像は、動画像であるのが好ましいが、所定間隔毎のフレーム画像であってもよいし、静止画であってもよい。
<機能構成例>
図2は、本発明の実施の形態に係る画像処理装置100の論理的な構成例を示す機能ブロック図である。画像処理装置100は、検出部102と、制御部104と、処理部106と、を備える。
画像処理装置100は、さらに、記憶装置110を備える。記憶装置110には、画像処理装置100の各種設定データ、登録情報、およびプログラムなどが記憶される。記憶装置110は、画像処理装置100の内部に設けられてもよいし、外部に設けられてもよい。つまり記憶装置110は、画像処理装置100と一体のハードウェアであってもよいし、画像処理装置100とは別体のハードウェアであってもよい。画像処理装置100と記憶装置110は通信ネットワークで接続されてもよい。
検出部102は、ハーフミラー10に映る特定部位の、ハーフミラー10を基準とした相対位置を検出する。制御部104は、特定部位の相対位置に基づいて、操作部の画像の表示位置を決定してディスプレイ20に操作部の画像を表示させる。処理部106は、ハーフミラー10を透過した操作部の画像と、ハーフミラー10に映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する。
特定部位は、ハーフミラー10に映る人物本人が触ることができる、人物の身体の特定部位、および人物に付随する(例えば、身につけている、または持っている)物体の特定の部分である。ハーフミラー10に映る映像の特定部位の領域、または特定部位を基準として特定される領域に、操作部の画像が表示される。例えば、人物の身体の特定部位は、人物の腕、胴体、顔などである。人物に付随する物体の特定の部分は、例えば、人物が身につけている眼鏡、帽子、手袋、エプロン、ネクタイ、衣服のポケットや襟などであってもよし、人物が持っているリモコンやプレートなど画像を表示できる平面の領域を持っている物体、あるいは、後述する指示物であってもよい。例えば、ハーフミラー10に映る映像内のネクタイを検出し、ネクタイを基準として特定される胴体部分の領域に操作部の画像が表示されてもよい。あるいは、ハーフミラー10に映る映像内の眼鏡を検出し、眼鏡を基準として特定される両頬の領域に操作部の画像が表示されてもよい。
また、人物が手に持っているプレートを検出し、プレートの一面の領域に操作部の画像が表示されてもよい。本システムに特化した専用プレートなどを用い、プレート上にマーカを設けておけば、特定部位の検出がさらに容易になる。あるいは、専用のマーカを、操作部の画像を表示できる領域を有する物体に貼付して、ユーザがその物体を持ってハーフミラー10に立って映り、当該物体に貼付されたマーカを検出することで特定部位を検出し、物体の表示できる領域に操作部の画像を表示させてもよい。
また、指示物を検出し、指示物の位置から、その延長線上にある人物の腕を特定部位として特定してもよい。この場合、指示物と特定部位の位置関係は予め登録されているものとする。
人物の特定部位は、本人が触ることができる部位である。さらに、人物の特定部位は、ハーフミラー10の前に立った操作者40が、ハーフミラー10に映った特定部位に表示された操作部を見ることができるのが好ましい。ただし、操作部の位置(特定部位は腕など)が予め分かっている場合には、見えなくてもよい。自分の身体を触るので、自分の身体に対して目視は必ずしも必要なく、目を瞑っても自分の腕等を触ることは容易である。例えば、ハーフミラー10で自分の顔だけを見て、腕の操作部をタッチすることもできる。
指示物は、例えば、人体のうち特定部位以外のパーツであり、手、あるいは、手の指であるのが好ましい。ただし、上記した特定部位が人体の掌などの場合は、特定部位と反対側の手や手の指である。例えば、特定部位は左手の掌であり、指示物は右手の指であってもよい。また、指示物は、人体のパーツ以外を含んでもよく、例えば、操作者が手あるいは口などで持っている指し棒、ペンなどであってもよい。
操作部は、表示画面上のタッチ操作で使用されるGUI(Graphical User Interface)部品であり、例えば、操作ボタン、アイコン、選択メニュー、スライダーなどを含むが、これらに限定されない。GUI部品には、操作内容を含むことができる。例えば、アイコンには、それを操作することで何が行われるかを示す画像や文字をデザインして含むことができるので、アイコンを見ただけで操作内容を把握することもできる。あるいは、選択メニューリストには具体的な処理内容を文字で表記することもできる。
処理部106により実行される処理は例えば、以下に例示されるが、これらに特に限定されず、操作部の操作を受け付けることで実行される様々な処理であってよい。
(a1)操作により指定されたコンテンツ(例えば、画像、映像、ホームページ、デジタル書籍等)をディスプレイ20に表示させてハーフミラー10に映す。さらに、コンテンツに対する操作を受け付ける。
(a2)スピーカから音楽や音声を出力させたり、音量調整を行ったりする。
(a3)ハーフミラー10の前の人物をカメラで撮像する。撮像画像をディスプレイ20に表示させてハーフミラー10に映す。
(a4)撮像画像を分析してユーザの状態情報(例えば、静脈血流を観測して心拍数を計測したり、顔色や表情を画像認識やAI(Artificial Intelligence)を用いて分析したりして得られる健康状態情報など)を取得し、データを蓄積するとともに、ユーザに状態や分析結果を表示や音声出力で伝える。
(a5)登録されている家電製品や照明機器などの操作を行う。
(a6)映像などをディスプレイ20に表示させてハーフミラー10に映したりスピーカから音声出力したりしながら、ユーザと対話する。
<ハードウェア構成例>
図3は、図2に示す画像処理装置100を実現するコンピュータ1000のハードウェア構成を例示するブロック図である。コンピュータ1000は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、およびネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。また、プロセッサ1020は、後述する画像解析や機械学習などに特化したLSI(Large-Scale Integrated circuit)を含んでもよい。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は画像処理装置100の各機能(例えば、検出部102、制御部104、処理部106、および後述する特定部108など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。また、ストレージデバイス1040は記憶装置110の各データも記憶してもよい。
プログラムモジュールは、記録媒体に記録されてもよい。プログラムモジュールを記録する記録媒体は、非一時的な有形のコンピュータ1000が使用可能な媒体を含み、その媒体に、コンピュータ1000(プロセッサ1020)が読み取り可能なプログラムコードが埋め込まれてよい。
入出力インタフェース1050は、コンピュータ1000と各種入出力機器とを接続するためのインタフェースである。
ネットワークインタフェース1060は、コンピュータ1000を通信ネットワークに接続するためのインタフェースである。この通信ネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060が通信ネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
そして、コンピュータ1000は、入出力インタフェース1050またはネットワークインタフェース1060を介して、必要な機器(例えば、ディスプレイ、キーボード、マウス、プリンタ、カメラ30、スピーカ、マイクロフォン等)に接続する。
画像処理装置100は、コンピュータ1000に、当該画像処理装置100を実現するためのアプリケーションプログラムをインストールして起動することで実現される。
コンピュータ1000は、ハーフミラー10が設置される場所に設置されるパーソナルコンピュータやサーバであってもよいし、インターネットなどの通信ネットワークを介してハーフミラー10やカメラ30と接続される遠隔地に設置されるサーバであってもよい。
<動作例>
図4は、本実施形態の画像処理装置100の動作例を示すフローチャートである。
まず、検出部102は、ハーフミラー10に映る特定部位の、ハーフミラー10を基準とした相対位置を検出する(ステップS101)。
より詳細には、検出部102は、まず、ハーフミラー10に映った操作者の画像または、操作者の位置情報を取得する(ステップA1)。そして、取得した画像または位置情報から操作者の特定部位を識別する(ステップA2)。
ここで、ステップA1のハーフミラー10に映った操作者の画像または位置情報の取得方法について説明する。ハーフミラー10に映った映像を撮影するカメラ30をハーフミラー10の正面に置くことができないため、カメラ30は、ハーフミラー10の枠外から斜めに撮影することになる。そのため、取得した画像の補正には工夫が必要となる。画像または位置情報の取得方法は様々考えられ、以下の(b1)~(b5)に例示されるが、これらに限定されない。
(b1)ハーフミラー10を撮影するカメラ30をハーフミラー10の反射面側に設置する。カメラ30の撮影画像を画像処理してハーフミラー10に映った画像を取得する。この場合、斜め上からの撮影となるため、矩形化の画像処理や環境光緩和処理(ライトの映り込みや、赤目などの処理)を行う。なお、矩形化の精度を高めるため、設置時に補正(キャリブレーション)を行う。
例えば、始めに、ハーフミラー10だけを撮影する。次に、図5に示すように、ハーフミラー10の中で定点(ハーフミラー10上の位置が既知の場所)にマーク12をハーフミラー10の裏面側のディスプレイ20に複数表示する。そのマーク12について、撮影画像と実鏡面の差異(歪み度合)から、矩形化に必要な補正情報を取得する。
(b2)2台のカメラ30により操作者(実体)の位置情報を測定する。図11にカメラ30の設置位置の一例を示す。この例では、カメラ30をハーフミラー10の枠外の上側に設け、カメラ30を用いてハーフミラー10の前に立った人物を直接撮像している。図11の例では、2つのカメラ30を用いているが、後述する(b3)のように1台のカメラ30であってもよい。また、カメラ30は、ハーフミラー10の前に立った人物を撮像できれば、設置位置は図の例に限定されない。例えば、ハーフミラー10の上側以外の場所でもよいし、ハーフミラー10から離れた場所であってもよいし、ハーフミラー10の背面であってもよい。ハーフミラー10の背面に設けられたディスプレイ20の外枠に設けられたカメラ30であってもよい。
図11のようにカメラ30で直接操作者を撮像する構成は、カメラ30をハーフミラー10の正面に設けられないような場所、例えば、ハーフミラー10に映る人物を撮像できる位置にカメラ30を設置するスペースがない場合などにも画像処理システム1の適用を可能にする。
2つのカメラ30を用いることにより、3次元の位置情報を取得できる。実現可能方法としてステレオカメラが挙げられる。奥行も測定可能なため、立体として認識できるので、丸みや曲面の画像処理が可能となる。
図6に示すように、2次元上で対象物P(操作者40)の座標を得る。2つのカメラ(カメラ30a、30b)が地面に対して水平に設置されており、鏡面(この図では不図示)と並行に設置されているものとする。以降のように数理的に座標を得ることができるが、実際の処理としてこれらの数式を用いることに限定されない。例えば、近似式を用いたり、高速処理のためのアルゴリズムを用いたりすることもできる。2つのカメラの焦点F1、F2において、中点をO(原点)、Oから各焦点への距離をl(エル)、焦点距離をfとする。
Figure 0007427937000001
P(x,y)において、これらの式(1)と式(2)を解くと、下記の式(3)、式(4)のようにPの座標が求められる。
Figure 0007427937000002
α、βは、カメラ30上の像の位置から求める。βの場合、図6で、カメラ30b上の中心と像の位置(r)は、カメラの性能(CCD部分の解像度やDPI(Dot Per Inch))から算出できる。式(5)からβが求められ、αの場合も同様に求められる。
Figure 0007427937000003
次に真横から見て、対象物Pの座標を求める。図7は、カメラ30が斜め下を向いている場合を表す。図7で、焦点Fを通る平面Aは、カメラ30で映す方向を法線方向とする平面を表す。平面Aと、対象物Pを通り平面Aに平行な平面Bにおいて、平面Aと平面Bの距離Mは前項の2次元上で対象物Pの座標より計算できる。よって、FP間の距離zは、式(6)の通りとなる。
Figure 0007427937000004
また、図8に示すように、カメラ30はハーフミラー10に傾いて取り付けられているため、ハーフミラー10と対象物Pの距離Lは、次の式(7)、式(8)から式(9)により求められる。ここでは計算式を簡単にするため、ハーフミラー10の鉛直線上に焦点Fがあることを前提とする。
Figure 0007427937000005
(b3)1台のカメラ30による操作者(実体)の位置情報を測定する。これにより、3次元の位置情報を取得できる。実現可能方法として、光の分散(色収差)による焦点距離の違い(ピンボケの違い)から、奥行きを測る方法が挙げられる。
(b4)ハーフミラー10に映った画像をハーフミラー10自身が読み取り(スキャン)して、ハーフミラー10に映った画像を取得する。ハーフミラー10の裏側に検出器(不図示)を貼り付ける。ハーフミラー10全体から光検出する方法や、検出器の間隔を空けてドット(格子点)で検出する方法が挙げられる。
(b5)ハーフミラー10の特性から、ハーフミラー10背面のカメラ30による操作者(実体)の画像を取得する。広い画角のカメラ30を複数台置くことで、ハーフミラー10の厚みを薄くする方法が挙げられる。
上記の例のカメラ30で人物を直接撮像する構成において、ハーフミラー10に対する立ち位置を予めユーザに指示する構成(例えば、立ち位置を示すフットマークを床に設ける、投影機で映写する、ユーザの立ち位置を認識しながらユーザに音声または表示で指示するなど)を有してもよい。そのようにすれば、操作者(実体)の位置情報を測定する処理を省略できる。
次に、ステップA2の取得した画像または位置情報から操作者の特定部位の識別方法について説明する。具体的には、画像処理と物体認識により識別する。画像処理について、上記(b1)、(b4)、(b5)の場合は2次元画像の処理となり、上記(b2)、(b3)の場合は3次元情報から2次元画像への変換処理を行う。物体認識は、AIや画像パターン識別の技術を用いて処理する。
図4に戻り、上記のようにして操作者の画像が取得された場合、制御部104は、取得された操作者の画像から画像認識処理により、特定部位に対応する形状を表示位置として特定する(ステップS103)。制御部104は、特定された形状に合わせてディスプレイ20に操作部50の画像を表示させる(ステップS105)。ここで、制御部104は、操作部50の画像を特定部位にオーバーレイ表示する際に、当該特定部位の大きさや形状に合わせて操作部50の画像を変形および加工する処理も行う。
ディスプレイ20はハーフミラー10の背面に設置され、ハーフミラー10越しにディスプレイ20の画面が見えるので、ハーフミラー10に映った操作者40の映像42に、操作部50の画像が重なって表示され、あたかも操作者40の特定部位に操作部50が表示されているように見える。
図9(a)に示すように、操作者40がハーフミラー10に映っている映像42の特定部位44(この例では腕)の領域の上に操作部50として3つの操作ボタンの画像が重畳表示される。
図4に戻り、上記のようにして操作者の位置情報が取得された場合、制御部104は、身体の特定部位の認識と位置情報による立体的な形状の認識により、操作部50の画像の3次元の表示位置を特定する(ステップS103)。制御部104は、特定された表示位置に操作部50の画像を重畳してディスプレイ20に表示させる(ステップS105)。この方法では、身体の丸みや曲面に合った重畳表示を行うことができるので、違和感なく操作ができる。
ここで、特定部位の位置は、ハーフミラー10を基準とした相対位置で示される。ハーフミラー10の基準は、例えば、矩形の四隅の頂点のうちのいずれかとすることができる。特定部位の位置情報は、基準点との相対位置を示す座標で示される。
そして、処理部106は、ハーフミラー10を透過した操作部50の画像と、ハーフミラー10に映った指示物60の相対位置に基づいて、当該操作部50に関連付けられた処理を実行する(ステップS107)。
図9(b)に示すように、操作者40は、ハーフミラー10に映った自分の腕(特定部位44)の部分に表示されている操作部50の画像を見ながら、例えば、自分の指などの指示物60で操作部50のボタンを触る。処理部106は、画像認識処理により、ハーフミラー10に映った指示物60の映像62の位置を特定する。そして、処理部106は、操作部50の画像と指示物60の映像62が重なったことを検知すると、操作部50に関連付けられた処理を実行する。
制御部104は、操作部50の画像と指示物60が重なったことが検知されると、当該操作部50に対応する音声をスピーカ70に出力させる、または操作部50に関する表示の少なくとも一部を変更してディスプレイ20に表示させる。ただし、音声出力と表示の変更を組み合わせてもよい。
操作部50の画像と指示物60が重なったことが検知され、操作入力を受け付けると、制御部104は、操作を受け付けたことを示す効果音、あるいは、音声メッセージをスピーカ70から出力してもよい。適切に操作できたことを認知できるので、操作感が操作者に伝わる。意図した操作を想起する効果音、あるいは、操作が不適切な場合には誤操作を想起する効果音にすることで、誤認識や操作不備を操作者に伝えることもできる。さらに、処理部106は、指示物60のタッチ動作を認識し、認識した位置の操作部50の位置やタッチ回数をカウントし、操作入力として受け付け、制御部104は、当該操作を受け付けたことを操作者に伝える効果音や音声メッセージをスピーカ70に出力させてもよい。一方で、タッチ位置が不明瞭な場合に、再度、操作を促す効果音または音声メッセージをスピーカ70に出力させてもよい。
あるいは、制御部104は、同様に操作入力を受け付けると、図9(b)に示すように、操作ボタン52が選択されたことを示す色替え、強調表示、反転表示、点滅表示、形状変更などを行うことができる。この構成によれば、操作されたことが直感的に認識できる。
操作部50の画像と指示物60の映像が重なったことを検知してから、重なった状態が所定時間継続したときに、操作部50の操作が行われたと判定してもよい。そのようにすれば、図9のように3つのボタンの中から選択する場合に、指示物60の移動中に重なった場合には操作を受け付けず、指示物60が選択するボタンの上で止まったときに操作を受け付けることができる。
他の例として、操作部50の画像に指示物60の映像が重なったことを検知した後、指示物60の動きを監視し、操作部50の上で所定回数タップ(例えば、軽く指でダブルタッチ)するなどの動作が検出されたときに、操作部50の操作が行われたと判定してもよい。
本実施形態の画像処理装置100によれば、制御部104により操作ボタンやアイコンなどのGUIの部品がハーフミラー10に映った操作者40の映像42の特定部位の位置にハーフミラー10の背面に設置されたディスプレイ20に表示されるので、ハーフミラー10に映った操作者40の映像42の特定部位に操作部50の画像が重畳表示されて見える。そのため、操作者40は、自分の身体などの特定部位に表示されている操作部50を指示物60である指などで指し示すことで、操作入力できるので、操作性がよい。
ジェスチャによる空間操作は、ジェスチャの種類に限りがあるため関連付けることができる処理も制限される。また、処理に関連するジェスチャを複数覚えなければならず、覚え切れない場合もある。子供や高齢者には難しく正確なジェスチャができずに誤操作となる可能性もある。操作を行うためのスペースが必要となり、ハーフミラー10の設置に制限が加わってしまう。また、ジェスチャをシステム側で認識するまでに何度もジェスチャを繰り返さなければならない労力もかかる場合もある。
本実施形態では、操作部50は、操作ボタンやアイコンなどのGUIとすることができるので、GUIに何の操作なのかを合わせて表示することができるので、ジェスチャを覚える必要がない。操作部50のGUIの種類も豊富であり、処理内容に合ったものを適切に選ぶことができる。さらに、複数の操作を順番に受け付けることで、意図する操作の種類をさらに増やすことができる。また、スライダー型のGUIを腕に表示させた場合には、自分の腕の上をなぞるため、操作しやすい。例えば、スライダー型のGUIは、音量の制御、表示画面のページめくり、画像の拡大縮小操作などの操作に適用できる。さらに、操作を行うために特別に必要となるスペースも不要である。また、操作部50に対する操作の認識はジェスチャの認識に比較して格段に容易であるので、システム側の認識処理の負荷も大幅に軽減されるとともに、ユーザも何度もジェスチャを繰り返す必要がない。
(第2実施形態)
図10は、本発明の実施の形態に係る画像処理装置100の論理的な構成例を示す機能ブロック図である。本実施形態の画像処理装置100は、操作部50を操作者の属性や個人を特定して属性や個人に応じた操作部50の画像を表示させたり表示位置を変更したりする構成を有する点以外は上記実施形態と同じである。
本実施形態の画像処理装置100は、図2の構成に加え、さらに、特定部108を備えている。
特定部108は、ハーフミラー10を撮影した画像を処理することによって人物の属性を特定する。制御部104は、属性に応じた操作部50の画像を表示させる、または属性に応じて表示位置を変えて操作部50の画像をディスプレイ20に表示させる。
あるいは、特定部108は、ハーフミラー10を撮影した画像を処理することによってハーフミラー10に映る個人を特定してもよい。制御部104は、特定された個人に応じた操作部50の画像を表示させる、または特定された個人に応じて表示位置を変えて操作部50の画像をディスプレイ20に表示させる。
特定部108による、人物の属性の特定と個人の特定は、少なくともいずれか一方を特定してもよい。
人物の属性を特定した場合、制御部104は、映った操作者の属性(性別、年齢、職業など)から、操作部50のボタンやアイコンの表示順番、表示場所、画像、文字を変える。
特定部108は、属性分析をAIなどの機械学習手段で判別してもよい。特に、ハーフミラー10を、操作者が特定できない場所(不特定の人物が使用する場所)に設置する場合、操作者のタッチ操作の煩雑さを軽減する。例えば、特定部108が操作者の属性が子供であると特定した場合、操作部50をより簡単なものに変更したり、表示位置を腕以外に顔や胴体など選んで表示してお遊戯感覚で操作できてもよい。
個人を特定した場合、制御部104は、ハーフミラー10に映った操作者を特定し、操作者に合わせた(パーソナライズした)コマンドを学習して設定し、そのコマンドを表すボタンやアイコンを優先的に表示してもよい。
事前に顔などの特徴情報を取得登録し、操作者が誰であるか顔認識処理により確定にしておく。ハーフミラー10を家庭内に設置する場合、操作者を限定できるため、個人の特定ができる。
さらに、制御部104は、操作者の操作履歴を記憶しておき、よく使用されるコマンドを先に出すなど、ボタンやアイコンのタッチ操作の煩雑さを軽減してもよい。
特定部位が腕の場合、同時に表示できるボタンやアイコンは最大で4~5個である。シーケンス(2、3回タッチ)で操作入力するため、多くのコマンド(最大数十個程度)を選択できる。
本実施形態によれば、特定部108により操作者の属性を特定したり、個人を特定できるので、操作者に特化したパーソナライズ表示を行える。また、煩雑さを低減するため優先表示ができる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
例えば、上記実施形態では、ハーフミラー10の背面にディスプレイ20を設ける構成としたが、さらなる他の実施形態では、カメラ30で直接人物を撮影し、制御部104は、撮影した映像をディスプレイ20に表示させ、撮影画像を画像処理して表示位置を特定して操作部50の画像を撮影画像に合成して重畳させてディスプレイ20に表示させてもよい。処理部106は、カメラ30の撮像画像を画像処理して指示物60の位置を特定し、特定された位置の操作部50に関連する処理を行ってもよい。このさらなる他の実施形態の構成の方が上記した他の実施形態より特定部位のハーフミラー10を基準した相対位置の検出処理が簡易になる。
さらなる他の実施形態では、ハーフミラー10の前面に薄膜の液晶ディスプレイ20を設けてもよい。あるいは、透明または透明度の高いディスプレイ20をハーフミラー10の前面に設けてもよい。さらに、この構成の場合、カメラ30をハーフミラー10の背面に設置し、ハーフミラー10の前に立った操作者をハーフミラー10越しに正面から撮影してもよい。この場合、ハーフミラー10の裏側はハーフミラー10の前側よりも照度を低くするとよい。さらに、ハーフミラー10の操作者に照明を当て、照度をより高くするのが好ましい。
以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
なお、本発明において利用者に関する情報を取得、利用する場合は、これを適法に行うものとする。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. ディスプレイと、ハーフミラーとともに使用される画像処理装置であって、
前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する検出手段と、
当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる制御手段と、
前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する処理手段と、
を備える画像処理装置。
2. 1.に記載の画像処理装置において、
前記制御手段は、前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させる、画像処理装置。
3. 1.または2.に記載の画像処理装置において、
前記指示物は、人体のうち前記特定部位以外のパーツである、画像処理装置。
4. 3.に記載の画像処理装置において、
前記指示物は手である、画像処理装置。
5. 1.から4.のいずれか一つに記載の画像処理装置において、
前記処理手段は、前記操作部の画像と前記指示物の映像が重なったことを検知すると、前記処理を実行する、画像処理装置。
6. 1.から5.のいずれか一つに記載の画像処理装置において、
前記検出手段は、
前記ハーフミラーを撮影した画像を処理することによって前記相対位置を検出する、画像処理装置。
7. 2.、および2.を引用する3.から6.のいずれか一つに記載の画像処理装置において、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定する特定手段を備え、
前記制御手段は、前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理装置。
8. 2.、および2.を引用する3.から7.のいずれか一つに記載の画像処理装置において、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る個人を特定する特定手段を備え、
前記制御手段は、特定された前記個人に応じた前記操作部の画像を表示させる、または特定された前記個人に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理装置。
9. 2.、および2.を引用する3.から8.のいずれか一つに記載の画像処理装置において、
前記制御手段は、前記操作部の画像と前記指示物が重なったことが検知されると、当該操作部に対応する音声を出力させる、または前記操作部に関する表示の少なくとも一部を変更して表示させる、画像処理装置。
10. ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させるハーフミラーと、
前記ハーフミラーを撮影して画像を生成するカメラと、
前記カメラが生成した前記画像を処理する画像処理装置と、を備え、
前記画像処理装置は、
前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する検出手段と、
当該特定部位の相対位置に基づいて、操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる制御手段と、
前記カメラが生成した前記画像に含まれる、前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する処理手段と、
を備える、画像処理システム。
11. 10.に記載の画像処理システムにおいて、
前記画像処理装置の前記制御手段は、前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させる、画像処理システム。
12. 10.または11.に記載の画像処理システムにおいて、
前記指示物は、人体のうち前記特定部位以外のパーツである、画像処理システム。
13. 12.に記載の画像処理システムにおいて、
前記指示物は手である、画像処理システム。
14. 10.から13.のいずれか一つに記載の画像処理システムにおいて、
前記画像処理装置の前記処理手段は、前記操作部の画像と前記指示物の映像が重なったことを検知すると、前記処理を実行する、画像処理システム。
15. 10.から14.のいずれか一つに記載の画像処理システムにおいて、
前記画像処理装置の前記検出手段は、
前記ハーフミラーを撮影した画像を処理することによって前記相対位置を検出する、画像処理システム。
16. 11.、および11.を引用する12.から15.のいずれか一つに記載の画像処理システムにおいて、
前記画像処理装置は。
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定する特定手段を備え、
前記画像処理装置の前記制御手段は、前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理システム。
17. 11.、および11.を引用する12.から16.のいずれか一つに記載の画像処理システムにおいて、
前記画像処理装置は、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る個人を特定する特定手段を備え、
前記画像処理装置の前記制御手段は、特定された前記個人に応じた前記操作部の画像を表示させる、または特定された前記個人に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理システム。
18. 11.、および11.を引用する12.から17.のいずれか一つに記載の画像処理システムにおいて、
前記画像処理装置の前記制御手段は、前記操作部の画像と前記指示物が重なったことが検知されると、当該操作部に対応する音声を出力させる、または前記操作部に関する表示の少なくとも一部を変更して表示させる、画像処理システム。
19. ディスプレイと、ハーフミラーとともに使用される画像処理装置の画像処理方法であって、
前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
前記画像処理装置が、
前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出し、
当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させ、
前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する、画像処理方法。
20. 19.に記載の画像処理方法において、
前記画像処理装置が、
前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させる、画像処理方法。
21. 19.または20.に記載の画像処理方法において、
前記指示物は、人体のうち前記特定部位以外のパーツである、画像処理方法。
22. 21.に記載の画像処理方法において、
前記指示物は手である、画像処理方法。
23. 19.から22.のいずれか一つに記載の画像処理方法において、
前記画像処理装置が、
前記操作部の画像と前記指示物の映像が重なったことを検知すると、前記処理を実行する、画像処理方法。
24. 19.から23.のいずれか一つに記載の画像処理方法において、
前記画像処理装置が、
前記ハーフミラーを撮影した画像を処理することによって前記相対位置を検出する、画像処理方法。
25. 20.、および20.を引用する21.から24.のいずれか一つに記載の画像処理方法において、
前記画像処理装置が、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定し、
し前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理方法。
26. 20.、および20.を引用する21.から25.のいずれか一つに記載の画像処理方法において、
前記画像処理装置が、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る個人を特定し、
特定された前記個人に応じた前記操作部の画像を表示させる、または特定された前記個人に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理方法。
27. 20.、および20.を引用する21.から26.のいずれか一つに記載の画像処理方法において、
前記画像処理装置が、
前記操作部の画像と前記指示物が重なったことが検知されると、当該操作部に対応する音声を出力させる、または前記操作部に関する表示の少なくとも一部を変更して表示させる、画像処理方法。
28. ディスプレイと、ハーフミラーとともに使用される画像処理装置を実現するコンピュータを実現させるためのプログラムであって、
前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
コンピュータに、
前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する手順、
当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる手順、
前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する手順、を実行させるためのプログラム。
29. 28.に記載のプログラムにおいて、
前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させる手順をコンピュータに実行させるためのプログラム。
30. 28.または29.に記載のプログラムにおいて、
前記指示物は、人体のうち前記特定部位以外のパーツである、プログラム。
31. 30.に記載のプログラムにおいて、
前記指示物は手である、プログラム。
32. 28.から31.のいずれか一つに記載のプログラムにおいて、
前記操作部の画像と前記指示物の映像が重なったことを検知すると、前記処理を実行する手順をコンピュータに実行させるためのプログラム。
33. 28.から32.のいずれか一つに記載のプログラムにおいて、
前記ハーフミラーを撮影した画像を処理することによって前記相対位置を検出する手順をコンピュータに実行させるためのプログラム。
34. 29.、および29.を引用する30.から33.のいずれか一つに記載のプログラムにおいて、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定する手順、
前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる手順をコンピュータに実行させるためのプログラム。
35. 29.、および29.を引用する30.から34.のいずれか一つに記載のプログラムにおいて、
前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る個人を特定する手順、
特定された前記個人に応じた前記操作部の画像を表示させる手順、または特定された前記個人に応じて前記表示位置を変えて前記操作部の画像を表示させる手順をコンピュータに実行させるためのプログラム。
36. 29.、および29.を引用する30.から35.のいずれか一つに記載のプログラムにおいて、
前記操作部の画像と前記指示物が重なったことが検知されると、当該操作部に対応する音声を出力させる、または前記操作部に関する表示の少なくとも一部を変更して表示させる手順をコンピュータに実行させるためのプログラム。
1 画像処理システム
3 通信ネットワーク
10 ハーフミラー
20 ディスプレイ
30、30a、30b カメラ
40 操作者
42 映像
50 操作部
60 指示物
100 画像処理装置
102 検出部
104 制御部
106 処理部
108 特定部
110 記憶装置
1000 コンピュータ
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース

Claims (7)

  1. ディスプレイと、ハーフミラーとともに使用される画像処理装置であって、
    前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
    前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する検出手段と、
    当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる制御手段と、
    前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する処理手段と、
    前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定する特定手段と、
    を備え、
    前記制御手段は、
    前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させ、かつ、
    前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理装置。
  2. ディスプレイと、ハーフミラーとともに使用される画像処理装置であって、
    前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
    前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する検出手段と、
    当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる制御手段と、
    前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する処理手段と、
    前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る個人を特定する特定手段と、
    を備え、
    前記制御手段は、
    前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させ、かつ、
    特定された前記個人に応じた前記操作部の画像を表示させる、または特定された前記個人に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記処理手段は、前記操作部の画像と前記指示物との相対位置に基づく複数の操作に応じて、当該操作部に関連付けられた処理を実行する、画像処理装置。
  4. 請求項1からのいずれか一項に記載の画像処理装置において、
    前記検出手段は、
    前記ハーフミラーを撮影した画像を処理することによって前記相対位置を検出する、画像処理装置。
  5. 請求項1からのいずれか一項に記載の画像処理装置において、
    前記制御手段は、前記操作部の画像と前記指示物が重なったことが検知されると、当該操作部に対応する音声を出力させる、または前記操作部に関する表示の少なくとも一部を変更して表示させる、画像処理装置。
  6. ディスプレイと、ハーフミラーとともに使用される画像処理装置の画像処理方法であって、
    前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
    前記画像処理装置が、
    前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出し、
    当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させ、
    前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行し、
    前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定し、
    前記操作部の画像を表示される際、前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させ、かつ、
    前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、画像処理方法。
  7. ディスプレイと、ハーフミラーとともに使用される画像処理装置を実現するコンピュータを実現させるためのプログラムであって、
    前記ハーフミラーは、前記ディスプレイを背面に有し、当該ディスプレイに表示される画像を透過させ、
    コンピュータに、
    前記ハーフミラーに映る特定部位の、前記ハーフミラーを基準とした相対位置を検出する手順、
    当該特定部位の相対位置に基づいて、前記ディスプレイにおける操作部の画像の表示位置を決定して前記ディスプレイに前記操作部の画像を表示させる手順、
    前記ハーフミラーを透過した前記操作部の画像と、前記ハーフミラーに映った指示物の相対位置に基づいて、当該操作部に関連付けられた処理を実行する手順、
    前記ハーフミラーを撮影した画像を処理することによって前記ハーフミラーに映る人物の属性を特定する手順、を実行させ、
    前記操作部の画像を表示させる手順において、前記ハーフミラーに映る前記特定部位に重なる位置に前記操作部の画像を前記ディスプレイに表示させ、かつ、
    前記属性に応じた前記操作部の画像を表示させる、または前記属性に応じて前記表示位置を変えて前記操作部の画像を表示させる、ためのプログラム。
JP2019217217A 2019-11-29 2019-11-29 画像処理装置、画像処理方法、およびプログラム Active JP7427937B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019217217A JP7427937B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019217217A JP7427937B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021086548A JP2021086548A (ja) 2021-06-03
JP7427937B2 true JP7427937B2 (ja) 2024-02-06

Family

ID=76087909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019217217A Active JP7427937B2 (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7427937B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266510A (ja) 2009-05-12 2010-11-25 Panasonic Electric Works Co Ltd ミラーシステム
US20190041902A1 (en) 2016-02-03 2019-02-07 Lg Electronics Inc. Mirror type display device and method for controlling same
WO2019142621A1 (ja) 2018-01-18 2019-07-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2859392B2 (ja) * 1990-07-20 1999-02-17 日本電信電話株式会社 視線一致型の人物映像撮影装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266510A (ja) 2009-05-12 2010-11-25 Panasonic Electric Works Co Ltd ミラーシステム
US20190041902A1 (en) 2016-02-03 2019-02-07 Lg Electronics Inc. Mirror type display device and method for controlling same
WO2019142621A1 (ja) 2018-01-18 2019-07-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2021086548A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
KR101844390B1 (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
CN104956292B (zh) 多个感知感测输入的交互
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
CN105992988A (zh) 用于检测第一对象与第二对象之间的触摸的方法和设备
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
CN108027656B (zh) 输入设备、输入方法和程序
JP2015095164A (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
CN108292448A (zh) 信息处理装置、信息处理方法和程序
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6381361B2 (ja) データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
CN110968190B (zh) 用于触摸检测的imu
CN108027655A (zh) 信息处理系统、信息处理设备、控制方法和程序
JP2017117373A (ja) 操作装置とその制御方法、及びプログラム
US10444831B2 (en) User-input apparatus, method and program for user-input
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP2018112894A (ja) システムおよび制御方法
JPWO2018150569A1 (ja) ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
JP5863984B2 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP7427937B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP6161244B2 (ja) 携帯端末装置、プログラムおよび入力方法
JP6618301B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240108

R151 Written notification of patent or utility model registration

Ref document number: 7427937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151