JP2014140097A - 画像表示装置及び画像表示方法 - Google Patents

画像表示装置及び画像表示方法 Download PDF

Info

Publication number
JP2014140097A
JP2014140097A JP2013008050A JP2013008050A JP2014140097A JP 2014140097 A JP2014140097 A JP 2014140097A JP 2013008050 A JP2013008050 A JP 2013008050A JP 2013008050 A JP2013008050 A JP 2013008050A JP 2014140097 A JP2014140097 A JP 2014140097A
Authority
JP
Japan
Prior art keywords
image
unit
image display
palm
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013008050A
Other languages
English (en)
Inventor
Motoyuki Takai
基行 高井
Yoichiro Sako
曜一郎 佐古
Masatoshi Takeda
正資 武田
Yasushi Miyajima
靖 宮島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013008050A priority Critical patent/JP2014140097A/ja
Priority to US14/151,128 priority patent/US20140204191A1/en
Priority to CN201410014343.3A priority patent/CN103942019A/zh
Publication of JP2014140097A publication Critical patent/JP2014140097A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザーの身体上の特定の部位など、ユーザーの視界内の対象に対して推定又は診断された結果を視覚的に表示する。
【解決手段】画像表示装置100(並びに300)は、ユーザーの視線方向の画像を外側カメラ512で撮影すると、その撮影画像に含まれる対象(例えば、ユーザーの手のひらや顔など、人の身体上の特定の部位)を画像解析することによって行なわれた推定又は診断の結果を、ユーザーが眺める現実世界の風景に重ね合わせてシースルー表示(ビデオ・シースルー表示を含む)することで、ユーザーに対象の推定又は診断結果を分かり易く提示するようにしている。
【選択図】 図10

Description

本明細書で開示する技術は、ユーザーの頭部又は顔部に装着して用いられる画像表示装置及び画像表示方法に係り、例えばユーザーの視界内の対象に対して推定又は診断された結果を表示する画像表示装置及び画像表示方法に関する。
人の顔や耳、手、爪など、目に見えるパーツの形状や大小、色(生体情報)に基づいてその人の性格や運勢を推定若しくは診断する「占い」は、古くから親しまれている。例えば手相学は、手のひらに形成された生命線や、運命線、知能線、感情線、結婚線といった複数の種別の手相線に浮き出てくるとされる性格や運勢を占うことができるとして、人気がある。
手相線自体は、素人でも目視により容易に抽出できる、視覚的な生体情報である。数多ある占いの中でも、手相占いの人気は高い。しかしながら、手相線の種別毎に意味する性格や運勢を持つとともに、2以上の手相線を関連付けて判断しなければならないなど、情報量が多いため、素人にとって手相を診断することが困難な場合もある。
例えば、カメラ付き携帯端末からネットワークを介して送信されてくる手相の画像を受信し、受信した手相の画像から手相線データを抽出し、この抽出された手相線データに基づいて、占い結果を示す占いデータを取得し、カメラ付き携帯電話に送信する手相占いシステムについて提案がなされている(例えば、特許文献1を参照のこと)。この手相占いシステムは、コンピューターが使用できない環境で手相占いを提供するものである。
しかしながら、手相線データに関連付けられた占いデータが単に携帯端末に返されるだけである。このため、ユーザーは、自分が持つ複数の手相線のうちどれが占いデータの根拠になっているのかを、(時分の視界の中にある手のひらの上で)視認することはできない。
また、手相画像中の手相線など、目標特徴線を正確に特定する目標特徴線特定装置について提案がなされている(例えば、特許文献2を参照のこと)。例えば、情報出力装置は、この目標特徴線特定装置が特定した目標特徴線データを、データベースから取得された複数の掌線データと比較して、目標特徴線に最も近い掌線を示す掌線データを特定し、特定された掌線データに対応付けられた手相占いデータを出力することにより、手相占いを行なうことができる。
しかしながら、情報出力装置から出力される手相占いデータは、掌線の種類、形、長さ、及び位置関係等に基づき、事前に手相占い師などにより判断された人の運勢(結婚運、恋愛運、仕事運、金銭運など)や才能資質、健康状態の良否などの内容を規定したテキスト形式のデータである。すなわち、ユーザーは、自分が持つ複数の手相線のうちどれが手相占いデータの根拠になっているのかを、(自分の視界の中にある手のひらの上で)視認することはできない。
付言すれば、左右の手毎に手相の持つ意味が異なるという説がある(例えば、利き手側の手相は後天的若しくはその人の未来を浮き出し、他方の手相は先天的若しくはその人の過去を浮き出すという説がある)。このため、手相占いは、好ましくは両手を見る必要がある。カメラ付き携帯端末で手相の画像を撮影することを前提とするシステムでは、ユーザーはカメラを持ちかえながら左右それぞれの手について画像の撮影及び送信操作を行なわなければならず、2度手間である。
本明細書で開示する技術の目的は、ユーザーの視界内の対象に対して推定又は診断された結果を好適に表示することができる、優れた画像表示装置及び画像表示方法を提供することにある。
本明細書で開示する技術のさらなる目的は、例えば人の身体上の特定の部位の画像に基づいて推定又は診断された結果を視覚的に表示することができる、画像表示装置及び画像表示方法を提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
画像を表示する画像表示部と、
画像を入力する画像入力部と、
前記画像入力部に入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定部と、
前記判定部による前記判定結果に基づいて前記画像表示部を制御する制御部と、
を具備する、頭部又は顔部に装着型の画像表示装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の画像表示装置は、カメラをさらに備えている。そして、前記画像入力部は、前記カメラで撮影した画像を入力するように構成されている。
本願の請求項3に記載の技術によれば、請求項2に記載の画像表示装置の前記カメラは、ユーザーの視線方向又はユーザーの身体の少なくとも一部を撮影するように構成されている。
本願の請求項4に記載の技術によれば、請求項1に記載の画像表示装置は、画像を記憶する記憶部をさらに備えている。そして、前記画像入力部は、前記記憶部から読み出した画像を入力するように構成されている。
本願の請求項5に記載の技術によれば、請求項1に記載の画像表示装置は、外部装置と通信する通信部をさらに備えている。そして、前記画像入力部は、前記通信部を介して外部装置から取得した画像を入力するように構成されている。
本願の請求項6に記載の技術によれば、請求項1に記載の画像表示装置の前記画像表示部は、前記画像をシースルーで表示し、前記画像入力部は、ユーザーの視線方向をカメラで撮影した撮影画像を入力し、前記判定部は、前記撮影画像中の特定の部位を判定し、前記制御部は、前記ユーザーの視界上の前記特定の部位に重なり合うように、前記判定結果を前記画像表示部に表示させるように構成されている。
本願の請求項7に記載の技術によれば、請求項1に記載の画像表示装置の前記画像表示部はユーザーの視線方向をカメラで撮影した撮影画像を表示するとともに、前記画像入力部は前記撮影画像を入力し、前記判定部は、前記撮影画像中の特定の部位を判定し、前記制御部は、前記判定結果を前記撮影画像中の前記特定の部位に重ね合わせて表示させるように構成されている。
本願の請求項8に記載の技術によれば、請求項1に記載の画像表示装置は、前記判定部による判定結果、又は、前記判定結果に基づいて制御された画像を記憶する記憶部をさらに備えている。
本願の請求項9に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された画像中の特定の部位の特徴に基づく診断を行ない、前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で前記特定の部位に該当する場所に重ね合わせて表示させるように構成されている。
本願の請求項10に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された画像に含まれる手のひらの手相線に対して手相診断を行ない、前記制御部は、前記手相診断の結果を前記画像表示部が表示する画像中で前記手相線に該当する場所に重ね合わせて表示させるに構成されている。
本願の請求項11に記載の技術によれば、請求項10に記載の画像表示装置の前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、前記判定部は前記特徴量抽出部が抽出した手相線に基づいて手相診断を行なうように構成されている。
本願の請求項12に記載の技術によれば、請求項11に記載の画像表示装置の前記制御部は、前記特徴量抽出部が抽出した手相線を前記画像表示部が表示する画像に重ね合わせて表示させるように構成されている。
本願の請求項13に記載の技術によれば、請求項10に記載の画像表示装置の前記画像入力部は、左右の手のひらを含んだ画像を入力し、前記判定部は、前記の入力された画像から左右の手相を診断するように構成されている。
本願の請求項14に記載の技術によれば、請求項13に記載の画像表示装置の前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、前記制御部は、左右のうち一方の手のひらから抽出した手相線を左右反転して、他方の手のひらの手相線と重ね合わせて表示させるように構成されている。
本願の請求項15に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は前記入力された画像に含まれる手の少なくとも1つの指の付け根の掌丘を診断し、前記制御部は前記診断の結果を前記画像表示部が表示する画像中で前記掌丘に該当する場所に重ね合わせて表示させるように構成されている。
本願の請求項16に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された画像に含まれる手の少なくとも1つの指の長さを診断し、前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で該当する指に重ね合わせて表示させるように構成されている。
本願の請求項17に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された画像に含まれる顔画像に対して顔相診断を行ない、前記制御部は、前記顔相診断の結果を前記画像表示部が表示する画像中で前記顔相診断の根拠となる場所に重ね合わせて表示させるように構成されている。
本願の請求項18に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された画像に含まれる顔画像に対して肌診断を行ない、前記制御部は、前記肌診断の結果を前記画像表示部が表示する画像中で前記肌診断の根拠となる場所に重ね合わせて表示させるように構成されている。
本願の請求項19に記載の技術によれば、請求項6又は7のいずれかに記載の画像表示装置の前記判定部は、前記入力された撮影画像に含まれる人の身体からツボ位置を特定し、前記制御部は、特定した前記ツボ位置を前記画像表示部が表示する画像中の該当する場所に重ね合わせて表示させるように構成されている。
また、本願の請求項6又は7に記載の技術は、頭部又は顔部に装着型の画像表示装置で画像を表示する画像表示方法であって、
画像を入力する画像入力ステップと、
前記画像入力ステップで入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定ステップと、
前記判定ステップによる前記判定結果に基づいて、表示する画像を制御する制御ステップと、
を有する画像表示方法である。
本明細書で開示する技術によれば、ユーザーの視界内の対象に対して推定又は診断された結果を、ユーザーの視界に重ねて表示するので、ユーザーは推定又は診断された結果の根拠を理解し易くなる。
また、本明細書で開示する技術によれば、人の身体上の特定の部位の画像に基づいて推定又は診断された結果を、当該部位を眺める視界に重ねて表示するので、ユーザーは推定又は診断された結果の根拠を理解し易くなる。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、透過性の頭部装着型画像表示装置100を装着したユーザーを正面から眺めた様子を示した図である。 図2は、図1に示した画像表示装置100を装着したユーザーを上方から眺めた様子を示した図である。 図3は、遮光性の頭部装着型画像表示装置300を装着したユーザーを正面から眺めた様子を示した図である。 図4は、図3に示した画像表示装置300を装着したユーザーを上方から眺めた様子を示した図である。 図5は、画像表示装置100の内部構成例を示した図である。 図6は、画像表示装置100が、ユーザーの視界内にある対象に対して推定又は診断された結果を表示するための機能的構成を模式的に示した図である。 図7は、画像表示装置100が、ユーザーの視界内にある対象に対して推定又は診断された結果を表示するための処理手順を示したフローチャートである。 図8は、画像入力部601が入力した手のひらの画像を例示した図である。 図9は、手相線を手のひらに重ね合わせて表示した様子を示した図である。 図10は、手相の診断結果を手相線と対応付けて手のひらに重ねて表示した様子を示した図である。 図11は、画像入力部601がユーザーの左右の手のひらを同時に入力した画像を例示した図である。 図12は、左右の手のひらに各々の手相線を重ね合わせて表示した様子を示した図である。 図13は、左右の手相の診断結果を左右それぞれの手のひらの手相線と対応付けて表示した様子を示した図である。 図14は、左手の手相に左右反転させた右手の手相を重ね合わせて表示した様子を示した図である。 図15は、各指の付け根の掌丘を表す等高線を手のひらに重ね合わせて表示した様子を示した図である。 図16は、掌丘に基づく診断結果を、掌丘を表す等高線と対応付けて、手のひらに重ね合わせて表示した様子を示した図である。 図17は、各指の基準となる長さを表す仮想指を手のひらに重ね合わせて表示した様子を示した図である。 図18は、指の長さに基づく診断結果を手のひらに重ね合わせて表示した様子を示した図である。 図19は、画像入力部601が内側カメラや外側カメラ512を使って入力した、鼻を含む顔画像を例示した図である。 図20は、基準となる大きさ、高さ、形状などからなる仮想鼻の画像を、入力された顔画像に重ね合わせて表示した様子を示した図である。 図21は、鼻全体の大きさや鼻の高さ、鼻の色、鼻先の形状、鼻の穴と縦の溝などによって顔相を診断した結果を顔画像に重ね合わせて表示した様子を示した図である。 図22は、美肌診断した結果を顔画像に重ね合わせて表示した様子を示した図である。 図23は、画像表示装置100を装着したユーザーの視界にある、ユーザー自身の足裏の画像2300を例示した図である。 図24は、足ツボ早見表上の足ツボ位置をユーザーの視界上の足裏に射影変換する様子を示した図である。 図25は、足ツボ位置2501を元の足裏の画像2500と重ね合わせて表示した様子を示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.装置構成
図1には、本明細書で開示する技術の一実施形態に係る画像表示装置100の外観構成を示している。画像表示装置100は、ユーザーが頭部又は顔部に装着して用いられ、左右の眼毎に画像を表示する。図示の画像表示装置100は、透過性すなわちシースルーのタイプであり、画像を表示している間も、ユーザーは、画像越しに現実世界の風景を眺める(すなわち、シースルーする)ことができる。したがって、現実世界の風景に仮想的な表示画像を重ね合わせて見せることができる(例えば、特許文献3を参照のこと)。表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。
画像表示装置100は、ユーザーの視界内の対象に対して推定又は診断された結果を表示するのに利用することができるが、この点の詳細については後述に譲る。
図示の画像表示装置100は、視力矯正用の眼鏡に類似した構造からなる。画像表示装置100本体のユーザーの左右の眼に対向する位置には、透明な導光部などからなる虚像光学部101L、101Rが配設され、各虚像光学部101L、101Rの内側には、ユーザーが観察する画像が表示される。各虚像光学部101L、101Rは、例えば、眼鏡フレーム状の支持体102によって支持されている。
眼鏡フレーム状の支持体102のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ512が設置されている。視差情報を利用して、周囲画像の3次元情報を取得できるように、外側カメラ512を複数台のカメラで構成することがより好ましい。また、支持体102の左右の両端付近にそれぞれマイクロフォン103L、103Rが設置されている。左右ほぼ対称的にマイクロフォン103L、103Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
図2には、ユーザーが装着した状態の画像表示装置100を上方から眺めた様子を示している。図示のように、画像表示装置100の左右両端には、左眼用及び右眼用の画像をそれぞれ表示出力する表示パネル104L、104Rが配設されている。各表示パネル104L、104Rは、液晶ディスプレイ又は有機EL素子などのマイクロ・ディスプレイからなる。表示パネル104L、104Rから出力される左右の表示画像は、虚像光学部101L、101Rによって左右それぞれの眼付近まで導光され、その拡大虚像がユーザーの瞳に結像される。
また、図3には、本明細書で開示する技術の他の実施形態に係る画像表示装置300の外観構成を示している。画像表示装置300は、ユーザーが頭部又は顔部に装着して用いられるが、遮光性であり、頭部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与えることができる。また、シースルーのタイプとは相違し、画像表示装置300を装着したユーザーは現実世界の風景を直接眺めることはできないが、ユーザーの視線方向の風景を撮影する外側カメラ512を装備し、その撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーする)ことができる。勿論、ビデオ・シースルー画像に対し、仮想的な表示画像を重ね合わせて見せることができる。表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。
画像表示装置300も、ユーザーの視界内の対象に対して推定又は診断された結果を表示するのに利用することができるが、この点の詳細については後述に譲る。
図示の画像表示装置300は、帽子形状に類似した構造体であり、装着したユーザーの左右の眼を直接覆うように構成されている。画像表示装置300本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネル(図3では図示しない)が配設されている。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される。
帽子に類似した形状をした画像表示装置300本体前面のほぼ中央には、周囲画像(ユーザーの視界)入力用の外側カメラ512が設置されている。また、画像表示装置300本体の左右の両端付近にそれぞれマイクロフォン303L、303Rが設置されている。左右ほぼ対称的にマイクロフォン303L、303Rを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
図4には、図3に示した画像表示装置300を装着したユーザーを上方から眺めた様子を示している。図示の画像表示装置300は、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネル304L、304Rを持つ。表示パネル304L、304Rは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される。表示パネル304L、304Rの表示画像は、虚像光学部301L、301Rを通過するにより拡大虚像としてユーザーに観察される。また、眼の高さや眼幅にはユーザー毎に個人差があるため、左右の各表示系と装着したユーザーの眼とを位置合わせする必要がある。図4に示す例では、右眼用の表示パネルと左眼用の表示パネルの間に眼幅調整機構305を装備している。
図5には、画像表示装置100の内部構成例を示している。他方の画像表示装置300の内部構成も同様であると理解されたい。以下、各部について説明する。
制御部501は、ROM(Read Only Memory)501AやRAM(Random Access Memory)501Bを備えている。ROM501A内には、制御部501で実行するプログラム・コードや各種データを格納している。制御部501は、RAM501Bへロードしたプログラムを実行することで、画像の表示制御を始め、画像表示装置100全体の動作を統括的にコントロールする。ROM501Aに格納するプログラムやデータとして、画像の表示制御プログラムや、外側カメラ512で撮影した画像(例えば、ユーザーの視線方向を撮影した画像)の画像処理プログラム、インターネット上のサーバー(図示しない)など外部機器との通信処理プログラム、当該装置110に固有の識別情報などを挙げることができる。外側カメラ512で撮影した画像の画像処理プログラムは、例えば撮影画像の解析及び解析結果の表示制御を行なう。撮影画像の解析には、手のひら撮影時における手相診断、顔撮影時における顔相診断などの身体的特徴に基づく診断又は占いや、顔画像に基づく美肌診断、室内撮影時における風水その他のレイアウト診断など、ユーザーの視界内の対象に対する推定又は診断処理を含む。また、画像処理プログラムは、解析結果をユーザーの視界に重畳して表示制御する(シースルー及びビデオ・シースルーを含む)。画像処理の詳細については後述に譲る。
入力操作部502は、キーやボタン、スイッチなど、ユーザーが入力操作を行う1以上の操作子を備え、操作子を介したユーザーの指示を受け付けて、制御部501に出力する。また、入力操作部502は、リモコン受信部503で受信したリモコン・コマンドからなるユーザーの指示を同様に受け付けて、制御部501に出力する。
姿勢・位置検出部504は、当該画像処理装置100を装着したユーザーの頭部の姿勢を検出するユニットである。姿勢・位置検出部504は、ジャイロ・センサー、加速度センサー、GPS(Global Positioning System)センサー、地磁気センサーのいずれか1つ、又は、各センサーの長所及び短所を考慮して2以上のセンサーの組み合わせにより構成される。
状態検出部511は、当該画像表示装置100を装着したユーザーの状態に関する状態情報を取得して、制御部501に出力する。状態情報として、例えば、ユーザーの作業状態(画像表示装置100の装着の有無)や、ユーザーの行動状態(静止、歩行、走行などの移動状態、瞼の開閉状態、視線方向)、精神状態(表示画像を観察中に没頭若しくは集中しているかなどの興奮度、覚醒度、感情や情動など)、さらには生理状態を取得する。また、状態検出部511は、これらの状態情報をユーザーから取得するために、機械スイッチなどからなる装着センサーや、ユーザーの顔を撮影する内側カメラ、ジャイロ・センサー、加速度センサー、速度センサー、圧力センサー、体温センサー、発汗センサー、筋電位センサー、眼電位センサー、脳波センサーなどの各種の状態センサー(いずれも図示しない)を備えていてもよい。
外側カメラ512は、例えば眼鏡形状をした画像表示装置100本体前面のほぼ中央に配置され(図1を参照のこと)、周囲画像を撮影することができる。また、状態検出部511で検出したユーザーの視線方向に合わせて外側カメラ512のパン、チルト、ロール方向の姿勢制御を行なうことで、外側カメラ512でユーザーの自分目線の画像すなわちユーザーの視線方向の画像を撮影することができる。外側カメラ512の撮影画像を、表示部509に表示出力することができ、また、記憶部506に格納することもできる。
通信部505は、インターネット上のサーバー(図示しない)など外部機器との通信処理、並びに通信信号の変復調並びに符号化復号処理を行なう。また、制御部501は、外部機器への送信データを通信部505から送出する。通信部505の構成は任意である。例えば、通信相手となる外部機器との送受信動作に使用する通信規格に応じて、通信部505を構成することができる。通信規格は、有線、無線のいずれの形態であってもよい。ここで言う通信規格として、MHL(Mobile High−definition Link)やUSB(Universal Serial Bus)、HDMI(High Definition Multimedia Interface)、Wi−Fi(登録商標)、Bluetooth(登録商標)通信、赤外線通信などを挙げることができる。
記憶部506は、SSD(Solid State Drive)などからなる大容量記憶装置である。記憶部506は、制御部501で実行するアプリケーション・プログラムや、外側カメラ512(後述)で撮影した画像や通信部505を介してネットワークから取得した画像などのデータを記憶している。また、記憶部506は、外側カメラ512で撮影した画像に対して推定又は診断処理を行なうための、手相や顔相などの身体的特徴に基づく診断又は占い、肌診断、足ツボ位置などに関する診断データベース(後述)を蓄積しておいてもよい。さらに、画像に対して推定又は診断処理を行なって得られた診断結果(診断結果を重ね合わせた画像を含む)を、再利用やその他の目的にために、記憶部506に蓄積しておいてもよい。
画像処理部507は、制御部501から出力される画像信号に対して画質補正などの信号処理をさらに行なうとともに、表示部509の画面に合わせた解像度に変換する。そして、表示駆動部508は、表示部509の画素を行毎に順次選択するとともに線順次走査して、信号処理された画像信号に基づく画素信号を供給する。
表示部509は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイで構成される表示パネルを有する。虚像光学部510は、表示部509の表示画像を拡大投影して、ユーザーには拡大虚像として観察させる。
音声処理部513は、制御部501から出力される音声信号に対して音質補正や音声増幅、入力された音声信号などの信号処理をさらに行なう。そして、音声入出力部514は、音声処理後の音声を外部出力、並びにマイクロフォン(前述)からの音声入力を行なう。
B.画像表示装置を用いた情報提示
ユーザーが頭部や顔部に装着して用いる画像表示装置100は、ユーザーが実際に眺めている現実世界の風景に対して、仮想的な表示画像を重ね合わせるという形態で、ユーザーに情報を提示することができる。例えば、ユーザーの視界に実在するオブジェクトに関連する情報を表す仮想的な画像を、そのオブジェクトに重ね合わせて表示することで、ユーザーは何の情報であるのかを正確に理解することができる。
また、(シースルーでない)没入型の画像表示装置300の場合であっても、外側カメラ512を使ってユーザーの視界にある現実世界の風景を撮影し、そのビデオ・シースルー画像に対して仮想的な画像を重ね合わせて表示することで、上記と同様の情報提示を実現することができる。
他方、手相や顔相などの身体的特徴に基づく診断又は占いを始めとして、ユーザーの身体上の特定の部位から抽出される視覚的な生体情報に基づく推定又は診断処理を、画像解析によって行なう方法は既に知られている。
そこで、本実施形態に係る画像表示装置100(並びに300)は、ユーザーの視線方向の画像を外側カメラ512で撮影すると、その撮影画像に含まれる対象(例えば、ユーザーの手のひらや顔など、人の身体上の特定の部位)を画像解析することによって行なわれた推定又は診断の結果を、ユーザーが眺める現実世界の風景に重ね合わせてシースルー表示(ビデオ・シースルー表示を含む)することで、ユーザーに対し、自分の視界内にある対象の推定又は診断結果を分かり易く提示するようにしている。
図6には、画像表示装置100が、ユーザーの視界内にある対象に対して推定又は診断された結果を、ユーザーの視界に重畳して表示するための機能的構成を模式的に示している。図示の機能的構成は、例えば制御部501が所定のプログラムを実行することで実現される。
画像入力部601は、例えば外側カメラ512の撮影画像や、記憶部506に格納されている過去の撮影画像、さらには通信部505を介して外部から取り込まれる画像(例えば他のユーザーの視線方向の画像や、ネットワーク上で公開されている画像)を入力する。
上述したように、外側カメラ512は、状態検出部511で検出したユーザーの視線方向に合わせて姿勢制御することで、ユーザーの視線方向の画像を撮影する。この場合、画像入力部601には、ユーザーの視線方向のライブ画像が入力される。勿論、記憶部506に格納された、ユーザーの視線方向の過去の撮影画像を、画像入力部601に入力することもできる。
特徴量抽出部602は、画像入力部601に入力された画像から、後段の診断処理に使用する特徴量を抽出する。そして、診断部603は、特徴量抽出部602で抽出された特徴量を、診断データベース604内の診断用特徴量と照合して、診断処理を行なって、その診断結果を生成する。診断部603は、診断結果を後段の合成部604に出力する。また、診断部603は、再利用などの目的で、診断結果を記憶部506に保存するようにしてもよい。
なお、診断部603と診断データベース604の機能(図6中、点線で囲った部分)は、画像表示装置100内に搭載されている必要は必ずしもない。例えば、通信部505を介して接続されるネットワーク上のサーバーなどの外部の計算リソースを使って診断部603及び診断データベース604を構築することもできる。この場合、特徴量抽出部602で入力画像から抽出された特徴量を通信部505でサーバーに送信し、診断結果を通信部505で受け取ることになる。また、特徴量抽出部602も、画像表示装置100内に装備するのではなく外部に設置してもよく、この場合は入力画像そのものを通信部505から送信することになる。
合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成する。そして、仮想画像を表示部509に表示出力して、診断の結果を、入力画像(ユーザーが眺める現実世界の風景)に重ね合わせてシースルー表示(ビデオ・シースルー表示を含む)する。また、診断部603が入力画像に対する診断結果を、音声情報としても出力する場合には、これを音声入出力部514から外部出力する。また、合成部605が合成した画像を、再利用などの目的で、記憶部506に保存するようにしてもよい。
また、図7には、画像表示装置100が、ユーザーの視界内の対象に対して推定又は診断された結果を、ユーザーの視界に重畳して表示するための処理手順をフローチャートの形式で示している。図示の処理手順は、例えば制御部501が所定のプログラムを実行することで実現される。
この処理は、例えば画像表示装置100の電源投入とともに起動し、又は、ユーザーが入力操作部502などを介して起動を指示したことに応答して起動する。
そして、この処理が起動中は、画像入力部601は、外側カメラ512ーが撮影しているライブ画像を入力する(ステップS701)。外側カメラ512は、例えばユーザーの視線方向の画像を撮影している。但し、画像入力部601は、記憶部506に格納されている過去の撮影画像や、通信部505を介して外部から取り込まれる画像を入力するようにしてもよい。処理中の入力画像は、表示部509で表示出力される(ステップS702)。
そして、特徴量抽出部602は、画像入力部601に入力された画像から、後段の診断処理に使用する特徴量を抽出する(ステップS703)。
次いで、診断部603は、特徴量抽出部602で抽出された特徴量を、診断データベース604内の診断用特徴量と照合して、診断処理を行ない、その診断結果を生成する(ステップS704)。得られた診断結果を、再利用などの目的で、記憶部506に保存するようにしてもよい。
次いで、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成する。そして、仮想画像を表示部509に表示出力して、診断の結果を、入力画像(ユーザーが眺める現実世界の風景)に重ね合わせてシースルー表示(ビデオ・シースルー表示を含む)する(ステップS705)。また、診断部603が入力画像に対する診断結果を、音声情報としても出力する場合には、これを音声入出力部514から外部出力する。診断結果を合成した画像並びに音声情報を、再利用などの目的で、記憶部506に保存するようにしてもよい。
その後、ユーザーが入力操作部502などを介して処理の終了を指示したことに応答して終了処理を実施し(ステップS706)、本処理ルーチンを終了する。
終了処理には、ステップS704で得られた診断結果や、ステップS705において合成部605が合成した仮想画像などの情報の記憶部506への保存やサーバーへのアップロード、診断データベース604の更新処理などを含んでいてもよい。
診断部603で行なわれる診断処理は、画像表示装置100を装着したユーザーが自分又は他人の手のひらを眺めたときの手相診断、他人の顔(又は鏡に映った自分の顔)を眺めたときの顔相診断、家屋や建物を観察したときの家相診断などの身体的特徴に基づく診断又は占い、他人の顔(又は鏡に映った自分の顔)を眺めたときの美肌診断、室内を眺めたときの風水占いその他のレイアウト診断など、ユーザーの視界内の対象に対する推定又は診断処理が挙げられる。本実施形態では、診断部603は、外側カメラ512がユーザーの視線方向を撮影した画像など、画像入力部601への入力画像に対して上記の診断を行なう。そして、合成部605は、その診断結果を入力画像に重なり合うように合成して、表示部509で表示出力するようになっている。したがって、ユーザーは、単に診断結果を鵜呑みにするのではなく、診断結果が入力画像のうち具体的にどの部分に基づくのかなど、診断の内容をより具体的且つ正確に理解することができる。
B−1.手相診断
まず、身体的特徴に基づく診断又は占いの一例として、手相診断を行なう場合について説明する。
図8には、画像表示装置100を装着したユーザーの視界にある、ユーザー自身の左手の手のひらの画像800を例示している。画像入力部601は、ユーザーの視界にある手のひらの画像800を、外側カメラ512を使って入力することができる。また、手のひらの画像800は、外側カメラ512で撮影されるリアルタイム画像である必要はなく、記憶部506に一旦保存された過去の撮影画像でもよく、あるいは、通信部505を介してダウンロードした自分又は他人の手のひらの画像であってもよい。
特徴量抽出部602は、入力された手のひらの画像から、手のひらの特徴量として手相線を抽出して、各手相線の情報を診断部603に出力する。また、合成部604は、処理中すなわち手相診断中の表示画像として、手のひらから抽出した各手相線901を、元の手のひらの画像900に重ね合わせて、表示部509に表示出力する(図9を参照のこと)。
さらに、診断部603は、特徴量抽出部602で抽出された各手相線を、診断データベース604内の手相データベースと照合して、手相診断を行なって、その診断結果を生成する。そして、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成して、図10に示すように、元の手のひらの画像1000に重ね合わせて、表示部509に表示出力する。図示の例では、各手相線1001が示す意味を、該当する手相線から出現する吹き出し1002、1003という形態で表示している。したがって、結婚運、恋愛運、仕事運、金銭運など手相占いデータをテキスト形式で表示する場合(例えば、特許文献1、2を参照のこと)と比較して、ユーザーは、診断結果がどの手相線に基づくものかを目視で確認することができるので、ユーザーは診断結果を理解し易くなるとともに、診断結果の説得力が増す。
また、左右の手毎に手相の持つ意味が異なるという説がある(例えば、利き手側の手相は後天的若しくはその人の未来を浮き出し、他方の手相は先天的若しくはその人の過去を浮き出すという説がある)。このため、手相占いは好ましくは両手を見る必要がある。ところが、ユーザーが自分の手のひらをカメラ付携帯端末やディジタルカメラで撮影することを前提とするシステムの場合(例えば、特許文献1、2を参照のこと)、ユーザーはカメラを持ちかえながら左右それぞれの手について撮影を行なわなければならず、2度手間である。
これに対し、本実施形態では、ユーザーの頭部又は顔部に画像表示装置100の外側カメラ512を用いて画像入力を行なうことになる。すなわち、ユーザーの両手が自由な状態で画像入力を行なうことから、図11に示すように、ユーザーの左右の手のひらの画像1100を同時に入力することができるので、手間が省ける。
また、特徴量抽出部602は、左右の手のひらの各々から手相線1201L、1201Rを同時に抽出し、これらをそれぞれ左右の手のひらの画像1200L、1200Rに重ね合わせて、表示部509に表示出力する(図12を参照のこと)。
さらに、診断部603は、特徴量抽出部602で抽出された左右の各手相線1301L、1301Rを、診断データベース604内の手相データベースとそれぞれ照合して手相診断を行ない、各手相線1301L、1301Rが示す意味を、該当する手相線から出現する吹き出し1302〜1305という形態で表示する(図13を参照のこと)。
合成部605は、図14に示すように、特徴量抽出部602がユーザーの左右の手のひらの画像1400L、1400Rから抽出した左右それぞれの手相線1401L、1401Rのうち、右手の手相線1401Rを左右反転させた画像1401R´(同図中、点線で表示)を生成し、これを左手の画像1400L上の手相線1401Lと重ね合わせて表示するようにしてもよい。ユーザーは、図14に示すような画像を通じて、自分の左右の手相が相違することを一目で理解することができ、さらに、左右で類似している手相線や、左右で著しく異なっている手相線を確認することもできる。また、診断された結婚運や、恋愛運、仕事運、金銭運などが、先天的又は後天的いずれに依拠しているかも推測することができる。
また、手相学として、手相線以外に、五指それぞれの付け根の盛り上がり部分、すなわち「掌丘」に基づいて才能資質や性格を診断する方法が知られている。そこで、特徴量抽出部602は、画像入力部601から入力された手のひらの画像から、特徴量として手のひらの凹凸に関する情報を抽出するようにしてもよい。例えば、外側カメラ512が複数のカメラで構成される場合、各カメラの撮影画像から得られる視差情報に基づいて、手のひらの3次元情報を得ることができる。そして、合成部604は、手相診断中の表示画像として、図15に示すように、手のひらの応答を示す等高線1501(同図中、点線で表示)を、入力された手のひら画像1500に重ね合わせて表示するようにしてもよい。
さらに、診断部603は、特徴量抽出部602で抽出された各指の付け根の掌丘を、診断データベース604内の掌丘データベースと照合して、手相診断を行なって、その診断結果を生成する。そして、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成して、図16に示すように、元の手のひらの画像1600に重ね合わせて、表示部509に表示出力する。図示の例では、各指の付け根の掌丘1601が示す意味を、該当する掌丘から出現する吹き出し1602、1603という形態で表示している。ユーザーは、才能資質や性格の診断結果がどの掌丘に基づくものかを目視で確認することができるので、ユーザーは診断結果を理解し易くなるとともに、診断結果の説得力が増す。
また、手相学とはいえないが、手のひらの視覚的情報として、指の長さに基づいて人の才能資質や性格を診断する方法も知られている。このような場合、特徴量抽出部602は、画像入力部601から入力された手のひらの画像から、特徴量として五指すべて又は着目する一部の指について、指の長さの情報を算出する。合成部604は、診断中の表示画像として、図17に示すように、基準となる長さを持つ仮想指の画像1701(同図中、点線で表示)を、入力された手のひら画像1700に重ね合わせて表示するようにしてもよい。診断の際に特に着目すべき指の仮想指の表示を太い点線で表示するようにしてもよい(同図中では、特に着目している人差し指と薬指の仮想指の2本を太い点線で表示している)。
さらに、診断部603は、特徴量抽出部602で抽出された各指の長さを、診断データベース604内の指の長さデータベースと照合して、その人物の才能資質や性格の診断を行なって、その診断結果を生成する。そして、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成して、図18に示すように、元の手のひらの画像1800に重ね合わせて、表示部509に表示出力する。図示の例では、薬指の長さによって診断された結果を、薬指の先端から出現する吹き出し1802という形態で表示している。また、基準となる長さを持つ仮想指の画像1801を実際の手のひら画像1800に重ね合わせて表示し、診断の際に特に着目すべき指の仮想指の表示を太い点線で表示している(同上)。ユーザーは、才能資質や性格の診断結果がどの指の長さに基づくものかを目視で確認することができるので、ユーザーは診断結果を理解し易くなるとともに、診断結果の説得力が増す。
B−2.顔相診断
続いて、身体的特徴に基づく診断又は占いの他の例として、顔相診断を行なう場合について説明する。
画像入力部601は、状態検出部511が持つ内側カメラ(前述)で撮影したユーザーの顔画像や、外側カメラ512が撮影したユーザーの眼の前にいる人物の顔画像を入力する。あるいは、内側カメラや外側カメラ512で過去に撮影した顔画像を記憶部506から取り出したり、通信部505を介して外部のサーバーからダウンロードした顔画像を入力したりするようにしてもよい。
特徴量抽出部602は、入力された顔画像から、診断の対象となる部位の輪郭形状や大きさ、色合いなどの顔特徴量を抽出して、診断部603に出力する。そして、診断部603は、特徴量抽出部602で抽出された顔特徴量を、診断データベース604内の顔相データベースと照会して、顔相診断を行なう。
顔相の診断には、一般的に、顔全体の形や、目、鼻、耳、口、眉毛、顎などの顔パーツの形や大きさを参照する。
例えば鼻を用いた顔相診断では、鼻全体の大きさや鼻の高さ、鼻の色、鼻先の形状、鼻の穴と縦の溝などを用いる。図19には、画像入力部601が内側カメラや外側カメラ512を使って入力した、鼻を含む顔画像を例示している。
顔特徴量抽出部602は、画像入力部601で入力された顔画像から、鼻全体の大きさや鼻の高さ、鼻の色、鼻先の形状、鼻の穴と縦の溝などの顔特徴量を抽出する。合成部604は、診断中の表示画像として、図20に示すように、基準となる大きさ、高さ、形状などからなる仮想鼻の画像2001(同図中、点線で表示)を、入力された顔画像2000に重ね合わせて表示する。
さらに、診断部603は、鼻全体の大きさや鼻の高さ、鼻の色、鼻先の形状、鼻の穴と縦の溝などの各々の顔特徴量を、診断データベース604内の顔相データベースと照合して、金運や家庭運などの運勢や、行動力などの性格を診断する。そして、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成して、図21に示すように、顔画像2100に重ね合わせて、表示部509に表示出力する。図示の例では、鼻全体の大きさや鼻の高さ、鼻の色、鼻先の形状、鼻の穴と縦の溝などによって顔相を診断した結果を、鼻から出現する吹き出し2102という形態で表示している。ユーザーは、顔画像の持ち主の運勢や性格の診断結果がどの顔パーツに基づくものかを目視で確認することができるので、ユーザーは診断結果を理解し易くなるとともに、診断結果の説得力が増す。
B−3.美肌診断
また、顔画像から、顔相以外にも、肌診断を行なうことができる。例えば、顔の部分画像の測定を通してキメ解析、シミ画像、肌色解析、皮脂解析などを行なったり、顔の全体画像の測定を通してシワ・毛穴解析、シミ解析、ポルフィリン解析などを行なったりすることや(例えば、特許文献4を参照のこと)、近赤外カメラを用いて保湿など皮膚の解析を高精度に行なうことが知られている(例えば、特許文献5を参照のこと)。
そこで、特徴量抽出部602は、内側カメラで撮影したユーザー本人の顔、又は、外側カメラ512で撮影した他人の顔などに対して、部分画像の測定を通してキメ解析、シミ画像、肌色解析、皮脂解析などを行ない、あるいは、全体画像の測定を通してシワ・毛穴解析、シミ解析、ポルフィリン解析などを行ない、解析結果を診断部603に出力する。あるいは、特徴量抽出部602は、内側カメラ又は外側カメラ512が撮影した顔画像の近赤外領域を用いて皮膚の解析を行ない、解析結果を診断部603に出力する。診断部603は、特徴量抽出部602で抽出された顔特徴量を、診断データベース604内の美肌データベースと照会して、美肌診断を行ない、顔のうちとりわけ美肌の部分や、逆に肌がひどいダメージを受けている部分を特定することができる。そして、合成部605は、診断部603が生成した診断結果を、画像入力部601の入力画像に重ね合わせた仮想画像を合成して、図22に示すように、顔画像2200に重ね合わせて、表示部509に表示出力する。図示の例では、顔画像2200のうち、ケアが十分なされていて美肌の部分から出現する吹き出し「good」2201や、逆にひどくダメージを受けている部分から出現する吹き出し「bad」2202という形態で、肌診断結果を表示している。顔画像2200全体の解析結果として算出される肌年齢2203を表示するようにしてもよい。ユーザーは、顔画像のどの部分をもっとケアすべきかを目視により容易に確認することができる。また、診断結果の説得力が増し、ユーザーに肌ケアをしようという意欲を喚起することができる。
B−4.ツボ表示
顔の上には、目や眉、鼻、口など複数の顔パーツが存在することから、顔パーツを目標にして、顔内の場所を特定することは比較的容易である。これに対し、足裏表面などは、ほぼ均一な肌が広がっているだけ目標物が存在しないことから、足裏の場所を特定することは難しい。
例えば、足裏には、消化器系や気管支系、脳、関節など、全身のつぼが集まっており、機能が低下した部位に該当するツボをマッサージ又は指圧することで、回復を促すことができる。
ところが、足裏にはあまりにも数多くのツボが存在することから、ツボ位置や、各ツボ位置と効果のある部位との対応関係を覚えることは、専門家ならともかく、一般ユーザーには困難である。また、足ツボ早見表は存在するものの、足裏の形状や縦横比は個人差があるため、足ツボ早見表上のツボ位置を実際の足裏で正確に指し示すのは難しい。勿論、足裏だけでなく、背中など各場所のツボ位置を覚えることは同様に困難である。
そこで、本実施形態では、足裏を眺めるユーザーの視線方向の画像を、外側カメラ512を通じて画像入力部601から取り込むと、診断部603は、機能を改善したい部位に対応するツボ位置を診断により得ると、その診断結果を入力画像に重なり合うように表示部509で表示出力するようになっている。したがって、ユーザーは、ツボ早見表を記憶したり参照したりしなくても、ツボ位置を正確に把握して、的確にマッサージ又は指圧を行なうことができる。
図23には、画像表示装置100を装着したユーザーの視界にある、ユーザー自身の足裏(若しくは、ユーザーが足ツボマッサージしようとしている他人の足裏)の画像2300を例示している。画像入力部601は、ユーザーの視界にある足裏の画像2300を、外側カメラ512を使って入力することができる。
ここで、ユーザーは例えば音声入力や入力操作部502への操作を通じて、どの部位(例えば「胃」)に対応する足ツボを探しているのかを入力する。
特徴量抽出部602は、入力画像2300から、特徴量として足裏2301の輪郭を抽出して、診断部603に出力する。ここで抽出された足裏2301の輪郭の大きさや形状、縦横比は個人差がある。
一方、診断データベース604には、正規化された形状を持つ足裏上に各つぼの位置を示した足ツボ早見表(図示しない)が格納されている。
診断部603は、診断データベース604内の足ツボ早見表2400を参照して、ユーザーが指定した部位(例えば「胃」)に対応する足ツボ位置2401を見つけ出すと、その場所を、特徴量抽出部602が抽出した(ユーザーの視界上の)足裏2402の輪郭上に射影変換する(図24を参照のこと)。
そして、合成部604は、診断結果として得られた足ツボ位置2501を、元の足裏の画像2500と重ね合わせて、表示部509に表示出力する(図25を参照のこと)。したがって、ユーザーは、ツボ早見表を記憶したり参照したりしなくても、ツボ位置を正確に把握して、的確にマッサージ又は指圧を行なうことができる。
なお、図23〜図25には足裏のツボのみを取り上げたが、手のひらのツボ、肩のツボ、背中のツボ、腰のツボなど、他の部位についても同様に、本明細書で開示する技術を適用することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
ユーザーが頭部又は顔部に装着して用いる画像表示装置は、透過性のタイプと遮光性のタイプに分類することができるが、本明細書で開示する技術はこれらのいずれのタイプにも適用することができる。また、この種の画像表示装置は、左右両方の眼に表示部を備えた両眼タイプと、左右いずれか一方にのみ表示部を備えた単眼タイプに分類することができるが、本明細書で開示する技術はこれらのいずれのタイプにも適用することができる。勿論、ユーザーの頭部や顔部に装着しないタイプの画像表示装置に対して本明細書で開示する技術を適用しても、同様に、例えば手相占いや顔相占いといった身体的特徴に基づく診断又は占いの結果をユーザーに分かり易く表示することができるようになる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)画像を表示する画像表示部と、
画像を入力する画像入力部と、
前記画像入力部に入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定部と、
前記判定部による前記判定結果に基づいて前記画像表示部を制御する制御部と、
を具備する、頭部又は顔部に装着型の画像表示装置。
(2)カメラをさらに備え、
前記画像入力部は、前記カメラで撮影した画像を入力する、
上記(1)に記載の画像表示装置。
(3)前記カメラは、ユーザーの視線方向又はユーザーの身体の少なくとも一部を撮影する、
上記(2)に記載の画像表示装置。
(4)画像を記憶する記憶部をさらに備え、
前記画像入力部は、前記記憶部から読み出した画像を入力する、
上記(1)に記載の画像表示装置。
(5)外部装置と通信する通信部をさらに備え、
前記画像入力部は、前記通信部を介して外部装置から取得した画像を入力する、
上記(1)に記載の画像表示装置。
(6)前記制御部は、前記判定結果を示す画像を前記画像表示部が表示する画像の該当する場所に重ね合わせて表示させる、
上記(1)に記載の画像表示装置。
(7)前記画像入力部は、前記画像表示部が表示する画像を入力し、
前記判定部は、前記入力画像中の特定の部位を判定し、
前記制御部は、前記判定結果を前記画像表示部が表示する画像中で前記特定の部位に該当する場所に重ね合わせて表示させる、
上記(1)に記載の画像表示装置。
(8)前記画像表示部は、前記画像をシースルーで表示し、
前記画像入力部は、ユーザーの視線方向をカメラで撮影した撮影画像を入力し、
前記判定部は、前記撮影画像中の特定の部位を判定し、
前記制御部は、前記ユーザーの視界上の前記特定の部位に重なり合うように、前記判定結果を前記画像表示部に表示させる、
上記(1)に記載の画像表示装置。
(9)前記画像表示部はユーザーの視線方向をカメラで撮影した撮影画像を表示するとともに、前記画像入力部は前記撮影画像を入力し、
前記判定部は、前記撮影画像中の特定の部位を判定し、
前記制御部は、前記判定結果を前記撮影画像中の前記特定の部位に重ね合わせて表示させる、
上記(1)に記載の画像表示装置。
(10)前記判定部による判定結果、又は、前記判定結果に基づいて制御された画像を記憶する記憶部をさらに備える、
上記(1)に記載の画像表示装置。
(11)前記判定部は、前記入力された画像中の特定の部位の特徴に基づく診断を行ない、
前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で前記特定の部位に該当する場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(12)前記判定部は、前記入力された画像に含まれる手のひらの手相線に対して手相診断を行ない、
前記制御部は、前記手相診断の結果を前記画像表示部が表示する画像中で前記手相線に該当する場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(13)前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、
前記判定部は、前記特徴量抽出部が抽出した手相線に基づいて手相診断を行なう、
上記(12)に記載の画像表示装置。
(14)前記制御部は、前記特徴量抽出部が抽出した手相線を前記画像表示部が表示する画像に重ね合わせて表示させる、
上記(13)に記載の画像表示装置。
(15)前記画像入力部は、左右の手のひらを含んだ画像を入力し、
前記判定部は、前記の入力された画像から左右の手相を診断する、
上記(12)に記載の画像表示装置。
(16)前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、
前記制御部は、左右のうち一方の手のひらから抽出した手相線を左右反転して、他方の手のひらの手相線と重ね合わせて表示させる、
上記(15)に記載の画像表示装置。
(17)前記判定部は、前記入力された画像に含まれる手の少なくとも1つの指の付け根の掌丘を診断し、
前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で前記掌丘に該当する場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(18)前記判定部は、前記入力された画像に含まれる手の少なくとも1つの指の長さを診断し、
前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で該当する指に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(19)前記判定部は、前記入力された画像に含まれる顔画像に対して顔相診断を行ない、
前記制御部は、前記顔相診断の結果を前記画像表示部が表示する画像中で前記顔相診断の根拠となる場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(20)前記判定部は、前記入力された画像に含まれる顔画像に対して肌診断を行ない、
前記制御部は、前記肌診断の結果を前記画像表示部が表示する画像中で前記肌診断の根拠となる場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(21) 前記判定部は、前記入力された撮影画像に含まれる人の身体からツボ位置を特定し、
前記制御部は、特定した前記ツボ位置を前記画像表示部が表示する画像中の該当する場所に重ね合わせて表示させる、
上記(6)乃至(9)のいずれかに記載の画像表示装置。
(22)頭部又は顔部に装着型の画像表示装置で画像を表示する画像表示方法であって、
画像を入力する画像入力ステップと、
前記画像入力ステップで入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定ステップと、
前記判定ステップによる前記判定結果に基づいて、表示する画像を制御する制御ステップと、
を有する画像表示方法。
(23)頭部又は顔部に装着型の画像表示装置で画像を表示するための処理をコンピューター上で実行するようにコンピューター可読形式で記述されたコンピューター・プログラムであって、前記コンピューターを、
画像を入力する画像入力部、
前記画像入力部に入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定部、
前記判定部による前記判定結果に基づいて、表示する画像を制御する制御部、
として機能させるためのコンピューター・プログラム。
特開2007−183号公報 特開2010−123020号公報 特開2011−2753号公報 特開2007−130104号公報 特開2011−206513号公報
100…画像表示装置(透過型)
101L、101R…虚像光学部、102…支持体
103L、103R…マイクロフォン、104L、104R…表示パネル
300…画像表示装置(没入型)
301L、301R…虚像光学部
303L、303R…マイクロフォン、304L、304R…表示パネル
305…眼幅調整機構
501…制御部、501A…ROM、501B…RAM
502…入力操作部、503…リモコン受信部
504…姿勢・位置検出部、505…通信部、506…記憶部
507…画像処理部、508…表示駆動部
509…表示部、510…虚像光学部
511…状態検出部、512…外側カメラ
513…音声処理部、514…音声入出力部
601…画像入力部、602…特徴量抽出部
603…診断部、604…診断データベース
605…合成部

Claims (20)

  1. 画像を表示する画像表示部と、
    画像を入力する画像入力部と、
    前記画像入力部に入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定部と、
    前記判定部による前記判定結果に基づいて前記画像表示部を制御する制御部と、
    を具備する、頭部又は顔部に装着型の画像表示装置。
  2. カメラをさらに備え、
    前記画像入力部は、前記カメラで撮影した画像を入力する、
    請求項1に記載の画像表示装置。
  3. 前記カメラは、ユーザーの視線方向又はユーザーの身体の少なくとも一部を撮影する、
    請求項2に記載の画像表示装置。
  4. 画像を記憶する記憶部をさらに備え、
    前記画像入力部は、前記記憶部から読み出した画像を入力する、
    請求項1に記載の画像表示装置。
  5. 外部装置と通信する通信部をさらに備え、
    前記画像入力部は、前記通信部を介して外部装置から取得した画像を入力する、
    請求項1に記載の画像表示装置。
  6. 前記画像表示部は、前記画像をシースルーで表示し、
    前記画像入力部は、ユーザーの視線方向をカメラで撮影した撮影画像を入力し、
    前記判定部は、前記撮影画像中の特定の部位を判定し、
    前記制御部は、前記ユーザーの視界上の前記特定の部位に重なり合うように、前記判定結果を前記画像表示部に表示させる、
    請求項1に記載の画像表示装置。
  7. 前記画像表示部はユーザーの視線方向をカメラで撮影した撮影画像を表示するとともに、前記画像入力部は前記撮影画像を入力し、
    前記判定部は、前記撮影画像中の特定の部位を判定し、
    前記制御部は、前記判定結果を前記撮影画像中の前記特定の部位に重ね合わせて表示させる、
    請求項1に記載の画像表示装置。
  8. 前記判定部による判定結果、又は、前記判定結果に基づいて制御された画像を記憶する記憶部をさらに備える、
    請求項1に記載の画像表示装置。
  9. 前記判定部は、前記入力された画像中の特定の部位の特徴に基づく診断を行ない、
    前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で前記特定の部位に該当する場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  10. 前記判定部は、前記入力された画像に含まれる手のひらの手相線に対して手相診断を行ない、
    前記制御部は、前記手相診断の結果を前記画像表示部が表示する画像中で前記手相線に該当する場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  11. 前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、
    前記判定部は、前記特徴量抽出部が抽出した手相線に基づいて手相診断を行なう、
    請求項10に記載の画像表示装置。
  12. 前記制御部は、前記特徴量抽出部が抽出した手相線を前記画像表示部が表示する画像に重ね合わせて表示させる、
    請求項11に記載の画像表示装置。
  13. 前記画像入力部は、左右の手のひらを含んだ画像を入力し、
    前記判定部は、前記の入力された画像から左右の手相を診断する、
    請求項10に記載の画像表示装置。
  14. 前記入力された画像に含まれる手のひらから手相線を抽出する特徴量抽出部をさらに備え、
    前記制御部は、左右のうち一方の手のひらから抽出した手相線を左右反転して、他方の手のひらの手相線と重ね合わせて表示させる、
    請求項13に記載の画像表示装置。
  15. 前記判定部は、前記入力された画像に含まれる手の少なくとも1つの指の付け根の掌丘を診断し、
    前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で前記掌丘に該当する場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  16. 前記判定部は、前記入力された画像に含まれる手の少なくとも1つの指の長さを診断し、
    前記制御部は、前記診断の結果を前記画像表示部が表示する画像中で該当する指に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  17. 前記判定部は、前記入力された画像に含まれる顔画像に対して顔相診断を行ない、
    前記制御部は、前記顔相診断の結果を前記画像表示部が表示する画像中で前記顔相診断の根拠となる場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  18. 前記判定部は、前記入力された画像に含まれる顔画像に対して肌診断を行ない、
    前記制御部は、前記肌診断の結果を前記画像表示部が表示する画像中で前記肌診断の根拠となる場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  19. 前記判定部は、前記入力された撮影画像に含まれる人の身体からツボ位置を特定し、
    前記制御部は、特定した前記ツボ位置を前記画像表示部が表示する画像中の該当する場所に重ね合わせて表示させる、
    請求項6又は7のいずれかに記載の画像表示装置。
  20. 頭部又は顔部に装着型の画像表示装置で画像を表示する画像表示方法であって、
    画像を入力する画像入力ステップと、
    前記画像入力ステップで入力された画像を判定し、又は、前記入力された画像に対する判定結果を取得する判定ステップと、
    前記判定ステップによる前記判定結果に基づいて、表示する画像を制御する制御ステップと、
    を有する画像表示方法。
JP2013008050A 2013-01-21 2013-01-21 画像表示装置及び画像表示方法 Pending JP2014140097A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013008050A JP2014140097A (ja) 2013-01-21 2013-01-21 画像表示装置及び画像表示方法
US14/151,128 US20140204191A1 (en) 2013-01-21 2014-01-09 Image display device and image display method
CN201410014343.3A CN103942019A (zh) 2013-01-21 2014-01-14 图像显示装置和图像显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013008050A JP2014140097A (ja) 2013-01-21 2013-01-21 画像表示装置及び画像表示方法

Publications (1)

Publication Number Publication Date
JP2014140097A true JP2014140097A (ja) 2014-07-31

Family

ID=51189699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013008050A Pending JP2014140097A (ja) 2013-01-21 2013-01-21 画像表示装置及び画像表示方法

Country Status (3)

Country Link
US (1) US20140204191A1 (ja)
JP (1) JP2014140097A (ja)
CN (1) CN103942019A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163466A (ja) * 2017-03-24 2018-10-18 株式会社インフォマティクス 図面投影システム、図面投影方法及びプログラム
JP2018195101A (ja) * 2017-05-18 2018-12-06 ヤマハ株式会社 情報提供方法および情報提供装置
WO2019130933A1 (ja) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140072651A (ko) * 2012-12-05 2014-06-13 엘지전자 주식회사 글래스타입 휴대용 단말기
JP2015179340A (ja) * 2014-03-18 2015-10-08 株式会社東芝 電子機器およびその制御方法
KR101524575B1 (ko) * 2014-08-20 2015-06-03 박준호 웨어러블 디바이스
WO2016060461A1 (en) 2014-10-15 2016-04-21 Jun Ho Park Wearable device
KR20170028130A (ko) 2015-09-03 2017-03-13 박준호 웨어러블 디바이스
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
US10127728B2 (en) * 2016-09-30 2018-11-13 Sony Interactive Entertainment Inc. Facial feature views of user viewing into virtual reality scenes and integration of facial features into virtual reality views into scenes
CN106707510A (zh) * 2016-12-14 2017-05-24 浙江舜通智能科技有限公司 隐形眼镜式的光学系统以及装配该光学系统的头戴显示器
CN108209862B (zh) * 2016-12-21 2021-04-30 中国电信股份有限公司 诊断结果展示方法和装置
CN107045522A (zh) * 2016-12-29 2017-08-15 北京奇虎科技有限公司 一种基于掌纹数据的业务处理方法和装置
CN106649829B (zh) * 2016-12-29 2021-06-25 北京奇虎科技有限公司 一种基于掌纹数据的业务处理方法和装置
WO2018121552A1 (zh) * 2016-12-29 2018-07-05 北京奇虎科技有限公司 基于掌纹数据的业务处理方法、装置、程序及介质
CN107861617A (zh) * 2017-11-08 2018-03-30 徐蒙蒙 一种智能机器人交互系统
CN110059550A (zh) * 2019-03-11 2019-07-26 江苏理工学院 一种基于脑电信号的智能辅助学习系统
CN111265879B (zh) * 2020-01-19 2023-08-08 百度在线网络技术(北京)有限公司 虚拟形象生成方法、装置、设备及存储介质
CN111310608A (zh) * 2020-01-22 2020-06-19 Oppo广东移动通信有限公司 用户识别方法、用户识别装置、存储介质与头戴式设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018163466A (ja) * 2017-03-24 2018-10-18 株式会社インフォマティクス 図面投影システム、図面投影方法及びプログラム
JP2018195101A (ja) * 2017-05-18 2018-12-06 ヤマハ株式会社 情報提供方法および情報提供装置
WO2019130933A1 (ja) * 2017-12-26 2019-07-04 パナソニックIpマネジメント株式会社 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム
JP2019115653A (ja) * 2017-12-26 2019-07-18 パナソニックIpマネジメント株式会社 身体外観補正支援装置、身体外観補正支援方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
CN103942019A (zh) 2014-07-23
US20140204191A1 (en) 2014-07-24

Similar Documents

Publication Publication Date Title
JP2014140097A (ja) 画像表示装置及び画像表示方法
US10656424B2 (en) Information display terminal, information display system, and information display method
CN106873778B (zh) 一种应用的运行控制方法、装置和虚拟现实设备
US10235560B2 (en) Image processing apparatus, image processing method, and image communication system
AU2016262576B2 (en) Privacy-sensitive consumer cameras coupled to augmented reality systems
US20140130148A1 (en) Information processing device, information processing method, and computer program
US11151796B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
WO2016013269A1 (ja) 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2018007792A (ja) 表情認知診断支援装置
JP6109288B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11842453B2 (en) Information processing device, information processing method, and program
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP2017191546A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
KR101842210B1 (ko) 시선 추적 기반 콘텐츠 제공 방법 및 장치
US20230290096A1 (en) Progressive body capture of user body for building an avatar of user
US11328187B2 (en) Information processing apparatus and information processing method
CN111279410B (zh) 显示设备和显示设备控制方法
CN107783639A (zh) 虚拟现实休闲学习系统
JP2020154569A (ja) 表示装置、表示制御方法、及び表示システム
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
JP2017189498A (ja) 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法
JP5989725B2 (ja) 電子機器及び情報表示プログラム
US11972526B1 (en) Rendering of enrolled user's face for external display
US20240005623A1 (en) Positioning content within 3d environments
JP2016005007A (ja) ヘッドマウントディスプレイおよび画像処理装置