JP2015149552A - ウェアラブル型電子機器 - Google Patents

ウェアラブル型電子機器 Download PDF

Info

Publication number
JP2015149552A
JP2015149552A JP2014020470A JP2014020470A JP2015149552A JP 2015149552 A JP2015149552 A JP 2015149552A JP 2014020470 A JP2014020470 A JP 2014020470A JP 2014020470 A JP2014020470 A JP 2014020470A JP 2015149552 A JP2015149552 A JP 2015149552A
Authority
JP
Japan
Prior art keywords
line
unit
sight
frame
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014020470A
Other languages
English (en)
Inventor
正永 中村
Masanaga Nakamura
正永 中村
薫 梅津
Kaoru Umetsu
薫 梅津
井上 英也
Hideya Inoue
英也 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014020470A priority Critical patent/JP2015149552A/ja
Publication of JP2015149552A publication Critical patent/JP2015149552A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

【課題】手を使わずに画角を変更すること。【解決手段】ウェアラブル型電子機器10は、被写体を撮像する撮像部14と、情報を表示する透過型の表示部15と、表示部15を透過して被写体を観察するユーザーの表示部15上における視線位置を検出する視線検出部22と、視線検出部22によって検出される視線位置に基づいて撮像部14による画角制御を行う撮像制御部と、ユーザーの体に装着するための装着部12と、を備える。【選択図】図1

Description

本発明は、ウェアラブル型電子機器に関する。
メガネ型のフレームにカメラ、ディスプレイ、マイク等を備えたウェアラブルデバイスが知られている(特許文献1参照)。従来の技術では、ユーザーの両手の指で作られる枠に基づいて、画像の切り出し範囲が設定される。
日本国特許第4449082号公報
従来技術では、画像上の範囲を設定するために両手を動かす必要があり、手がふさがっている場合の設定が困難であった。
本発明によるウェアラブル型電子機器は、被写体を撮像する撮像部と、情報を表示する透過型の表示部と、表示部を透過して被写体を観察するユーザーの表示部上における視線位置を検出する視線検出部と、視線検出部によって検出される視線位置に基づいて撮像部による画角制御を行う撮像制御部と、ユーザーの体に装着するための装着部と、を備える。
本発明によるウェアラブル型電子機器では、手を使わずに画角を変更できる。
本発明の第一の実施形態による撮像装置が搭載されたメガネタイプのデバイスの斜視図である。 デバイスのブロック構成を例示する図である。 撮像方向の設定を説明する図である。 画角の変更を説明する図である。 画角の変更を説明する図である。 画角の変更を説明する図である。 コメント入力を説明する図である。 コメント入力を説明する図である。 画角変更後に撮像された画像に相当する図である。 第二の実施形態による画角の変更を説明する図である。 第二の実施形態による画角の変更を説明する図である。 第二の実施形態による画角の変更を説明する図である。
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態によるメガネタイプのデバイス10の斜視図である。デバイス10は、ユーザーの身体(例えば耳と鼻)で保持される形状に構成されている。デバイス10の中央下部10Aに設けられた不図示のパッド(鼻あて)がユーザーの鼻に当接し、デバイス10の左右の蔓12の先端の湾曲部12Aがユーザーの耳にかけられることで、デバイス10がユーザーの頭部に装着される。
ユーザーがデバイス10を装着すると、アイグラスディスプレイ15がユーザーの視野を覆う。アイグラスディスプレイ15は画像表示素子52(図2)を内蔵し、この画像表示素子52がユーザーの眼の方向に画像を表示する。画像表示素子52の表示は、フレーム10Bの内部に設けられた表示制御部54(図2)によって制御される。
アイグラスディスプレイ15は、外界からの光を透過するように構成される。このため、ユーザーは、アイグラスディスプレイ15を通して外界の被写体像を観察できる。ユーザーはさらに、外界の被写体像に重ねて、上記画像表示素子52によって表示された表示像を観察できる。フレーム10Bにおいてユーザーの顔と対向する側には、ユーザーの視線方向を検知する視線方向検知装置22が設けられている。なお、視線方向検知装置22はユーザーの目の瞬きも検知可能に構成される。
右耳にかけられる蔓12の基端部、すなわちデバイス10の右端に、カメラ部14が設けられている。カメラ部14は撮像ユニット62(図2)を内蔵する。撮像ユニット62は、ユーザーの前方(矢印A方向)に位置する被写体の像を、撮像光学系13を通して撮像する。
左耳にかけられる蔓12の基端部、すなわちデバイス10の左端には、音声認識装置16が設けられている。音声認識装置16からアーム18がユーザーの口もとまで延設され、そのアーム18の先端にマイクロホン20が設置される。また、左右の蔓12には不図示のスピーカが内蔵されている。スピーカは、音声情報を再生する。
デバイス10は、電源がオンされると、カメラ部14に内蔵された撮像ユニット62によって被写体像を所定のフレームレート(例えば30フレーム/秒)で繰り返し撮像する。デバイス10は、シャッターレリーズの指示を受けると、該シャッターレリーズの指示に応じて撮像ユニット62が撮像した画像のデータをメモリ68(図2)に記録する。
音声認識装置16は、前記マイクロホン20を介してユーザーの発する言葉(音声)を取り込む。取り込まれた音声の信号はCPU70(図2)へ送出される。CPU70は、音声信号に基づいて認識した言葉の内容に応じて撮像ユニット62(図2)へ所定のコマンドを送る。例えば、「レリーズ」という言葉を認識するとカメラ部14にシャッターレリーズのコマンドを送る。カメラ部14は、コマンドに応じて撮像ユニット62で撮像された画像をメモリ68(図2)に記録する。
図2は、デバイス10のブロック構成を例示する図である。デバイス10は、上述したようにカメラ部14、音声認識装置16、視線方向検知装置22、および表示部50を備える。カメラ部14は、撮像光学系13と、撮像ユニット62と、画像処理部64と、範囲設定部66と、メモリ68と、CPU70と、アクチュエータ72と、を含む。
撮像光学系13はフォーカス光学系やズーム光学系を含み、上述したようにユーザーの前方の被写体像を撮像ユニット62の撮像面上に結像させる。各光学系は、CPU70からの制御信号を受けたアクチュエータ72によって駆動される。撮像ユニット62はCMOSセンサなどの撮像素子を有し、被写体像を光電変換する。撮像ユニット62はさらに、光電変換後の画像信号をA/D変換して画像処理部64へ送出する。
画像処理部64は、画像信号に対してホワイトバランス調整やガンマ補正等の所定の画像処理を行う。範囲設定部66は、CPU70からの指示に応じて範囲設定を行う。範囲設定の詳細については後述する。
メモリ68には、撮像された画像のデータやトリミング後の画像のデータが記録される。また、メモリ68は制御プログラムを格納する。CPU70は、メモリ68に記録されている制御プログラムに基づいてデバイス10の各部に対する制御を行う。視線方向検知装置22は、CPU70からの指示に応じて、デバイス10を装着したユーザーの瞳孔を解析することにより視線方向を検知する。
音声認識装置16は、主としてマイクロホン20とA/D変換部80とを含む。A/D変換部80は、マイクロホン20によって取得した音声信号をデジタル音声信号に変換してCPU70へ送出する。
アイグラスディスプレイ15(図1)に内蔵される画像表示素子52と、フレーム10B(図1)に内蔵される表示制御部54とによって表示部50が構成される。画像表示素子52は、例えば透過型液晶表示素子によって構成される。画像表示素子52は、アイグラスディスプレイ15を透過した外界からの光で照明される。このため、ユーザーは、外界の被写体像に重ねて画像表示素子52による表示を観察できる。画像表示素子52は、上記撮像ユニット62によって撮像された画像、メニュー設定画面、デバイス10の設定状態、バッテリー残量等の各種情報や、範囲設定部66による設定範囲を示す枠等を表示する。
<撮像方向の設定>
デバイス10は、電源オン操作後にカメラ部14により撮像を開始させる場合に、視線方向検知装置22によってユーザーの視線方向を検知し、撮像ユニット62の撮像方向をユーザーの視線方向に合わせるようにカメラ部14をアクチュエータ72で駆動してパン/チルト動作を行う。このためにCPU70は、表示制御部54へ指示を送って撮像ユニット62による撮像範囲を示す枠31(図3)を画像表示素子52に表示させる。ユーザーは、図3に示すように、前方の被写体像に重ねてアイグラスディスプレイ15(図1)に表示される枠31を観察できる。枠30は、画像表示素子52による表示可能範囲を示す。
図2の画像表示素子52に表示させる枠31の位置は、視線方向検知装置22によって検知されたユーザーの視線方向を中心とする位置とする。視線方向検知装置22は、ユーザーの視線方向、すなわち画像表示素子52の表示領域上のユーザーの視線位置を周知の技術で検知するものであり、枠31の中心位置は、検知されたユーザーの視線位置に対応する。また、画像表示素子52に表示させる枠31の大きさは、撮像ユニット62によって撮像される範囲と略一致するように構成する。CPU70は表示制御部54へ指示を送り、視線方向検知装置22によって検知された視線位置が枠31の中心位置となるように枠31の表示位置を制御するとともに、視線方向検知装置22によって検知された視線位置にカメラ部14の撮像方向を合わせるように、すなわち、撮像ユニット62の光軸をユーザーの視線位置に対応させるように、カメラ部14をアクチュエータ72で駆動する。
これにより、ユーザーが視線位置を変えると、画像表示素子52によって表示される枠31が視線位置に移動するとともに、その視線位置に撮像方向を合わせるようにカメラ部14がパン/チルト駆動される。このようにして、ユーザーがアイグラスディスプレイ15(図1)越しに見ている方向の被写体像が、撮像ユニット62の撮像範囲に収められる。
<画角の変更>
また、デバイス10は、カメラ部14により撮像を行う場合に、視線方向検知装置22によって検知されたユーザーの視線位置に基づいて範囲を設定し、この設定範囲に撮像ユニット62の撮像画角を対応させるように撮像光学系13のズーム光学系をアクチュエータ72で駆動してズーム調節を行う。図4は、ユーザーによって観察される前方の被写体像と、アイグラスディスプレイ15(図1)に表示された撮像ユニット62による撮像範囲を示す枠31と、を例示する図である。図4では、枠31の外側の被写体像を省略し、枠31の内側のみを図示している。
図2のCPU70は、例えば、音声認識装置16を介して「ズーム」という言葉が取り込まれると、上述した撮像方向の設定処理を終了し、表示制御部54へ指示を送って枠31の内側の所定のデフォルト位置(例えば中心より左上)にマーク41を点滅表示させる。
CPU70は、視線方向検知装置22によって検知された視線位置にマーク41の位置を合わせるように、画像表示素子52によるマーク41の表示位置を制御する。具体的には、画像表示素子52にマーク41の点滅表示を開始させた以降に視線方向検知装置22によってユーザーの視線がマーク41に所定時間(例えば1秒)以上重ねられたことが検知された場合に、その後のユーザーの視線位置の変化に伴うマーク41の表示位置の移動を開始させる。
そして、マーク41の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク41の移動が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、画像表示素子52によるマーク41の表示を点灯表示に切り替える。CPU70はさらに、図5に例示するように、枠31の内側の所定のデフォルト位置(例えば中心より右下)にマーク42を表示して点滅させるとともに、マーク41およびマーク42を対角とする矩形の枠32を表示させる。
CPU70は、視線方向検知装置22によって検知された枠31内の視線位置にマーク42の位置を合わせるように、画像表示素子52によるマーク42の表示位置を制御する。具体的には、画像表示素子52にマーク42の点滅表示を開始させた以降に視線方向検知装置22によってユーザーの視線がマーク42に所定時間(例えば1秒)以上重ねられたことが検知された場合に、ユーザーの視線位置の変化に伴うマーク42の表示位置の移動を開始させる。
そして、マーク42の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク42の移動が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、画像表示素子52によるマーク42の表示を点灯表示に切り替える。CPU70はさらに、図6に例示するように、枠31の内側において枠32の外側の領域33をグレー表示させる。グレー表示は、例えば青色など他の色でもよい。また、グレー表示中においてユーザーがアイグラスディスプレイ15越しに被写体像を観察し得るように、透過性を持たせてグレー表示を行うとよい。
CPU70は、撮像ユニット62による撮像画角を枠32で囲まれる範囲に対応させるように、撮像光学系13のズーム光学系をアクチュエータ72で駆動する。範囲設定部66は、設定された枠31および枠32を示す情報を記憶する。
なお、ユーザーの視線指示により位置が決定された2つのマーク41、42の位置に基づいて矩形の枠32を生成する代わりに、ユーザーが視線でなぞった四角形を枠32としてもよいし、ユーザーが視線で縦横になぞったL字に基づいて枠32を生成するように構成してもよい。
上述したように、撮像光学系13のズーム光学系をアクチュエータ72で駆動することにより、撮像ユニット62で撮像される画角を枠32で囲まれる範囲に対応させる。また、画角の変更時にアイグラスディスプレイ15の画像表示素子52に枠31を表示させておくので、ユーザーは、実際の撮像画角とワイド端における画角とがわかる。ここで、デバイス10の電源オン時の撮像画角はワイド端にデフォルト設定されている。なお、図6の例ではマーク41およびマーク42の表示を省略しているが、両マークは表示させたままであってもよい。
CPU70は、図6に例示した状態で、音声認識装置16を介して「右」、「左」、「上」、「下」という言葉が取り込まれると、取り込まれた言葉の示す方向へ枠31内における枠32の表示位置を移動するように表示制御部54へ指示を送るとともに、上記言葉の示す方向へカメラ部14の撮像方向を合わせるようにカメラ部14をアクチュエータ72で駆動する。この場合の範囲設定部66は、移動後の枠31および枠32を示す情報を記憶する。
以上により、ユーザーの視線位置に基づいて、画像表示素子52によって表示される枠32で囲まれる範囲が設定されるとともに、その設定範囲に画角を合わせるように撮像光学系13のズーム光学系が駆動される。このようにして、ユーザーがアイグラスディスプレイ15(図1)越しに被写体像を見ながら、視線移動によって設定した範囲に対応させて撮像ユニット62の撮像画角を設定変更できる。図9は、画角変更後に撮像された画像に相当する図である。
<トリミング設定>
デバイス10は、メモリ68に記録されている画像のデータに基づいて画像表示素子52に画像を再生表示する場合に、視線方向検知装置22によって検知されたユーザーの視線位置に基づいて範囲を設定し、この設定範囲に対応する領域のデータを画像のデータから切り出し、改めてメモリ68に記録する。
図4を、アイグラスディスプレイ15の画像表示素子52に表示された再生画像とみなして説明する。この場合、枠31で囲まれる範囲を再生画像とする。CPU70は、再生画像を画像表示素子52に表示させると、枠31の内側の所定のデフォルト位置(例えば中心より左上)にマーク41を点滅表示させる。
CPU70は、視線方向検知装置22によって検知された視線位置にマーク41の位置を合わせるように、画像表示素子52によるマーク41の表示位置を制御する。具体的には、画像表示素子52にマーク41の点滅表示を開始させた以降に視線方向検知装置22によってユーザーの視線がマーク41に所定時間(例えば1秒)以上重ねられたことが検知された場合に、ユーザーの視線位置の変化に伴うマーク41の表示位置の移動を開始させる。
そして、マーク41の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク41の移動が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、画像表示素子52によるマーク41の表示を点灯表示に切り替える。CPU70はさらに、図5に例示するように、枠31の内側の所定のデフォルト位置(例えば中心より右下)にマーク42を表示して点滅させるとともに、マーク41およびマーク42を対角とする矩形の枠32を表示させる。
CPU70は、トリミングによって残す画像範囲を枠32で囲まれる範囲に対応させる。CPU70は、視線方向検知装置22によって検知された視線位置にマーク42の位置を合わせるように、画像表示素子52によるマーク42の表示位置を制御する。具体的には、画像表示素子52にマーク42の点滅表示を開始させた以降に視線方向検知装置22によってユーザーの視線がマーク42に所定時間(例えば1秒)以上重ねられたことが検知された場合に、ユーザーの視線位置の変化に伴うマーク42の表示位置の移動を開始させる。
そして、マーク42の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク42の移動が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、画像表示素子52によるマーク42の表示を点灯表示に切り替えさせる。CPU70はさらに、図6に例示するように、枠31の内側において枠32の外側の領域33をグレー表示させる。範囲設定部66は、上述したように設定された枠31および枠32を示す情報を記憶する。
CPU70は、範囲設定部66に記憶された情報に基づいて、メモリ68に記録されている画像のデータから枠32で囲まれる範囲のデータを切り出し、枠32の範囲から外れるデータを除外する。そして、切り出したデータに電子ズームの処理を施して所定の大きさの画像信号に変換し、この電子ズーム処理後の画像のデータをメモリ68に記憶させる。この場合には、図9がトリミング加工後の画像に相当する。
このように、ユーザーは、アイグラスディスプレイ15に表示させた再生画像を見ながら視線移動によって設定した範囲に対応させて、トリミング範囲を設定できるように構成されている。
<コメント入力>
CPU70は、図6に例示した状態で、音声認識装置16を介して「コメント」という言葉が取り込まれると、画像に関連付けて記録する文字情報の入力を受け付ける。CPU70は、表示制御部54へ指示を送って枠31の内側の所定位置(例えば中心より左上)にマーク81を点滅表示させる。ユーザーは、図7に示すように、アイグラスディスプレイ15(図1)に表示される枠31、および枠31の内側のマーク81を観察できる。
CPU70は、視線方向検知装置22によって検知された視線位置にマーク81の位置を合わせるように、画像表示素子52によるマーク81の表示位置を制御する。具体的には、画像表示素子52にマーク81の点滅表示を開始させた以降に視線方向検知装置22によってユーザーの視線がマーク81に所定時間(例えば1秒)以上重ねられたことが検知された場合に、ユーザーの視線位置の変化に伴うマーク81の表示位置の移動を開始させるとともに、図7に示すように、マーク81の軌跡82を表示させる。
CPU70は、マーク81の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク41の移動が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、その時点以降における軌跡82の新たな表示を一旦停止させる。なお、ユーザーの視線位置の変化に伴うマーク81の表示位置の移動は継続させる。マーク81をペン先と仮定すると、マーク81の軌跡82はペン先で引かれた線に相当し、軌跡82の新たな表示を一旦停止することは、ペン先を離すことに相当する。
CPU70は、軌跡82の新たな表示を一旦停止中(ペン先を離している)に視線方向検知装置22によってユーザーの視線がマーク81に所定時間(例えば1秒)以上重ねられたことが検知された場合に、マーク81の軌跡82の表示を再開させる(離したペン先を戻す)。以降同様に、視線方向検知装置22によってユーザーの瞬きが検知された場合、またはマーク41が停止中(同じ位置に表示中)に所定時間(例えば2秒)以上留まった場合に、CPU70は、その時点以降における軌跡82の新たな表示を一旦停止させる。
CPU70は、マーク81の移動が停止中(同じ位置に表示中)に視線方向検知装置22によってユーザーの瞬きが続けて複数回検知された場合(例えば0.5秒以内に2回以上)、その時点における軌跡82によって構成される文字を確定する。CPU70は、いわゆる手書き文字認識と同様の処理によって文字を確定し、図8に示すように、確定した文字83をグレー表示している領域33(すなわち枠32の外側)に表示させる。文字を確定して領域33に表示させた場合、CPU70は、枠31の内側の軌跡82を消去した上で、所定位置(例えば中心より左上)にマーク81を点滅表示させる。なお、枠31の大きさと枠32の大きさとが略同じで領域33が狭い場合は、確定した文字を枠31の外側に表示させてよい。
CPU70は、図8に例示した状態で、音声認識装置16を介して「OK」という言葉が取り込まれると、その時点において領域33に表示されている文字列83をテキスト情報として、画像に関連付けてメモリ68に記録する。
上述した「撮像方向の設定」、「画角の変更」、および「コメント入力」の説明において、音声認識装置16を介して「もどる」という言葉が取り込まれると、CPU70は、1つ前の図に例示した状態に戻すように構成される。すなわち、「もどる」という言葉が取り込まれる度に、図8の状態から図7の状態へ、図7の状態から図6の状態へ、図6の状態から図5の状態へ、図5の状態から図4の状態へ、図4の状態から図3の状態へ、それぞれ戻す。
上述した「トリミング設定」、および「コメント入力」の説明において、音声認識装置16を介して「もどる」という言葉が取り込まれると、CPU70は、1つ前の図に例示した状態に戻すように構成される。すなわち、「もどる」という言葉が取り込まれる度に、図8の状態から図7の状態へ、図7の状態から図6の状態へ、図6の状態から図5の状態へ、図5の状態から図4の状態へ、それぞれ戻す。
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)ウェアラブル型のデバイス10は、被写体を撮像する撮像ユニット62と、情報を表示する透過型の表示部50と、表示部50を透過して被写体を観察するユーザーの表示部50上における視線位置を検出する視線方向検知装置22と、視線方向検知装置22によって検出される視線位置に基づいて撮像ユニット62による画角制御を行うCPU70と、ユーザーの体に装着するための蔓12を備える。これにより、ユーザーは、手を使わなくても画角を変更できる。
(2)表示部50は、視線方向検知装置22で検出された視線位置に基づいて枠32を表示し、CPU70は、表示部70に表示された枠32で囲まれた範囲に対応する被写体の領域を撮像するように画角制御を行うようにしたので、ユーザーは、表示部50であるアイグラスディスプレイ15(図1)越しに被写体像および枠32を見ながら、視線移動だけで画角の変更操作を行える。
(3)表示部50は、視線方向検知装置22で検出されて表示された2点のマーク41、42の位置に基づく矩形の枠32を表示するようにしたので、枠32の位置および大きさを視線移動だけで簡単に設定できる。
(4)表示部50は、画像データに基づく再生画像を表示し、視線方向検知装置22は、表示部50に表示された再生画像を観察するユーザーの表示部50上における視線位置を検出し、視線方向検知装置22によって検出される視線位置に基づいて画像データを加工するCPU70を備える。これにより、ユーザーは、手を使わなくてもトリミング範囲を設定できる。
(5)表示部50は、視線方向検知装置22で検出された視線位置に基づいて枠32を表示し、CPU70は、表示部50に表示された枠32で囲まれた範囲から外れる再生画像の領域を除くようにトリミングを行うようにした。これにより、ユーザーは、表示部50であるアイグラスディスプレイ15(図1)で再生画像および枠32を見ながら、視線移動だけでトリミング操作を行える。
(6)表示部50は、枠32の外側をグレー表示するので、ユーザーにとって枠32の内外の区別が容易になる。
(7)デバイス10は、視線方向検知装置22で検出された視線位置に基づいてコメントを入力するCPU70を備え、表示部50は、CPU70で入力されたコメントを枠32の外側に表示するようにしたので、枠32内の画像に重ねて表示する場合に比べて、ユーザーにとって見やすく表示できる。
(第ニの実施形態)
第一の実施形態では、2つのマーク41および42を対角とする矩形の枠32で囲まれる範囲を設定する例を説明した。第二の実施形態では、1つのマーク41を中心とし、音声認識装置16を介して取り込まれる言葉が示す図形で囲まれる範囲を設定する。
<画角の変更>
第二の実施形態によるデバイス10は、カメラ部14により撮像を行う場合に、視線方向検知装置22によって検知されたユーザーの視線位置に基づいて範囲を設定し、この設定範囲をズームアップした画像をカメラ部14に撮像させる。そして、図1のアイグラスディスプレイ15(図2の画像表示素子52)に表示させている枠31の中において、カメラ部14で撮像されたズームアップ画像を表示させる。
図10は、ユーザーによって観察される前方の被写体像に重畳して、アイグラスディスプレイ15に表示された撮像ユニット62による撮像範囲を示す枠31と、を例示する図である。図10では、枠31の外側の被写体像を省略し、枠31の内側のみを図示している。
図2のCPU70は、例えば、音声認識装置16を介して「ズーム」という言葉が取り込まれると、表示制御部54へ指示を送って枠31の内側の所定位置(例えば中心)にマーク41(図10)を点滅表示させる。
CPU70は、視線方向検知装置22によって検知された視線位置にマーク41の位置を合わせるように、画像表示素子52によるマーク41の表示位置を制御する。制御手順は第一の実施形態と同様である。
CPU70は、図10のようにマーク41を表示した状態で、音声認識装置16を介して「まる」という言葉が取り込まれると、図11に例示するように、マーク41を略中央にしてマーク41を囲む領域32Bを画像表示素子52に表示させる。これによってユーザーは、前方の被写体像に重ねてアイグラスディスプレイ15(図1)に表示される領域32Bを観察できる。また、CPU70は、音声認識装置16を介して「大きく」、「小さく」という言葉が取り込まれると、取り込まれた言葉の示す方向へ領域32Bの大きさを微調整させる。
ここで、領域32Bの形状は円に限らず、三角でも四角でも星形でもよい。その場合のユーザーは、「まる」の代わりに「さんかく」、「しかく」、または「ほしがた」と発音する。
次にCPU70は、領域32Bで囲まれる範囲を光学的に拡大するように撮像光学系13のズーム光学系をアクチュエータ72で駆動し、撮像ユニット62による撮像画角を調節する。
CPU70はさらに、図12に示すように、撮像ユニット62で撮像されたズームアップ画像のうち、領域32Bで囲まれる範囲の画像を切り出して画像表示素子52に表示させる。これによってユーザーは、前方の被写体像に重ねてアイグラスディスプレイ15(図1)の領域32Cに表示されるズームアップ画像を観察できる。
CPU70はさらに、図12に例示するように、領域32Cの外側の領域33をグレー表示させる。範囲設定部66は、上述したように設定された枠31および領域32Bを示す情報を記憶する。
CPU70は、図12のように領域32Cのズームアップ画像を表示した状態で、音声認識装置16を介して「右」、「左」、「上」、「下」という言葉が取り込まれると、取り込まれた言葉の示す方向へ撮像ユニット62による撮像方向を微調整させる。この場合の範囲設定部66は、枠31および移動後の領域32Cを示す情報を記憶する。
第二の実施形態では、ズームアップ前に設定された領域32Bで囲まれる範囲をズームアップ表示するように、撮像光学系13のズーム光学系をアクチュエータ72で駆動するので、撮像ユニット62が領域32Cを内包する範囲を撮像するように撮像ユニット62に撮像画角が調節される。また、ズーム倍率変更時にアイグラスディスプレイ15(画像表示素子52)に枠31を表示させておくので、ユーザーは、前方の被写体像のどの辺りをズームアップしているかがわかる。
以上により、ユーザーの視線位置に基づいて、画像表示素子52によって領域32Bで囲まれる範囲が設定されるとともに、その設定範囲をズームアップするように撮像光学系13のズーム光学系が駆動される。ズームアップ画像のうち、領域32Bで囲まれる範囲の画像が、領域32C内に画像表示素子52に表示される。このようにして、ユーザーがアイグラスディスプレイ15(図1)越しに被写体像を見ながら視線移動によって設定した範囲に対応させて、撮像ユニット62のズーム倍率を設定変更できる。ユーザーは、アイグラスディスプレイ15(図1)越しの被写体像に重ねて、被写体像の一部をズームアップした画像を観察できる。
以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)ウェアラブル型デバイス10は、被写体を撮像する撮像ユニット62と、情報を表示する表示部50と、表示部50を透過して被写体を観察するユーザーの表示部50上における視線位置を検出する視線方向検知装置と、視線方向検知装置22によって検出される視線位置に基づいて撮像ユニット62による画角制御を行うCPU70と、ユーザーの体に装着するための蔓12を備えるので、ユーザーは、手を使わなくても画角を変更できる。
(2)表示部50は、視線方向検知装置22で検出された視線位置に基づいて枠32Bを表示し、CPU70は、表示部70に表示された枠32Bで囲まれた範囲に対応する被写体の領域を撮像するように画角制御を行うようにした。これにより、ユーザーは、表示部50であるアイグラスディスプレイ15(図1)越しに被写体像および枠32Bを見ながら、視線移動と形状を表す音声入力とを行うだけで画角の変更操作を行える。
(3)表示部50は、視線方向検知装置22で検出された視線位置に、入力音声が示す形状の枠32Cを表示するので、任意の形状のズームアップ画像を表示させることが可能である。
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
電子機器として、カメラ部14および表示部50が搭載されたメガネタイプのデバイス10を例にあげて説明したが、メガネタイプ以外の他のウェアラブルデバイスを用いて構成してもよい。例えば帽子装着タイプ、肩装着タイプのデバイスでもよい。
(変形例2)
上述した第二の実施形態では、風景を背景とする人物を被写体として説明したが、観察像は風景に限らなくてもよい。例えば、手元の作業対象をユーザーがアイグラスディスプレイ15(図1)越しに見ながら、視線移動によって設定した範囲に対応させて、CPU70が撮像ユニット62のズーム倍率を設定変更する。これにより、ユーザーは、アイグラスディスプレイ15越しの作業対象に重ねて、作業対象の一部をズームアップした画像を観察できるので、細かい作業を行う場合等の作業性の向上に好適である。
(変形例3)
領域32Cに表示させる画像は、色を元の被写体色と異ならせたり、輪郭などを強調したりして表示させてもよい。CPU70は、例えば、手元の作業対象をわかりやすく観察し得るように色を変えたり、見やすく表示するように強調処理を行ったりして、画像表示素子52による表示を制御する。これにより、アイグラスディスプレイ15越しの作業対象に重ねて表示される作業対象の一部がユーザーにとってわかりやすく表示されるので、作業性の向上に役立つ。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
10…デバイス
10B…フレーム
12…蔓
13…撮像光学系
14…カメラ部
15…アイグラスディスプレイ
16…音声認識装置
22…視線方向検知装置
50…表示部
52…画像表示素子
54…表示制御部
62…撮像ユニット
66…範囲設定部
68…メモリ
70…CPU

Claims (8)

  1. 被写体を撮像する撮像部と、
    情報を表示する透過型の表示部と、
    前記表示部を透過して前記被写体を観察するユーザーの前記表示部上における視線位置を検出する視線検出部と、
    前記視線検出部によって検出される前記視線位置に基づいて前記撮像部による画角制御を行う撮像制御部と、
    前記ユーザーの体に装着するための装着部と、
    を備えるウェアラブル型電子機器。
  2. 請求項1に記載のウェアラブル型電子機器において、
    前記表示部は、前記視線検出部で検出された前記視線位置に基づいて枠を表示し、
    前記撮像制御部は、前記表示部に表示された前記枠で囲まれた範囲に対応する前記被写体の領域を撮像するように前記画角制御を行うウェアラブル型電子機器。
  3. 請求項2に記載のウェアラブル型電子機器において、
    前記表示部は、前記視線検出部で検出された複数の前記視線位置に基づく形状の枠を表示するウェアラブル型電子機器。
  4. 請求項2に記載のウェアラブル型電子機器において、
    前記表示部は、前記視線検出部で検出された前記視線位置に、入力音声が示す形状の枠を表示するウェアラブル型電子機器。
  5. 請求項1〜4のいずれか一項に記載のウェアラブル型電子機器において、
    前記表示部は、画像データに基づく再生画像を表示し、
    前記視線検出部は、前記表示部に表示された前記再生画像を観察するユーザーの前記表示部上における視線位置を検出し、
    前記視線検出部によって検出される前記視線位置に基づいて前記画像データを加工する画像加工部を備えるウェアラブル型電子機器。
  6. 請求項5に記載のウェアラブル型電子機器において、
    前記表示部は、前記視線検出部で検出された前記視線位置に基づいて枠を表示し、
    前記画像加工部は、前記表示部に表示された前記枠で囲まれた範囲から外れる前記再生画像の領域を除くように前記加工を行うウェアラブル型電子機器。
  7. 請求項2〜4、6のいずれか一項に記載のウェアラブル型電子機器において、
    前記表示部は、前記枠の外側を所定色で表示するウェアラブル型電子機器。
  8. 請求項7に記載のウェアラブル型電子機器において、
    前記視線検出部で検出された前記視線位置に基づいて文字情報を入力する文字情報入力部を備え、
    前記表示部は、前記文字情報入力部で入力された前記文字情報を前記枠の外側に表示するウェアラブル型電子機器。
JP2014020470A 2014-02-05 2014-02-05 ウェアラブル型電子機器 Pending JP2015149552A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014020470A JP2015149552A (ja) 2014-02-05 2014-02-05 ウェアラブル型電子機器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020470A JP2015149552A (ja) 2014-02-05 2014-02-05 ウェアラブル型電子機器

Publications (1)

Publication Number Publication Date
JP2015149552A true JP2015149552A (ja) 2015-08-20

Family

ID=53892625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020470A Pending JP2015149552A (ja) 2014-02-05 2014-02-05 ウェアラブル型電子機器

Country Status (1)

Country Link
JP (1) JP2015149552A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018196046A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 画像処理装置、画像編集装置、およびプログラム
JP2020085914A (ja) * 2018-11-14 2020-06-04 株式会社ガゾウ カメラ付き情報端末及プログラム
KR20210052274A (ko) 2019-10-29 2021-05-10 쇼와덴코머티리얼즈가부시끼가이샤 플렉시블 프린트 배선판용 적층 필름의 제조 방법 및 플렉시블 프린트 배선판
JP2022553582A (ja) * 2019-11-05 2022-12-23 マイクロン テクノロジー,インク. アイトラッキングに部分的に基づいたレンダリング強化
US11677911B2 (en) 2019-11-14 2023-06-13 Canon Kabushiki Kaisha Display apparatus capable of controlling a position of a display range based on a change of focal distance
WO2023153611A1 (ko) * 2022-02-11 2023-08-17 삼성전자주식회사 객체의 영상을 획득하는 방법 및 장치
US12007567B2 (en) 2019-11-13 2024-06-11 Canon Kabushiki Kaisha Display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018196046A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 画像処理装置、画像編集装置、およびプログラム
JP2020085914A (ja) * 2018-11-14 2020-06-04 株式会社ガゾウ カメラ付き情報端末及プログラム
JP7157444B2 (ja) 2018-11-14 2022-10-20 株式会社ガゾウ カメラ付き情報端末及プログラム
KR20210052274A (ko) 2019-10-29 2021-05-10 쇼와덴코머티리얼즈가부시끼가이샤 플렉시블 프린트 배선판용 적층 필름의 제조 방법 및 플렉시블 프린트 배선판
JP2022553582A (ja) * 2019-11-05 2022-12-23 マイクロン テクノロジー,インク. アイトラッキングに部分的に基づいたレンダリング強化
US12007567B2 (en) 2019-11-13 2024-06-11 Canon Kabushiki Kaisha Display device
US11677911B2 (en) 2019-11-14 2023-06-13 Canon Kabushiki Kaisha Display apparatus capable of controlling a position of a display range based on a change of focal distance
WO2023153611A1 (ko) * 2022-02-11 2023-08-17 삼성전자주식회사 객체의 영상을 획득하는 방법 및 장치

Similar Documents

Publication Publication Date Title
US10437069B2 (en) Display control device, display control method, and computer program
JP4013100B2 (ja) 電子カメラ
JP4449082B2 (ja) 電子カメラ
JP2015149552A (ja) ウェアラブル型電子機器
JP4203863B2 (ja) 電子カメラ
WO2016092950A1 (ja) 医療用眼鏡型表示装置、情報処理装置及び情報処理方法
JP6904254B2 (ja) 手術用制御装置、手術用制御方法、およびプログラム
US9835862B1 (en) Graphic interface for real-time vision enhancement
JP6201990B2 (ja) 画像表示装置、画像表示プログラム及び画像表示方法
JP2011203446A (ja) ヘッドマウントディスプレイ装置
JP2008185609A (ja) 表示装置、表示方法
US11487354B2 (en) Information processing apparatus, information processing method, and program
JP2013210643A (ja) 表示装置、表示方法
JP2017049670A (ja) 表示制御装置、表示制御方法及びプログラム
JP2012008745A (ja) ユーザインターフェース装置及び電子機器
EP3346368B1 (en) Device, method and system for control of a target apparatus
JP2019074582A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015215619A (ja) 表示装置、表示方法、プログラム
JP2008288821A (ja) 撮像装置、撮像方法
JP2015087523A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
KR20080033681A (ko) 두부 장착식 디스플레이 장치의 시력 보조 방법 및 그 두부장착식 디스플레이 장치
JP2014191237A (ja) 情報記憶装置および情報記憶プログラム
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
WO2021044732A1 (ja) 情報処理装置、情報処理方法及び記憶媒体
US20230308753A1 (en) Camera system for focusing on and tracking objects