JP7418075B2 - 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム - Google Patents

撮像表示装置、ウェアラブルデバイスおよび撮像表示システム Download PDF

Info

Publication number
JP7418075B2
JP7418075B2 JP2019126318A JP2019126318A JP7418075B2 JP 7418075 B2 JP7418075 B2 JP 7418075B2 JP 2019126318 A JP2019126318 A JP 2019126318A JP 2019126318 A JP2019126318 A JP 2019126318A JP 7418075 B2 JP7418075 B2 JP 7418075B2
Authority
JP
Japan
Prior art keywords
imaging
image information
display device
unit
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019126318A
Other languages
English (en)
Other versions
JP2020048185A (ja
Inventor
洋祐 西出
武史 市川
彰 沖田
俊紀 坪井
七朗 中辻
宏 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/562,304 priority Critical patent/US11048465B2/en
Publication of JP2020048185A publication Critical patent/JP2020048185A/ja
Priority to US17/336,056 priority patent/US11797259B2/en
Priority to US18/460,397 priority patent/US20230409275A1/en
Application granted granted Critical
Publication of JP7418075B2 publication Critical patent/JP7418075B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Description

本発明は、撮像表示装置、ウェアラブルデバイスおよび撮像表示システムに関する。
ヘッドマウントディスプレイやスマートグラスと呼ばれる、撮像表示装置を備えたウェアラブルデバイスが知られている。このようなウェアラブルデバイスの1つの方式では、利用者の目の前の景色が撮像装置を用いて画像として撮り込まれ、その画像が表示装置に表示される。この方式によって、利用者は、表示装置を通しながらも、外界の景色をあたかも直接見ているような感覚を得ることができる。
特許文献1は、このような表示装置を小型化するために、フォトダイオードとエレクトロルミネッセンス(以下、EL)素子とを同じ基板上にマトリクス状に設ける技術が記載されている。
特開2002-176162号公報
特許文献1の装置において、景色など現実の事象を撮像し画像を表示するまでの時間が長いと、現実の事象と表示される画像との間に差が生じてしまう。現実の事象と表示される画像との間に差があると、例えば、動いている物体を掴む動作は行うことができない。
本発明は、撮像表示装置において、現実の事象と表示される画像との間の時間的な差を低減するための技術を提供することを目的とする。
本発明の撮像表示装置の1つの側面は、複数の光電変換素子を有する撮像部と、前記撮像部からの信号を処理する処理部と、前記処理部からの信号に基づく画像を表示する表示部と、を備え、前記撮像部は、第1時刻に第1画像情報を取得し、前記処理部は、前記第1画像情報を基に、前記第1画像情報に含まれる被写体を検出し前記被写体の動作を予測し、前記予測された被写体像を含む画像情報である前記第1時刻よりも後の第2時刻の第1予測画像情報を生成し、前記表示部は、前記第2時刻に、前記第1予測画像情報に基づく画像を表示することを特徴とする。
本発明によって、現実の事象と表示される画像との差が低減した撮像表示装置を得ることができる。
(a)実施例1の撮像表示装置を説明する模式図、(b)実施例1の撮像表示装置の変形例を説明する模式図、(c)実施例1の撮像表示装置の別の変形例を説明する模式図、(d)実施例1の撮像表示装置の別の変形例を説明する模式図。 (a)実施例1の撮像表示装置の動作を説明する図、(b)実施例1の撮像表示装置の動作を説明する図。 実施例1の撮像表示装置の動作を説明する比較例。 実施例2の撮像表示装置を説明する模式図。 実施例2の撮像表示装置の動作を説明する図。 (a)実施例3の撮像表示装置の動作を説明する図、(b)実施例3の撮像表示装置の動作を説明する図。 実施例4の撮像表示装置を説明する模式図。 実施例5の撮像表示装置の動作を説明する図。 実施例6の撮像表示装置の動作を説明する図。 (a)ウェアラブルデバイスを説明する模式図、(b)ウェアラブルデバイスを説明する模式図、(c)撮像部と表示部との位置関係を説明する断面模式図、(d)撮像部と表示部との位置関係を説明する平面模式図、(e)撮像部と表示部との位置関係を説明する平面模式図。 撮像表示システムを説明する模式図。 実施例10の撮像表示装置を説明する模式図。 実施例11の撮像表示装置の動作を説明する模式図。
以下、図面を参照しながら各実施例を説明する。各実施例の説明において、他の実施例と同一の構成については説明を省略する場合がある。また、各実施形態は適宜変更、組み合わせが可能である。
(実施例1)
本実施例について、図1、2を用いて説明する。図1(a)は、本実施例を説明するための撮像表示装置100の模式図である。撮像表示装置100は、撮像部101と、処理部102と、表示部103とを有する。
撮像部101は複数の受光素子を有する。受光素子は例えば光電変換素子であり、外部から入射した光(外部情報)を電気信号に変換し、画像情報を取得する撮像動作を行う。処理部102は、撮像部101からの画像情報をもとに、未来に撮像部101にて撮像されるであろう画像情報(以下、予測画像情報とする)を生成する。表示部103は、複数の発光素子を有する。複数の発光素子は、電気信号を光に変換する。表示部103は、処理部102にて生成された予測画像情報に応じた画像を表示(出力)する。撮像部101と表示部103は、複数の画素がアレイ状に配置されているとも言える。撮像部101の各画素は少なくとも1つの受光素子を有し、表示部103の各画素は少なくとも1つの発光素子を有している。処理部102は、撮像部101からの画像情報を受け、表示部103へ予測画像情報を出力する。また、処理部102は、撮像部101へ撮像動作の制御信号を出力し、表示部103の表示動作の制御信号を出力することもできる。
ここで、図1(a)に示す本実施例の撮像表示装置の変形例について説明する。図1(b)は、図1(a)に示す本実施例の撮像表示装置100の変形例を説明するための模式図である。撮像表示装置120は、図1(a)の処理部102が人工知能(以下、AI;Artificial Intelligence)部を搭載したAI部104を有している。本実施例では、AI部104はディープラーニング(深層学習)機能を有する。図1(b)において、撮像部101で撮像された画像情報は、AI部104を有する処理部102によって予測画像情報へと変換される。
図1(c)は、図1(a)に示す本実施例の撮像表示装置100の変形例を説明するための模式図である。撮像表示装置130の処理部102は、処理装置105と通信を行っている。処理部102と処理装置105とは、ネットワークを介して接続する。また、処理装置105は、撮像表示装置130の外部に設けられており、例えば、クラウドに設けられていてもよい。撮像表示装置130では、処理部102ではなく処理装置105がAI部104を有する。処理部102と処理装置105は、互いに情報をやり取りし、画像情報から予測画像情報を生成する。図1(c)において、撮像部101で撮像された画像情報は、処理装置105からの情報を得た処理部102によって予測画像情報へと変換される。撮像表示装置130では、このように外部の装置に蓄積された情報を利用して、予測画像情報を生成することができる。
図1(d)は、図1(a)に示す本実施例の撮像表示装置100の変形例を説明するための模式図である。撮像表示装置140の処理部102はAI部104を有する。処理部102は処理装置106と通信し、処理装置106は更に別の処理装置105と通信する。処理装置106はクラウド上に設けられており、例えばデータの蓄積などを行う。処理装置105は撮像表示装置140や処理装置106とは別に設けられており、AI部104を有する。処理部102と処理装置105の間、および処理装置106と処理装置105との間は、ネットワークを介して接続している。図1(d)において、処理部102は、処理装置106に蓄積された設定情報を受信し、設定情報を基に予測画像情報の生成を行う。設定情報は、環境や対象物の基本的な情報や、予測画像情報を生成するための各種値を含む。また、処理部102は撮像部101からの画像情報を含む複数の情報を処理装置106へ送信する。複数の情報は、処理装置106を介して、処理装置105へ送信される。処理装置105は、受けとった複数の情報を基に予測画像情報を生成するための各種値を生成し、処理装置106へ送信する。処理装置106は、蓄積している基本的な情報や各種値を更新し、新たな情報として保持する。撮像表示装置140では、このように外部装置に蓄積された情報を利用して、予測画像情報を生成することができる。
図1(a)において、処理部102は、撮像部101で得られた画像情報を基に未来に撮像部101にて撮像される画像情報を予測し、予測画像情報として表示部103に伝達する。更に、処理部102では、画像情報だけではなく温度湿度情報、加速度情報、圧力情報等のその他情報も合わせて処理することができる。変形例である図1(b)の処理部102と、図1(c)の処理部102および処理装置105と、図1(d)の処理部102、処理装置105、および処理装置106も同様である。
次に、本実施例の撮像表示装置の動作について図2を用いて説明する。図2(a)と図2(b)は、本実施例の撮像表示装置100の動作を説明する図であり、ある時間における1フレームの画像情報と予測画像情報の関係を説明するための図である。図2(a)と図2(b)において、時刻Tnにおける画像情報をAn、処理部で処理後の未来の画像情報(予測画像情報)をBnとする。
図2(a)を用いて本実施例の撮像表示装置の動作について説明する。本動作において、撮像部101は、時刻T-2に画像情報A-2を、時刻T-1に画像情報A-1を、時刻Tに画像情報Aを、時刻T+1に画像情報A+1を得る撮像動作を行う。次に、処理部102は、入力された画像情報A-1、A、A+1を基に、予測画像情報B、B+1、B+2を生成する。そして、処理部102は、予測画像情報B、B+1、B+2を表示部103へ出力する。表示部103は、時刻Tに予測画像情報Bに基づく画像を、時刻T+1に予測画像情報B+1に基づく画像を、時刻T+2に予測画像情報B+2に基づく画像を表示する表示動作を行う。
つまり、ある時刻T-1に、撮像部101は画像情報A-1を得る撮像動作を行い、ある時刻T-1よりも後の時刻Tに、撮像部101は画像情報A-1とは別の画像情報Aを得る撮像動作を行う。時刻Tに、表示部103は画像情報A-1から生成された予測画像情報Bに応じた画像を表示する表示動作を行う。更に、時刻Tよりも後の時刻T+1に、撮像部101は、画像情報Aとは別の画像情報A+1を得る撮像動作を行う。そして、表示部103は、画像情報Aから生成された予測画像情報B+1に応じた画像を表示する表示動作を行う。
ここで、図3を用いて比較例を説明する。本実施例のような処理部102を有していない撮像表示装置では、撮像部101にて時刻T-1に撮像された画像情報A-1が表示部103にて時刻Tに表示されてしまう。
図2(a)に示す本実施例の予測画像情報を表示する場合と、図3に示す撮像部101で撮像した画像情報をそのまま表示する場合との違いについて説明する。ここで、現在の時刻が時刻Tである場合に、その時刻に現実の事象(実画像)は、画像情報Aである。本実施例の表示部103が表示する画像のもととなる情報は、予測画像情報Bである。ここで、撮像部101が撮像した画像情報をそのまま使用したとすると、表示部103が表示する画像のもととなる情報は、画像情報A-1である。ここで、画像情報の変化量は、(画像情報A-1-画像情報A)≧(予測画像情報B-画像情報A)となる。従って、本実施例の構成によって、現実の事象と表示される画像との差が低減した撮像表示装置を得ることができる。
更に、本実施例の予測画像情報を表示するタイミングについて説明する。本実施例の処理部102では、ある時刻において、撮像部101で撮像された画像情報と、表示部103が表示する画像との間に遅延が少なくなるように予測画像情報を生成する。その予測画像情報を表示するタイミングを次のように設定すると好ましい。
まず、撮像部101にて任意の時間Tnに画像が撮像されるとする。表示部103にて時刻Tnの予測画像情報が生成され、表示部103にて時刻Tnの予測画像情報にもとづく画像が表示される時刻をTmとする。ここで、撮像されるタイミングと表示されるタイミングの差分ΔTを式(1)で示すことができる。
ΔT=Tn-Tm・・・(1)
ここで、表示部103が1秒あたりに表示する画像の枚数である表示フレームレートDFR(fps;frame per second)とする。この差分ΔTが式(2)を満たすように撮像表示装置が制御される。より好ましくは、差分ΔTが式(3)を満たすように撮像表示装置が制御される。
-2/DFR≦ΔT≦2/DFR・・・(2)
-1/DFR≦ΔT≦1/DFR・・・(3)
例えば、表示フレームレートが240(fps)の場合、撮像されてから表示されるまでの1画像(1フレーム)の時間は約4×10-3(秒)である。したがって、差分ΔTは次のようになる。
-4×10-3≦ΔT≦4×10-3・・・(4)
このようなタイミングで予測画像情報にもとづく画像を表示することで、実画像と表示される画像の間の遅延が少ない動画表示が可能となる。この動画表示は、いわゆるリアルタイム表示とも言える。従って、本実施例ではリアルタイム表示、厳密には擬似的リアルタイム表示が可能となる。本実施例は、静止画でも適用可能であるが、動画において行うことが効果的である。
なお、このようなタイミングで表示する他に、予測画像情報を生成する際にも、この時刻の幅は利用できる。任意の時間に撮像部101にて撮像される画像情報をAnとする。同時刻に表示部103が表示する画像情報をDnとする。ここで、画像情報の差分ΔA、すなわち時間的なずれ量をΔA=Dn-Anとすることができる。ここで、図2(a)の実施例においては、Dn=Bnとなっている。つまり、ある時刻における撮像部101で撮像された画像情報、つまりその時刻の現実の事象(実画像)と、表示部103で表示された画像情報の時間的な差分が±4×10-3(秒)であればよい。画像情報の時間的な差分が±4×10-3(秒)とは、表示部103にて表示された画像が、ある時刻における実画像に対して4×10-3(秒)遅延した画像、あるいは4×10-3(秒)未来の画像となることである。予測画像情報はこのような条件で生成されると好ましい。なお、画像情報Anと画像情報Dnの比較は、例えば、画像情報Anと画像情報DnのRAWデータを用いて行うことができる。そして、差分の二乗平均平方根をとったときに±4×10-3(秒)以内に画像情報Dnが存在するようにすればよい。この差分の情報を用いて、処理部102は、次の予測画像情報を生成する際の各種パラメーターを設定する。
なお、図3のように撮像部101で撮像した画像情報を表示部103にて表示する際には遅延が生じる。特に、付加的な画像処理を行う場合には、遅延は100×10-3(秒)となる。しかし、本実施例の予測画像情報を生成することによって、実画像との時間的な差異のない表示を行うことができる。
また、付加的な画像処理とは、例えば、暗い画像の輝度をあげる暗視野画像処理、小さな被写体を拡大して表示する拡大画像処理、温度を画像表示する温度表示処理などである。本実施例の動作によれば、このような画像処理を行う時間を加えてもリアルタイム表示が可能となる。
次に、図2(b)における動作を説明する。本動作において、撮像部101は、時刻T-2に画像情報A-2を、時刻T-1に画像情報A-1を、時刻Tに画像情報Aを、時刻T+1に画像情報A+1を得る撮像動作を行う。次に、処理部102は、入力された画像情報A-1、A、A+1を基に、予測画像情報B+1、B+2、B+3を生成する。そして、処理部102は、予測画像情報B+1、B+2、B+3を表示部103へ出力する。表示部103は、時刻Tに予測画像情報B+1に基づく画像を、時刻T+1に予測画像情報B+2に基づく画像を、時刻T+2に予測画像情報B+3に基づく画像を表示する表示動作を行う。つまり、時刻Tに撮像されるであろう画像情報を予測し、時刻Tに表示させている。このように、撮像時刻よりも未来の時刻の情報を撮像時刻に表示させることが可能となる。この動作を連続的に繰り返すことで、実画像よりも未来の画像を連続的に表示する、すなわち映像として表示することができる。
予測画像情報の元となる画像情報について説明する。例えば、図2(a)の説明において、予測画像情報Bは画像情報A-1を基に生成される。図2(b)の説明において、予測画像情報B+1は画像情報A-1を基に生成される。つまり、1つの予測画像情報は1つの画像情報を基に生成される。しかし、1つの予測画像情報を2つ以上の画像情報に基づき生成してもよい。例えば、図2(a)において予測画像情報Bは画像情報A-2、A-1を基に生成されてもよく、図2(b)においては、予測画像情報B+1は画像情報A-2、A-1を基に生成されてもよい。従って、予測画像情報を、少なくとも1つの画像情報を利用して生成することが可能である。
本実施例のフレームレートについて説明する。まず、撮像部101の1秒あたりに取得する画像情報の枚数を撮像のフレームレートSFR(fps)とする。そして、上述のように表示部103の1秒あたりに表示する画像情報の枚数を表示のフレームレートDFR(fps)とする。このとき、本実施例の図2(a)および図2(b)におけるフレームレートの関係は、SFR=DFRである。しかし、撮像と表示のフレームレートは異なっていてもよく、特に、SFR≧DFRであることが望ましい。複数の撮像された画像情報から予測画像情報を生成することができるためである。
次に、撮像表示装置100の構造について説明する。まず、撮像部101が有する光電変換素子は、例えば、フォトダイオードやフォトゲートと、光電変換膜などを含みうる。フォトダイオードやフォトゲートの材料は、例えば、シリコン、ゲルマニウム、インジウム、ガリウム、ヒ素等が挙げられる。フォトダイオードの形態としては、例えば、PN接合型フォトダイオード、PIN型フォトダイオード、アバランシェ型フォトダイオード等が挙げられる。
撮像部101は、例えばCMOSイメージセンサを用いることができ、それは表面照射型でも裏面照射型でも良い。また、CMOSイメージセンサは、フォトダイオードが配置された半導体基板と、走査回路や制御回路が配置された半導体基板とが積層した構造を有していてもよい。
また、光電変換膜の材料は有機材料と無機材料とがある。有機の光電変換膜としては、例えば、一対の電極間に光電変換する有機層を少なくとも一層含んだ構造を有する。有機の光電変換膜は、一対の電極間に複数の有機層が積層された構造を有してもよい。有機層は単一材料でも複数の材料が混合されていてもよい。また、有機層は、例えば、真空蒸着プロセスや塗布プロセス等を用いて形成することができる。無機の光電変換膜は、例えば、有機層の代わりに、微細な半導体結晶を含有する量子ドット薄膜層を用いた量子ドット型や、ペロブスカイト構造の遷移金属酸化物等からなる光電変換層を有するペロブスカイト型などが挙げられる。
表示部103は、複数の発光素子を有する。発光素子は、例えば、液晶(LCD)、無機発光ダイオード(LED)、有機LED(OLED)、量子ドットLED(QLED)等である。無機LEDに使用される材料は、例えば、アルミニウム、ガリウム、ヒ素、リン、インジウム、窒素、セレン、亜鉛、ダイヤモンド、酸化亜鉛、ペロブスカイト半導体等である。これらを用いてpn接合構造にすることで、それぞれ材料のバンドギャップ差に相当するエネルギー(波長)を有する光が放出される。有機LEDは、例えば、一対の電極間に少なくとも1種の有機発光材料を含有した発光層を有し、複数の発光層を有していてもよく、複数の有機層が積層された構造を有しても、発光層は単一材料でも複数の材料が混合されていてもよい。発光層からの光は、蛍光でも燐光でもよく、単色発光(青色、緑色、赤色等)でも白色発光でもよい。また、有機層は、例えば、真空蒸着プロセスや塗布プロセス等を用いて形成することができる。
更に、撮像表示装置は、撮像部101と処理部102と表示部103の少なくとも3つのチップが積層され、半導体プロセスによって互いに電気的に接続した構造を有していてもよい。
本実施例の撮像表示装置100をウェアラブルデバイスとして使用する場合、処理部での処理データ量は少ないほど好ましい。なぜなら、ウェアラブルデバイスは可能な限り軽量化、薄型化の必要があり、データ処理の負荷が小さいほど処理部のチップを小さくできるためである。データ処理量の負荷を減らす方法として、例えば、図1(c)や図1(d)のようにAI処理を別装置(クラウド等)で行うことが挙げられる。また、処理量を減らす方法として、視線領域以外の部分の解像度を低下させる、視線領域以外の部分の静止画にする、視線領域以外の部分をカラーでなくモノクロで処理を行う等が挙げられる。
(実施例2)
本実施例について、図4および図5を用いて説明する。図4は、本実施例の撮像表示装置400を説明する模式図である。撮像表示装置400は、図1(c)に示す撮像表示装置130と同様に撮像部101と、処理部102と、表示部103と、処理部105とを有している。撮像表示装置400は、更に、環境情報を検出する検出部107を有する。撮像表示装置400では、処理部102と処理装置105がAI部104を有している。
検出部107は、少なくとも1つのセンサを有する。該センサは、少なくとも1つの環境情報を検出することができる。環境情報としては、気温、水温、湿度、気圧、水圧、輝度などが挙げられる。また、検出部107によって、撮像部101の被写体の加速度など物理的な情報を得てもよい。本実施例において検出部107は撮像表示装置400に内蔵されているが、外部に設けられていてもよい。
次に、撮像部101からの画像情報と、検出部107からの環境情報とを基に、例えば、ディープラーニング機能を有したAI部104により予測画像情報を生成する。このとき、処理部102での処理に要する時間を考慮した時刻の予測画像情報を生成する。つまり、ある時刻に撮像した場合、撮像から表示までの時刻に加え、処理に要する時間をある時刻に加えた未来の時刻での予測画像情報を生成する。詳細な動作については、実施例1と同様である。
次に、AI部104による処理について、野球を行っている場面を例に挙げ説明する。図5は、本実施例の撮像表示装置の動作を説明する図である。図5は、4つの時刻T-3、T-2、T-1、Tにおける4種類の例を示している。
図5の実像(明時)は、実像を示す。ここで、実像は、各時刻に撮像部101で撮像される画像とも言える。実像(明時)は、明るい環境で(明時に)野球を行う場合の各時刻の実像を示している。ピッチャーやボールがはっきりと確認できるため、バッターが時刻Tでボールを打ち返すことができる。
実像(暗時)は、実像を示す。ここで、実像は、各時刻に撮像部101で撮像される画像とも言える。実像(暗時)は、暗い環境で(暗時に)野球を行う場合の各時刻の実像を示している。肉眼ではボールが見えないため、バッターは時刻Tでボールを打ち返すことができない。つまり、時刻T-3、T-2、T-1において、実像(明時)と実像(暗時)のピッチャーとボールの動作や位置は同一であるが、時刻Tにおいて結果が異なっている。
比較例の画像では、暗時に野球を行う場合に、比較例の撮像表示装置を用いた場合を説明する。比較例の画像は、実像(暗時)に付加的に画像処理を行い、撮像表示装置に表示された画像を示す。実像(暗時)で説明したような肉眼では見えない状態であっても、撮像された画像情報に付加的な処理を行うことで実像(明時)のような表示をさせることが可能である。付加的な画像処理とは、暗時の画像の輝度を高める処理である。このような処理を行うことで、バッターがボールを見ることができる。しかし、遅延があるため、時刻T-1におけるボールの位置が実像とは異なってしまう。よって、バッターは時刻Tでボールを打ち返すことができない。
本実施例の画像では、暗時に野球を行う場合に、本実施例の撮像表示装置を用いた場合を説明する。本実施例の画像は、実像(暗時)に付加的に画像処理を行い、撮像表示装置100に表示された画像を示す。実像(暗時)で説明したような肉眼では見えない状態であっても、撮像された画像情報に付加的な処理を行うことで実像(明時)のような表示をさせることが可能である。更に、本実施例の撮像表示装置のように予測画像情報を用いた遅延のない画像を表示させることが可能である。従って、バッターは明時に野球を行っているように、時刻Tでボールを打ち返すことができる。時刻T-3、T-2、T-1、Tにおいて、実像(明時)のピッチャーとボールの動作や位置はほぼ同一である。
本実施例のように、予測画像情報を用いた撮像表示装置によって、リアルタイム表示が可能であるため、ボールのような動体の位置を正確に把握することができる。また、予測画像情報を用いるため、撮像された画像情報に付加的な処理を行った場合にも、リアルタイム表示が可能である。本実施例の撮像表示装置は、野球などスポーツをはじめとする動体の動きを撮像し表示する場合に好適である。
なお、図5の事例においては、検出部107は風向、風速などの情報を検出し、処理部102へと出力する。処理部102は、ボールの速度やコースの予測にこれら情報を利用してボールの予測画像情報を生成する。また、検出部107が輝度情報を検出することで、処理部102において付加的な画像処理を行うか否かの判定を行うこともできる。
また、本実施例の撮像表示装置400において、撮像フレームレートSFRを表示フレームレートDFRよりも大きくすることが好ましい。例えば、撮像フレームレートSFRを500fpsとし、表示フレームレートDFRを60fpsとする。SFR>DFRであるため、多くの画像情報を基に1つの予測画像情報を生成することができる。よって、表示される画像と実像との一致率がより正確になるため、動体の動きを正確に表示することができる。
なお、図1(d)のような外部の処理装置105へ送信する各種情報は、本実施例の図4に示す検出部107で取得した各種情報を含む。また、処理装置106に蓄積される基本的な情報とは例えば、バッテリーの投球データ、ピッチャーの投球フォームのデータ、天候、使用者(バッター)の情報である。
(実施例3)
本実施例では、実施例2に示した撮像表示装置400の別の動作について説明する。図6(a)および図6(b)は、本実施例の撮像表示装置の動作を説明する図である。図6(a)は実像であり、図6(b)は予測画像情報に基づく画像を示している。
図6(a)に示す実像は、ある時刻に撮像部101において取得された画像情報600とも言える。処理部102において、ある時刻よりも前に撮像された画像情報、および画像情報600の中の少なくとも2つの画像情報を用いて、動体602を検出する。また、同時に景色の中で特徴的な静体601を検出してもよい。特徴的な静体601とは、後に説明する視線検知等で特定可能である。ここでは、例えば、2本の木は特徴的な静体601であり、1つの電車は動体602である。その後の画像処理方法を説明する。
まず、1つの画像処理方法は、画像情報において動体602と判別された部分のみ、AI部104を用いて部分的な予測画像情報を生成する方法である。そして、静体601の画像情報の予測画像情報は生成しない。静体601は実像の変化が生じにくいためである。このようにして、生成された予測画像情報610を図6(b)に示す。図6(b)では、説明のため図6(a)における動体602を残している。予測画像情報610において、動体612の位置は動体602と異なり、静体611の位置は静体601(不図示)と変わらない。このような処理によって、リアルタイム表示をしつつ、処理部102の負荷を低減することができる。
次の画像処理方法は、動体602と判別された部分のみに、更に付加的な画像処理を行う方法である。付加的な画像処理として、動体602と判別された部分を高解像度化し、静体601と判別された部分は低解像度化する。表示部103では、高解像度の動体612と低解像度の静体611が表示される。部分によって処理を変えることで、処理部102の負荷を低減することができる。また、動体612を高解像度で表示し、静体611を低解像度で表示することで、人間の眼で見たときの画像に近い、自然な画像を提供することができる。
また、別の画像処理方法として、動体602の予測画像情報を生成した後に、表示部103へ信号を出力するまで時間がある場合には、動体602の周辺の静体である部分についても予測画像情報を生成する。これにより、より精度の高いリアルタイム表示が可能となる。
上述のように、処理部102において撮像部101から入力した画像情報において、まず動体検出を行い、部分ごとに処理方法を変える。このような処理方法によって、処理部102の負荷を低減しつつより高品質な画像を表示できる。
なお、静体と動体を検出する方法は、2つ以上の画像情報を用いる他にもある。例えば、検出部107として動体検出部を有していてもよい。動体検出部は、測距センサなども含みうる。なお、静体601と動体602の個数は、限定されない。
(実施例4)
本実施例の撮像表示装置を図7、図8を用いて説明する。図7は、本実施例の撮像表示装置700を説明する模式図である。撮像表示装置700は、図4に示した撮像表示装置400の検出部107を視線検知部108へと置き換えている。図7において、撮像表示装置700は視線検知部108を内蔵しているが、外付けの視線検知部108であってもよい。
図7において、撮像部101にて撮像された画像情報は処理部102に出力される。同時に、視線検知部108が取得する視線情報は処理部102に出力される。処理部102は、AI部104を用いて予測画像情報を生成する。更に、視線情報から未来の視線の動きや位置を予測し、予測視線情報を生成する。次に、予測視線情報によって視線が位置する部分を高解像度とし、それ以外の部分を低解像度とした画像処理を付加し、最終的な予測画像情報を生成する。表示部103では、リアルタイム表示をしつつ、予測された視線が位置する部分を高解像度で、それ以外の部分の低解像度で表示することができる。
この動作について、図8を用いて詳細に説明する。図8は、本実施例の撮像表示装置の動作を説明する図である。図8は、図5と同様に野球を行っている場面を示している。図8は、4つの時刻T-3、T-2、T-1、Tにおける3種類の例を示している。
実像は、各時刻に撮像される画像とも言える。バッターが時刻Tでボールを打ち返している。説明用画像は、実像に視線(視線領域)を模式的に示したものである。視線は視線検知部108によって検出されている。説明用画像において、視線はボールに合っており、視線がボールの移動に合わせて移動していることがわかる。本実施例の画像は、本実施例の予測視線情報を利用した画像である。視線が位置する部分を高解像度とし、それ以外の部分を低解像度とした画像処理を付加した予測画像情報に基づく画像である。ボールの部分は高解像度であり、ピッチャーの部分は低解像度であることがわかる。このような処理により、処理部102の負荷を低減しつつ、高品位な画像のリアルタイム表示が可能となる。
撮像表示装置700では、図4に示した検出部107を視線検知部108に置き換えているが、検出部107と視線検知部108の両方を有していてもよく、適宜、変更可能である。また、視線検知部108は、目の虹彩の位置を検出する方法や赤外線を照射して角膜反射を利用する方法など任意の手法を適用することができる。
(実施例5)
本実施例では、実施例4の視線検知部108が複数の視線領域を検出した場合の処理方法について図9を用いて説明する。図9は、本実施例の撮像表示装置の動作を説明する図である。図9は、図8と同様に野球を行っている場面を示し、3つの時刻T-3、T-2、T-1における3種類の例を示している。本実施例では、複数の視線領域に重みづけを行い、各視線領域を重みづけに応じた解像度に処理した予測画像情報を生成する。表示部103において、複数の視線領域の部分は重みづけに応じた解像度で、それ以外の部分は低解像度の画像が表示される。
図9を用いて詳細に説明する。実像は、各時刻に撮像される画像とも言える。実像は、ピッチャーと1塁ランナーがおり、バッターが時刻T-1でボールを打ち返そうとしているところを示している。
図9の説明用画像は、実像に視線領域を模式的に示したものである。各視線領域には重みづけの数値(%)が示されている。時刻T-3では、バッターの視線はピッチャーが投げるボールとランナーにある。ここで、ボールの視線領域に60%、ランナーの視線領域に40%と重みづけがされている。時刻T-2では、バッターの視線はボールにある。そこで、視線領域の重みづけは、ボールに90%、ランナーに8%、ピッチャーに2%となる。時刻T-1では、バッターの視線はほぼボールにある。視線領域の重みづけは、ボールに98%、ランナーに1%、ピッチャーに1%となっている。この重みづけは、処理部102においてなされ、視線検知部108で検出された視線の動きから判定してもよく、また別のAI部104によって判定されてもよい。
次に、本実施の画像は、本実施例の予測視線情報を利用した画像である。処理部102は、説明用画像に示した視線領域の重みづけに応じてその部分の解像度を調整し、予測画像情報を生成する。本実施の画像に示される数字は解像度の割合を示しており、最高解像度を100%とした場合の値である。視線領域以外の部分は、最低解像度で表示させることができる。これにより、人間の目で見える画像に近い画像を表示させることができる。また、処理部102の動作負荷を低減することができる。
(実施例6)
本実施例の撮像表示装置は、可視光以外(近赤外、赤外、紫外など)の光を利用した画像を表示することができる。例えば、図4に示す撮像表示装置400において、撮像部101は可視光領域を検出可能な光電変換素子と、可視光領域以外の波長帯の光を検出可能な光電変換素子を有する。例えば、撮像部101は少なくとも2つのエリアセンサを有する。1つは可視光用の光電変換素子が配されたエリアセンサであり、もう1つは可視光外用の光電変換素子が配されたエリアセンサである。または、撮像部101は1つのエリアセンサを有する。1つのエリアセンサは可視光用の光電変換素子と、可視光外用の光電変換素子を少なくとも1つずつ有している。
このような撮像部101によって、可視光領域の画像情報に加えて、近赤外光領域を含む可視光外の領域の画像信号も取得することができる。処理部102では、これらの画像情報を利用して、1つの可視光領域の予測画像情報を生成する。これにより、可視光領域の感度が低い状況においても、感度が向上した画像が表示される。つまり、本実施例の撮像表示装置によれば、人の眼には見えない像もリアルタイムで表示される。このような本実施例の撮像表示装置は、例えば、暗視装置、監視装置、双眼鏡、望遠鏡、医療用検出器等にも適用可能である。
(実施例7)
上記では、ディープラーニング機能を有したAI処理により予測画像情報を生成したが、本実施例では機械学習済モデルを利用した場合について説明する。専門家によるデータを収集し、学習済モデルを構築する。そして、非専門家に対して、専門家のデータに基づく予測画像情報を生成した撮像表示装置を適用する。例えば、プロスポーツ選手からデータを取得して学習済モデルを構築する。そして、この学習済モデルを利用したAI部によって予測画像情報を生成させる。アマチュア選手が本実施例の撮像表示装置を利用することで、アマチュア選手は、プロスポーツ選手の視線や注意の払いかたの特徴を体感することができ、より短時間でスポーツの上達が図られる。本実施例は、スポーツの分野だけでなく、熟練者の技術の継承が望まれる分野にも適用可能である。例えば、パイロット、医者、伝統工芸といった様々な分野で技能を必要とする職業や、セキュリティなど安全の分野など様々な分野に適用可能である。
(実施例8)
図10を参照して、各実施例の撮像表示装置のウェアラブルデバイスへの適用例について説明する。撮像表示装置は、例えばスマートグラス、HMD(Head Mounted Display)、スマートコンタクトレンズのようなウェアラブルデバイスに適用できる。
図10(a)は、スマートグラス1000を説明するための模式図である。スマートグラス1000は、眼鏡型撮像表示装置や眼鏡とも称する。スマートグラス1000は、眼鏡のフレームと、各実施例の撮像表示装置を有する。具体的には、スマートグラス1000は、少なくとも撮像部1001と、処理部1002と、表示部1003とを有する。2つの撮像部1001は眼鏡のフレーム側面に設けられ、処理部1002は眼鏡のテンプル(つる)に格納されている。表示部1003は、表示形式によって任意の位置に設けられるが、レンズ1011に含まれていても良い。いずれの場合にも、表示部1003はレンズ1011に画像を表示させる。なお、処理部1002は、AI部を含んでいてもよい。スマートグラス1000は、外部インターフェースを有し、処理部1002が外部のAI部とやり取りを行ってもよい。
図10(a)のスマートグラス1000は、左目用と右目用の2個の撮像表示装置を有していてもよい。この場合、左目用と右目用の撮像表示装置において、撮像および表示のタイミングを任意に設定することもできる。具体的には、同時刻に撮像し、別時刻に表示する動作や、別時刻に撮像して同時刻に表示する動作である。
図10(b)は、スマートコンタクトレンズ1020を説明するための模式図である。スマートコンタクトレンズ1020は、コンタクトレンズ型撮像表示装置やコンタクトレンズとも称する。1つのスマートコンタクトレンズ1020は、1つの撮像表示装置1021と、1つの制御装置1022とを有する。制御装置1022は、撮像表示装置1021に電力を供給する電源部として機能するとともに、AI部を有し、撮像表示装置1021の処理部を補助する。なお、AI部はスマートコンタクトレンズ1020とは別の端末に設けられていてもよい。スマートコンタクトレンズ1020には、撮像表示装置1021に光を集光するための光学系が設けられていることが好ましい。電源部は、外部との接続を行うインターフェースを有する。電源部の外部との接続(充電)は有線でも、無線でもよい。
図10(a)のレンズ1011や、図10(b)のスマートコンタクトレンズ1020の母材は透明であり、撮像表示装置の表示部は透明なレンズ部分に表示画像を投影する。その際、図2(b)で説明したような表示時刻よりも未来の予測画像情報に基づく画像を表示することもでき、実像と未来の予測された画像の両方を見ることができる。例えば、現実の時刻よりも少し先の画像情報をリアルタイムで表示できるため、例えば、野球において外野を守る際に、バッターが打つ打球の方向に先回りしてポジションを取ることができる。この際、実像と予測された画像の両方を見ることができるため、運動能力以上のプレイを実現することができる。また、撮像表示装置は、取得した画像情報を表示させるタイミングを自由に調整することができる。これにより、利用者(ユーザー)に適した動作を選択することができる。
また、図10(a)、図10(b)のように、撮像部1001と表示部1003とが別の位置に設けられていてもよいが、撮像部1001と表示部1003が視線状において積層するように設けられていてもよい。図10(c)に撮像部1001と表示部1003の断面模式図を示す。図10(d)に撮像部1001側からみた撮像部1001と表示部1003の平面模式図を示す。図10(e)に表示部1003側からみた撮像部1001と表示部1003の平面模式図を示す。図10(d)には、撮像部1001の画素が配列した撮像領域1031の重心が示されている。図10(e)には、表示部1003の画素が配列した表示領域1033の重心が示されている。図10(c)に示すように、2つの重心を線分Aが通るように、撮像部1001と表示部1003が設けられているとよい。それは、ウェアラブルデバイスにおいて、撮像された画像情報と表示される画像における位置の違いによって生じる差異を低減できるためである。
(実施例9)
本実施例では、撮像表示システムについて説明する。図11は、撮像表示システム1100を説明するための模式図である。本実施例の撮像表示システムは、複数の撮像表示装置1101と、少なくとも1つの制御装置1102とを有する。撮像表示装置1101はいずれの実施例の撮像表示装置であってもよく、例えば、図1(a)の撮像表示装置100であるものとする。
複数の撮像表示装置1101と制御装置1102は、信号の授受を行うことができる。撮像表示装置1101と制御装置1102のそれぞれは、有線あるいは無線の通信を行う外部インターフェース部を有している。制御装置1102は、複数の撮像表示装置1101から信号が入力され、複数の撮像表示装置1101を制御する信号を出力する。また、制御装置1102は、複数の撮像表示装置1101の処理部102の機能の一部を有していてもよい。撮像表示システムは、更に、別のデータ蓄積部、制御部、処理部などを有していてもよい。例えば、本撮像表示システムは、図1(d)に示した処理装置105や処理装置106を有していてもよい。その場合には、制御装置1102が処理装置105や処理装置106と通信することができる。
本実施例の撮像表示システムは、例えば、複数の撮像表示装置100を用いて、複数の撮像部101から得た画像情報を利用して、1つの表示部103に画像を表示することができる。具体的な例としては、複数名の人がそれぞれ撮像表示装置100を有しているとき、複数の撮像表示装置100で画像情報を取得し、別の1名が有する1つの撮像表示装置100にリアルタイム表示することができる。例えば、同フィールドでプレイするプロスポーツ選手の視線画像を、少なくとも1名の観客が同時にリアルタイムで見ることができる。
また、1つの撮像部101からの画像情報を利用して、複数の表示部103に画像を表示させてもよい。具体的には、1つの撮像表示装置100で画像情報を取得し、別の複数の撮像表示装置100にリアルタイム表示することができる。例えば、1名のプロスポーツ選手の視線画像を、複数名の観客が同時にリアルタイムで見ることができる。
このように、プロスポーツ選手の視線を体感することで、観客は自身がフィールドにいるかのような臨場感に溢れる画像を見ることができる
また、本システムにおいて、異なる表示装置における撮像動作や表示動作の間隔を異ならせることもできる。また本システムは、複数の撮像表示装置によって取得された画像情報や各種情報を共有化し、複数の撮像表示装置の予測画像情報を作成する際に利用することができる。
(実施例10)
本実施例について、図12を用いて説明する。図12は、本実施例の撮像表示装置800を説明する模式図である。図12は、図1(c)に示す撮像表示装置130と対応しており、同一の構成には同一の符号を付し説明を省略する。撮像表示装置800は、撮像部101と、処理部102と、表示部103と、処理部105とを有している。処理部102は、更に、画像情報を記録処理する記録部109を有する。撮像表示装置800では、処理部102と処理装置105がAI部104を有している。図12では、撮像表示装置800が記録部109を有しているが、処理部102が有していてもよい。記録部109の場所は適宜、設定できる。記録部109に入力される情報は、例えば、撮像部101からの画像情報であり、予測画像情報へと変換する前の情報である。このような画像情報を保持することで、予測ではない画像も取得することができる。
本実施例の動作を説明する。撮像部101からの画像情報は、記録部109と予測画像情報を生成する処理部102の両方に入力される。処理部102に画像情報が入力された後の動作については、実施例1と同様である。記録部109に入力された画像情報は、予測画像へと変換せずに、撮像部101で得られた画像情報のまま記録される。このような構成を有することで、処理部102において予測画像情報を生成することで現実の事象と表示される画像との間の時間的な差を低減させつつ、撮像部で得られた画像情報をそのまま記録することができる。
(実施例11)
本実施例では、実施例1の処理部102及びAI部104を用いて、さらに拡大処理を行う場合の方法について説明する。図13は、本実施例の撮像表示装置の動作を説明する図である。図13の外部情報は、図6と同様に実像であり、撮像部101において取得された画像情報とも言える。
例1は比較例である。例1の拡大画像は、撮像部101において取得された画像情報の特定の領域である一部分を拡大処理した部分画像情報を示している。ここで、表示部103は部分画像情報に基づいた画像を表示する。例1に示すように、一般に、拡大処理した部分画像情報は、解像度が低下してしまう。
例2は本実施例に係る例である。例1の拡大画像は、撮像部101において取得された画像情報の特定の領域である一部分を拡大処理した部分画像情報を示している。ここで、表示部103は部分画像情報に基づいた画像を表示する。例2では、処理部102は、一部分を拡大処理するとともに、高解像度化処理を行う。高解像度化処理は、解像度を向上させる処理であり、部分画素情報において、例えば、複数の画像情報を用いた画素間の補完処理で行うことができる。また、高解像度化処理は、AI部104によって、複数の画像情報を用いた補完処理や、画像情報の輪郭を検出して形状を推定するなどの補完処理を行うことでなされる。
本実施例の撮像表示装置では、処理部102及びAI部104において、画像情報に基づく画像の一部分を拡大処理することができる。よって、表示部103に拡大した部分画像情報に基づく画像を表示することができる。さらに、部分画像情報に対して高解像度化処理を施すことができる。なお、本実施例の拡大した部分画像情報に基づく画像は、他の実施例にて説明した現実の事象と表示される画像との間の時間的な差を低減させることができる機能と、同時に実現することができる。
各実施例において、野球を例に挙げて説明をしてきたがそれに限定されることはない。本発明の撮像表示装置によれば、現実の事象と表示される画像との時間的な差分を低減することができ、利用者は違和感を覚えることなくデバイスを使用できる。
100 撮像表示装置
101 撮像部
102 処理部
103 表示部
104 AI部
105 処理装置

Claims (27)

  1. 複数の光電変換素子を有する撮像部と、
    前記撮像部からの信号を処理する処理部と、
    前記処理部からの信号に基づく画像を表示する表示部と、を備え、
    前記撮像部は、第1時刻に第1画像情報を取得し、
    前記処理部は、前記第1画像情報を基に、前記第1画像情報に含まれる被写体を検出し前記被写体の動作を予測し、前記予測された被写体像を含む画像情報である前記第1時刻よりも後の第2時刻の第1予測画像情報を生成し、
    前記表示部は、前記第2時刻に、前記第1予測画像情報に基づく画像を表示することを特徴とする撮像表示装置。
  2. 前記第2時刻に、前記撮像部は第2画像情報を取得し、
    前記第2時刻よりも後の第3時刻に、前記撮像部は第3画像情報を取得し、
    前記処理部は、前記第2画像情報を基に、前記第2画像情報に含まれる被写体を検出し前記被写体の動作を予測し、前記予測された被写体像を含む画像情報である前記第3時刻の第2予測画像情報を生成し、
    前記表示部は、前記第3時刻に、前記第2予測画像情報に基づく画像を表示することを特徴とする請求項1に記載の撮像表示装置。
  3. 前記第1時刻と前記第2時刻の間の第4時刻に、前記撮像部は第4画像情報を得る撮像動作を行い、
    前記第1予測画像情報は、少なくとも前記第1画像情報と前記第4画像情報とから生成されていることを特徴とする請求項1または2に記載の撮像表示装置。
  4. 前記撮像部で1秒あたりに取得する画像情報の数を撮像フレームレートとし、前記表示部で1秒あたりに表示する画像の数を表示フレームレートとすると、前記撮像フレームレートは前記表示フレームレートと等しい、または前記撮像フレームレートは前記表示フレームレートよりも大きいことを特徴とする請求項1乃至3のいずれか1項に記載の撮像表示装置。
  5. 前記処理部は、前記第1画像情報の中で動体と静体を検出し、前記動体と検出された第1部分と、前記静体と検出された第2部分とを特定し、
    前記処理部は、前記第1予測画像情報を生成する際に、前記第2部分に低解像度化の処理を行うことを特徴とする請求項1乃至4のいずれか1項に記載の撮像表示装置。
  6. 前記撮像表示装置は、更に、視線を検知する視線検知部を有し、
    前記処理部は、前記第1予測画像情報を生成する際に、前記視線検知部が検知した視線領域以外の解像度を低下させる処理を行うことを特徴とする請求項1乃至5のいずれか1項に記載の撮像表示装置。
  7. 前記処理部は、前記第1予測画像情報を生成する際に、前記第2時刻の視線領域を予測することを特徴とする請求項6に記載の撮像表示装置。
  8. ある時刻に前記撮像部が取得する画像情報と、前記ある時刻に前記表示部が表示する予測画像情報との時間的な差分ΔAは、前記表示部が1秒あたりに表示する画像の枚数をDFRとすると、-2/DFR≦ΔA≦2/DFRを満たすことを特徴とする請求項1乃至7のいずれか1項に記載の撮像表示装置。
  9. 前記差分ΔAは、-4×10-3≦ΔA≦4×10-3を満たすことを特徴とする請求項8に記載の撮像表示装置。
  10. 前記処理部は、AI部を有することを特徴とする請求項1乃至9のいずれか1項に記載の撮像表示装置。
  11. 前記AI部はディープラーニング機能を備えることを特徴とする請求項10に記載の撮像表示装置。
  12. 前記AI部は学習済モデルを有し、前記学習済モデルは、専門家から取得したデータに基づき構築されていることを特徴とする請求項10に記載の撮像表示装置。
  13. 前記処理部において、前記第1予測画像情報に基づく画像の一部分について拡大処理した部分画像情報を生成し、前記部分画像情報に基づく画像を前記表示部に表示することを特徴とする請求項1乃至12のいずれか1項に記載の撮像表示装置。
  14. 前記処理部は、前記部分画像情報を生成する際に、前記一部分に対して解像度を向上させる処理を施すことを特徴とする請求項13に記載の撮像表示装置。
  15. 更に、前記第1画像情報を保持する記録部を有することを特徴とする請求項1乃至14のいずれか1項に記載の撮像表示装置。
  16. 前記複数の光電変換素子は、可視光領域と近赤外光領域の光が検出可能であり、
    前記処理部は、前記第1画像情報の前記近赤外光領域の画像情報を可視光領域の画像情報に変換する処理を行うことを特徴とする請求項1乃至15のいずれか1項に記載の撮像表示装置。
  17. 前記処理部は、前記第1画像情報の輝度よりも前記第1予測画像情報の輝度を高くする処理を行うことを特徴とする請求項1乃至16のいずれか1項に記載の撮像表示装置
  18. 前記撮像部は撮像が行われる撮像領域を有し、
    前記表示部は表示が行われる表示領域を有し、
    前記撮像領域の重心と、前記表示領域の重心とが一致していることを特徴とする請求項1乃至17のいずれか1項に記載の撮像表示装置。
  19. 前記表示部は、有機LEDまたは無機LEDを発光素子として有することを特徴とする請求項1乃至18のいずれか1項に記載の撮像表示装置。
  20. 前記撮像部は、裏面照射型のCMOSイメージセンサを含むことを特徴とする請求項1乃至19のいずれか1項に記載の撮像表示装置。
  21. 前記撮像部は、前記複数の光電変換素子が配された基板と、前記複数の光電変換素子からの信号を処理する回路が配された基板とが積層されていることを特徴とする請求項1乃至20のいずれか1項に記載の撮像表示装置。
  22. 前記撮像部が設けられた第1チップと、前記表示部が設けられた第2チップと、前記処理部が設けられた第3チップとの少なくとも3つのチップが積層されていることを特徴とする請求項1乃至21のいずれか1項に記載の撮像表示装置。
  23. 前記第3チップは前記第1チップと前記第2チップの間に設けられていることを特徴とする請求項22に記載の撮像表示装置。
  24. 請求項1乃至23のいずれか1項に記載の撮像表示装置と、
    前記撮像表示装置に電力を供給する電源部と、を備えることを特徴とするウェアラブルデバイス。
  25. 前記電源部は、外部との接続を無線で行うインターフェースを備えることを特徴とする請求項24に記載のウェアラブルデバイス。
  26. 複数の、請求項1乃至23のいずれか1項に記載の撮像表示装置と、
    前記複数の撮像表示装置を制御するための制御装置と、を有する撮像表示システム。
  27. 前記制御装置は、前記複数の撮像表示装置における前記第1時刻と前記第2時刻の間隔が異なるように制御することを特徴とする請求項26に記載の撮像表示システム。
JP2019126318A 2018-09-18 2019-07-05 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム Active JP7418075B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/562,304 US11048465B2 (en) 2018-09-18 2019-09-05 Imaging display device, wearable device, and imaging display system
US17/336,056 US11797259B2 (en) 2018-09-18 2021-06-01 Imaging display device, wearable device, and imaging display system
US18/460,397 US20230409275A1 (en) 2018-09-18 2023-09-01 Imaging display device, wearable device, and imaging display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018174104 2018-09-18
JP2018174104 2018-09-18

Publications (2)

Publication Number Publication Date
JP2020048185A JP2020048185A (ja) 2020-03-26
JP7418075B2 true JP7418075B2 (ja) 2024-01-19

Family

ID=69899997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126318A Active JP7418075B2 (ja) 2018-09-18 2019-07-05 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム

Country Status (1)

Country Link
JP (1) JP7418075B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7538647B2 (ja) 2020-07-27 2024-08-22 キヤノン株式会社 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム
EP4354852A1 (en) 2021-06-11 2024-04-17 Sony Group Corporation Information processing device, information processing method, and information processing program
JP2023061262A (ja) * 2021-10-19 2023-05-01 キヤノン株式会社 画像表示システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047178A1 (ja) 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017174125A (ja) 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
WO2018087879A1 (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 遠隔操作システム、交通システム、および遠隔操作方法
JP2018126851A (ja) 2017-02-10 2018-08-16 日本電信電話株式会社 遠隔操作通信システム及びその中継方法並びにプログラム
JP2018141943A (ja) 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08102924A (ja) * 1994-09-30 1996-04-16 Sharp Corp 画像入出力装置
JPH11122544A (ja) * 1997-10-16 1999-04-30 Sony Corp 撮像装置
JP5156571B2 (ja) * 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法
JP2018060980A (ja) * 2016-10-07 2018-04-12 キヤノン株式会社 撮像表示装置及びウェアラブルデバイス

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047178A1 (ja) 2015-09-16 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017174125A (ja) 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
WO2018087879A1 (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 遠隔操作システム、交通システム、および遠隔操作方法
JP2018126851A (ja) 2017-02-10 2018-08-16 日本電信電話株式会社 遠隔操作通信システム及びその中継方法並びにプログラム
JP2018141943A (ja) 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2020048185A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
JP7418075B2 (ja) 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム
JP5569156B2 (ja) 画像表示装置、電子機器、画像表示システム、画像取得方法、プログラム
WO2021106513A1 (ja) 電子機器
US8520114B2 (en) Apparatus for displaying and sensing images
US11126014B2 (en) Eyewear, eyewear systems and associated methods for enhancing vision
CN108351523A (zh) 利用头戴式显示器使用立体照相机以及结构光的深度映射
CN108140259A (zh) 虚拟和增强现实系统和方法
CN108139799A (zh) 基于用户的兴趣区(roi)处理图像数据的系统和方法
US10908427B2 (en) System for virtual reality or augmented reality having an eye sensor and method thereof
US20200049946A1 (en) Display apparatus and method of displaying using gaze prediction and image steering
JP2001188193A (ja) ヘッドマウントディスプレー
WO2021098349A1 (zh) 一种摄像模组、摄像头、终端设备及图像信息的确定方法
US20240211043A1 (en) Imaging display device and wearable device
WO2021225030A1 (ja) 電子機器及び撮像装置
JP7532072B2 (ja) 撮像表示装置、およびウェアラブルデバイス
US11797259B2 (en) Imaging display device, wearable device, and imaging display system
CN217787507U (zh) 近眼显示系统
US11233954B1 (en) Stereo infrared imaging for head mounted devices
JP2000221953A (ja) 映像表示装置、映像処理方法及びこれらを応用した映像表示システム
CN113329165A (zh) 成像显示设备、可穿戴设备以及成像显示系统
JP2013120988A (ja) 頭部装着型表示装置
US20230209188A1 (en) Image processing apparatus, image processing method, and image capture apparatus
US12058452B2 (en) Image blending
US20230247290A1 (en) Image capture apparatus and control method thereof
US20240205380A1 (en) Head-Mounted Electronic Device with Display Recording Capability

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7418075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151