JP2022129747A - 電子装置およびその制御方法 - Google Patents

電子装置およびその制御方法 Download PDF

Info

Publication number
JP2022129747A
JP2022129747A JP2021028555A JP2021028555A JP2022129747A JP 2022129747 A JP2022129747 A JP 2022129747A JP 2021028555 A JP2021028555 A JP 2021028555A JP 2021028555 A JP2021028555 A JP 2021028555A JP 2022129747 A JP2022129747 A JP 2022129747A
Authority
JP
Japan
Prior art keywords
electronic device
information
display
subject
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021028555A
Other languages
English (en)
Inventor
智行 塩崎
Tomoyuki Shiozaki
大士 鳥海
Hiroshi Chokai
淳 市原
Atsushi Ichihara
浩輝 北之迫
Hiroki Kitanosako
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021028555A priority Critical patent/JP2022129747A/ja
Priority to US17/678,471 priority patent/US20220270342A1/en
Publication of JP2022129747A publication Critical patent/JP2022129747A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Abstract

【課題】注目被写体の状態に応じて適切な検出情報を提示することが可能な電子装置を提供する。【解決手段】電子装置(100)は、ユーザ(1001)が注目している注目被写体(1003)を判定する判定手段(43)と、注目被写体に関する複数の検出情報を検出する検出手段(37、38、39)と、注目被写体に関連付けられた基準情報(1030)を参照する通信手段(54)と、複数の検出情報のうち少なくとも一つの情報(1021、1022、1023、1024、1025、1026)を提示する提示手段(29)と、基準情報と複数の検出情報とに基づいて、複数の検出情報のうち提示手段により提示される少なくとも一つの情報を決定する制御手段(50)とを有する。【選択図】図1

Description

本発明は、電子装置およびその制御方法に関する。
ヘッドマウントディスプレイ(HMD)等のウェアラブル端末を使用した作業支援システムでは、作業対象に関する情報を表示画面に提示することで、ユーザは作業対象から手を離さずに必要な情報を取得することができる。例えば特許文献1には、ウェアラブル端末を用いて、建設現場の3次元図面データを、ウェアラブル端末に搭載されたシースルー型の表示画面に重畳して表示する図面投影システムおよび方法が開示されている。例えば検査工程において、図面データと実物を照らし合わせながら作業を行うことで、作業対象の不良等に早期に気づくことができる。点検作業の精度向上および効率化につながるという利点がある。
また、作業支援システムの応用として、例えばウェアラブル端末に、カメラのみならず、位置検出デバイス、可視光外波長検出デバイスなどの異なる複数のセンシング手段を搭載することで、センシング結果に基づく様々な作業支援情報を提示することができる。目視では気づくことができない、作業対象に関する有益なセンシング情報を表示画面に提示することで、更なる作業効率の向上が見込める。
しかしながら、作業対象に関連する様々な情報を、表示画面に常時表示するのは煩わしい。そこで、例えば特許文献2には、撮影画像から被写体を認識し、認識された被写体に対応する情報を提示する方法が開示されている。
特開2018-74200号公報 特開2015-207168号公報
特許文献2に開示された方法では、認識対象(注目被写体)毎に表示する情報(検出情報)が固定されている。ユーザが必要とする情報は、作業対象(注目被写体)の状態に応じて異なる。例えば、作業対象の寸法に特徴がある場合には寸法情報、作業対象の温度に特徴がある場合には温度情報をそれぞれ表示することが望まれる。しかし、特許文献2には、複数の検出情報から必要な情報を選択して表示する方法について開示されていない。
そこで本発明は、注目被写体の状態に応じて適切な検出情報を提示することが可能な電子装置、電子装置の制御方法、およびプログラムを提供することを目的とする。
本発明の一側面としての電子装置は、ユーザが注目している注目被写体を判定する判定手段と、前記注目被写体に関する複数の検出情報を検出する検出手段と、前記注目被写体に関連付けられた基準情報を参照する通信手段と、前記複数の検出情報のうち少なくとも一つの情報を提示する提示手段と、前記基準情報と前記複数の検出情報とに基づいて、前記複数の検出情報のうち前記提示手段により提示される少なくとも一つの前記情報を決定する制御手段とを有する。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、注目被写体の状態に応じて適切な検出情報を提示することが可能な電子装置、電子装置の制御方法、およびプログラムを提供することができる。
各実施例におけるウェアラブル端末の外観図である。 各実施例におけるウェアラブル端末のブロック図である。 各実施例における音声信号処理部のブロック図である。 各実施例における撮像素子の構成図である。 各実施例における測距方法の説明図である。 実施例1におけるウェアラブル端末によるセンシング情報を提供するシステムの説明図である。 実施例1におけるウェアラブル端末によるセンシング情報を提供する方法のフローチャートである。 実施例1におけるウェアラブル端末によるセンシング情報を記憶するテーブルである。 実施例2における2台のウェアラブル端末によりユーザの死角を補助するシステムの説明図である。 実施例2における2台のウェアラブル端末によりユーザの死角を補助する方法のフローチャートである。 実施例2における2台のウェアラブル端末間で共有する位置関係情報の表示例である。 実施例3におけるウェアラブル端末により寸法測定を行う方法のフローチャートである。 実施例3におけるウェアラブル端末に搭載した2つの測距手段の測距信頼度の説明図である。 実施例4におけるウェアラブル端末の撮影画角と表示画角との関係の説明図である。 実施例4におけるウェアラブル端末の撮影画角と表示画角との関係の俯瞰図である。 実施例4におけるウェアラブル端末の並進移動に対する表示画角制御の説明図である。 実施例4におけるウェアラブル端末の光軸回転に対する表示画角制御の説明図である。 実施例4におけるウェアラブル端末による表示画角制御のフローチャートである。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。
まず、図1を参照して、各実施例におけるウェアラブル端末(電子装置)100について説明する。図1は、ウェアラブル端末100の外観図である。図1において、右眼用撮像ユニット150Rおよび左眼用撮像ユニット150Lはそれぞれ、後述のレンズ(レンズユニット)103および撮像部(撮像手段)22を含む撮像ユニット部である。右眼用および左眼用の撮影画像を、後述の右眼用表示ユニット160Rおよび左眼用表示ユニット160Lにそれぞれ表示することができる。撮像ユニット150Rおよび撮像ユニット150Lはそれぞれズーム機構を搭載しており、後述の音声UI(User Interface)等の操作手段を使用して、ズーム倍率を変更することができる。ズーム操作は、レンズズーム機構による光学ズームと、撮影画像の切り出しによる電子ズームとを、組み合わせることができる。
赤外LED照明部81およびTOF検出部83(これらをまとめて第2の測距手段という)は、Time of Flight方式(TOF方式)を利用した測距システムの、それぞれ発光照明部および検出部である。ただし、本実施例における方式は、これに限定されるものではなく、三角測量方式などの他の方式を用いてもよい。赤外LED照明部81は、TOF検出部83の周囲にリング状に配置されており、TOF検出部83の画角より十分に広い領域を照射することができる。なお、TOF方式の測距原理については後述する。
右眼用表示ユニット160Rおよび左眼用表示ユニット160Lはそれぞれ、後述の接眼部16、表示部(提示手段)29、および視線検知部41を含む表示ユニット部である。接眼部16は、接眼ファインダ(覗き込み型のファインダ)の接眼部であり、ユーザは、接眼部16を介して内部の表示部29に表示された映像(画像)を視認することができる。
次に、図2を参照して、ウェアラブル端末100の内部構成について説明する。図2は、ウェアラブル端末100のブロック図である。なお、レンズ103は複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。システム制御部(制御手段)50は、レンズシステム制御回路4と通信し、絞り駆動回路2を介して絞り1を制御することで、絞り制御を実現する。また、AF駆動回路3を介して、レンズ103内のフォーカスレンズを変位させることで対象に合焦させる。
ダイクロイックミラー21は、波長分離のために配置されており、可視光を透過する一方、赤外光を反射する構造を有する。ダイクロイックミラー21を透過した可視光成分は、ダイクロイックミラー21の後段に配置された可視光用の撮像部22により光電変換され、可視光画像信号が生成される。一方、ダイクロイックミラー21で反射された赤外光成分は、赤外光撮像部25により光電変換され、赤外光画像信号が生成される。
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、例えば、一般的な原色カラーフィルタを備える可視光撮影用の単板カラー撮像素子である。原色カラーフィルタは、各々650nm、550nm、450nm近傍に透過主波長帯を持つ3種類の色フィルタからなり、各々R(赤)、G(緑)、B(青)の各バンドに対応する画像を撮影する。撮像部22はA/D変換器を内蔵しており、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。撮像部22は、後述する撮像面位相差測距方式(撮像面位相差検出方式)による測距(焦点検出)が可能な画素構成を有する。
赤外光撮像部25は、撮像部22と同様に、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子であり、波長帯域に応じて、Si、InGaAs、InAsSbなどの材料を用いた撮像素子を採用してもよい。これにより、近赤外線(780~2500nm)、中赤外線(2500~25000nm)、或いは遠赤外線(4μm~1000μm)を検出する。近赤外線は、波長が物体に吸収されにくく、透過性が高いという特徴がある。この特徴を生かし、近赤外光での撮影画像は、対象の傷や異物(汚れ)の判定に適している。中赤外線或いは遠赤外線は、物体の温度を測定するサーモグラフィとして使用することが可能である。
画像処理部24は、撮像部22もしくは赤外光撮像部25からのデータ、または、後述するメモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また画像処理部24は、撮像した画像データを用いて所定の演算処理を行う。システム制御部50は、画像処理部24により得られた演算結果に基づいて、露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理が行われる。また画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、撮像部22、画像処理部24、およびメモリ32の間のデータ送受を制御する。撮像部22からの出力データは、画像処理部24およびメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られた画像データや、表示部29に表示するための画像データを格納する。またメモリ32は、画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部29により表示される。表示部29は、LCDや有機EL等の表示器上に、メモリ制御部15からの信号に応じた表示を行う。メモリ32に蓄積された画像データを、表示部29に逐次転送して表示することで、撮影画像のスルー表示を行うことができる。
視線検知部41は、不図示の赤外発光ダイオードを使用して、ファインダー画面内におけるユーザの視線位置を検出する。照射した赤外光はユーザの眼球(目)161R、161Lでそれぞれ反射し、その赤外反射光はダイクロイックミラー42に到達する。ダイクロイックミラー42は赤外光だけを反射して可視光を透過させる。光路を変更された赤外反射光は、不図示の結像レンズを介して視線検知部41の撮像面に結像する。視線検知部41は、例えばCCD型イメージセンサ等の撮像デバイスから成る。
注視判定部(判定手段)43は、ユーザが特定の撮影対象(被写体)を注視(注目)しているか否かを判定する。視線検知部41から検出結果を受信し、ユーザの視線が任意の被写体上の点に固定されている時間が所定の閾値を越えた場合に、その点を注視していると判定する。注視判定部43により注視していると判定された点に対応する被写体を注視被写体(注目被写体)という。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばFlash-ROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいうプログラムとは、各実施例にて後述する各種フローチャートを実行するためのプログラムである。
システム制御部50は、少なくとも1つのプロセッサまたは回路からなる制御部であり、ウェアラブル端末100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する各実施例の各処理を実現する。システムメモリ52には、例えばRAMが用いられ、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50はメモリ32、および表示部29等を制御することにより表示制御も行う。システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時手段である。
操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部70には、例えば音声UI操作部やタッチパッドが含まれる。図3は、音声UI操作部(音声信号処理部204)のブロック図である。音声入力部104はマイクであり、ウェアラブル端末100を装着したユーザの発声を音波として受信し、音声信号に変換する。音声信号処理部204は、音圧レベル検出部241、音声用メモリ242、および音声認識部243で構成される。音圧レベル検出部241は、音声入力部104の出力レベルがある閾値以上であることを検出する。音声用メモリ242は、予めコマンド用の音声データを格納している。また音声用メモリ242は、音圧レベル検出部241をトリガに、音声入力部104の出力データを逐次的に格納することにも使用される。音声認識部243は、音声用メモリ242に格納された特定の音声コマンドと、逐次的に格納されている音声データを比較し、音声コマンドと音声データとが一致しているか否かを判定する。例えば、音声コマンドを使用して、撮像ユニット150R、150Lのズーム倍率を変更することができる。
タッチパッドは、ウェアラブル端末100の側面(不図示)に搭載される。システム制御部50は、タッチパッドへの操作、または状態を検出できる。タッチパッド上に指がタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパッド上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチパッドは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
電源スイッチ71は、ウェアラブル端末100の電源のON/OFFを切り替える操作部材である。電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体180を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、リチウムイオン電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体180とのインターフェースである。記録媒体180は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部(通信手段)54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。また、外部のデータベースサーバとのデータ送受信を行うことができる。例えば、データベースサーバには、作業対象の3次元CADデータを格納していてもよい。作業対象に関する3次元図面データを、表示部29に実画像と重畳して表示する図面投影システムを構築することが可能である。通信部54は、無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)や Bluetooth Low Energyでも外部機器と通信可能である。
姿勢検知部55は、重力方向に対するウェアラブル端末100の姿勢を検知する。姿勢検知部55としては、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部55により、ウェアラブル端末100の動き(パン、チルト、ロール、静止しているか否か等)を検知することが可能である。
装着検知部57は、ウェアラブル端末100をユーザが装着したか否かを検知する装着検知センサである。システム制御部50は、装着検知部57で検知された状態に応じて、ウェアラブル端末100の起動(パワーオン)/停止(パワーオフ)を切り替えることができる。装着検知部57は、例えば赤外線近接センサを用いることができ、接眼部16への何らかの物体の接近を検知する構成としてもよい。物体が接近した場合は、装着検知部57の投光部(不図示)から投光した赤外線が反射して赤外線近接センサの受光部(不図示)に受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているかも判定することができる。なお、赤外線近接センサは一例であって、静電容量方式等の他のセンサを採用してもよい。
赤外LED照明部81は、TOFシステム用の照射手段であり、LED駆動部82によりある一定の周波数に変調され照射される。赤外LED照明部81による照射光は、測定対象を照射する。測定対象からの反射光は、不図示の結像レンズで結像され、測定対象距離に応じた遅れ時間tをもって、TOF検出部83に到達する。例えば、遅れ時間tが10ナノ秒である場合、光の速度cは30万km/秒のため、被写体距離は3m(=10ナノ(0.00000001)秒×30万km)と算出できる。TOF検出方式での測距分解能dは、以下の式(1)のように表される。
Figure 2022129747000002
ここで、fminは変調周波数、Nはノイズを除去した後に使用可能な有効信号電子数である。つまり、信号対ノイズ比を表すSNRに距離分解能は依存する。反射率が同一の測定対象であれば、測定対象が遠いほどSNRが小さくなる。結果として、TOF検出部83の測距可能範囲内においては、測距対象が遠いほど距離分解能が下がる。測距可能範囲内は赤外LED照明部81の出力に依存し、高出力を得るには大型なLED及び高消費電力が必要となる。各実施例では、ウェアラブル端末に好適な構成を想定し、数メートル先の対象まで測距可能な仕様とする。
特徴点抽出部33は、画像処理部24で演算された画像データから、所定数の特徴点を抽出する。特徴点抽出部33により撮影フレームごとに抽出された特徴点は、メモリ32に情報保持される。特徴点抽出方法としては、SIFT(Scale-Invariant Feature Transform)、FAST(Features rom accelerated segment test)等の種々の方法がある。または、ORB(Oriented FAST and Rotated BRIEF)を用いてもよい。検出された特徴点は、例えば、BRIEF(Binary Robust Independent Elementary Features)等の省メモリかつ高速なマッチングが可能な二値ベクトルを計算する特徴量記述子として記憶される。
特徴点追跡部34は、メモリ32に情報保持された特徴点情報を読み出し、新規撮影フレームの画像データ内で抽出した特徴点と比較する。これにより、複数の画像間で特徴点をマッチングする。マッチングの方法には、例えば、全探索法(Brute-Force matcher)、近似最近傍探索法(FLANN based matcher)、Mean-Shift探索法が用いられる。
3次元形状復元部35は、取得した複数の撮影画像データから、撮影シーンの3次元形状を復元する。3次元形状復元手段としては、例えば、SfM(Structure from Motion)や SLAM(Simultaneous Localization and Mapping)といった手法を用いる。いずれの手法においても、3次元形状復元部35は、姿勢及び位置の異なる複数の撮影画像に対して、特徴点追跡部34による抽出特徴点のマッチングを行い、画像間の対応点を見つける。そして、例えば、Bundle Adjustment等による最適化手法を用いることで、マッチングした特徴点の3次元位置(3次元点群データ)、カメラ位置、およびカメラ姿勢を推定する。また3次元形状復元部35は、姿勢検知部55の出力を前述の最適化条件に加えるVisual Inertial SLAMといった手法を用いて、3次元点群データとカメラ位置姿勢の推定精度を向上させてもよい。またシステム制御部50は、TOF検出部83による測距結果を更に加え、SLAMによる推定精度を向上させてもよい。
3次元形状照合部(算出手段)36は、3次元形状復元部35が生成した3次元点群データの形状と、外部データベース等に格納された3次元CADデータ上の対象オブジェクトの形状とをアライメントし、配置を照合する。アライメントには、ICP(Iterative Closet Point)アルゴリズム等の手法を用いても良い。外部データベースとは、通信部54を介してデータの送受信を行う。これにより、特徴点抽出部33が抽出した各特徴点が、対象オブジェクト座標系において、どの座標位置に相当するか照合することができる。また、その配置関係から、各画像データ撮影時におけるウェアラブル端末100の位置及び姿勢を推定することができる。
傷汚れ検出部37は、赤外光撮像部25で取得した赤外線画像データから、測定対象上の傷或いは異物付着による汚れによる欠陥の有無を検出する。傷検出方法としては、例えば欠陥部と欠陥部以外の部材表面の赤外線放射率の差を利用する。この放射率の差は赤外線画像データ上の濃淡の差として現れる。赤外線画像データにエッジ処理や背景ノイズカットなどの画像処理を施し、検出された欠陥の長さ及び面積が基準判定閾値以上であれば、欠陥として判定する。例えば、撮像部22で取得した画像データから傷や異物を検出する方式としても構わない。
温度計測部(温度検出手段)38は、赤外光撮像部25で取得した赤外線画像データから、測定対象の2次元温度分布を測定する。理想的な赤外線放射体であれば、放射量と温度の関係はステファン・ボルツマンの法則に従う。測定対象から発せられる赤外線放射輝度を、理想的な赤外線放射体である黒体放射輝度と比較することで、温度に換算することができる。
寸法測定部(寸法検出手段)39は、例えばTOF検出部83によって取得された測距情報に基づき、測定対象の寸法を測定する。3次元の座標点を撮影画像空間へ透視投影変換するための既知の幾何学関係を表すカメラパラメータを使用し、撮影画像上の物体の写像を、実スケールの3次元形状に復元することができる。これにより、物体の指定箇所の寸法を測定することが可能となる。なお、寸法の測定は、3次元形状復元部35を用いて復元する方式としても勿論構わない。測距手段は、撮像部22の撮像面位相差測距方式を用いても勿論構わない。
次に、図4を参照して、撮像部22における撮像素子の構成について説明する。図4は、撮像素子の構成図である。図4(a)に示されるように、撮像素子は、複数の画素200が2次元に規則的に配列されている。具体的には、複数の画素200は、例えば二次元格子状に配列されている。なお、画素200の配列構成は、格子状の配列構成に限定されるものではなく、他の配列構成が採用されるものであってもよい。
撮像面位相差測距方式の測距機能(焦点検出機能)を実現するため、各画素200は、図4(b)に示されるマイクロレンズ201と、一対の光電変換部である瞳分割画素202a及びbを有する。瞳分割画素202a、202bは、撮像面がy軸方向を長手方向とする長方形状を有する、同形同大に構成された光電変換部である。各画素200において、瞳分割画素202a、202bは、マイクロレンズ201のy軸方向に沿った垂直二等分線を対称軸として、線対称に配置されている。なお、瞳分割画素202a、202bの撮像面形状は、これに限定されるものではなく、他の形状であってもよい。また、瞳分割画素202a、202bの配置態様も、x方向に並列に配置されるものに限られるものではなく、他の配置態様が採用されるものであってよい。
このような構成により、各実施例の撮像部22は、撮像素子の全ての画素が有する瞳分割画素202aから出力された画像信号に係るA像と、同様に瞳分割画素202bから出力された画像信号に係るB像とを出力する。A像とB像とは、合焦している位置との距離に応じた視差を有する関係にある。
システム制御部50は、撮像範囲の奥行き方向における被写体の距離分布を示す情報として、撮像画像に含まれる各被写体の像のデフォーカス量を算出する。デフォーカス量は、各実施例のように取得した視差を有する画像群(A像及びB像)に基づいて導出する場合、例えば以下に説明するように行う。デフォーカス量の導出は、例えば画像(A像とB像)を小ブロックに分割する処理を含む。小ブロックは、例えば対象であるA像の各画素を着目画素とした場合に、該画素を中心とする予め定められたサイズの領域に対して設定されるものであってよい。なお、以下の説明では小ブロックは、m×m画素の正方領域として設定されるものとして説明するが、小ブロックの形状やサイズはこれに限定されない。
例えば、A像及びB像の各画素について小ブロックが設定されると、両画像間で画素(着目画素)ごとに相関演算処理を行い、該画素に対応する小ブロックに含まれる像のずれ量(像ずれ量)を導出する。A像及びB像とで同一位置の着目画素について定められた(一対の)小ブロックのデータ数(画素数)がmである場合、該一対の小ブロックの画素データをそれぞれE(1)~E(m)、F(1)~F(m)として表現する。この場合、(データの)ずらし量をk(整数)[pixel]とすると、相関演算処理において、相関量C(k)は以下の式(2)により求められる。
C(k)=Σ|E(n)-F(n+k)| … (2)
ここで、Σ演算はnについて行われ、n及びn+kは1~mの範囲に限定されるものとする。また、ずらし量kは、一対の画像データの検出ピッチを単位とした相対的シフト量である。このように、1つの着目画素に係る一対の瞳分割画像(一対の小ブロック)について相関量を導出すると、ずらし量kと相関量C(k)は、例えば図5(a)のグラフに示されるような関係となる。このとき、相関が最も高い像ずれ量において相関量C(k)が最小になる。これより、下記の3点内挿の手法を用いて、連続的な相関量に対する最小値C(x)を与えるずらし量xを以下の式(3)より導出することができる。
x=kj+D/SLOP
C(x)=C(kj)-|D|
D={C(kj-1)-C(kj+1)}/2
SLOP=MAX{C(kj+1)-C(kj),C(kj-1)-C(kj)} … (3)
ここで、kjは離散的な相関量C(k)が最小となるずらし量kである。このようにして求めたずらし量xが、1つの着目画素における像ずれ量として求まる。従って、各着目画素におけるデフォーカス量DEFは、像ずれ量xを用いて、以下の式(4)より算出することができる。
DEF=KX・PY・x … (4)
ここで、PYは、撮像素子の画素ピッチ(撮像素子を構成する画素間距離。単位[mm/pixel])であり、KXは、一対の測距瞳を通過する光束の重心の開き角の大きさによって決まる変換係数である。なお、一対の測距瞳を通過する光束の重心の開き角の大きさは、レンズ103のF値(Fno)に応じて変化するため、撮像時の設定の情報に応じて決定されるものとする。ここで、F値はレンズの焦点距離fを絞りの有効口径Aで割った値(Fno=f/A)である。このように、着目画素位置を1画素ずつずらしながら繰り返し計算することで、撮像画像の各画素における被写体のデフォーカス量を導出することができる。
図5(b)は、レンズ103を薄レンズ近似した場合のレンズを境界とする被写体側(物体側)と撮像素子の(像面側)の結像関係を示す。薄レンズ近似に基づき、以下の式(5)の関係が成り立つ。
1/Zo+1/So=1/f
1/Zdef+1/(So+DEF)=1/f … (5)
ここで、Zoは合焦被写体の物体側距離、Zdefはデフォーカス被写体の物体側距離、Soは合焦被写体の像面側距離、Sdefはデフォーカス被写体の像面側距離(Sdef=So+DEF)である。これらの式から、被写体までの距離は以下の式(6)より求めることができる。
Zdef=(Sdef・f)/(Sdef-f) … (6)
なお、像ずれ量に関して、以下の式(7)の関係が成り立つ。
PY・x=|So-Sdef|・f/{So・Fno・(Sdef-f)} … (7)
像ずれ量は、画素ピッチPYに基づく離散量である。つまり、測距分解能は像ずれ量の敏感度で決まる。数7に示す通り、焦点距離fが長く、且つFnoが小さいほど最小分解能は大きくなる。このとき、測距対象付近に合焦していると仮定すれば、最小測距分解能dTOFは、以下の式(8)のように近似することができる。
DEF=DOF/2
DOF=2・Zo・Fno・PY/f … (8)
ここで、DOF(Depth of Filed)は1[pixel]の像ずれ量に相当する被写界深度と同義である。
次に、図6および図7を参照して、本発明の実施例1におけるウェアラブル端末100によるセンシング情報の提供方法について説明する。図6は、本実施例におけるウェアラブル端末100によるセンシング情報を、作業対象に応じて表示するシステムの説明図である。図6(a)において、作業者(ユーザ)1001は、ウェアラブル端末100を装着している。ウェアラブル端末100は、通信部54を介して、作業対象オブジェクト1002、1003の3次元データを格納したデータベースサーバ1010と情報を送受信することが可能である。ここで、データ空間1011はデータベースサーバ1010のデータ空間を表しており、3次元データ(基準情報)1020、1030は、例えばそれぞれ作業対象オブジェクト1002、1003の3次元CADデータである。作業者1001は作業対象オブジェクト1003上の点線で記された領域(注視領域、注目領域)1006を注視している。オブジェクト座標系1007は、対象作業オブジェクト空間上に固定された座標系である。カメラ座標系1008は、ウェアラブル端末100に固定された座標系である。
図7は、本実施例におけるウェアラブル端末100によるセンシング情報を提供する方法のフローチャートである。図7のフローチャートにおける各処理は、ウェアラブル端末100のシステム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行し、各機能ブロックを制御することにより実現される。図7(a)は、ウェアラブル端末100によるセンシング情報を対象オブジェクト毎に紐付けし(関連付けて)、データベースサーバ1010に記憶する方法を示すフローチャートである。図7(b)は、ウェアラブル端末100によるセンシング情報を、データベースサーバ1010に記憶されている基準値と比較し、提示情報を切り替える方法を示すフローチャートである。それぞれ以下に説明する。
まずステップS101において、システム制御部50は、撮像部22によって得られた撮影画像をメモリ32へ格納する。続いてステップS102において、システム制御部50は、特徴点抽出部33を使用し、撮影画像データから特徴点を抽出する。続いてステップS103において、システム制御部50は、メモリ32に情報保持された過去フレームの特徴点情報を読み出し、新規に抽出した特徴点と合わせて特徴点追跡部34に送信する。特徴点追跡部34は、各フレーム間の特徴点のマッチングを行う。続いてステップS104において、システム制御部50は、マッチング結果を3次元形状復元部35に送信する。3次元形状復元部35は、マッチングされた特徴点を、3次元点群データに変換する。
続いてステップS105において、システム制御部50は、データベースサーバ1010から、作業対象オブジェクトの3次元データ1030を受信する。システム制御部50は、3次元形状照合部36を使用して、3次元点群データと、3次元データ1030とをアライメントし、位置および姿勢を照合する。続いてステップS106において、システム制御部50は、ステップS105の照合結果に基づき、オブジェクト座標系1007におけるウェアラブル端末100の位置及び姿勢(カメラ座標系1008の位置、姿勢に同義)を推定する。このとき、オブジェクト座標系1007におけるウェアラブル端末100の位置及び姿勢を把握することで、複数の同一形状オブジェクトを個体ごとに識別することが可能である。
続いてステップS107において、システム制御部50は、寸法測定部39を用いて、作業対象オブジェクト1003の寸法を測定する。続いてステップS108において、システム制御部50は、傷汚れ検出部(傷検出手段、汚れ検出手段)37を用いて、作業対象オブジェクト1003表面上、或いは赤外光で透視することで検出可能な作業対象オブジェクト1003内部の傷或いは汚れを検出する。続いてステップS109において、システム制御部50は、温度計測部38を用いて、作業対象オブジェクト1003上の温度分布を測定する。続いてステップS110において、システム制御部50は、システムタイマー53を用いて、ステップS107、S108、S109のセンシング時刻(検出情報の取得時刻)を計時する。
続いてステップS111において、システム制御部50は、データベースサーバ1010へセンシング結果(検出情報)を送信し、記憶する。データベースサーバ1010は、例えば図8に示されるテーブルのように、センシング結果を記憶する。ここでは、データベースサーバ1010は、識別オブジェクトID(識別情報)、オブジェクト座標系1007における被センシング位置(被検出位置)の座標、ステップS107~S109のセンシング結果とセンシング時刻とを紐づけて(関連付けて)記憶する。このとき、例えば寸法情報は、3次元データ1030の寸法基準値からの差分値(差分情報)を記憶しても良い。例えば傷或いは汚れの情報は、有無の結果と合わせて、有と判定された際にはその形状を合わせて記憶しても良い。形状は、寸法測定部39を用いて測定される。
続いてステップS112において、システム制御部50は、電源スイッチ71の検出結果または操作部70の検出結果に基づき、動作を停止するか否かを判定する。YESと判定された場合、センシング処理フローを停止する。NOと判定された場合、ステップS101に戻り、センシング処理フローを繰り返す。ステップS113において、システム制御部50は、図7(b)のフローを実施する。図7(b)を参照して以下に説明する。
まずステップS201において、システム制御部50は、注視判定部43の判定結果を参照し、作業者1001の注視点を検出する。注視判定は、オブジェクト座標系1007において、作業者1001の視線が特定部位に固定されている時間が所定の閾値を越えた場合に、その部位を注視していると判定する。続いてステップS202において、システム制御部50は、注視点にあるオブジェクトを識別する。図6に示される例では、作業対象オブジェクト1003が注視点対象オブジェクトに相当する。
続いてステップS203において、システム制御部50は、作業対象オブジェクト1003の情報をデータベースサーバ1010に要求する。続いてステップS204において、システム制御部50は、データベースサーバ1010から、3次元データ1030および図8に示されるテーブル情報を受信する。続いてステップS205において、システム制御部50は、最新のセンシング結果と基準値とを比較する。ここで基準値とは、3次元データ1030および図8に示されるテーブルの過去情報を意味する。
続いてステップS206において、システム制御部50は、基準値と比較して、寸法情報に差異(特徴)があるか否かを判定する。例えば、基準値である3次元データ1030の寸法値と、最新の寸法測定値との差分が既定の規格値以上である場合に、差異(特徴)ありと判定する。または、図8に示されるテーブルにおいて、一回前の測定時の過去情報を基準値として、最新の寸法測定値との差分が既定の規格値以上である場合に差異(特徴)ありと判定する。または、図8に示されるテーブルにおいて、初回測定時の過去情報を基準値として、最新の寸法測定値との差分が既定の規格値以上である場合に差異ありと判定する。YESであれば、ステップS207へ移行する。NOであれば、ステップS208へ移行する。
ステップS207において、システム制御部50は、作業対象オブジェクト1003の寸法測定結果を表示部29に表示する。表示例を図6(b)に示す。表示1110は、表示部29に表示される映像を示している。寸法表示1021は、作業対象オブジェクト1003の高さ寸法測定結果が規格を満足しておらず寸法値を情報表示した例である。寸法警告表示1022は、高さ寸法測定結果が、基準値より幾つ大きいかを示す警告表示例である。
ステップS208において、システム制御部50は、基準値と比較して、温度情報に差異(特徴)があるか判定する。例えば、3次元データ1030に対して既定されている温度上限値に対して、最新の温度測定結果が既定の規格値以上である場合に、差異(特徴)ありと判定する。または、図8に示されるテーブルにおいて、一回前の測定時の過去情報を基準値として、最新の温度測定値との差分が既定の規格値以上である場合に差異ありと判定する。または、図8に示されるテーブルにおいて、初回測定時の過去情報を基準値として、最新の温度測定値との差分が既定の規格値以上である場合に差異ありと判定する。或いは、一定時間内に計測された一定範囲内の座標の過去温度情報に対して、最新の温度測定値との差分が既定の規格値以上である場合に差異ありと判定する。YESであれば、ステップS209へ移行する。NOであれば、ステップS210へ移行する。
ステップS209において、システム制御部50は、作業対象オブジェクト1003の温度測定結果を表示部29に表示する。表示例を図6(c)に示す。表示1110は、表示部29に表示される映像を示している。温度表示1023は、作業対象オブジェクト1003の温度が規格を満足しておらず情報表示した例である。温度表示1023は、図6(c)に示のように、等しい温度を色分けして分布表示する方式としても良い。カラーバー表示1024は、各色が何℃を示しているかを表している。
ステップS210において、システム制御部50は、基準値と比較して、傷汚れ情報に差異(特徴)があるか判定する。例えば、基準値である3次元データ1030に対して既定されている傷汚れの許容寸法値を、検出した傷汚れの形状が満足していなければ差異(特徴)ありと判定する。或いは、図8に示されるテーブルにおいて、一回前の測定時の過去情報を基準値として、最新の測定結果で傷汚れの形状が既定の規格値以上変化していれば差異ありと判定してもよい。または、図8に示されるテーブルにおいて、一回前の測定時の過去情報を基準値として、最新の測定結果で傷汚れが検出されなければ、傷汚れがなくなったことを差異ありと判定してもよい。YESであれば、ステップS211へ移行する。NOであれば、ステップS212へ移行する。
ステップS211において、システム制御部50は、作業対象オブジェクト1003の傷汚れ検出結果を表示部29に表示する。表示例を図6(d)に示す。表示1110は、表示部29に表示される映像を示している。傷表示1025は、作業対象オブジェクト1003上に基準の規格を超える傷があり、情報表示した例である。傷表示1025は、傷1027を内包する領域の表示である。傷警告表示1026は、傷の形状を示す警告表示例である。ステップS212において、システム制御部50は、規格を満足しない測定結果はなかったと判定し、異常がないことを表示部29に表示する。
以上、ウェアラブル端末100によるセンシング情報を提供する方法について説明した。本実施例によれば、作業者が必要とする作業対象オブジェクトを識別し、対象オブジェクトに設けられた基準値に対して、満足しないセンシング結果を作業者に情報提示することが可能となる。作業対象でないオブジェクトに関する情報や、必要としないセンシング情報を表示しないことで、表示の煩わしさを軽減することが可能となる。
本実施例では、作業対象オブジェクトの寸法値、温度、傷或いは汚れが基準値と比較して差異がないかを判定し、差異があればステップS207、209、211に示すような情報を表示する。例えば、複数のセンシング結果に対して該差異が発生している場合、各情報を合成して同時に表示しても構わない。また、例えば、複数のセンシング結果に対して予め優先度を定め、優先度の高いセンシング結果のみ情報表示しても構わない。また、例えば、各センシング結果において、該差分の程度をレベル判定できる構成とし、レベルが高い(差分が大きい)センシング結果を優先して表示する構成としても構わない。
本実施例の構成では、3次元データ1030をデータベースサーバ(記憶装置)1010から受信し、且つセンシング結果をデータベースサーバ1010に記憶する方式としたが、データベースサーバ1010は必須ではない。例えば、ウェアラブル端末100の記憶装置に必要な3次元データおよびセンシング結果を全て保存する方式としても構わない。一方、データベースサーバ1010する利点としては、ウェアラブル端末100の記憶容量を削減できる点がある。また、複数のウェアラブル端末100を使用した場合に、センシング情報を共有できる利点がある(複数のウェアラブル端末により検出した検出情報を共通の記憶装置に記憶させることができる)。
本実施例の図7に示される処理フローは、複数のウェアラブル端末100を用いて実施する構成としても構わない。他のウェアラブル端末100でセンシングした結果を基準値として使用しても構わない。
本実施例では、ステップS105において、3次元データ1030と3次元点群データとを照合する構成としたが、3次元データ1030は必ずしも必要ではない。過去に取得した3次元点群データを基準値としても勿論構わない。また、3次元復元方法は3次元点群データを生成する方式に限らない。特徴量を点ではなく、線や円などの幾何学量とし、3次元復元する方式を用いても構わない。また、Dens SLAMのような撮影画像データの画素を全て用いて3次元復元する方式としても構わない。
本実施例では、寸法、温度、或いは傷汚れをセンシング情報として表示する方式としたが、これに限定されるものではない。複数のセンシング情報を、基準値(基準情報)からの差分情報に基づき、提示を切り替える方式であれば、どのようなセンシング情報を用いても構わない。
本実施例では、図8に示されるテーブルに基づき情報を記憶する方式としたが、これに限定されるものではない。過去のセンシング情報と最新のセンシング情報との比較が可能であれば、この方式に限定されるものではない。
本実施例では、注視点検出手段により注視オブジェクトを識別する方式としたが、これに限定されるものではない。何らかの操作手段による選択により作業対象オブジェクトを指定する方式としても勿論構わない。
次に、図9および図10を参照して、本発明の実施例2におけるウェアラブル端末100によるセンシング情報の提供方法について説明する。実施例1では、単数のウェアラブル端末100による構成を説明したが、本実施例では、複数のウェアラブル端末100により、一方のウェアラブル端末100からは見えない死角にあたる作業領域の情報を、作業者に提供する方法を説明する。実施例1では、作業対象に関して提示される情報は、ユーザが見ている対象の情報のみとなる。このため、例えば点検作業において、作業者にとって死角の位置に点検すべき対象がある場合、実施例1では見過ごす可能性がある。本実施例では、複数のユーザがウェアラブル端末100を使用した場合に、一方のユーザが注目する作業対象の死角領域に対して、他のユーザが得た情報を提供することが可能な構成を説明する。
図9は、本実施例における2台のウェアラブル端末100a、100bにより、ユーザの死角を補助するシステムの説明図である。図9において、主作業者である作業者(ユーザ)1001aは、ウェアラブル端末100aを装着している。副作業者である作業者(ユーザ)1001bは、ウェアラブル端末100bを装着している。ウェアラブル端末100a、100bは、通信部54を介して、画像データを含む情報を相互に送受信することが可能である。作業者1001aは、作業対象オブジェクト1002上の点線で記された領域1004を注視している。一方、作業対象オブジェクト1002上の点線で記された死角領域1005は、作業者1001aから見て作業対象オブジェクト1002の裏側の領域であり、作業者1001aの死角となる。表示1110aは、ウェアラブル端末100aの表示部29上に表示される表示画像を表している。表示1110bは、ウェアラブル端末100bの表示部29上に表示される表示画像(撮影画像)である。オブジェクト座標系1007は、対象作業オブジェクト空間上に固定された座標系である。カメラ座標系1008aは、ウェアラブル端末100aに固定された座標系である。カメラ座標系1008bは、ウェアラブル端末100bに固定された座標系である。
図10は、本実施例における2台のウェアラブル端末100a、100bにより、ユーザの死角を補助する方法のフローチャートである。図10のフローチャートにおける各処理は、各ウェアラブル端末100のシステム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行し、各機能ブロックを制御することにより実現される。ウェアラブル端末100a、100bのそれぞれのシステム制御部50は、実施例1(図7)のステップS101~S112のフローを繰り返し実行している。ステップS113において、ウェアラブル端末100aのシステム制御部50が、操作部70を介して、死角補助表示を要求されたと判定した場合、図10に示される処理フローが開始される。
まず、ウェアラブル端末100aの処理ステップS301~S311について説明する。ステップS301は、ステップS201と同じであるため説明は省略する。続いてステップS302において、システム制御部50は、注視点にあるオブジェクトがどれであるか識別する。図9に示す例では、作業対象オブジェクト1002上の領域1004を注視していると判定され、作業対象オブジェクト1002が注視点対象オブジェクトと判定される。続いてステップS303において、システム制御部50は、作業対象オブジェクト1002の情報をデータベースサーバ1010に要求する。
続いてステップS304において、システム制御部50は、データベースサーバ1010から、3次元データ1020を受信する。システム制御部50は、3次元形状照合部36を使用して、3次元点群データと、3次元データ1020とをアライメントし、位置および姿勢を照合する。続いてステップS305において、システム制御部50は、ステップS304の照合結果に基づき、オブジェクト座標系1007におけるウェアラブル端末100aの位置及び姿勢を推定する。また、作業対象オブジェクト1002の位置及び姿勢と、ウェアラブル端末100aの位置及び姿勢との幾何学的関係から、ウェアラブル端末100aの死角領域1005を算出する。続いてステップS306において、システム制御部50は、オブジェクト座標系1007における死角領域1005の座標情報と、ウェアラブル端末100aの撮影画像情報をウェアラブル端末100bへ送信する。
続いてステップS307において、システム制御部50は、ウェアラブル端末100bから死角領域1005の検知有無の結果、および検知有であれば画像情報を受信する。このとき、ウェアラブル端末100bによる死角領域1005のセンシング結果(ステップS107、S108、及びS109で取得した結果に相当)を合わせて受信する。続いてステップS308において、システム制御部50は、ウェアラブル端末100bから死角領域1005の検知有無結果が、YESかNOかを確認する。YES(検知OK)であれば、ステップS309へ進む。一方、NO(検知NG)であれば、ステップS311へ進む。
ステップS309において、システム制御部50は、表示部29上にウェアラブル端末100bから受信した死角領域1005を含む画像を表示する。その表示例を図9(a)に示す。図9(a)において、表示1110aは、ウェアラブル端末100aの表示部29に表示される映像を示している。ウェアラブル端末100aで撮影された作業対象オブジェクト1002が1002a、作業対象オブジェクト1003が1003aである。また、ウェアラブル端末100aからみた注視領域1004が1004aである。1120aは、ウェアラブル端末100bから受信したウェアラブル端末100bによる撮影画像である。受信画像1120aにおいて死角領域1005は1005bとして斜線で示され強調表示されている。
続いてステップS310において、システム制御部50は、実施例1(図7)のステップS205~S212の処理を、死角領域1005を対象として実施する。ただし、このとき、ステップS205で使用するセンシング結果は、ステップS307で受信したウェアラブル端末100bによるセンシング結果である。
ステップS311において、システム制御部50は、表示部29上に、ウェアラブル端末100bが死角領域1005を検知できない旨を警告表示する。
次に、ウェアラブル端末100bの処理ステップS401~S406について説明する。ステップS401~S406のフローは、ウェアラブル端末100bのシステム制御部50が、ステップS113にて、通信部54を介して、死角補助撮影を要求されたと判定した場合に開始される。
まずステップS401において、システム制御部50は、オブジェクト座標系1007における死角領域1005の座標情報と、ウェアラブル端末100aの撮影画像情報を受信する。続いてステップS402において、システム制御部50は、受信した死角領域1005の座標情報を、カメラ座標系1008b上の座標に変換する。座標変換は、ステップS305と同様の処理で、作業対象オブジェクト1002の位置および姿勢と、ウェアラブル端末100bの位置および姿勢との幾何学的関係を算出する過程を経て行われる。続いてステップS403において、システム制御部50は、カメラ座標系1008b上における死角領域1005の座標情報に基づき、ウェアラブル端末100bの撮影視野内に死角領域1005が含まれるか否かを判定する。YES(死角領域1005がウェアラブル端末100bの撮影視野内)であれば、ステップS404へ進む。一方、NO(死角領域1005がウェアラブル端末100bの撮影視野外)であれば、ステップS406へ進む。
ステップS404において、システム制御部50は、表示部29上において、死角領域1005を強調表示する。表示例を図9(b)に示す。図9(b)において、表示1110bは、ウェアラブル端末100bの表示部29に表示される映像(撮影画像)である。ウェアラブル端末100bで撮影された作業対象オブジェクト1002が1002b、作業対象オブジェクト1003が1003bである。また、ウェアラブル端末100bから見た死角領域1005が1005bである。表示例では、死角領域1005は斜線により強調表示されている。また、1120bは、ウェアラブル端末100aから受信したウェアラブル端末100aによる撮影画像である。受信画像1120bにおいて注視領域1004は1004aとして示された領域である。
続いてステップS405において、システム制御部50は、死角領域1005の検知有り結果と、死角領域1005を含む撮影画像を、ウェアラブル端末100aに送信する。このとき、ウェアラブル端末100bによる死角領域1005のセンシング情報を、図8に示されるテーブルの形でウェアラブル端末100aに送信する。
ステップS406において、システム制御部50は、死角領域1005の検知無し結果をウェアラブル端末100aに送信する。
以上、本実施例におけるウェアラブル端末100a、100bによるセンシング情報の提供方法について説明した。本実施例によれば、複数のウェアラブル端末100a、100bにより、ある作業者からは見えない死角領域を補助し、死角領域に対してもセンシング結果を情報提示することが可能である。また、死角領域の画像情報を他のウェアラブル端末100より受信し、表示部29に表示することで、作業における死角部の見落としを防ぐことができる。
本実施例では、ステップS306において、ウェアラブル端末100aが死角領域1005の座標をオブジェクト座標系1007へ変換してからウェアラブル端末100bに送信する方法としたが、これに限定されるものではない。例えば、ウェアラブル端末100bがカメラ座標系1008aにおける死角領域1005の座標を受信し、該座標変換を行う構成としてもよい。または、ウェアラブル端末100bがウェアラブル端末100aから死角領域1005を含む撮影画像情報のみを受信し、該撮影画像情報をもとに該座標変換を行う構成としても構わない。或いは、データベースサーバ1010がオブジェクト座標系1007と各カメラ座標系間の座標変換を行っても良い。
本実施例では、ステップS406において、死角領域1005が検知できないことをウェアラブル端末100aに送信する構成としたが、各ウェアラブル端末100と対象オブジェクトの位置関係を示す情報を作成し、共有する構成としても構わない。図11は、ウェアラブル端末100a、100bで共有する位置関係情報の表示例である。例えば、ウェアラブル端末100a、100bと、作業対象オブジェクト1002、1003を上から俯瞰して見られるような地図表示を行っても良い。図11において、1220で示す点線は、ウェアラブル端末100bの撮影視野角を表しており、死角領域1005が視野外であることを明示している。これにより、作業者1001bは、どちらの方向に移動すれば死角領域1005を撮影できるか分かる。また、作業者1001aは、死角領域1005を撮影可能な作業者が近くにいるか否かを知ることができる。
また本実施例において、データベースサーバ1010を設けなくてもよい。例えば、各ウェアラブル端末100の記憶装置に必要な3次元データおよびセンシング結果を分散して保存し、必要なデータを所有しているウェアラブル端末100から受信する方式としても構わない。
本実施例では、注視点検出手段により注視オブジェクトを識別する方式としたが、これに限定されるものではない。何らかの操作手段による選択により作業対象オブジェクトを指定する方式としても構わない。
本実施例では、ウェアラブル端末100a、100bのいずれも同じハードウェア構成を使用する例を示したが、死角を補助できるハードウェア構成であれば、異なる複数のハードウェアを使用しても構わない。例えば、ウェアラブル端末ではなく、ハンドヘルドカメラの構成としても構わない。また、ドローンや移動ロボットのような自律移動端末としても構わない。
本実施例では、ウェアラブル端末100a、100bの2台の端末を使用する構成としたが、これに限定されるものではなく、何台の端末を使用してもよい。本実施例を適用することで、死角領域を撮影できた端末の撮影画像のみ、主作業者の端末に送信することができる。これにより、複数端末間の通信量の低減する効果が期待できる。また、主作業者の端末に全ての端末の撮影情報を表示するのは煩わしい。本実施例を適用することで、必要とする死角領域を撮影できた端末の撮影画像のみ送信することができ、前述の煩わしさを低減することができる。
次に、図12および図13を参照して、本発明の実施例3におけるウェアラブル端末100によるセンシング情報の提供方法について説明する。図1に示される外観図の通り、TOF検出部(第2の測距手段)83は、撮像ユニット150R、150Lの両レンズ光学系の外に配置され、撮像部(第1の測距手段)22より広角な画角を有する。検出範囲は数メートルであり、測距分解能は測定対象までの距離に依存する。撮像部22の撮像面位相差測距方式では、撮像ユニット150R、150L内の光学ズーム倍率を代表とするレンズパラメータにより、測距精度が変動する。本実施例では、測距距離に依存する測距センサと、レンズ機構に依存する測距センサを搭載した構成において、測距精度を向上させる方法を説明する。
図12は、本実施例におけるウェアラブル端末100により寸法測定を行う方法のフローチャートである。図12のフローチャートにおける各処理は、ウェアラブル端末100のシステム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行し、各機能ブロックを制御することにより実現される。ウェアラブル端末100のシステム制御部50は、実施例1(図7)のステップS101~S112のフローを繰り返し実行している。ステップS107において、システム制御部50が、寸法測定部39を用いて、作業対象オブジェクト1003の寸法を測定する際に、図12に示される処理フローが開始される。
ステップS501は、ステップS201と同様であるため、その説明を省略する。続いてステップS502において、システム制御部50は、AF駆動回路3を介して、レンズ103内のフォーカスレンズを変位させることで注視点に合焦させるAF処理を実行する。続いてステップS503において、システム制御部50は、注視点に対してAE処理を実施し、撮像部22での露光が適量になるようにレンズ103内の絞り1開口を制御する。このとき、撮像部22の露光時間及び光電変換時の変換ゲインを変更しても構わない。続いてステップS504において、システム制御部50は、赤外LED照明部(第2の測距手段)81により赤外光を照射し、反射光の遅れ時間をTOF検出部83により測定することで、注視点付近の対象物までの距離D_TOFを算出する。
続いてステップS505において、システム制御部50は、TOF検出部83による測距信頼度(第2の信頼度)α_TOFを、以下の式(9)に示されるように算出する。
α_TOF=k1・(dTmax-dTOF)/dTmax … (9)
ここで、k1は定数、dTOFは数1に示す測距分解能、dTmaxは最大測距分解能であり、有効測距範囲内においてdTOFはdTmax以下の値となる。数1に示す有効信号電子数Nは被写体の距離に依存する。例えば被写体の距離と有効信号電子数Nの関係をテーブルとし、予め不揮発性メモリ56に記憶しておく構成としても良い。
続いてステップS506において、システム制御部50は、撮像部22の撮像面位相差測距方式により、注視点付近の対象物までの距離D_DEFを算出する。続いてステップS507において、システム制御部50は、撮像部22の撮像面位相差測距方式による測距信頼度(第1の信頼度)α_DEFを、以下の式(10)に示されるように算出する。
α_DEF=k2・(dDmax-dDEF)/dDmax … (10)
ここで、k2は定数、dDEFは数8に示す測距分解能、dDmaxは最大測距分解能であり、有効デフォーカス量の範囲内においてdDEFはdDmax以下の値となる。
続いてステップS508において、システム制御部50は、以下の式(11)により、対象被写体に対する測距結果Depthを算出する。
Depth=D_DEF・α_DOF/(α_DEF+α_TOF)+D_TOF・α_TOF/(α_DEF+α_TOF) … (11)
ここで、式(11)は式(9)および式(10)に示される各測距信頼度を重みとし、両測距手段による測距結果の内分点をとることに同義である。式(11)により、各信頼度を反映した測距結果を得ることができる。
続いてステップS509において、システム制御部50は、Depth測定結果を寸法測定部39に送信し、測定対象の寸法を測定する。図13は、ウェアラブル端末100に搭載した2つの測距手段の測距信頼度の説明図である。図13(a)中の1301は、TOF検出部83から測距対象までの距離Zと、測距信頼度α_TOFの関係を表すグラフである。測距信頼度α_TOFは、最小測距距離Zminから最大測距距離Zmaxまでの間の距離において有効であり、それ以外の距離では無効(α_TOF=0)とする。測距信頼度α_TOFの値は、測距対象が最小測距距離Zminに近いほど高く、遠いほど低い値となる。
図13(b)中の1302は、レンズ103の被写界深度DOFと、測距信頼度α_DEFの関係を表すグラフである。測距信頼度α_DEFは、最小被写界深度DOFminから最大被写界深度DOFmaxまでの間の被写界深度において有効であり、それ以外の被写界深度では無効(α_DEF=0)とする。測距信頼度α_DEFの値は、測距対象位置での被写界深度が最小被写界深度DOFmin以上で浅いほど高く、深いほど低い値となる。例えば、測距対象が比較的近い位置にある場合、測距信頼度α_TOFは高い値となる。
一方、ユーザが近い位置を見るためにレンズ103の光学ズーム倍率を下げると、被写界深度DOFは深くなり、測距信頼度α_DEFは低い値となる。結果として、Depth算出におけるD_TOFの参照比率が高まる。例えば、測距対象が比較的遠い位置にある場合、測距信頼度α_TOFは低い値となる。一方、ユーザが遠い位置を見るためにレンズ103の光学ズーム倍率を上げると、被写界深度DOFは浅くなり、測距信頼度α_DEFは高い値となる。結果として、Depth算出におけるD_DEFの参照比率が高まる。以上のように、式(11)によれば、測距対象位置に応じて、両測距方式による利点を生かし、測距精度を向上させることができる。
このように本実施例において、ウェアラブル端末100は、第1の測距手段(撮像部22)と、第2の測距手段(赤外LED照明部81、TOF検出部83)とを有する。またウェアラブル端末100は、第1の算出手段、第2の算出手段、および第3の算出手段として機能する制御手段(システム制御部50)を有する。第1の算出手段は、第1の測距手段による第1の測距結果に関する第1の信頼度(第1の測距信頼度)を算出する。第2の算出手段は、第2の測距手段による第2の測距結果に関する第2の信頼度(第2の測距信頼度)を算出する。第3の算出手段は、第1の信頼度と第2の信頼度とに基づいて、第1の測距結果と第2の測距結果との参照比率を変えて測距結果を算出する。第1の信頼度は、測距対象位置におけるレンズユニットの被写界深度が深いほど低い。第2の信頼度は、測距対象位置が第2の測距手段から遠いほど低い。
本実施例において、好ましくは、ウェアラブル端末100は、ユーザが注視している注視領域(領域1006)を判定する判定手段(注視判定部43)を有する。第1の測距手段は、レンズユニット(レンズ103)を注視領域に合焦させ、合焦対象位置の測距を行う。また好ましくは、第2の測距手段は、第1の測距手段の第1の測距画角を含み、かつ第1の測距画角よりも広角な第2の測距画角を有する。
以上、本実施例のウェアラブル端末100によるセンシング情報の提供方法について説明した。本実施例によれば、ウェアラブル端末100による、複数の測距手段による出力結果を情報統合し、測距精度を向上させることが可能である。
なお、TOF検出方式のSNRは測距対象物の反射光量に依存する。よって、式(1)に示される有効信号電子数Nは、距離だけでなく、対象物の反射率や周囲環境光にも影響を受ける。よって測距信頼度α_TOFは、被写体及びシーンに依存する値としても構わない。例えば、撮像部22による撮影画像から、DeepLearningによる被写体識別を行い、被写体の反射率に応じて有効信号電子数Nの推測値を変更する構成としても構わない。同様に、DeepLearningによるシーン識別を行い、例えば昼と夜とのシーンの差で、有効信号電子数Nの推測値を変更する構成としても構わない。
また、TOF検出方式は透明物体や半透明物体の検知が苦手という弱点がある。例えば、被写体識別結果により、透明物体と判定された場合には、α_TOFの値をゼロにしても構わない。すなわち制御手段(システム制御部50)は、被写体が透明物体または半透明物体である場合、第2の信頼度をゼロにしてもよい。式(11)より撮像面位相差測距方式の結果のみを参照することとなり、TOFによる透明物体に対する誤検出結果を除外することができる。
また本実施例において、好ましくは、制御手段は、測距対象距離が第2の測距手段の最短測距可能距離よりも近い場合、または、測距対象距離が第2の測距手段の最長測距可能距離よりも遠い場合、第2の信頼度をゼロにする。また好ましくは、制御手段は、レンズユニットの被写界深度が第1の測距手段の最小被写界深度よりも浅い場合、または、レンズユニットの被写界深度が第1の測距手段の最大被写界深度よりも深い場合、第1の信頼度をゼロにする。
なお、撮像面位相差測距方式による測距精度は、式(8)に示す通り、レンズ103の焦点距離および絞り開口に依存する。例えば、α_DEFの値に下限閾値を設け、下限閾値を下回る場合には焦点距離及び絞り開口を変更する構成としても構わない。より具体的には、α_DEFの値が下限閾値を下回る場合には、光学ズーム倍率を上げることで、α_DEFの値を向上させることができる。加えて、露光量が撮像部22の飽和上限値に達しない範囲であれば、絞り開口を開く制御を行うことで、α_DEFの値を向上させることができる。すなわち本実施例において、好ましくは、ウェアラブル端末100は、レンズ103のズーム手段のズーム倍率を変更するズーム変更手段(レンズシステム制御回路4)と、レンズ103の絞り1の開口を変更する絞り変更手段(絞り駆動回路2)とを有する。そして制御手段は、第1の信頼度が所定の閾値よりも小さい場合、ズーム変更手段または絞り変更手段の少なくとも一方を、第1の信頼度が高くなるように制御する。
本実施例では、デフォーカス量は撮像面位相差測距方式(位相差検出方式)による視差を有する関係にある画像群に基づいて生成されるが、この方式に限定されるものではない。例えば、ピントや絞り値が異なる2枚の画像の相関からデフォーカス量を導出するDepth From Defocus方式(DFD方式)を用いてもよい。または、Depth from Focus方式を用いてもよい。いずれの方式で得たデフォーカス量であっても、同様に本発明を実現することができる。
本実施例では、TOF検出部83による測距結果を使用する構成としたが、この方式に限定されるものではない。例えば、ステレオカメラのような2枚の画像の視差から、距離を算出する方式としても構わない。ソナーのように超音波を対象物に発射し、反射音波の時間差から測距する方式としても構わない。幾何学的なパターン光を照射し、反射パターンの幾何学的形状から測距するアクティブステレオ方式としても構わない。すなわち、測距性能が距離に依存する測距方式であれば、同様に本実施例を適用可能である。
次に、図14乃至図18を参照して、本発明の実施例4におけるウェアラブル端末100による表示敏感度の制御方法について説明する。表示敏感度の制御とは、ウェアラブル端末100を用いて被写体を拡大表示して視認している際の表示画角制御に関する。
図14は、本実施例におけるウェアラブル端末100の撮影画角と表示画角との関係の説明図であり、ユーザ2000が被写体を望遠で視認している際の撮像部(撮像手段)22と表示部(表示手段)29との関係を示す。撮像部22の画角(撮影画像)2003は撮像部22の画角を示しており、被写体2001および被写体2001の周辺領域を撮像している。一方、表示部29の画角2004は、撮像部22の撮像画像を画像処理部24にて一部または全部を切り出し、表示部29に特定の倍率で表示される表示画像の画角を示している。表示部29の画角2004内の被写体画像2002は、撮像部22の画角2003内の被写体2001を特定の倍率で拡大表示したものである。
図15は、図14をY軸方向から見た俯瞰図である。なお、図14と同じ符号については説明を省略する。図15は、表示部29に映る特定の倍率をα倍とした場合の図である。撮像ユニット150Lを例としているが、撮像ユニット150Rでも同様の制御である。表示部29の画角2004の中心にある被写体画像2007は、撮像部の画角2003の中心にある被写体2006を特定の倍率で拡大表示したものである。撮像ユニット150Lに結像している被写体2001と光軸の角度をθとし、表示部29における表示部の画角2004の中心と被写体画像2002の角度をΦとする。
ユーザ2000の注視点が被写体画像2007にあり、注視点を被写体画像2002に移す場合、ユーザ2000は表示部29の表示画像をもとにΦだけ頭部の向きを変える。ユーザ2000の頭部につけられたウェアラブル端末100は、撮像ユニット150Lと表示部29は一体となっているため、撮像ユニット150LもΦだけ向きが変わり、点2005に光軸が映ることになる。ユーザ2000は被写体画像2002を視認したいが、表示部29においてα倍の拡大表示をしているため、結果的に被写体2001を見失うことになる。図15は、Y軸方向から見た俯瞰図を用いてX軸である水平方向の頭部移動を示す例であるが、不図示のY軸で垂直方向に頭部を移動したときも同様である。
図16は、ウェアラブル端末100の並進移動に対する表示画角制御の説明図であり、図15の撮像ユニット150Lに結像している画像と、表示部29の表示画像を示す。なお、図14と同じ符号については説明を省略する。図16(a)は、撮像部の画角2003を示し、切り出し画角2201と被写体2001の関係を示している。図16(b)は、表示部の画角2004を示し、図16(a)の切り出し画角2201をと同一であり、図15に示されるように、撮像部の画角2003の一部をα倍の倍率で表示部29に拡大表示したものある。図16(c)と図16(d)との関係、および、図16(e)と図16(f)との関係は、図16(a)と図16(b)との関係と同様である。
図18は、ウェアラブル端末100による表示画角制御のフローチャートである。まずステップS601において、システム制御部50は、撮像ユニット150Lの切り出し範囲リセット判定を行う。本実施例の切り出し範囲リセットとは、切り出し画角2201の中心座標を撮像部の画角2003の中心に戻すことを示す。例えば、ユーザ2000が操作部(リセット操作手段)70を操作してリセット動作を行うことにより実行される。続いてステップS602において、システム制御部50は、切り出し範囲をリセットするか否かを判定する。切り出し範囲をリセットする場合、ステップS606に進む。一方、切り出し範囲をリセットしない場合、ステップS603に進む。
ステップS603において、システム制御部50は、表示敏感度制御モード判定を行う。表示敏感度制御モードの判定は、ユーザ2000が予め操作部(モード選択手段)70を用いてモードを選択することにより実行する、または、注視判定部(判定手段)43により特定の対象物を注視しているか否かにより実行する、などである。注視判定部43による注視判定を表示敏感度制御モード判定に用いる場合、注視判定部43で注視していると判定した場合は、表示敏感度制御モードを行い、注視判定部43で注視してないと判定した場合は、表示敏感度制御モードを行わない。
続いてステップS604において、システム制御部50は、表示敏感度制御モードであるか否か(表示敏感度制御を行うか否か)を判定する。表示敏感度制御を行う場合、ステップS605に進む。一方、表示敏感度制御を行わない場合、ステップS606またはステップS607に進む。
ステップS605の表示敏感度制御のうち、撮像部22の画角2003の並進移動に対する表示画角制御について、図16を参照して説明する。図16(d)に示されるように、第1の注視点2203にある表示部の画角2004の中心を、第2の注視点2202に移す場合を考える。図16(d)の表示部29の画角2004において、第1の注視点2203と第2の注視点2202の角度はΦである。また、ウェアラブル端末100を装着しているユーザと表示部29との距離をxとし、表示部29における第1の注視点2203と第2の注視点2202との距離をαdとする。距離dは、後述する撮像部22の画角2003上での第1の注視点2203と第2の注視点2202との距離である。距離αdは、距離dにα倍の拡大倍率を掛けた距離である。したがって、距離αd=xtanΦの関係となり、ユーザが角度Φだけ頭部を移動させた場合の表示部29における第1の注視点2203と第2の注視点2202との距離が算出可能となる。
一方、図16(c)に示されるように、撮像部の画角2003を基準に見ると、第1の注視点2203と第2の注視点2202との角度はθであり、このときの撮像部22の画角2003上での第1の注視点2203と第2の注視点2202との距離はdである。図16(e)は、図16(d)に示される表示部29の画角2004基準で第1の注視点2203から第2の注視点2202に画角中心を移動させるためにユーザ2000が頭部をΦだけ動かしたときの、撮像部の画角2003を示す。第1の注視点2203は、撮像部の画角2003の中心からαdだけ離れた位置に移動する。このとき、ユーザ2000が頭部を動かす前の撮像部の画角2003の中心であった第1の注視点2203と切り出し画角2201の中心の角度がθとなるように、切り出し画角2201を(α―1)dの距離だけ移動させる。このように、切り出し画角2201を撮像部の画角2003の中心から移動することにより、図16(f)に示されるように、表示部の画角2004は、第2の注視点2202が中央に表示されるように制御可能となる。
前述では、ユーザの第1の注視点2203と第2の注視点2202の移動量で説明を行った。換言すると、任意の被写体投影点に対し、ウェアラブル端末100の移動中の撮影フレーム間における投影点の移動量と、表示フレーム間における投影点が移動する移動量とが一致するように撮影画像の切り出し位置を変更する。ここで、撮影フレーム間における該投影点移動量とは、撮像フレームのx、y軸の最大ピクセル数で正規化した座標系における移動量を示す。同様に、表示フレーム間における該投影点が移動する移動量とは、表示フレームのx、y軸の最大ピクセル数で正規化した座標系における移動量を示す。
なお図16(e)の例では、切り出し画角2201が撮像部の画角2003の左端に近い位置の切り出し位置となり、切り出し位置を左方向に移動させる余地が少ない。この場合、図16(f)に示されるように、切り出し位置警告2204を表示部の画角2004の右端に表示する、または、指示方向バー(補助表示)2205を表示することで、ユーザ2000に表示敏感度制御限界の警告報知を行うことができる。または、撮像ユニット150Lが光学ズーム(不図示)を有する場合、光学ズームを広角側に制御することで、被写体画像2002が撮像部の画角2003から外れにくくするように制御してもよい。
次に、図17を参照して、図18のステップS605における表示敏感度制御のうち撮像部22の画角2003の光軸を中心とした回転に対する表示画角制御について説明する。図17は、ウェアラブル端末100の光軸回転に対する表示画角制御の説明図である。図17(a)は、撮像部の画角2003を示し、撮像ユニットの画角中心2301、切り出し画角2201、および第1の座標点2302の関係を示している。ここで、第1の座標点2302は、切り出し画角2201の中心にあり、表示部の画角中心(表示画像上の中心)2303と対応している。図17(b)は、表示部29の画角2004を示し、図17(a)の切り出し画角2201と同一であり、図15に示されるように撮像部の画角2003の一部をα倍の倍率で表示部29に拡大表示している。なお、図17(c)と図18(d)との関係は、図17(a)と図17(b)との関係と同様である。
ここで、図17(b)に示されている表示部の画角2004を見ているユーザ2000が、表示部29の画角2004基準で表示部の画角中心2303を軸に角度βだけ回転表示させるために、ユーザ2000が角度βだけ頭部を回転させた場合を考える。図17(c)は、表示部29の画角中心2303を軸に角度βだけ回転表示させるために、ユーザ2000が角度βだけ頭部を回転させたときの撮像部の画角2003を示している。
このとき、切り出し画角2201の中心は、第1の座標点2302から第2の座標点2304に移動する。第2の座標点2304は、撮像ユニットの画角中心2301と第1の座標点2302とを結ぶ線分を撮像ユニットの画角中心2301に角度βだけ回転させたときの撮像ユニットの画角中心2301とは異なる端点である。切り出し画角2201の中心を第2の座標点2304に移動させることで、結果、図17(d)に示す表示部の画角中心2303に角度βだけ回転させた表示部の画角2004となる。同様に、撮像ユニット150Lを撮像ユニットの画角中心2301を軸に回転させた場合、切り出し画角2201の中心点は、撮像ユニットの画角中心2301から第1の座標点2302を半径とする円2305の上を移動することになる。
図18のステップS606では、常に撮像部22の画角2003における切り出し画角2201の中心と撮像ユニットの画角中心2301を一致させた状態で、表示部29にて特定の倍率の画像を表示する。ステップS607では、表示部29の画角2004上で撮像部の画角2003における任意の被写体投影点が固定されるように制御する表示固定制御を行う。表示固定制御は、防振制御として通常のデジタルカメラで行われており、公知の技術のため詳細な制御については省略する。
このように本実施例において、好ましくは、システム制御部(制御手段)50は、ユーザからのモード選択を受け付ける操作部(モード選択手段)70により第1のモードが選択されている場合、切り出し位置を撮影画像の中心に固定する。また好ましくは、制御手段は、モード選択手段により第2のモードが選択されている場合、表示画像の各座標に表示されている前記投影点が、表示画像の各座標に留まるように切り出し位置を変更する。また好ましくは、ウェアラブル端末100は、ユーザが特定の被写体を注視しているか否かを判定する判定手段(注視判定部43)を有し、制御手段は、ユーザが特定の被写体を注視していない場合、切り出し位置を撮影画像の中心に固定する。また好ましくは、制御手段は、切り出し位置に撮影画像の端に近い所定の範囲が含まれる場合、切り出し位置に含まれる所定の範囲に応じて、表示画像の一部の領域の表示色を変更する。また好ましくは、制御手段は、切り出し位置に撮影画像の端に近い所定の範囲が含まれる場合、切り出し位置に含まれる所定の範囲に応じた方向を示す補助表示(指示方向バー2205)を表示画像上に表示する。また好ましくは、ウェアラブル端末100は、レンズ103を制御することにより光学ズームが可能なズーム変更手段(レンズシステム制御回路4)を有する。制御手段は、切り出し位置に撮影画像の端に近い所定の範囲が含まれる場合、ズーム変更手段を用いてズームアウト制御を行う。
以上、本実施例におけるウェアラブル端末100によるセンシング情報の提供方法について説明した。本実施例によれば、並進移動に対する表示画角制御と光軸中心の回転に対する表示画角制御を組み合わせた表示敏感度制御を行うことで、ユーザ2000の視点移動のための意図した動作に対して、違和感が少ない画像情報を提示することが可能である。表示敏感度制御のうちの、並進移動に対する表示画角制御と光軸中心の回転に対する表示画角制御に対してユーザ2000がそれぞれ独立して制御をON/OFFできるような構成としてもよい。また本実施例では、撮像部22で取得した画像を表示部29にて拡大表示する構成としたが、シースルー表示よりも広角な範囲を表示可能な撮像ユニット150Lと表示ユニット160Lを有する構成として、表示敏感度制御を行っても構わない。
各実施例において、システム制御部50の制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、注目被写体の状態に応じて適切な検出情報を提示することが可能な電子装置、電子装置の制御方法、およびプログラムを提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
各実施例は、電子機器としてウェアラブル端末について説明したが、ウェアラブル端末以外の電子機器にも適用可能である。各実施例は、例えば、デジタルカメラ等の撮像装置、携帯型のデジタル顕微鏡、画像ビューア等の表示装置、ドローンや移動ロボット等の自律移動端末に適用してもよい。また各実施例は、パーソナルコンピュータ、PDA、携帯電話端末、ゲーム機、または電子ブックリーダー等に適用してもよい。いずれの電子機器においても、作業対象の状態に応じて、適切なセンシング情報を表示し、作業の効率化を図ることができる。また、前述の各実施例を組み合わせることも可能である。
29 表示部(提示手段)
37 傷汚れ検出部(検出手段)
38 温度計測部(検出手段)
39 寸法測定部(検出手段)
43 注視判定部(判定手段)
50 システム制御回路(制御手段)
54 通信部(通信手段)
100 ウェアラブル端末(電子装置)
1021 寸法表示(検出情報)
1022 寸法警告表示(検出情報)
1023 温度表示(検出情報)
1024 カラーバー表示(検出情報)
1025 傷表示(検出情報)
1026 傷警告表示(検出情報)

Claims (42)

  1. ユーザが注目している注目被写体を判定する判定手段と、
    前記注目被写体に関する複数の検出情報を検出する検出手段と、
    前記注目被写体に関連付けられた基準情報を参照する通信手段と、
    前記複数の検出情報のうち少なくとも一つの情報を提示する提示手段と、
    前記基準情報と前記複数の検出情報とに基づいて、前記複数の検出情報のうち前記提示手段により提示される少なくとも一つの前記情報を決定する制御手段と、を有することを特徴とする電子装置。
  2. 前記注目被写体に関して固定された座標系における被検出位置の座標を算出する算出手段と、
    前記検出情報の取得時刻を計時する計時手段と、を更に有し、
    前記制御手段は、前記検出情報を、前記注目被写体の識別情報、前記被検出位置の座標、または前記取得時刻の少なくとも二つの情報と関連付けて記憶することを特徴とする請求項1に記載の電子装置。
  3. 前記検出手段は、前記注目被写体の寸法検出手段、温度検出手段、傷検出手段、または汚れ検出手段の少なくとも一つを含むことを特徴とする請求項1または2に記載の電子装置。
  4. 前記基準情報は、前記注目被写体のCADデータであることを特徴とする請求項1乃至3のいずれか一項に記載の電子装置。
  5. 前記基準情報は、前記注目被写体の寸法値、温度、傷の寸法値、または汚れの寸法値の少なくとも一つを含むことを特徴とする請求項1乃至4のいずれか一項に記載の電子装置。
  6. 前記基準情報は、前記検出手段により過去に検出された検出情報であることを特徴とする請求項1乃至4のいずれか一項に記載の電子装置。
  7. 前記制御手段は、前記基準情報と前記複数の検出情報との差分情報に基づいて、前記複数の検出情報のうち前記提示手段により提示される少なくとも一つの前記情報を決定することを特徴とする請求項1乃至6のいずれか一項に記載の電子装置。
  8. 前記電子装置は、第1の電子装置と第2の電子装置とを有し、
    第1の電子装置は、前記注目被写体に対するユーザの死角領域を算出する算出手段と、前記判定手段と、前記提示手段と、を有し、
    前記第2の電子装置は、前記検出手段を有し、
    前記第1の電子装置または前記第2の電子装置の少なくとも一つは、前記通信手段を有し、
    前記第1の電子装置は、前記第2の電子装置へ前記死角領域に関する情報を送信し、
    前記死角領域に関する情報を受信した前記第2の電子装置は、前記死角領域に対する前記検出手段による複数の検出情報を前記第1の電子装置へ送信し、
    前記検出情報を受信した前記第1の電子装置の前記制御手段は、前記基準情報と前記複数の検出情報とに基づいて、前記複数の検出情報のうち前記提示手段により提示される少なくとも一つの前記情報を決定することを特徴とする請求項1に記載の電子装置。
  9. 前記第1の電子装置および前記第2の電子装置による前記複数の検出情報を記憶する記憶装置を更に有することを特徴とする請求項8に記載の電子装置。
  10. 第1の電子装置と第2の電子装置とを有する電子装置であって、
    前記第1の電子装置および前記第2の電子装置はそれぞれ、撮影手段と通信手段とを有し、
    前記第1の電子装置は、
    ユーザが注目している注目被写体を判定する判定手段と、
    前記注目被写体に対するユーザの死角領域を算出する算出手段と、を有し、
    前記第1の電子装置は、前記第2の電子装置へ前記死角領域に関する情報を送信し、
    前記第2の電子装置は、前記死角領域を含む撮影画像を前記第1の電子装置へ送信することを特徴とする電子装置。
  11. 前記算出手段は、
    前記注目被写体と、前記第1の電子装置および前記第2の電子装置との位置関係を算出し、
    前記注目被写体と、前記第1の電子装置との位置関係に基づいて、前記死角領域を算出することを特徴とする請求項8乃至10のいずれか一項に記載の電子装置。
  12. 前記死角領域に関する情報は、前記算出手段により算出された死角領域の位置に関する情報であることを特徴とする請求項8乃至11のいずれか一項に記載の電子装置。
  13. 前記死角領域に関する情報は、ユーザが注目している注目領域を含む前記第1の電子装置の撮影画像であることを特徴とする請求項8乃至12のいずれか一項に記載の電子装置。
  14. 前記第1の電子装置は、表示手段を有し、
    前記表示手段は、前記第2の電子装置から受信した前記死角領域を含む前記撮影画像を表示することを特徴とする請求項10乃至13のいずれか一項に記載の電子装置。
  15. 前記第2の電子装置は、表示手段を有し、
    前記第1の電子装置または前記第2の電子装置の少なくとも一つは、前記算出手段を有し、
    前記算出手段は、前記注目被写体と、前記第1の電子装置および前記第2の電子装置との位置関係を算出し、
    前記第2の電子装置の撮影画角における死角領域の位置を算出し、
    前記表示手段は、前記撮影画角における前記死角領域を表示することを特徴とする請求項10乃至14のいずれか一項に記載の電子装置。
  16. 前記第1の電子装置または前記第2の電子装置の少なくとも一つは、表示手段と前記算出手段とを有し、
    前記算出手段は、前記第1の電子装置と前記第2の電子装置との位置関係を算出し、
    前記表示手段は、前記第1の電子装置および前記第2の電子装置のそれぞれの撮影画角、前記死角領域、および、前記第1の電子装置と前記第2の電子装置との位置関係を表示することを特徴とする請求項10乃至15のいずれか一項に記載の電子装置。
  17. 前記死角領域は、前記注目被写体においてユーザから見て裏側の領域であることを特徴とする請求項8乃至16のいずれか一項に記載の電子装置。
  18. 前記第1の電子装置または前記第2の電子装置の少なくとも一つは、前記第1の電子装置と前記第2の電子装置との位置関係を算出する前記算出手段を有し、
    前記第2の電子装置は、
    前記死角領域を検出可能であるか否かを前記算出手段で算出し、
    前記死角領域を検出可能であるか否かに関する結果を前記第1の電子装置へ送信することを特徴とする請求項8乃至17のいずれか一項に記載の電子装置。
  19. 前記第1の電子装置または前記第2の電子装置の少なくとも一つは、前記第1の電子装置と前記第2の電子装置との位置関係を算出する前記算出手段を有し、
    前記第2の電子装置は、
    前記死角領域を検出可能であるか否かを前記算出手段で算出し、
    前記死角領域を検出可能である場合のみ、前記第2の電子装置による撮影画像を前記第1の電子装置へ送信することを特徴とする請求項8乃至18のいずれか一項に記載の電子装置。
  20. 第1の測距手段と、
    第2の測距手段と、
    制御手段と、を有し、
    前記制御手段は、
    前記第1の測距手段による第1の測距結果に関する第1の信頼度を算出する第1の算出手段と、
    前記第2の測距手段による第2の測距結果に関する第2の信頼度を算出する第2の算出手段と、
    前記第1の信頼度と前記第2の信頼度とに基づいて、前記第1の測距結果と前記第2の測距結果との参照比率を変えて測距結果を算出する第3の算出手段と、を有し、
    前記第1の信頼度は、測距対象位置におけるレンズユニットの被写界深度が深いほど低く、
    前記第2の信頼度は、測距対象位置が前記第2の測距手段から遠いほど低いことを特徴とする電子装置。
  21. 前記第1の測距手段は、位相差検出方式、Depth from Defocus方式、または、Depth from Focus方式の測距手段であることを特徴とする請求項20に記載の電子装置。
  22. 前記第2の測距手段は、Time of Flight方式、または、三角測量方式の測距手段であることを特徴とする請求項20または21に記載の電子装置。
  23. 前記レンズユニットのズーム手段のズーム倍率を変更するズーム変更手段と、
    前記レンズユニットの絞りの開口を変更する絞り変更手段と、を更に有し、
    前記制御手段は、前記第1の信頼度が所定の閾値よりも小さい場合、前記ズーム変更手段または前記絞り変更手段の少なくとも一方を、前記第1の信頼度が高くなるように制御することを特徴とする請求項20乃至22のいずれか一項に記載の電子装置。
  24. ユーザが注視している注視領域を判定する判定手段を更に有し、
    前記第1の測距手段は、前記レンズユニットを前記注視領域に合焦させ、合焦対象位置の測距を行うことを特徴とする請求項20乃至23のいずれか一項に記載の電子装置。
  25. 前記第2の測距手段は、前記第1の測距手段の第1の測距画角を含み、かつ該第1の測距画角よりも広角な第2の測距画角を有することを特徴とする請求項20乃至24のいずれか一項に記載の電子装置。
  26. 前記制御手段は、測距対象距離が前記第2の測距手段の最短測距可能距離よりも近い場合、または、前記測距対象距離が前記第2の測距手段の最長測距可能距離よりも遠い場合、前記第2の信頼度をゼロにすることを特徴とする請求項20乃至25のいずれか一項に記載の電子装置。
  27. 前記制御手段は、被写体が透明物体または半透明物体である場合、前記第2の信頼度をゼロにすることを特徴とする請求項20乃至26のいずれか一項に記載の電子装置。
  28. 前記制御手段は、前記レンズユニットの被写界深度が前記第1の測距手段の最小被写界深度よりも浅い場合、または、前記レンズユニットの前記被写界深度が前記第1の測距手段の最大被写界深度よりも深い場合、前記第1の信頼度をゼロにすることを特徴とする請求項20乃至27のいずれか一項に記載の電子装置。
  29. 撮像手段と、
    撮影画像の少なくとも一部を切り出して拡大表示する表示手段と、
    前記撮影画像の切り出し位置を変更する制御手段と、を有し、
    前記制御手段は、前記撮像手段が移動した場合に、空間上に固定された点の撮影画像への投影点が該撮像手段の移動中に撮影された連続する撮影フレームの間において移動する移動量と、該撮影フレームごとに該投影点を拡大表示した表示フレームの間において該投影点が移動する移動量とが一致するように、前記撮影画像の切り出し位置を変更することを特徴とする電子装置。
  30. 前記制御手段は、前記撮像手段が光軸を中心として回転した場合に、表示画像の中心に表示されている前記投影点が該表示画像の該中心に留まるように前記切り出し位置を変更することを特徴とする請求項29に記載の電子装置。
  31. ユーザからの切り出しリセット操作を受け付けるリセット操作手段を更に有し、
    前記制御手段は、ユーザが前記リセット操作手段を操作している間、前記切り出し位置を前記撮影画像の中心に固定することを特徴とする請求項29または30に記載の電子装置。
  32. ユーザからのモード選択を受け付けるモード選択手段を更に有し、
    前記制御手段は、前記モード選択手段により第1のモードが選択されている場合、前記切り出し位置を前記撮影画像の中心に固定することを特徴とする請求項29乃至31のいずれか一項に記載の電子装置。
  33. ユーザからのモード選択を受け付けるモード選択手段を更に有し、
    前記制御手段は、前記モード選択手段により第2のモードが選択されている場合、表示画像の各座標に表示されている前記投影点が、該表示画像の各座標に留まるように前記切り出し位置を変更することを特徴とする請求項29乃至32のいずれか一項に記載の電子装置。
  34. ユーザが特定の被写体を注視しているか否かを判定する判定手段を更に有し、
    前記制御手段は、前記判定手段によりユーザが前記特定の被写体を注視していないと判定された場合、前記切り出し位置を前記撮影画像の中心に固定することを特徴とする請求項29乃至33のいずれか一項に記載の電子装置。
  35. 前記制御手段は、前記切り出し位置に前記撮影画像の端に近い所定の範囲が含まれる場合、前記切り出し位置に含まれる前記所定の範囲に応じて、表示画像の一部の領域の表示色を変更することを特徴とする請求項29乃至34のいずれか一項に記載の電子装置。
  36. 前記制御手段は、前記切り出し位置に前記撮影画像の端に近い所定の範囲が含まれる場合、前記切り出し位置に含まれる前記所定の範囲に応じた方向を示す補助表示を表示画像上に表示することを特徴とする請求項29乃至35のいずれか一項に記載の電子装置。
  37. レンズユニットを駆動して光学ズームが可能なズーム変更手段を更に有し、
    前記制御手段は、前記切り出し位置に前記撮影画像の端に近い所定の範囲が含まれる場合、前記ズーム変更手段を用いてズームアウト制御を行うことを特徴とする請求項29乃至35のいずれか一項に記載の電子装置。
  38. ユーザが注目している注目被写体を判定するステップと、
    前記注目被写体に関する複数の検出情報を検出するステップと、
    前記注目被写体に関連付けられた基準情報を参照するステップと、
    前記複数の検出情報のうち少なくとも一つの情報を提示するステップと、
    前記基準情報と前記複数の検出情報とに基づいて、前記複数の検出情報のうち提示手段により提示される少なくとも一つの前記情報を決定するステップと、を有することを特徴とする電子装置の制御方法。
  39. 第1の電子装置と第2の電子装置とを有する電子装置の制御方法であって、
    前記第1の電子装置により、ユーザが注目している注目被写体を判定するステップと、
    前記第1の電子装置により、前記注目被写体に対するユーザの死角領域を算出するステップと、
    前記第1の電子装置から前記第2の電子装置へ前記死角領域に関する情報を送信するステップと、
    前記第2の電子装置から前記第1の電子装置へ前記死角領域を含む撮影画像を送信するステップと、を有することを特徴とする電子装置の制御方法。
  40. 第1の測距手段による第1の測距結果に関する第1の信頼度を算出するステップと、
    第2の測距手段による第2の測距結果に関する第2の信頼度を算出するステップと、
    前記第1の信頼度と前記第2の信頼度とに基づいて、前記第1の測距結果と前記第2の測距結果との参照比率を変えて測距結果を算出するステップと、を有し、
    前記第1の信頼度は、測距対象位置におけるレンズユニットの被写界深度が深いほど低く、
    前記第2の信頼度は、測距対象位置が前記第2の測距手段から遠いほど低いことを特徴とする電子装置の制御方法。
  41. 撮像手段を用いて撮影画像を取得するステップと、
    前記撮影画像の少なくとも一部を切り出して拡大表示するステップと、
    前記撮影画像の切り出し位置を変更するステップと、を有し、
    前記切り出し位置を変更するステップにおいて、前記撮像手段が移動した場合に、空間上に固定された点の前記撮影画像への投影点が該撮像手段の移動中に撮影された連続する撮影フレームの間において移動する移動量と、該撮影フレームごとに該投影点を拡大表示した表示フレームの間において該投影点が移動する移動量とが一致するように、前記撮影画像の切り出し位置を変更することを特徴とする電子装置の制御方法。
  42. 請求項38乃至41のいずれか一項に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2021028555A 2021-02-25 2021-02-25 電子装置およびその制御方法 Pending JP2022129747A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021028555A JP2022129747A (ja) 2021-02-25 2021-02-25 電子装置およびその制御方法
US17/678,471 US20220270342A1 (en) 2021-02-25 2022-02-23 Electronic apparatus and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021028555A JP2022129747A (ja) 2021-02-25 2021-02-25 電子装置およびその制御方法

Publications (1)

Publication Number Publication Date
JP2022129747A true JP2022129747A (ja) 2022-09-06

Family

ID=82900750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021028555A Pending JP2022129747A (ja) 2021-02-25 2021-02-25 電子装置およびその制御方法

Country Status (2)

Country Link
US (1) US20220270342A1 (ja)
JP (1) JP2022129747A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7353811B2 (ja) * 2019-06-17 2023-10-02 キヤノン株式会社 電子機器およびその制御方法

Also Published As

Publication number Publication date
US20220270342A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
JP6887960B2 (ja) 自動焦点トリガのためのシステムおよび方法
CN108076278B (zh) 一种自动对焦方法、装置及电子设备
JP5178553B2 (ja) 撮像装置
US9300858B2 (en) Control device and storage medium for controlling capture of images
JP5789091B2 (ja) 撮像装置および撮像装置の制御方法
KR20140140855A (ko) 촬영 장치의 자동 초점 조절 방법 및 장치
JP2009199049A (ja) 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP2013044844A (ja) 画像処理装置および画像処理方法
JP5216137B2 (ja) カメラおよびカメラの制御方法
JP2012015642A (ja) 撮像装置
JP2012500506A5 (ja)
JP5857712B2 (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
CN109614909B (zh) 一种扩展采集距离的虹膜采集设备与方法
US20220270342A1 (en) Electronic apparatus and control method of the same
US20210243361A1 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP6789899B2 (ja) 計測装置および計測装置の作動方法
US20230401782A1 (en) Electronic apparatus and control method of the same
JP2021125867A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム
KR20080075333A (ko) 촬영 영역 내에서 정확하게 얼굴 영상을 촬영하는 장치
JP6639208B2 (ja) 撮像装置及びその制御方法
US20230336862A1 (en) Electronic device, control method, and non-transitory computer readable medium
CN113132709B (zh) 一种双目测距装置、双目测距方法及电子设备
US11790600B2 (en) Image processing device, imaging apparatus, image processing method, and recording medium
JP7022534B2 (ja) 画像処理装置および画像処理方法
WO2024076531A1 (en) Hybrid auto-focus system with robust macro object priority focusing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240208