JP7351525B2 - システム - Google Patents

システム Download PDF

Info

Publication number
JP7351525B2
JP7351525B2 JP2020117697A JP2020117697A JP7351525B2 JP 7351525 B2 JP7351525 B2 JP 7351525B2 JP 2020117697 A JP2020117697 A JP 2020117697A JP 2020117697 A JP2020117697 A JP 2020117697A JP 7351525 B2 JP7351525 B2 JP 7351525B2
Authority
JP
Japan
Prior art keywords
space
area
flare
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020117697A
Other languages
English (en)
Other versions
JP2022015076A5 (ja
JP2022015076A (ja
Inventor
良 川口
キャンベル タージ
ジェイコブ マックギンティ アレン
シュウィンド ブライアン
ロウ アンドレア
ファルコン アルバロ アレギ
アリスン 福垣
志郎 後尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2020117697A priority Critical patent/JP7351525B2/ja
Application filed by Individual filed Critical Individual
Priority to PCT/JP2021/011789 priority patent/WO2022009485A1/ja
Priority to CN202180044411.9A priority patent/CN115836520A/zh
Priority to EP21836766.2A priority patent/EP4181503A4/en
Priority to US18/002,626 priority patent/US20230290049A1/en
Publication of JP2022015076A publication Critical patent/JP2022015076A/ja
Publication of JP2022015076A5 publication Critical patent/JP2022015076A5/ja
Priority to JP2023107204A priority patent/JP2023123745A/ja
Application granted granted Critical
Publication of JP7351525B2 publication Critical patent/JP7351525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Description

本技術は、互いに離隔する空間を仮想的に接続する仮想的空間接続装置の技術に関する。
一方の空間で撮像された撮像画像及び収音された音声を、他方の空間に出力することで各空間にいるユーザが会話を行うテレビ電話などのコミュニケーション手段が知られている。
特許文献1では、撮像部で撮像したユーザの撮像画像を、コミュニケーション相手となる他のユーザのコミュニケーション装置へ送信するとともに、当該他のユーザのコミュニケーション装置から送信されてくる他のユーザの画像を受信して表示部に表示するコミュニケーション装置が開示されている。
特開2019-146118号公報
このようなコミュニケーション手段においては、ただ単に会話をすることのみならず、互いの空間の状況を各空間のユーザ同士が共有することで臨場感のある意思疎通を行うことが望まれている。また各空間にいるユーザの臨場感を高めるためには、一方の空間の状況を違和感なく他方の空間に投影することができるような撮像の工夫が重要となる。
そこで本発明では、互いに離隔した空間を仮想的に接続するにあたり、各空間の状況を違和感なく他方の空間に表示させることで臨場感を向上させ、互いの空間にいるユーザ同士の円滑な意思疎通を実現することを目的とする。
本発明に係る仮想的空間接続装置は、第1空間で第1撮像部が撮像した第1撮像画像信号を前記第1空間と離隔した第2空間側に送信し、前記第2空間側で第2撮像部が前記第2空間を撮像するための第2カメラ孔を有する第2被投射部に対して第2プロジェクタによって前記第1空間側から受信した前記第1撮像画像信号に基づく画像を投射し、前記第2空間で前記第2撮像部が撮像した第2撮像画像信号を前記第1空間側に送信し、前記第1空間側で前記第1撮像部が前記第1空間を撮像するための第1カメラ孔を有する第1被投射部に対して第1プロジェクタによって前記第2空間側から受信した前記第2撮像画像信号に基づく画像を投射することで、前記第1空間と前記第2空間を仮想的に接続するシステムに用いられる。
これにより、第1空間と第2空間の何れにおいても他方の空間の画像が表示され、かつ音声が出力されることで、第1空間と第2空間が仮想的に接続される。
ここで特定出力領域とは、第1被投射部における第1カメラ孔を含む領域をいう。
上記した本発明に係る仮想的空間接続装置は、前記第1撮像部による前記第1空間の撮像結果に基づいて前記第1被投射部における前記第1カメラ孔を含む特定出力領域を設定する領域設定部と、前記第1プロジェクタによる前記特定出力領域への投影画像の輝度値があらかじめ定められた特定値となるように前記第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する信号処理部と、前記処理後画像データに基づく画像投影を前記第1プロジェクタに実行させる機器制御部と、を備える。
これにより、第1被投射部に対して第1プロジェクタからの画像投影が行われる際に、第1カメラ孔に設けられた第1撮像部に入り込む第1プロジェクタからの投射光が軽減される。
ここで特定値とは、例えば第1被投射部を視認するユーザが特定出力領域を黒色と認識できる程度の輝度値である。
なお、特定値は特定出力領域を黒色と認識できる程度の輝度値に限定されず、第1レンズ孔に入り込む第1プロジェクタからの投射光により、第1撮像部による撮像画像にレンズフレアが発生しない程度の輝度値として設定されればよい。
上記した本発明に係る仮想的空間接続装置において、前記領域設定部は、前記第1撮像画像信号における撮像画像の輝度に基づく算出値と所定の閾値との比較に基づいて前記第1被投射部の前記特定出力領域を設定することが考えられる。
これにより、第1空間全体の明るさを加味して特定出力領域が設定される。
上記した本発明に係る仮想的空間接続装置は、前記第1撮像画像信号の解析処理結果に基づいて前記第1空間内の状況を判定する状況判定部を有し、前記領域設定部は、前記状況判定部が判定した前記第1空間内の状況に応じて前記特定出力領域の設定処理を行うことが考えられる。
これにより、第1空間内の状況に応じて特定出力領域の再設定処理が行われる。
上記した本発明に係る仮想的空間接続装置において、前記状況判定部は、前記第1撮像画像信号の解析処理結果に基づいて前記第1空間内に人がいるか否かを判定し、前記領域設定部は、前記第1空間内に人がいないと判定された場合に前記特定出力領域の設定処理を行うことが考えられる。
これにより、ユーザが第1空間内に入るまでの間に特定出力領域の設定が完了する。
本発明によれば、互いに離隔した空間にいるユーザ同士が円滑に意思疎通を行うことができる。
本発明の実施の形態における仮想的空間接続装置の概要を示す図である。 本実施の形態における第1空間の平面図の一部を模式的に示す図である。 本実施の形態における仮想的空間接続装置の構成を示す図である。 本実施の形態における仮想的空間接続装置の機能構成を示す図である。 本実施の形態の比較例における第1被投射部に投影された第2空間を示す図である。 本実施の形態における第1被投射部に投影された第2空間を示す図である。 本実施の形態における第1制御部の処理を示すフローチャートである。 本実施の形態における特定出力領域を設定するための投影画像の例を示す第1図である。 本実施の形態における特定出力領域を設定するための投影画像の例を示す第2図である。 本実施の形態における特定出力領域を設定するための投影画像の例を示す第3図である。 本実施の形態における特定出力領域を設定するための投影画像の例を示す第4図である。 本実施の形態における特定出力領域を設定するための投影画像の例を示す第5図である。
本発明の実施の形態では一例として、第1空間SAと当該第1空間SAから離隔した第2空間SBとにおいて自空間に他方の空間の撮像画像及び音声を出力することで、第1空間SAと第2空間SBを仮想的に接続する仮想的空間接続装置100について説明する。
本実施の形態における第1空間SAと第2空間SBは、例えば屋内であり、自宅の部屋と親戚の部屋、病院の診察室と自宅の部屋、会社のオフィスと自宅の部屋、自社のオフィスと他社のオフィスなど様々な組み合わせが考えられる。このように本実施の形態の仮想的空間接続装置100は様々な空間を仮想的に接続することができる。
また以下の説明では、第1空間SA側で撮像された画像信号を第1撮像画像信号、第1空間SA側で収音された音声信号を第1音声信号と、第2空間SB側で撮像された画像信号を第2撮像画像信号、第2空間SB側で収音された音声信号を第2音声信号と表記する。
また第1空間SA側と第2空間側の構成は共通している。従って、第1空間SA側の構成を符号の末尾を「A」とし、第2空間SB側の構成の末尾を「B」とすることで便宜的に各構成を区別するものとする。
なお、説明にあたり参照する図面に記載された各構成は、本発明に係る要部の構成のみ抽出したものであり、図面に記載された構成は、本発明の技術的思想を逸脱しない範囲であれば設計などに応じて種々な変更が可能である。
また、以下で一度説明した構成は、それ以降同一の符号を付して説明を省略することがある。さらに、本発明は本実施の形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
以下、本発明の実施の形態を次の順序で説明する。
<1.仮想的空間接続装置の概要>
<2.仮想的空間接続装置の構成>
<3.実施の形態の処理例>
<4.まとめ>
<5.変形例>
<1.仮想的空間接続装置の概要>
本実施の形態における仮想的空間接続装置100の概要について、図1から図3を参照して説明する。図1は、第1空間SA側から見て第2空間SBが仮想的に接続された状態の一例を示している。ここでは、第1空間SAと第2空間SBが互いに異なる建物の一室である例について説明する。
第1空間SA側には、第1撮像部1A、3つの第1マイクロフォン21A、第1プロジェクタ31A、第1被投射部32A、2つの第1スピーカ41A、図示しない第1演算処理部5Aが配置される。
第1被投射部32Aは、例えば第1空間SAの壁面に床面から天井にかけて設けられているスクリーンである。第1被投射部32Aには、第1空間SAを撮像するための第1撮像部1Aが配置される極小の第1カメラ孔33Aが設けられている。第1カメラ孔33Aは、例えば第1空間SAのユーザU1の首の辺りの高さ(例えば床面から145cm程の高さ)であって、第1被投射部32Aの幅方向の中央部に設けられている。
なお、第1カメラ孔33Aを設ける位置は上記に限られず、第1撮像部1Aによる第1空間SAの撮像に支障のない範囲であれば、第1被投射部32Aの任意の位置に設けることができる。また本実施の形態の説明にあたり参照する図面においては、説明の便宜上、第1カメラ孔33Aを実際の寸法よりも大きく示している。
第1撮像部1Aは例えば撮像レンズの幅が2mm程の小型デジタルカメラである。当該小型デジタルカメラは、第1カメラ孔33Aに小型デジタルカメラの撮像レンズが収まるように配置される。
第1撮像部1Aにより第1被投射部32A側から第1空間SAを撮像することで、第2空間SB側から第1空間SAを見たような撮像を実現することができる。またユーザU1の首の辺りの高さに第1撮像部1Aを設けることで、第2空間SB側のユーザU2と会話をしようとしている第1空間SA側のユーザU1を略正面から撮像することができる。これにより、第1空間SA側のユーザU1の目線が第2空間SB側のユーザU2に向いているような撮像が可能となる。
第1プロジェクタ31Aは、例えば第1被投射部32Aの側方に設けられている。ここで第1プロジェクタ31Aは、ユーザU1から見て第1被投射部32Aの右側方に設けられている。また第1プロジェクタ31Aは、第1被投射部32Aの高さ方向における中央付近の高さに設けられている。
なお、以降の説明においては、図1に示すユーザU1から第1被投射部32Aを見た方向を基準として上下左右方向を表記するものとする。
図2は第1空間SAの平面図の一部を模式的に示している。
図2に示すように第1プロジェクタ31Aは、第2空間SB側での第2撮像画像信号に基づく画像を、第1被投射部32Aの側方から第1被投射部32Aに向けて投影する。これにより、第1被投射部32Aに第2空間SB側の様子が第1空間SA側に表示される。従って、第1空間SAにいるユーザU1は、第2空間SB側の状況を視覚的にリアルタイムに認識することができる。
なお、図2では第1プロジェクタ31Aからの投射光を模式的に一点鎖線で示している。
第1被投射部32Aの左右側方にはそれぞれ第1スピーカ41Aが配置されている。ここではユーザU1から見て前方の第1被投射部32Aの左右側方に第1スピーカ41Aが配置されている。
第1スピーカ41Aにより、第2空間SB側での第2音声信号に基づく音声が出力され、第2空間SBにいるユーザU2の声や第2空間SBの環境音などが第1空間SA側に出力される。これにより、第1空間SAにいるユーザU1は、第2空間SB側の状況を聴覚によりリアルタイムに認識することができる。
このように、第1被投射部32A及び第1スピーカ41Aにより、第1空間SAにいるユーザU1が、視覚及び聴覚によりリアルタイムに第2空間SB側の状況を認識可能とすることで、ユーザU1は第2空間SBがまるで隣の部屋として存在するかのような感覚を得ることができる。
図3に示す第1演算処理部5Aは、例えばPC(Personal Computer)などのコンピュータ装置として実現され、第1撮像部1A、第1マイクロフォン21A、第1プロジェクタ31A、第1スピーカ41Aのそれぞれと有線又は無線により接続されている。
第1撮像部1Aで撮像された第1撮像画像信号は、第1演算処理装置5Aで所定の処理が施された後、第2空間SB側の第2演算処置装置5Bに送信される。
その後、第2空間SB側の図示しない第2プロジェクタ31Bが、第1空間SA側の第1撮像画像信号に基づく画像投影を、図示しない第2被投射部32Bに行うことで、第1空間SA側の撮像画像が第2区間SB側に表示される。このとき、リアルタイムな通信や相手がすぐそこにいる臨場感を強調するために、第1空間SA側の画像が等身大に表示される。
これにより、第2空間SB側のユーザU2も第2空間SBにいながら第1空間SA側の状況を視覚により認識することができる。
第1空間SAには、3つの第1マイクロフォン21Aが、例えば第1空間SAの天井に互いに離間して配置されている。
第1マイクロフォン21Aで収音された第1音声信号は、第1演算処理装置5Aで所定の処理が施された後、第2空間SB側の第2演算処置装置5Bに送信され、第2空間SB側に配置された図示しない第2スピーカ41Bにより、第1空間SA側の第1音声信号に基づく音声が出力される。これにより、第2空間SB側のユーザU2も第2空間SBにいながら第1空間SA側の状況を聴覚により認識することができる。
以上のように、本発明の実施の形態における仮想的空間接続装置100においては、一方の空間で入力された撮像画像信号及び音声信号を他方の空間側で出力する処理を互いに連続して実行することで、第1空間SAと第2空間SBを仮想的に常時接続する。
これにより、ユーザU1とユーザU2は、互いの空間がまるで隣の部屋として存在するかのような感覚を得ることができる。また第1空間SA側のユーザU1と第2空間SB側のユーザU2とが互いの空間を認識したうえで、違和感のない会話、動作などによる意思疎通を行うことが可能となる。
なお、ここでの常時接続とは、ユーザの有無に関わらず撮像画像及び音声信号の相互通信が常時行われている状態をいい、またユーザによりいつでも音声や画像による通話が実行できる状態で相手先と接続されている状態をいう。
<2.仮想的空間接続装置の構成>
本発明の実施の形態としての仮想的空間接続装置100の構成について、図1から図6を参照して説明する。
図3に示すように仮想的空間接続装置100は、第1撮像部1A、第1音声入力ユニット2A、第1表示ユニット3A、第1音声出力ユニット4A、第1演算処理部5A、及び第2撮像部1B、第2音声入力ユニット2B、第2表示ユニット3B、第2音声出力ユニット4B、第2演算処理部5Bを有している。
第1撮像部1Aは第1空間SAに設けられ、例えばCCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型として構成された撮像素子を有する。この第1撮像部1Aは、撮像素子で受光した光を光電変換し、第1撮像画像信号として第1演算処理部5Aに出力する。
第1音声入力ユニット2Aは第1空間SAに設けられ、複数、例えば3つの第1マイクロフォン21Aを有している(図1参照)。第1音声入力ユニット2Aは、各第1マイクロフォン21Aで収音した音声のアナログ信号としての第1音声信号を第1演算処理部5Aに出力する。
第1表示ユニット3Aは第1空間SAに設けられ、例えば第1プロジェクタ31Aと第1被投射部32Aにより構成される。
第1プロジェクタ31Aは、光学レンズ部、液晶パネル、光源等により構成される投射部を有し、第1制御部54Aからの制御により、第1演算処理部5Aから受信した画像信号に基づく画像投影を当該投射部により第1被投射部32Aに対して行う。当該画像信号は、第2演算処理部5Bから受信した第2空間SBの第2撮像画像信号に基づく画像信号である。
第1プロジェクタ31Aとしては、例えばLCOS(Liquid Crystal On Silicon)やDMD(Digital Micro mirror Device)などの画像形成素子上に表示した画像を、半導体レーザなどの投射光学系によってスクリーンに拡大して投射させるパネル方式プロジェクタなどの各種プロジェクタにより実現される。
第1音声出力ユニット4Aは、例えば1又は複数の第1スピーカ41Aであり第1空間SAに設けられている(図1参照)。第1音声出力ユニット4Aは、第2空間SBで収音された第2音声信号を受信した第1演算処理部5Aから取得し、当該受信した第2音声信号に基づく音声出力を実行する。
第1演算処理部5Aは、第1画像信号処理部51A、第1音声信号処理部52A、第1通信部53A、第1制御部54Aの機能を有する。
第1画像信号処理部51Aは、例えばDSP(Digital Signal Processor)やVDP(Video Display Processor)等により画像処理プロセッサとして構成され、第1制御部54Aからの制御により、第1撮像部1Aからのアナログ信号としての第1撮像画像信号にA/D(Analog/Digital)変換処理等の各種の信号処理を実行する。また第1画像信号処理部51Aは、デジタル信号としての第1撮像画像信号に対して輝度信号処理、色処理、解像度変換処理、コーデック処理などの各種の信号処理を施す。
第1音声信号処理部52Aは、例えばDSPにより音声処理プロセッサとして構成され、第1制御部54Aからの制御により、第1音声入力ユニット2Aからのアナログ信号としての第1音声信号にA/D(Analog/Digital)変換処理等の各種の信号処理を実行する。また第1音声信号処理部52Aは、デジタル信号としての第1音声信号に対して各種の信号処理を施す。例えば第1音声信号処理部52Aは、第1音声信号に対してビームフォーミング処理、ノイズリダクション処理、増幅処理や減衰処理、音質処理、コーデック処理等を行う。ここでビームフォーミング処理とは、音源から各第1マイクロフォン21Aへの音波伝搬がそれぞれ異なることに基づいて収音方向の指向性を制御する処理のことである。
第1通信部53Aは、第1制御部54Aからの制御により、第2空間SB側の第2演算処理部5BとネットワークNWを介した無線通信によるデータ通信を実行する。
第1通信部53Aは、第1空間SAを撮像した第1撮像画像信号と第1空間SAで収音した第1音声信号とを第1空間SAと離隔した第2空間SB側の第2演算処理部5Bに送信する。また第1通信部53Aは、第2空間SBを撮像した第2撮像画像信号と第2空間SBで収音した第2音声信号とを第2空間SB側の第2演算処理部5Bから受信する。
第1制御部54Aは、例えばGPU(Graphics Processing Unit)やCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えたマイクロコンピュータで構成される。
第1制御部54Aは、図4に示すように第1領域設定部55A、第1信号処理部56A、第1機器制御部57A、第1状況判定部58Aを有している。
第1領域設定部55Aは、第1撮像部1Aによる第1空間SAの撮像結果に基づいて第1被投射部32Aにおける第1カメラ孔33Aを含む特定出力領域AR(後述する図6の斜線で示すような部分)を設定する。特定出力領域ARとは、第1被投射部32Aにおける第1カメラ孔33Aを含む領域をいう。
第1信号処理部56Aは、第1プロジェクタ31Aによる特定出力領域ARへの投影画像の輝度値があらかじめ定められた特定値となるように第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する。
本実施の形態では、例えば第1被投射部32Aを視認するユーザU1が特定出力領域ARを黒色と認識できる程度の輝度値を所定の値とし、当該所定の値以下となるように特定値を設定する。
第1機器制御部57Aは、上記の他に第1撮像部1A、第1音声入力ユニット2A、第1プロジェクタ31A、第1音声出力ユニット4A、第1画像信号処理部51A、第1音声信号処理部52A、第1通信部53Aの各種制御を実行する。
第1機器制御部57Aは、第1信号処理部56Aが生成した処理後画像データに基づく画像投影を第1プロジェクタ31Aに実行させる。これにより、第1プロジェクタ31Aにより第1被投射部32Aに第2空間SB側の画像が投影されるとともに、第1カメラ孔33Aを含む特定出力領域ARが黒色に投影される。
従って、第1カメラ孔33Aに設けられている第1撮像部1Aに入る込む第1プロジェクタ31Aからの投射光が抑止(軽減)される。
ここで第2空間SB側では、図2と同様に第2プロジェクタ31Bが第2被投射部32Bに向けて側方から画像投影を行うことで、第1空間SA側の様子が第2被投射部32Bに表示される。
このとき第2空間SB側の第2撮像部1Bは第2カメラ孔33Bに設けられているため、第2空間SB内を撮像する際に、第2プロジェクタ31Bからの投射光が第2撮像部1Bに入り込むことになる。
その結果、第2撮像部1Bのレンズ自体の回折の影響、組み合わせレンズ同士、レンズと鏡筒、レンズと撮像素子、あるいは撮像素子の表面配線等で入射光が反射を繰り返すことなどにより、第1空間SA側で第2空間SBの撮像画像を第1被投射部32Aに投射した際に、図5に示すようなレンズフレアLF(図5の白色で示す部分)が発生してしまう。これは図示しないが第1空間SA側の撮像画像を第2空間SBの第2被投射部32Bに投射したときも同様である。
このようなレンズフレアLFの発生は、第1空間SA側のユーザU1と第2空間SB側のユーザU2とが互いの空間の様子を認識する際に違和感を与えてしまう。その結果、仮想的空間接続装置100により実現される互いに離隔した空間がまるで隣の部屋として存在するかのような臨場感を損なわせることになる。
そこで本実施の形態では、第2空間SB側において第2撮像対象32Bの第2カメラ孔33Bを含む特定出力領域ARを設定し、特定出力領域ARが黒色に表示されるような画像投影を第2プロジェクタ31Bに実行させる。
これにより、第2カメラ孔33Bに設けられた第2撮像部1Bに入り込む第2プロジェクタ31Bからの投射光が抑止(軽減)された結果、図6に示す第1空間SA側で表示された第2空間SB側の画像において、レンズフレアLFの発生が防止される。
これは第1空間SA側も同様であり、第1空間SA側において第1カメラ孔33Aを含む特定出力領域ARを設定し、特定出力領域ARが黒色に表示されるような画像投影を第1プロジェクタ31Aに実行させることで、第2空間SB側で投影される第1空間SA側を表示する画像において、レンズフレアLFの発生が防止される。
また第1状況判定部58Aは、第1撮像部1Aから受信した第1撮像画像信号について画像解析処理を実行する。また第1状況判定部58Aは、第1音声入力ユニット2Aから受信した第1音声信号について音声解析処理を実行する。
第1状況判定部58Aは、第1撮像画像信号や第1音声信号の解析処理結果に基づいて第1空間SA内の状況を判定する。
ここで空間内の状況とは、例えばユーザの声や静寂といった空間内の音声状況や、ユーザの存否、人数、位置、仕草、向きといった空間内のユーザの状況、空間内の明るさ、天候の状況などのことである。
なお、第1空間SAの状況を判定するにあたっては、画像解析処理と音声解析処理の両方の解析結果を用いてもよいし、何れか一方の解析結果のみ用いてもよい。また何れか一方の解析結果を用いる場合、他方の解析処理を実行しないこととしてもよい。
なお、第1制御部54Aの各機能は、ソフトウェア処理として実現することができる。或いはハードウェア、又はソフトウェアとハードウェアの組み合わせにより実現することができる。例えば第1信号処理部56Aの処理は、第1画像信号処理部51Aにおいて実行する処理としてもよいし、第1状況判定部58Aの画像解析処理は第1画像信号処理部51Aにより、音声解析処理は第1音声信号処理部52Aにより実行する処理とすることもできる。
第2撮像部1B、第2音声入力ユニット2B、第2表示ユニット3B、第2音声出力ユニット4B、及び第2演算処理部5Bの各構成は、上述した第1空間SA側の各構成の説明における、第1空間SAと第2空間SB、第1撮像画像信号と第2撮像画像信号、第1音声信号と第2音声信号、第1撮像部1Aと第2撮像部1B、第1音声入力ユニット2Aと第2音声入力ユニット2B、第1表示ユニット3Aと第2表示ユニット3B、第1音声出力ユニット4Aと第2音声出力ユニット4B、第1演算処理部5Aと第2演算処理部5B、第1マイクロフォン21Aと第2マイクロフォン21B、第1プロジェクタ31Aと第2プロジェクタ31B、第1被投射部32Aと第2被投射部32B、第1カメラ孔33Aと第2カメラ孔33B、第1スピーカ41Aと第2スピーカ41B、第1画像信号処理部51Aと第2画像信号処理部51B、第1音声信号処理部52Aと第2音声信号処理部52B、第1通信部53Aと第2通信部53B、第1制御部54Aと第2制御部54B、を互いに読み替えることで説明される。
また第2制御部54Bの各機能構成は、第1領域設定部55Aと第2領域設定部55B、第1信号処理部56Aと第2信号処理部56B、第1機器制御部57Aと第2機器制御部57B、第1状況判定部58Aと第2状況判定部58B、を互いに読み替えることで説明される。
従って、第2空間SB側の構成の説明を省略する。また、以降の説明において第1空間SA側と同様であることから第2空間SB側の構成や処理を省略する際には、上記のように読み替えるものとする。
以上の構成に基づいて本実施の形態が実現される。
<3.実施の形態の処理例>
本実施の形態を実現するための第1制御部54Aが実行する処理の一例について図7を参照して説明する。第1制御部54Aは、例えば図7に示す処理を実行することで図6に示すような特定出力領域ARを設定する。
まず第1制御部54Aは、ステップS101において、図8に示す検索領域BXを視認したユーザが黒色と認識するような輝度値となるように画像データを生成し(図8では黒色の投影部分を斜線で示すものとする。以降の図においても同様である)、当該生成した画像データに基づく画像投影出力を第1プロジェクタ31Aに実行させる。
ここで検索領域BXとは、特定出力領域ARを設定するときに第1カメラ孔33Aの位置を検索するために用いられる領域である。検索領域BXは、第1被投射部32Aにおいて第1カメラ孔33Aが配置されると想定される範囲を含む領域として、ユーザの入力などによりあらかじめ設定される。
続いてステップS102において第1制御部54Aは、第1被投射部32Aに対して検索領域BXが黒色に投影された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいて第1空間SAの撮像画像のフレアメトリック値BLを算出する。
フレアメトリック値BLとは、検索領域BXが黒色に投影された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいて算出された第1撮像部1Aへの入射光量を示す値である。
フレアメトリック値BLは、第1カメラ孔33Aを含む検索領域BXが黒色に投影された状態を、第1撮像部1Aによる撮像画像にレンズフレアLFが最も発生していない状態と仮定した場合の第1撮像部1Aへの入射光量を示す値として算出される。
フレアメトリック値BLは、例えば下記[式1]のアルゴリズムにより算出される。上記の状態で[式1]により算出された「flare_metric(I)」の値がフレアメトリック値BLとして設定される。

flare_metric(I)=Sum_i(brightness_of_pixel_i*(distance_from_center^E)) ・・・[式1]
ここで[式1]の概要について説明する。
[式1]において「brightness_of_pixel_i」は、撮像画像から選択された画素の輝度(以下、選択画素輝度とも表記する)を示している。また「distance_from_center」は、当該選択された画素についての撮像画像の中心からの距離(以下、選択画素距離とも表記する)を示している。ここでの輝度は、例えば赤(R),青(B).緑(G)の3要素のベクトル、もしくはその合算値などにより示されるものである。
[式1]では、選択画素距離に所定値Eを累乗した値を選択画素輝度に乗算することで、選択された画素について、撮像画像の中心からの距離に応じて重み付けを行った値を算出する。そして撮像画像の各画素において算出した重み付けを行った値の総和([式1]では「Sum_i」で示される)によりフレアメトリック値BL(flare_metric(I))を算出する。
次に第1制御部54Aは、ステップS103において、図9に示す検索領域BXを視認するユーザが白色と認識するような輝度値となるように画像データを生成し、当該生成した画像データに基づく画像投影出力を第1プロジェクタ31Aに実行させる。
続いてステップS104において第1制御部54Aは、第1被投射部32Aに対して検索領域BXが白色に投影された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいて第1空間SAの撮像画像のフレアメトリック値WHを算出する。
フレアメトリック値WHとは、検索領域BXが白色に投影された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいて算出された、第1撮像部1Aへの入射光量を示す値である。
フレアメトリック値WHは、第1カメラ孔33Aを含む検索領域BXが白色に投影された状態を、第1撮像部1Aによる撮像画像にレンズフレアLFが最も発生している状態と仮定した場合の第1撮像部1Aへの入射光量を示す値として算出される。
なお、フレアメトリック値WHは、検索領域BXが白色に投影された状態において、上記[式1]のアルゴリズムにより算出される。
その後、第1制御部54Aは、ステップS105に処理を進め、算出したフレアメトリック値BL及びフレアメトリック値WHに基づいて、第1撮像部1Aによる撮像画像における微小なレンズフレアLFの発生を判定するための閾値thを算出する。
ここでフレアメトリック値BLに乗算する係数を「a」、フレアメトリック値WHに乗算する係数を「b」、各係数の和を「a+b=1」としたときに、閾値thの値は下記[式2]により算出される。

閾値th=a×(フレアメトリック値BL)+b×(フレアメトリック値WH) ・・・[式2]
第1制御部54Aは、第1撮像部1Aによる第1撮像画像信号から算出された輝度に基づく算出値であるフレアメトリック値PRと、閾値thとの比較に基づいて、第1撮像部1Aによる撮像画像における微少なレンズフレアLFが発生したか否かを判定する。
第1制御部54Aは、例えば算出されたフレアメトリック値PRが閾値th以上となったことをもって撮像画像に微小なレンズフレアLFが発生したことを判定する。
第1制御部54Aは、上記[式2]において、例えばフレアメトリック値BLの方が、フレアメトリック値WHよりも乗算する係数の値が大きくなるように、即ち「a>b」となるように設定する。例えばフレアメトリック値BLに「a=0.8」を乗算した値と、フレアメトリック値WHに「b=0.2」を乗算した値との和により閾値thを算出する。
このように、撮像画像にレンズフレアLFが最も発生していない状態(第1空間SA内が最も暗い状態)を示すフレアメトリック値BLの閾値thに占める比重を大きくすることで、微小なレンズフレアの発生を検知する感度を高めることができる。
このように、第1空間SAの撮像結果に基づき閾値thの設定処理を行うことで、ユーザU1の仮想的空間接続装置100を使用する空間に適した閾値thを柔軟に設定することができる。従って、仮想的空間接続装置100を使用する空間の状況を反映させた微小なレンズフレアの発生の判定精度を向上させることができる。
閾値thの設定が完了すると、第1制御部54AはステップS106以降の処理において、閾値thに基づいて特定出力領域ARを設定する処理を実行する。第1制御部54Aは、特定出力領域ARの各端辺を検索領域BXから特定することで特定出力領域ARを設定する。
第1制御部54Aは、ステップS106において、検索領域BXの上下左右の端辺のうち未設定の端辺を選択する。まず第1制御部54Aは、ステップS106において、例えば図8で示すように検索領域BXの左端辺を端辺L0として設定する。
続いて第1制御部54Aは、ステップS107において、第1被投射部32Aの検索領域BXが黒色に表示されるような画像投影を第1プロジェクタ31Aに実行させる。
次に第1制御部54Aは、ステップS108において、図10に示すような試行領域WAの設定を行う。
試行領域WAは、検索領域BXの一部として形成される。試行領域WAは、検索領域BXのうち、後述するフレアメトリック値PRの算出にあたり白色に表示されるような画像投影が実行される領域である。
例えば検索領域BXの左端辺L0に並行な辺を端辺Lnとすると、第1制御部54Aは、検索領域BXのうち左端辺L0と端辺Lnで囲まれた領域を試行領域WAとして設定する。なお、「n」は正の整数である。
このとき端辺Lnは、フレアメトリック値PRの算出ごとに、端辺L1、L2、L3・・・の順に検索領域BXの左端辺L0から右端辺に向かって移動する。例えば「n=1」とした場合、制御部54Aは、検索領域BXのうち左端辺L0と端辺L1で囲まれた領域を試行領域WAとして設定する。
第1制御部54Aは、試行領域WAが白色に表示されるような画像投影を第1プロジェクタ31Aに実行させる。
このとき第1制御部54Aは、ステップS109に処理を進め、試行領域WAが白色に投影された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいてフレアメトリック値PRを算出する。フレアメトリック値PRは、上述したフレアメトリック値BL及びフレアメトリック値WHと同様に上記[式1]により算出する。
第1制御部54Aは、ステップS110において、フレアメトリック値PRが閾値th以上であるか否かを判定する。
フレアメトリック値PRが閾値th以上でない場合、第1制御部54Aは、第1撮像部1Aによる撮像画像に微小なレンズフレアLFが発生していないものと判定する。そのため、第1制御部54Aは、端辺Lnを特定出力領域ARの端辺と設定せずにステップS111に処理を進める。
第1制御部54Aは、ステップS111において、端辺Lnを右方向へ移動する。即ち、第1制御部54Aは、右方向へ移動した端辺L(n+1)を新たな端辺Lnとして設定する。ここで端辺Lnを端辺L(n+1)に移動することは、例えば端辺Lnを1ピクセル移動することを意味する。なお、ここでの移動量は1ピクセルに限られず、複数ピクセルごとに移動してもよいし、移動ごとに移動量が異なっていてもよい。
その後、第1制御部54Aは、ステップS111からステップS107に処理を進める。第1制御部54Aは、ステップS110でフレアメトリック値PRが閾値th以上となるまで、ステップS107からS111までの処理を繰り返し実行する。
これにより、検索領域BXにおける試行領域WAの占める割合が、徐々に右方向に増加していくことになる。
一方、第1制御部54Aは、ステップS110において、フレアメトリック値PRが閾値th以上であると判定すると、第1撮像部1Aによる撮像画像に微小なレンズフレアLFが発生していると判定する。
例えば図11に示すように、白色に投影された試行領域WAが第1カメラ孔33Aの左端部に近づいた結果、第1カメラ孔33Aに入り込む投射光が徐々に増加することによるものである。
このとき第1制御部54AはステップS112に処理を進め、微小なレンズフレアLFの発生を検知した図11に示すような端辺Lnを特定出力領域ARの左端辺として設定する。
そして第1制御部54Aは、特定出力領域ARの左端辺を設定した後、ステップS113において、特定出力領域ARの右端辺、上端辺及び下端辺といった全ての端辺が設定されるまでステップS106に処理を戻し、その後、ステップS106からS112までの処理を繰り返し実行する。
例えば第1制御部54Aは、ステップS113からS106に処理を進め、未設定である検索領域BXの右端辺R0を選択する(図12参照)。
また第1制御部54Aは、ステップS106からS112の処理において、フレアメトリック値PRが閾値th以上となるまで、右端辺R0と、当該右端辺R0の左側に並行の端辺Rnとに囲まれた試行領域WAを徐々に増加させる。ここで第1制御部54Aは、フレアメトリック値PRが閾値th以上となると端辺Rnを特定出力領域ARの右端辺として設定する。
そして第1制御部54Aは、ステップS113に処理を進める。
また第1制御部54Aは、再度ステップS113からS106に処理を進め、未設定である検索領域BXの上端辺P0を選択する。
第1制御部54Aは、ステップS106からS112の処理において、フレアメトリック値PRが閾値th以上となるまで、上端辺P0と、当該上端辺P0の下側に並行の端辺Pnに囲まれた試行領域WAを徐々に増加させる。ここで第1制御部54Aは、フレアメトリック値PRが閾値th以上となると端辺Pnを特定出力領域ARの上端辺として設定する。
そして第1制御部54Aは、ステップS113に処理を進める。
最後に第1制御部54Aは、ステップS113からS106に処理を進め、未設定である検索領域BXの下端辺D0を選択する。
第1制御部54Aは、ステップS106からS112の処理において、フレアメトリック値PRが閾値th以上となるまで、下端辺D0と当該下端辺D0の上側に並行の端辺Dnに囲まれた試行領域WAを徐々に増加させる。ここで第1制御部54Aは、フレアメトリック値PRが閾値th以上となると端辺Dnを特定出力領域ARの下端辺として設定する。
そして第1制御部54Aは、ステップS113に処理を進める。
以上のように第1制御部54Aは、いわゆる線形検索を用いて特定出力領域ARの各端辺を設定する。
第1制御部54Aは、ステップS113において特定出力領域ARの全ての端辺を設定することにより、図12に示すような検索領域BXにおける特定出力領域ARの位置を特定すると、第1制御部54Aは図7に示す処理を終了する。
第1制御部54Aは、図7に示す処理を例えば仮想的空間接続装置100における第1演算処理部5Aの起動時やユーザの操作入力などにより実行する。当該処理の他の実行タイミングについては後述する。
なお、本実施の形態では、特定出力領域ARの各端辺の設定手法として線形検索を用いたが、他にも例えば二分検索の手法を用いることが可能である。
またここでは一例として、特定出力領域ARの端辺を左端辺、右端辺、上端辺、下端辺の順に設定したが、当該設定の順番はこれに限られず、任意の順番に端辺を設定することが可能である。
図7の処理により特定出力領域ARを設定した状態において、第1制御部54Aは、第1プロジェクタ31Aによる特定出力領域ARへの投影画像の輝度値があらかじめ定められた特定値となるように第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する。
そして第1制御部54Aは、当該処理後画像データに基づく特定出力領域ARへの投射出力を第1プロジェクタ31Aに実行させる。
これにより、特定出力領域ARを黒色に投影した第2空間SB側の撮像画像が第1空間SA側の第1被投射部32Aに表示される。特定出力領域ARを黒色に投影することで、第1レンズ孔33Aに第1プロジェクタ31Aからの投射光が入り込むことを軽減させ、第1撮像部1Aによる撮像画像にレンズフレアLFが発生することを抑止(軽減)することができる。
なお、本実施の形態における特定値は、ユーザが特定出力領域SAを黒色と認識できる程度の輝度値に限定されず、第1レンズ孔33Aに入り込む第1プロジェクタ31Aからの投射光により、第1撮像部1Aによる撮像画像にレンズフレアが発生しない程度の輝度値として設定されればよい。従って、ユーザが特定出力領域SAを例えば青色や緑色に認識できる程度の輝度値であってもよい。
ところで、機器自体の振動や地震等の外的要因などにより、第1空間SA内に設けられた第1プロジェクタ31Aの位置がずれることがある。すると、現在設定されている特定出力領域ARと実際の第1カメラ孔33Aの位置にずれが生じてしまう。
このような場合、第1カメラ孔33Aに第1プロジェクタ31Aからの投射光が入り込むことによるレンズフレアLFの発生を継続して抑制(軽減)するためには、位置ずれ後の第1プロジェクタ31Aと第1カメラ孔33Aの位置関係に基づいて特定出力領域ARを再設定する必要がある。
そこで第1制御部54Aは、図7の処理を各種条件に応じて実行し、適宜、特定出力領域ARの再設定を行う。
例えば第1制御部54Aは、「50分」「3時間」などの所定の時間経過ごとや、「午後11時」「午前4時」などの所定の時間帯など、定期的に特定出力領域ARの再設定を行うことができる。
また、このような特定出力領域ARの設定処理を行う際には、第1被投射部32Aへの第2空間SB側の画像投影中に、例えば検索領域BXの白黒の矩形の投影が映り込むことになり、第2空間SBの投影画像を見ている第1空間SA側のユーザU1に違和感を与えるおそれがある。
そこで第1制御部54Aは、例えばユーザU1が第1空間SAにおいてユーザU1が第2空間SB側のユーザU2とコミュニケーションをとっていない可能性の高い深夜時間帯に図7の処理を行い、特定出力領域ARを設定する。このようにユーザU1が仮想的空間接続装置100を利用しないと想定される時間帯に図7の処理を行うことで、ユーザU1に違和感を与えずに特定出力領域ARの設定処理を行うことができる。
また第1制御部54Aは、第1撮像画像信号や第1音声信号の解析処理結果などに基づいて第1空間SA内の状況を判定する。そして第1制御部54Aは、第1空間SA内の状況に応じて特定出力領域ARの設定処理を実行する。
例えば第1制御部54Aは、第1空間SA内の状況として、第1撮像画像信号や第1音声信号の解析処理結果から第1空間SA内に人がいるか否かを判定する。そして第1制御部54Aは、前記第1空間SA内にユーザU1がいないと判定した場合に特定出力領域ARの設定を行う。
これにより、ユーザU1が第1空間SA内に入るまでの間に特定出力領域ARの設定が完了しているため、ユーザU1に違和感を与えずに特定出力領域ARの設定処理を行うことができる。
第1制御部54Aは、第1撮像部1Aからの第1撮像画像信号に基づく画像解析処理を各フレーム単位で実行する。第1制御部54Aは、第1撮像画像信号に基づく画像解析処理により第1空間SA内におけるユーザU1の検出を行う。
画像解析処理としては、パターンマッチングの手法でユーザU1の画像を抽出してもよいし、例えばフレーム差分による動体検出の手法で、動体を検出し、当該動体からユーザU1を検出することなども考えられる。
また第1制御部54Aは、第1音声入力ユニット2Aから受信した第1音声信号に基づく音声解析処理を実行する。第1制御部54Aは、音声解析処理を行うことでユーザU1の話し声、第1空間SA内の環境音などの音声種別情報を取得し、ユーザU1の話し声の有無に応じてユーザU1の検出を行う。
また第1制御部54Aは、第1空間SAへの画像投影において60fps内の1フレーム間で図7の処理を実行することもできる。これにより、図7の処理において第1被投射部32Aに投影される検索領域BXの白黒の矩形をユーザU1に認識されづらくなる。従って、これによってもユーザU1に違和感を与えずに特定出力領域ARの設定処理を行うことができる。
以上により、本実施の形態における第1制御部54Aの処理が実現される。
なお、本実施の形態では第2制御部54Bも上述した処理と同様の処理を実行する。従って、第2制御部54Bの処理については説明を省略する。
<4.まとめ>
以上の実施の形態の仮想的空間接続装置100は、第1空間SAで第1撮像部1Aが撮像した第1撮像画像信号を第1空間SAと離隔した第2空間SB側に送信し、第2空間SB側で第2撮像部1Bが第2空間SBを撮像するための第2カメラ孔33Bを有する第2被投射部32Bに対して第2プロジェクタ31Bによって第1空間SA側から受信した第1撮像画像信号に基づく画像を投射し、第2空間SBで第2撮像部1Bが撮像した第2撮像画像信号を第1空間SA側に送信し、第1空間SA側で第1撮像部1Aが第1空間SAを撮像するための第1カメラ孔33Aを有する第1被投射部32Aに対して第1プロジェクタ31Aによって第2空間SB側から受信した第2撮像画像信号に基づく画像を投射することで、第1空間SAと第2空間SBを仮想的に接続するシステムに用いられる(図1及び図3等参照)。
これにより、第1空間SAと第2空間SBの何れにおいても他方の空間の画像が表示され、かつ音声が出力されることで、第1空間SAと第2空間SBが仮想的に接続される。
従って、互いに離隔する空間を仮想的に接続することにより、例えば自宅の一室と勤務先のオフィスといった互いに離れた場所にいるユーザU1とユーザU2が互いの空間を擬似的に共有することができ、互いに意思疎通を図ることができる。
実施の形態の仮想的空間接続装置100は、第1撮像部1Aによる第1空間SAの撮像結果に基づいて第1被投射部32Aにおける第1カメラ孔33Aを含む特定出力領域ARを設定する領域設定部(第1領域設定部55A又は第2領域設定部55B)と、第1プロジェクタ31Aによる特定出力領域ARへの投影画像の輝度値があらかじめ定められた特定値となるように第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する信号処理部(第1信号処理部56A又は第2信号処理部56B)と、当該処理後画像データに基づく画像投影を第1プロジェクタ31Aに実行させる機器制御部(第1機器制御部57A又は第2機器制御部57B)と、を備える(図4及び図7等参照)。
これにより、第1被投射部32Aに対して第1プロジェクタ31Aからの画像投影が行われる際に、第1カメラ孔33Aに設けられた第1撮像部1Aに入り込む第1プロジェクタ31Aからの投射光が軽減される。
従って、第1撮像部1Aにより撮像された第1空間SAの撮像画像におけるレンズフレアLFの発生を抑止(軽減)することができる。そのため、ユーザU2に違和感を与えないような第1空間SA側の画像を第2空間SB側に表示することができる。
また仮想的空間接続装置100は、第2撮像部1Bによる第2空間SBの撮像結果に基づいて第2被投射部32Bにおける第2カメラ孔33Bを含む特定出力領域ARを設定する領域設定部(第1領域設定部55A又は第2領域設定部55B)と、第2プロジェクタ31Bによる特定出力領域ARへの投影画像の輝度値があらかじめ定められた特定値となるように第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する信号処理部(第1信号処理部56A又は第2信号処理部56B)と、当該処理後画像データに基づく画像投影を第2プロジェクタ31Bに実行させる機器制御部(第1機器制御部57A又は第2機器制御部57B)と、を備える(図4及び図7等参照)。
これにより、第1空間SA側と同様に、第2空間SB側の第2撮像部1Bに入り込む第2プロジェクタ31Bからの投射光も軽減され、第2撮像部1Bにより撮像された第2空間SBの撮像画像におけるレンズフレアLFの発生を抑止(軽減)することができる。従って、同様にユーザU1に違和感を与えないような第2空間SB側の画像を第1空間SA側に表示することもできる。
以上により、互いに離隔する第1空間SAと第2空間SBをより自然に仮想接続することが可能となり、各空間のユーザが互いにより臨場感のある円滑な意思疎通を行うことができる。
ここで、あらかじめ定められた特定値は、特定出力領域ARにおける輝度値が所定の値以下となるような値とされる。例えば第1被投射部32Aを視認するユーザU1が特定出力領域ARを黒色と認識できる程度の輝度値を所定の値とし、当該所定の値以下となるように特定値を設定する。
これにより、特定出力領域ARが黒色となるような画像投影が行われることで、撮像画像におけるレンズフレアLFの発生を抑止(軽減)することができる。
実施の形態の仮想的空間接続装置100において、領域設定部(第1領域設定部55A又は第2領域設定部55B)は、第1撮像画像信号における撮像画像の輝度に基づく算出値(フレアメトリック値)と所定の閾値thとの比較に基づいて第1被投射部32Aの特定出力領域ARを設定する(図7のS110等参照)。
これにより、第1空間SA全体の明るさを加味して特定出力領域ARが設定される。
従って、第1空間SAの状況に適した特定出力領域ARを設定することが可能となり、より効果的に第1空間SAの撮像画像におけるレンズフレアLFの発生を抑止(軽減)することができる。
また仮想的空間接続装置100において領域設定部(第1領域設定部55A又は第2領域設定部55B)は、同様に第2撮像画像信号における撮像画像の輝度に基づく算出値と所定の閾値thとの比較に基づいて第2被投射部32Bの特定出力領域ARを設定する(図7のS110等参照)。
これにより、第2空間SB全体の明るさを加味して特定出力領域ARが設定され、同様に第2空間SBの撮像画像におけるレンズフレアLFの発生を抑止(軽減)することができる。
実施の形態の仮想的空間接続装置100は、第1撮像画像信号の解析処理結果に基づいて第1空間SA内の状況を判定する状況判定部(第1状況判定部58A又は第2状況判定部58B)を有し、領域設定部(第1領域設定部55A又は第2領域設定部55B)は、状況判定部(第1状況判定部58A又は第2状況判定部58B)が判定した第1空間SA内の状況に応じて特定出力領域ARの設定処理を行う(図3及び図7等参照)。
これにより、第1空間SA内の状況に応じて特定出力領域ARの再設定処理が行われる。
従って、例えば機器自体の振動や地震等の外的要因などにより、現在設定されている特定出力領域ARと実際の第1カメラ孔33Aの位置にずれが生じてしまった場合であっても、適宜、特定出力領域ARの再設定処理を行うことで、後発的に第1撮像部1Aによる撮像画像にレンズフレアLFが発生することを抑止(軽減)することができる。
また仮想的空間接続装置100は、第2撮像画像信号の解析処理結果に基づいて第2空間SB内の状況を判定する状況判定部(第1状況判定部58A又は第2状況判定部58B)を有し、領域設定部(第1領域設定部55A又は第2領域設定部55B)は、状況判定部(第1状況判定部58A又は第2状況判定部58B)が判定した第2空間SB内の状況に応じて特定出力領域ARの設定処理を行う(図3及び図7等参照)。
これにより、第1空間SAと同様に第2空間SB内の状況に応じて特定出力領域ARの再設定処理が行われる。
実施の形態の仮想的空間接続装置100において状況判定部(第1状況判定部58A又は第2状況判定部58B)は、第1撮像画像信号の解析処理結果に基づいて第1空間SA内に人がいるか否かを判定し、領域設定部(第1領域設定部55A又は第2領域設定部55B)は、第1空間SA内に人がいないと判定された場合に特定出力領域ARの設定処理を行う。 また仮想的空間接続装置100において状況判定部(第1状況判定部58A又は第2状況判定部58B)は、第2撮像画像信号の解析処理結果に基づいて第2空間SB内に人がいるか否かを判定し、領域設定部(第1領域設定部55A又は第2領域設定部55B)は、第2空間SB内に人がいないと判定された場合に特定出力領域ARの設定処理を行う(図4及び図7等参照)。
これにより、仮想的空間接続装置100を利用するユーザが空間内に入るまでの間に特定出力領域ARの設定が完了する。
このように、ユーザが空間にいない間に図7に示す処理を実行することで、空間内のユーザが仮想的に接続された他方の空間を視認する際に違和感を与えないような表示を行うことができる。
実施の形態の仮想的空間接続装置100では、第1プロジェクタ31Aが、第1演算処理部5Aから受信した第2空間SB側の第2撮像画像信号に基づく画像出力を、第1被投射部32Aの側方から第1被投射部32Aに向けて行う(図2及び図3等参照)。
このように、第1被投射部32Aを用いて第2空間SBを表示することで、第1空間SA内に第2空間SBの表示領域を、液晶パネル等を用いるときよりも容易に設置することができる。
また第1プロジェクタ31Aにより、第1被投射部32Aの側方から撮像画像の投影を行うことで、第1プロジェクタ31Aからの光がユーザU1などにあたることで生じる影が第1被投射部32Aにかかることにより、映像の臨場感が損なわれることを防止することができる。また、第1プロジェクタ31Aを第1被投射部32Aの側方に設置することで、床から天井までを占める投影が可能となる。これは第2空間SB側においても同様である。
<5.変形例>
本実施の形態では、第1空間SAにいるユーザU1と第2空間SBにいるユーザU2とが意思疎通を行う例について説明したが(図1等参照)、仮想的空間接続装置100により仮想的に接続された第1空間SA及び第2空間SBには、必ずしも他方の空間にいるユーザと意思疎通をしようとするユーザがいる必要はなく、単に一方の空間が他方の空間の撮像画像及び音声を共有できるように用いられてもよい。
本実施の形態では一例として、第1空間SAと第2空間SBを屋内として説明したが、第1空間SAと第2空間SBは、仮想的空間接続装置の各構成が配置可能な環境であれば屋内に限られず、屋外であってもよい。即ち、屋内と屋外や、屋外と屋外の空間を仮想的に接続することも可能である。
本実施の形態では、第1演算処理部5Aと第2演算処理部5BはネットワークNWを介した無線通信によりデータ通信が実行されるとしたが(図1参照)、通信方式は無線通信に限られず、有線通信によりデータ通信を実行するものとしてもよい。
本実施の形態では、一例として第1被投射部32Aをスクリーンとして説明したが(図1から図3等参照)、第1被投射部32Aは第1プロジェクタ31Aが映像を投影出力可能な領域であればよく、例えば第1空間SAの壁面や家具等の物体であってもよい。これは第2空間SB側の第2被投射部32Bについても同様である。
本実施の形態では、第1撮像部1Aは第1被投射部32Aの略中心部に1つ設けられているが(図1等参照)、第1撮像部1Aは周囲の空間座標を把握するために複数の撮像装置から構成されていてもよい。これは第2空間SB側の第2撮像部1Bにおいても同様である。
本実施の形態では、第1音声入力ユニット2Aを3つのマイクロフォンで構成される例について説明したが(図1参照)、第1音声入力ユニット2Aは2つ又は4以上のマイクロフォンから構成されていてもよい。マイクロフォンの数を増やすことで、空間的な自由度が高まり、鋭い指向性を得ることができる。これは第2空間SB側の第2音声入力ユニット2Bにおいても同様である。
本実施の形態では、第1演算処理部5Aからの第1空間SAの状況に応じた制御信号により、第1音声入力ユニット2Aが例えば各マイクロフォンの指向性制御、ノイズリダクション処理、ファイル化処理、増幅処理、音質処理などの処理を実行するが(図3等参照)、ノイズリダクション処理、ファイル化処理、増幅処理、音質処理などについては、第1演算処理部5Aにおいて実行することとしてもよい。
この場合、第1演算処理部5Aは、第1音声入力ユニット2Aから受信した第1音声信号について、第1空間SAの状況に応じたノイズリダクション処理、ファイル化処理、増幅処理、音質処理などの処理を実行する。これは第2空間SB側においても同様である。
また本実施の形態では、第1演算処理部5Aの第1画像信号処理部51Aが、第1撮像部1Aからのアナログ信号としての第1撮像画像信号にA/D変換処理等の各種の信号処理を実行する例について説明したが、当該各種の信号処理は、第1撮像部1A側で実行することとしてもよい。同様に、第2演算処理部5Bの第2画像信号処理部51Bについても当該各種の信号処理を第2撮像部1B側で実行することとしてもよい。
本実施の形態では、第2空間SBで第2撮像部1Bが撮像した第2撮像画像信号を第1空間SA側に送信し、第1空間SA側で第1撮像部1Aが第1空間SAを撮像するための第1カメラ孔33Aを有する第1被投射部32Aに対して第1プロジェクタ31Aによって第2空間SB側から受信した第2撮像画像信号に基づく画像を投射する処理、第1撮像部1Aによる第1空間SAの撮像結果に基づいて第1被投射部32Aにおける第1カメラ孔33Aを含む特定出力領域ARを設定する処理、第1プロジェクタ31Aによる特定出力領域ARへの投影画像の輝度値があらかじめ定められた特定値となるように第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する処理、及び当該処理後画像データに基づく画像投影を第1プロジェクタ31Aに実行させる処理などの各種処理を、第1空間SA側における第1演算処理部5Aの第1制御部54Aの制御により実行するものとして説明したが、上記の処理は、第2空間SB側における第2演算処理部5Bの第2制御部54Bの制御により実行することも可能である。
また、上記の各処理を第1演算処理部5Aの第1制御部54Aと第2演算処理部5Bの第2制御部54Bとで分担して実行することも可能である。
本実施の形態では、第1制御部54Aは、検索領域BXが白色になるような投射出力を第1プロジェクタ31Aに実行させ、検索領域BXが白色となるように投射された状態において、第1撮像部1Aが撮像した第1撮像画像信号に基づいて第1空間SAの撮像画像のフレアメトリック値WHを算出する例について説明したが(図7のS103、S104)、ここでの投射出力は高輝度の投射出力が行われればよく、例えば検索領域BXが青色、緑色になるような投射出力を実行させることとしてもよい。
このように白色の代わりに青色や緑色の投射出力を用いることで、仮想的空間接続装置100を利用するユーザの使用感を損なうことなく特定出力領域ARを設定することができる。
最後に、本開示に記載された効果はあくまでも例示であり限定されるものではなく、他の効果を奏するものであってもよいし、本開示に記載された効果の一部を奏するものであってもよい。
また本開示に記載された実施の形態はあくまでも例示であり、本発明が上述の実施の形態に限定されることはない。従って、上述した実施の形態以外であっても本発明の技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能なことはもちろんである。また実施の形態で説明されている構成の組み合わせの全てが課題の解決に必須であるとは限らない。
1A 第1撮像部
1B 第2撮像部
3A 第1表示ユニット
3B 第2表示ユニット
5A 第1演算処理部
5B 第2演算処理部
31A 第1プロジェクタ
31B 第2プロジェクタ
32A 第1被投射部
32B 第2被投射部
33A 第1カメラ孔
33B 第2カメラ孔
55A 第1領域設定部
55B 第2領域設定部
56A 第1信号処理部
56B 第2信号処理部
57A 第1機器制御部
57B 第2機器制御部
58A 第1状況判定部
58B 第2状況判定部
100 仮想的空間接続装置
SA 第1空間
SB 第2空間

Claims (8)

  1. 第1空間で第1撮像部が撮像した第1撮像画像信号を前記第1空間と離隔した第2空間側に送信し、前記第2空間で第2撮像部が前記第2空間を撮像した第2撮像画像信号を前記第2空間側から受信し、前記第1空間において、前記第1撮像部が前記第1空間を撮像するための第1カメラ孔を有する第1被投射部に対して、前記第2空間側から受信した前記第2撮像画像信号に基づく画像を第1プロジェクタによって投射することで、前記第1空間と前記第2空間を仮想的に接続するシステムであって、
    前記第1プロジェクタによって画像が投射される複数の端辺に囲まれた領域であって、前記第1カメラ孔を含む領域を検索領域とし、前記検索領域の複数の端辺のうちの少なくとも1つを前記第1カメラ孔に向けて移動させた後の前記複数の端辺に囲まれた領域である特定出力領域を設定する領域設定部と、
    前記第1プロジェクタによって前記特定出力領域へ投射される画像の輝度値が所定の値以下となるように前記第2撮像画像信号について画像信号処理を施すことで処理後画像データを生成する信号処理部と、
    前記処理後画像データに基づく画像投影を前記第1プロジェクタに実行させる機器制御部と、を備え、
    前記領域設定部は、前記検索領域の複数の端辺のうちの何れかの端辺を前記第1カメラ孔に向けて移動させた後の移動後の端辺と他の端辺とで囲まれた領域を第1輝度領域とし、前記検索領域において前記第1輝度領域以外の領域を第2輝度領域とし、前記第1輝度領域には第1輝度値の画像が投射され、前記第2輝度領域には前記第1輝度値よりも高輝度な第2輝度値の画像が投射され、前記何れかの端辺の移動に応じて前記第1輝度領域及び第2輝度領域に投射される複数の画像パターンに基づいて前記特定出力領域を設定する
    システム。
  2. 前記領域設定部は、前記何れかの端辺を前記第1カメラ孔に向けて移動させることによって前記第1撮像部への入射光量が予め定められた光量を上回った際の移動後の端辺を前記特定出力領域の端辺とする処理を、前記検索領域の複数の端辺のうちの少なくとも1つについて実行することにより前記特定出力領域を設定する
    請求項1に記載のシステム。
  3. 前記領域設定部は、前記第1プロジェクタにより前記検索領域に前記第1輝度値の画像が投影された状態において前記第1撮像部により得られた前記第1撮像画像信号に基づいて前記第1撮像部への入射光量を示す第1フレアメトリック値を算出し、前記第1プロジェクタにより前記検索領域に前記第2輝度値の画像が投影された状態において前記第1撮像部により得られた前記第1撮像画像信号に基づいて前記第1撮像部への入射光量を示す第2フレアメトリック値を算出し、前記第1フレアメトリック値と前記第2フレアメトリック値を用いて判定閾値を算出する処理と、
    前記第1プロジェクタにより前記検索領域に前記第1輝度値の第1輝度領域と前記第2輝度値の第2輝度領域を有する画像が投影された状態において前記第1撮像部により得られた前記第1撮像画像信号に基づいて前記第1撮像部の入射光量を示す第3フレアメトリック値を算出する処理と、
    前記第3フレアメトリック値と前記判定閾値との比較に基づいて前記検索領域から前記第1カメラ孔を含む特定出力領域を設定する処理と、を実行する
    請求項1に記載のシステム。
  4. 前記領域設定部は、前記第1輝度領域と前記第2輝度領域の境界位置がそれぞれ異なる複数の画像パターンを前記第1プロジェクタにより前記検索領域に投影することで、前記第1撮像部により得られた前記複数の画像パターンのそれぞれの前記第1撮像画像信号に基づいて複数の前記第3フレアメトリック値を算出し、算出した複数の前記第3フレアメトリック値のそれぞれと前記判定閾値とを比較することで前記特定出力領域を設定する
    請求項3に記載のシステム。
  5. 前記領域設定部は、前記第1撮像画像信号における前記第1撮像部の撮像素子の各画素から検出される輝度に基づいて前記第1フレアメトリック値及び前記第2フレアメトリック値を算出する
    請求項3に記載のシステム。
  6. 前記領域設定部は、前記各画素から検出された輝度に、前記各画素の前記撮像素子の中心からの距離に応じて重み付けを行った値に基づいて前記第1フレアメトリック値を算出する
    請求項5に記載のシステム。
  7. 前記第1フレアメトリック値をBL、
    前記第2フレアメトリック値をWH、
    前記第1フレアメトリック値に乗算する係数をa、
    前記第2フレアメトリック値に乗算する係数をb、
    且つ、a+b=1としたときに、
    a>bとなるようにaとbが設定され、
    前記領域設定部は、
    a× BL+b× WH
    から算出する値を前記判定閾値として取得する
    請求項3に記載のシステム。
  8. 前記第1撮像画像信号の解析処理結果に基づいて前記第1空間内の状況を判定する状況判定部を有し、
    前記領域設定部は、前記状況判定部が判定した前記第1空間内の状況に応じて前記特定出力領域の設定を行う
    請求項1に記載のシステム。
JP2020117697A 2020-07-08 2020-07-08 システム Active JP7351525B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2020117697A JP7351525B2 (ja) 2020-07-08 2020-07-08 システム
CN202180044411.9A CN115836520A (zh) 2020-07-08 2021-03-22 虚拟空间连接装置
EP21836766.2A EP4181503A4 (en) 2020-07-08 2021-03-22 VIRTUAL SPACE CONNECTING DEVICE
US18/002,626 US20230290049A1 (en) 2020-07-08 2021-03-22 Virtual space connection device
PCT/JP2021/011789 WO2022009485A1 (ja) 2020-07-08 2021-03-22 仮想的空間接続装置
JP2023107204A JP2023123745A (ja) 2020-07-08 2023-06-29 システム、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117697A JP7351525B2 (ja) 2020-07-08 2020-07-08 システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023107204A Division JP2023123745A (ja) 2020-07-08 2023-06-29 システム、プログラム

Publications (3)

Publication Number Publication Date
JP2022015076A JP2022015076A (ja) 2022-01-21
JP2022015076A5 JP2022015076A5 (ja) 2022-09-02
JP7351525B2 true JP7351525B2 (ja) 2023-09-27

Family

ID=79552860

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020117697A Active JP7351525B2 (ja) 2020-07-08 2020-07-08 システム
JP2023107204A Pending JP2023123745A (ja) 2020-07-08 2023-06-29 システム、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023107204A Pending JP2023123745A (ja) 2020-07-08 2023-06-29 システム、プログラム

Country Status (5)

Country Link
US (1) US20230290049A1 (ja)
EP (1) EP4181503A4 (ja)
JP (2) JP7351525B2 (ja)
CN (1) CN115836520A (ja)
WO (1) WO2022009485A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049367A (ja) 2000-08-04 2002-02-15 Yamaha Corp 映像投影装置および映像システム
JP2015129796A (ja) 2014-01-06 2015-07-16 キヤノン株式会社 投射型表示装置およびその制御方法
JP2015228102A (ja) 2014-05-30 2015-12-17 東芝テック株式会社 情報提供装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR807601A0 (en) * 2001-10-04 2001-10-25 Monash University Flare elimination in video conferencing
NO318883B1 (no) * 2003-04-07 2005-05-18 Tandberg Telecom As Arrangement og fremgangsmate for forbedret kommunikasjon mellom deltakere i en videokonferanse
JP2010114768A (ja) * 2008-11-07 2010-05-20 Canon Inc 映像処理装置、システム及びプログラム
JP7035613B2 (ja) 2018-02-23 2022-03-15 沖電気工業株式会社 コミュニケーション装置、コミュニケーション方法、コミュニケーションプログラム及びコミュニケーションシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049367A (ja) 2000-08-04 2002-02-15 Yamaha Corp 映像投影装置および映像システム
JP2015129796A (ja) 2014-01-06 2015-07-16 キヤノン株式会社 投射型表示装置およびその制御方法
JP2015228102A (ja) 2014-05-30 2015-12-17 東芝テック株式会社 情報提供装置

Also Published As

Publication number Publication date
EP4181503A1 (en) 2023-05-17
WO2022009485A1 (ja) 2022-01-13
CN115836520A (zh) 2023-03-21
JP2022015076A (ja) 2022-01-21
US20230290049A1 (en) 2023-09-14
EP4181503A4 (en) 2023-12-27
JP2023123745A (ja) 2023-09-05

Similar Documents

Publication Publication Date Title
WO2017215295A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
US9578413B2 (en) Audio processing system and audio processing method
JP6625745B2 (ja) 画像処理装置
WO2018025458A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US10079996B2 (en) Communication system, communication device, and communication method
TWI692976B (zh) 視頻通信裝置及方法
KR20190002346A (ko) 촬상 제어장치 및 그 제어 방법
TW201734948A (zh) 用於在廣角圖像系統中生成相關的音頻和視覺信號的方法、系統及設備
TW201943259A (zh) 基於視頻通信的實景窗系統
JP2007288354A (ja) カメラ装置、画像処理装置および画像処理方法
CN114651448A (zh) 信息处理系统、信息处理方法和程序
WO2015198964A1 (ja) 音声入出力機能付き撮像装置およびテレビ会議システム
JP7351525B2 (ja) システム
JP2011087218A (ja) 拡声システム
WO2020095639A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP4373645B2 (ja) 映像配信システム、プログラム及び記録媒体
JP7387167B2 (ja) 仮想的空間接続装置、システム
JP5151131B2 (ja) テレビ会議装置
JP7236636B2 (ja) 画像処理システム、画像処理方法、及びプログラム
TWI700933B (zh) 視頻通信裝置及方法
JP2017108240A (ja) 情報処理装置、及び情報処理方法
JP7410246B2 (ja) 情報処理端末および画像処理方法
JP2005078313A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2023139983A (ja) 撮影装置、撮影方法、及びプログラム
JP2017112464A (ja) 撮像装置および設定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230907

R150 Certificate of patent or registration of utility model

Ref document number: 7351525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150