JP2022021544A - 投影装置、投影装置の制御方法、プログラム - Google Patents

投影装置、投影装置の制御方法、プログラム Download PDF

Info

Publication number
JP2022021544A
JP2022021544A JP2020125167A JP2020125167A JP2022021544A JP 2022021544 A JP2022021544 A JP 2022021544A JP 2020125167 A JP2020125167 A JP 2020125167A JP 2020125167 A JP2020125167 A JP 2020125167A JP 2022021544 A JP2022021544 A JP 2022021544A
Authority
JP
Japan
Prior art keywords
image
person
posture
projection
projection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020125167A
Other languages
English (en)
Inventor
孝嗣 牧田
Takatsugu Makita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020125167A priority Critical patent/JP2022021544A/ja
Priority to US17/376,000 priority patent/US11601627B2/en
Publication of JP2022021544A publication Critical patent/JP2022021544A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】プロジェクタを手軽に利用できない場合があった。【解決手段】映像を投影する投影手段と、撮像手段と、前記撮像手段により得られた画像に基づき、映像を投影する面の形状を特定する特定手段と、前記撮像手段により得られた画像に基づき、前記映像を閲覧する人物の視点位置および姿勢を推論する推論手段と前記面の形状と前記視点位置および姿勢に応じて前記映像を補正する補正手段と、前記補正手段により補正された映像を投影するよう前記投影手段を制御する制御手段とを有する投影装置。【選択図】図2

Description

本発明は、投影先の面の形状に応じた映像を投影する投影装置に関する。
映像を電子的なディスプレイなしで表示する方法として、プロジェクタを用いて映像を壁などの面に投影する方法が知られている。一般的なプロジェクタでは、映像を投影する面が平面であることを前提としているため、投影する面が非平面である場合には、投影する映像が幾何的に歪んでしまう。この問題を解決するために、例えば、特許文献1では、プロジェクタと投影する面である球面スクリーンが物理的にアームで接続され、相対位置姿勢を角度センサで計測し、視聴者に対して歪みの無い映像を表示することができる方法を提案している。
特開2008-17348号広報
「"モバイルプロジェクタカメラシステムを用いた任意非平面への実時間適応的投影手法"、情報処理学会研究報告、Vol.2011-EC-19 No.19」 "DynamicGeometryReconstructionTechnique for MobileDevices Using AdaptiveCheckerboardRecognition and EpipolarGeometry"https://www.jstage.jst.go.jp/article/transinf/E94.D/2/E94.D_2_336/_pdf/-char/ja
しかしながら、一般的な家屋などでプロジェクタを利用する場合には、部屋の大きさやコストの観点から、専用のスクリーンや、プロジェクタとスクリーンを物理的に接続する機器の導入が難しい場合も多い。また、非平面に投影するとしても、視聴者の視点位置を取得するために視聴者に磁気センサを取り付けたり、スクリーン側にカメラを取り付けたりする必要があった。そのため、部屋の壁などをスクリーンとして利用して手軽に投影することができないという問題があった。
そこで、本発明は、プロジェクタの利用をより手軽にすることを目的とする。
上記課題を解決するために、本発明の投影装置は、映像を投影する投影手段と、撮像手段と、前記撮像手段により得られた画像に基づき、映像を投影する面の形状を特定する特定手段と、前記撮像手段により得られた画像に基づき、前記映像を閲覧する人物の視点位置および姿勢を推論する推論手段と前記面の形状と前記視点位置および姿勢に応じて前記映像を補正する補正手段と、前記補正手段により補正された映像を投影するよう前記投影手段を制御する制御手段とを有する。
本発明によれば、プロジェクタの利用をより手軽にすることができる。
本実施形態に係るプロジェクタの構成例を示す図である。 本実施形態に係るプロジェクタの動作を示すフローチャートである。 プロジェクタ、視点、およびホログラフィの関係を説明するための図である。
以下に、本発明を実施するための形態について、添付の図面を用いて詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されてもよい。また、各実施の形態を適宜組み合せることも可能である。
[第1の実施形態]
<プロジェクタの構成>
本実施例では、天井に設置され、全方位カメラを用いて映像を投影する面の形状および映像を閲覧する人物の位置姿勢を計測する機能を有するプロジェクタについて説明する。
図1は、投影装置の一例であるプロジェクタの構成例を示すブロック図である。プロジェクタ100は、制御部101と、撮像部102と、保持部103と、処理部104と、投影部105とを有する。
制御部101は、入力された信号や、後述のプログラムに従ってプロジェクタ1100の各部を制御する。制御部101は例えば中央演算処理装置(CPU)により実装される。なお、制御部101が装置全体を制御する代わりに、複数のハードウェアが処理を分担することで、装置全体を制御してもよい。
撮像部102は、プロジェクタ100が設置された環境内に存在する人物や、映像を投影するための面を撮影するカメラである。撮像部102は、例えば、光学レンズユニットと絞り・ズーム・フォーカスなど制御する光学系と、光学レンズユニットを経て導入された光(映像)を電気的な映像信号に変換するための撮像素子などで構成される。撮像素子としては、一般的には、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device Image Sensor)が利用される。撮像部102は、制御部101に制御されることにより、撮像部102に含まれるレンズで結像された被写体光を、撮像素子により電気信号に変換し、ノイズ低減処理などを行いデジタルデータを画像データとして出力する。本実施形態の撮像部102はさらに、全方位ミラーを備える。全方位ミラーは、プロジェクタ100の周囲の全方位(360度)からの光を鏡面反射することにより、当該光を撮像素子に導く。全方位ミラー101としては、双曲面ミラー、球面ミラー全周魚眼レンズ、等を用いることができる。
保持部103は、プロジェクタ100が投影するための映像を保持する不揮発性メモリである。この映像のデータは予め保存してあってもよいし、外部から取得したものであってもよい。
処理部104は、撮像部102から出力された画像データに対して画像処理や圧縮処理を施すためのものであり、例えばCPUで実装される。また画像処理の得意なグラフィクスプロセッシングユニット(GPU)で実装されてもよい。あるいは、CPUとGPUとが連携して実装されてもよい。画像処理部104は、処理が施された後の画像データを出力する。なお、撮像部102から出力される画像データは、プロジェクタ100の周囲の全方位を写した全方位画像を表す。そのため、処理部104による画像処理には全方位画像の歪みを補正する歪みを補正してパノラマ展開する補正処理も含まれる。本実施形態では、補正処理が施された後の画像データが表す画像を「パノラマ展開画像」と記載する。
なお、画像処理は歪み補正処理に限らない。画像処理として、プロジェクタ100の投影レンズの駆動や不図示の排熱ファンの駆動に伴う振れによる画像の乱れを補正するブレ補正処理を含んでもよい。あるいは、画像の輝度を補正する輝度補正処理、画像の色を補正する色補正処理、画像のダイナミックレンジを補正するレンジ補正処理、等が行われてもよい。
また、処理部104は、撮像部102が取得した画像を処理し、環境内に存在する人物の位置姿勢の計算を行う。また、映像を投影するための面の形状を計算し、映像歪みを補正するための、映像変換処理を行う。
投影部105は、液晶パネル及びその駆動ドライバ、レンズ及びズームなどの駆動系及び光源で構成され、処理部104が出力する映像を受け取り、映像を投影する。また、保持部103が保持するデータを投影することもできる。
取り付け部106は、天井の引掛・埋込シーリング、引掛・埋込ローゼットなどに取り付け可能な部材である。なお、電源もシーリング、ローゼットから引き込むことが可能である。引き込んだ電力は不図示の給電回路を介して各部に給電される。なお、ライトの取り付けができなくなるので、投影用のランプのほかに照明用のライトをさらに備えてもよい。さらに、シーリングやローゼットを搭載し、ほかのシーリングライトをプロジェクタに取り付け可能に構成してもよい。その場合、給電回路はシーリングまたはローゼットに接続し、取り付けられるシーリングライトにも電力が供給される。
以上がプロジェクタ100の説明である。
つづいて、プロジェクタ100の動作について説明する。図2はプロジェクタの動作を示すフローチャートである。本フローチャートは、例えばプロジェクタの電源がオンになったことや、投影の開始を指示されたことに応じて開始される。なお、本実施形態のプロジェクタは天井に設置される。そのため、ユーザが直接プロジェクタ本体に接触する操作は難しい。そこで、不図示の通信部によってリモコンから送信される指示を受け付ける。通信部は赤外線で実装される無線通信を受け付けてもよいし、Bluetooth Low Energy(BLE)により実装される無線通信を受け付けてもよい。BLEによって実装される場合は、通信部は通信用のチップおよびモジュールとアンテナからなる。この場合、リモコンは、プロジェクタ専用のリモコンだけでなく、スマートフォンなどの携帯端末にリモコンアプリをインストールしてBLE接続し、リモコンアプリのGUIによってユーザの操作を受け付けてもよい。
まず、ステップS201では、制御部101は、映像を投影する面の形状を計測する計測処理を実行するよう制御する。計測処理では、非特許文献1「“モバイルプロジェクタカメラシステムを用いた任意非平面への実時間適応的投影手法”、情報処理学会研究報告、Vol.2011-EC-19 No.19」に示された手法を用いる。
以下では、ステップS201の処理を具体的に説明する。はじめに、制御部101は、投影部105によってプロジェクタからチェッカーボードパターンを投影する。ここで、チェッカーボードパターンとは、白と黒の正方形の繰り返しパターンである。次に、制御部101は、投影したチェッカーボードパターンを撮像部102により撮影して画像を取得する。なお、ここでは撮像部102は全方位カメラであるため、特に撮影方向を考慮することなく撮像する。ただし、出力される画像データは全方位画像であるため、処理部104により、後述の処理を実行できるよう、パノラマ展開する処理を適用しておく。全方位画像をパノラマ展開するアルゴリズムは既知のアルゴリズムを利用すればよい。
次に、処理部104により、取得した画像から特徴点であるチェッカーボードパターンの交点を検出する。次に、処理部104により、検出した交点同士をつなぐチェッカーボードパターンのエッジを検出する。
次に、処理部104により、検出したエッジでつながれた交点をグループ化し、交点のチェッカーボードパターン上での位置を、エピポーラ幾何を用いて、グループごとに計算して対応付ける。
以上が、ステップS201の処理である。
つづくステップS202にて、制御部101は、処理部104により映像を閲覧する人物の位置姿勢を計算する。本実施形態では、学習済みモデルによる推論処理の実行によって、映像を閲覧する人物の位置姿勢を計算する。モデルに用いる具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。以下の説明では、ディープニューラルネットワーク(DNN)を構築するディープラーニングを利用してモデルを生成する場合を例に挙げて述べる。なお、ここで用いるDNNは、ネットワークデータやUSBメモリ等のデータを用いて、アップデートすることができる。
本実施形態における推論処理では、あらかじめさまざまな位置および姿勢で撮影された画像群を用いて深層学習を行った学習済みモデルを用いる。この学習は、製品の製造工程であらかじめ十分なバリエーションをもった姿勢の画像を入力とし、その画像に対応する人物の視点の位置姿勢データを教師データとして実行される。
ステップS202では制御部101は、処理部104を用いて映像を閲覧する人物の視点の位置姿勢データを計算する。ここでは、まず、撮像部102によって撮像され処理部104によりパノラマ展開された画像を、処理部104にて実行される学習済みモデルへの入力データとして入力する。この時、入力される画像には、プロジェクタ100により投影される映像を閲覧する人物が写っていることが期待される。そして、学習済みモデルの推論処理の実行により、プロジェクタ100により投影される映像を閲覧する人物の視点の位置姿勢データが出力される。位置姿勢データは、プロジェクタ100の位置姿勢を原点とした相対的な情報である。例えばプロジェクタの投影方向をX方向、プロジェクタの水平面に沿っておりかつ投影方向に対して垂直方向をY方向、プロジェクタの天面方向をZ方向、などと設定し、プロジェクタの中心を原点とする。この原点に対して、人物の視点の位置がどの程度の距離に、どのような向きで存在するのかを、XYZ軸それぞれを数値化した座標や、姿勢をヨー、ロール、ピッチの要素に分けて数値化したものが位置姿勢データである。
なお、ここでは撮像部102によって撮像されパノラマ展開された画像を入力データとし、プロジェクタ100により投影される映像を閲覧する人物の位置姿勢データが出力されるよう学習モデルを学習させた場合について述べたが、これに限られるものではない。例えば、撮像部102によって撮像されパノラマ展開された画像を入力データとし、そのうち人物の頭部領域を抽出した部分画像を出力する学習済みモデルと、この部分画像を入力として、人物の位置姿勢データを出力する学習済みモデルとを連携させてもよい。この場合、製品の製造工程であらかじめ十分なバリエーションをもった姿勢の画像を入力とし、その画像に対する頭部領域の部分画像を教師データとして学習させることで前段の学習済みモデルを生成する。また、この出力である部分画像を入力として、その画像に対応する位置姿勢データを教師データとして学習させることで後段の学習済みモデルを生成する。このようにすることで、位置姿勢の推論処理の精度をより高めることができる。
つぎに、ステップS203にて、制御部101は、投影する映像を変形するよう処理部104を制御する。本実施形態では、上記の非特許文献1「“モバイルプロジェクタカメラシステムを用いた任意非平面への実時間適応的投影手法”、情報処理学会研究報告、Vol.2011-EC-19 No.19」に示された手法を用いて映像の変形を行う。図3を参照して、映像を変形する具体的な手順を示説明する。図3はプロジェクタ、視点、およびホログラフィの関係を説明するための図である。
非平面に投影するための映像の変形の手順を説明する前に、まず、映像を投影する面が1つの平面である場合の手順について説明する。この場合には、以下の式1で表されるHomographyによって映像が変形できる。
pa=Ka・Hba・Kb・pb (式1)
式1において、投影先の画像上の点paは、投影する画像上の点pbを、以下の3種の行列Ka、Hba、Kbを用いて算出できる。ここで、Kaはプロジェクタのパラメータ行列、Kbは視点のパラメータ行列、Hbaは視点の位置姿勢からプロジェクタの位置姿勢に変換する際のホモグラフィ行列である。Kaは、Zhangの手法などによって予めキャリブレーションにより取得される内部パラメータである。Kaは、プロジェクタの位置姿勢と、注目する3次元空間中の点が既知の場合に、該点の3次元座標から、投影する画像上における前記の点の2次元座標を算出するための変換行列である。この変換行列内の数値は、焦点距離(画角)とレンズ歪みに依存する。
また、Kbは人間が画像を見る際の「内部パラメータ」であり、例えば、焦点距離(画角)はプロジェクタと同一の値、レンズ歪みはなし、という設定であらかじめ用意される。
Hbaは、以下の式で計算される。
Hba=R―(t・n)/d
このRとtは、プロジェクタの位置姿勢を原点として人物の視点の位置姿勢を算出した値から計算するパラメータである。Rがプロジェクタの位置姿勢に対する人物の視点の位置姿勢の回転移動、tはプロジェクタの位置姿勢に対する人物の視点の位置姿勢の平行移動を示す。
また、nとdはともに平面のパラメータである。nは平面の法線ベクトルであり、nはnの転置ベクトルである。dはプロジェクタから平面までの距離である。
nとdは非特許文献1の中で引用している、非特許文献2に記載の方法により計算する。手順の概略を以下に示す。
まず上述のKaとKbを取得する。さらに、プロジェクタの位置姿勢(ここでは原点)と、人物の視点の位置姿勢(ここではS202で推論した結果)とを取得する。
次に、Ka、Kb、プロジェクタの位置姿勢データ、およびプロジェクタの位置姿勢データから、パターン光を投影して、特徴点を対応付ける。
続いて、エピポーラ幾何を用いて、各特徴点の3次元位置を計算する。
そして、3次元位置が既知の点を複数(3点以上)選び、局所平面Pを設定する。
Pの平面式を算出し、平面式を用いて、法線ベクトルnを計算(|n|=1)する。
Pとプロジェクタの位置姿勢データから、dを計算する。
以上のようにしてHbaを計算する。
このHbaを用いることで、プロジェクタは、投影する画像上の点pbを、視聴する人物の視点位置から平面に投影しているように見える点paに投影することができる。
上述の例は映像を投影する面が1つの平面である場合の方法である。これを応用して、映像を投影する面が任意の非平面である場合の手順について説明する。映像を投影する面が任意の非平面である場合、上記のステップS201で取得した形状を利用する。具体的には以下の手順(1)、手順(2)により映像を変形する。
手順(1):人物の視点から見た映像の収まるべき矩形範囲を決定
手順(2):投影画像のピクセルと元画像のピクセルとの対応をとって投影画像を作成
以下では、上記の手順(2)について詳しく述べる。
上記の任意の非平面上における、特徴点であるチェッカーボードパターンの交点3つから構成される三角形の一つに注目すると、この三角形はほぼ一様な平面であると近似することができる。そのため、この三角形内部のピクセルに限って言えば、上記の、映像を投影する面が1つの平面である場合の方法と同様に処理が可能である。この処理をすべての三角形について実施することで、映像を投影する面が任意の非平面である場合にも、プロジェクタが投影する映像の変形を行うことができる。
ステップS204では、制御部101は、S203で変形された映像を投影するよう投影部105を制御する。これにより、凹凸を含む面に投影した場合であっても、ユーザの視点からは平面に投影した場合と同じように見える映像を投影することができる。
つづいて、ステップS205では、投影する面の形状を再計測するか否かを判定する。本実施形態では、プロジェクタを制御するためのリモートコントローラーを用い、再計測ボタンの押下があったか否かにより、再計測するか否かを判定する。再計測する場合には、ステップS201に移行する。再計測しない場合には、ステップS202に移行し、すでに計算済みの面の情報を用いてユーザの位置姿勢を再計算することで、ユーザの位置や姿勢の変化に追従する。
なお、これらの処理に並行して、制御部101は、ユーザから投影の終了の指示あるいは電源オフの指示を受け付けたか否かを判断する。終了の指示あるいは電源オフの指示を受け付けたと判断した場合、図2のフローチャートの処理を中断し、制御部101は各部を停止する終了処理を実行してプロジェクタ100の動作を停止する。なお、プロジェクタの利用を終了する場合、本例では、プロジェクタを制御するためのリモートコントローラーを用い、終了ボタンの押下によってプロジェクタの電源オフの指示を入力することで終了するものとする。また、同様にリモートコントローラを用いて投影停止を指示することで投影を停止する。
なお、終了時には、ステップS201で計測した投影する面の形状を不揮発性メモリに保存しておく。このようにしておくことで、再度プロジェクタを利用する場合、改めて面の形状を保存しておく必要がない。したがって、ステップS201の処理は、改めてユーザから投影面の形状の計測を指示されない限りは、実行されない。ステップS201の処理を実行するか否かは、例えば制御部101が、不揮発名性メモリに投影面の形状の計測結果が記録されているか否かを判断することで切り替えるようにすればよい。
以上のように、本実施形態のプロジェクタはカメラを搭載し、投影面の形状の計算と、視聴者である人物の視点の計算とをカメラにより撮像した画像を用いて実行する。これにより、スクリーンを用意したり、ユーザにセンサを取り付けたりするといった手間の必要がなく、単にプロジェクタを設置するだけで、ユーザの望む面に、ユーザが平面画像と認識しやすい映像を投影することができる。
[その他の実施形態]
上述の説明では、学習済みモデルを用いた推論の入力に、撮像部102によって撮像されパノラマ展開された画像を用いた。これは、投影面の形状を計算する際にパノラマ展開された画像を用いて計算するため、推論にもパノラマ展開された画像を併用することで効率化を図ったものである。しかしながら、プロジェクタは基本的に設置したあとに動かすことは少ない。すなわち、投影面の形状の計算はプロジェクタが動かされない限りは、一度計算するだけでよい。一方、投影されたコンテンツを視聴する人物の位置姿勢は、常に変化し続ける。そのため、位置姿勢の計算は少なくとも投影面の形状の計算よりも高頻度に行われる必要がある。もちろん、投影面がカーテンのように日常的に変化する場合もあるが、それでも投影面の形状の変化の頻度は、人物の位置姿勢の変化の頻度よりも低い。そこで、人物の位置姿勢の推論には、パノラマ展開される前の全方位画像を入力として用いてもよい。これにより、何度も実行される人物の位置姿勢の推論のために毎回パノラマ展開の処理を実行する必要がなくなる。このようにする場合、当然学習済みモデルを生成するための学習においても、入力を全方位画像とし、教師データをその全方位画像に対応する位置姿勢データとして学習する。
また、上述の説明では、あらかじめ製造段階で学習することで学習済みモデルが生成済みのプロジェクタを想定して説明した。しかしながら、学習のタイミングはこれに限られるものではない。例えば、プロジェクタ100を設置して初めに起動した際に学習するようユーザに通知して、ユーザの特徴やユーザの利用環境に合わせて学習してもよい。この場合、例えばユーザに身に着ける装着型の加速度センサ等を利用して、画像に対応する姿勢データを計測し、画像に対応する姿勢データとして利用すればよい。この場合であっても、学習を終えてプロジェクタから投影してコンテンツを視聴する段階ではユーザにセンサを取り付ける必要がないという効果を奏するものである。
また、上述の説明では、S205で投影面の形状の再計測をしない場合、S202~S204を繰り返すことと説明した。これについては、S202でユーザの位置姿勢が大きく変化がなければS203の変形の処理はスキップしてもよい。これにより、処理負荷を軽減することができる。
また、上述の説明では、映像を投影する場所は、プロジェクタの設置位置に応じて固定される場合を例に挙げて説明した。しかしながら、これに限定されるものではない。例えば、映像を閲覧する人物の位置姿勢に応じて映像を投影する場所を決定してもよい。また、ある程度以上に人物の位置が変化した場合には、自動的に映像を投影する場所を変更してもよい。さらに、映像を投影する場所は任意の非平面であるが、面の凹凸の変化が大きいほど、映像を補正した場合の画像劣化が大きい。そのため、映像の投影が可能な範囲内において、部分的に平面度合いが高い領域を自動的に検出し、前記の検出した領域にのみ映像を投影してもよい。また、映像は画素の位置に依存せず均一な輝度信号として投影される。しかし、映像を閲覧する人物は自由に動き回るため、映像の一部が想定している面には投影できず、人物に投影されてしまう場合がある。そのため、前記人物が存在する領域には映像を投影しない、ないし映像の輝度を下げる処理を実施し、映像が前記人物の視界に直接入った場合の影響を軽減してもよい。
また、上述の説明では、人物の視点の位置姿勢の計算において用いる画像に、その人物しか写っていないことを前提として説明した。しかしながら、画像には複数の人物が写ることも想定される。特に全方位画像を撮像するため、視聴者でない人物も写りやすいことが想定される。凸凹面に投影される映像が平面に見える位置は、原理的には1点だけである。そのため、画像に複数人が写っている場合、視聴者として特定する人物は、所定の条件に基づきどれか一人に絞る必要がある。絞り方として、映像を視聴する人物は、プロジェクタが投影する先を見ている可能性が高い。またそうでない場合は、プロジェクタのほうを向いている可能性が高い。そこで、画像に複数の人物が写っている場合、各人の位置姿勢を学習済みモデルにより推論し、プロジェクタの投影方向と同じ方向を向いている姿勢か否かを判断ことで、複数の人物のうちのいずれかを視聴者として特定してもよい。そして、同じ方向を向いている姿勢の人物がいない場合、プロジェクタのほうを向いている人物か否かを判断して、視聴者を特定してもよい。また、BLEで接続するスマートフォンのリモコンアプリからの指示でプロジェクタが起動されたか、リモコンアプリからの指示で人物の視点の位置姿勢の計算を実行する場合は、通信の方向と距離を測定することでスマートフォンのおよその位置を特定できる。視聴する人物が指示をすることが自然であると考えられるので、このことを利用して、画像に写る複数の人物のうち、指示があったスマートフォンのおおよその位置に最も近い位置姿勢の人物を視聴者として特定してもよい。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータがプログラムを読出し実行する処理でも実現可能である。コンピュータは、1または複数のプロセッサーまたは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータまたは分離した複数のプロセッサーまたは回路のネットワークを含みうる。
プロセッサーまたは回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサーまたは回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、またはニューラルプロセッシングユニット(NPU)を含みうる。

Claims (12)

  1. 映像を投影する投影手段と、
    撮像手段と、
    前記撮像手段により得られた画像に基づき、映像を投影する面の形状を特定する特定手段と、
    前記撮像手段により得られた画像に基づき、前記映像を閲覧する人物の視点位置および姿勢を推論する推論手段と
    前記面の形状と前記視点位置および姿勢に応じて前記映像を補正する補正手段と、
    前記補正手段により補正された映像を投影するよう前記投影手段を制御する制御手段と
    を有する投影装置。
  2. 前記撮像手段は全方位画像を撮像し、
    前記特定手段は、前記全方位画像をパノラマ展開した画像に基づき、映像を投影する面の形状を特定することを特徴とする請求項1に記載の投影装置。
  3. 前記推論手段は、前記全方位画像をパノラマ展開した画像に基づき前記映像を閲覧する人物の視点位置および姿勢を推論することを特徴とする請求項2に記載の投影装置。
  4. 前記推論手段は、前記全方位画像をパノラマ展開した画像を入力とし前記全方位画像をパノラマ展開した画像のうちの人物の視点位置および姿勢の情報を教師データとして学習した学習済みモデルを用いて前記映像を閲覧する人物の視点位置および姿勢を推論することを特徴とする請求項3に記載の投影装置。
  5. 前記推論手段は、前記全方位画像に基づき前記映像を閲覧する人物の視点位置および姿勢を推論することを特徴とする請求項2に記載の投影装置。
  6. 前記推論手段は、前記全方位画像を入力とし前記全方位画像のうちの人物の視点位置および姿勢の情報を教師データとして学習した学習済みモデルを用いて前記映像を閲覧する人物の視点位置および姿勢を推論することを特徴とする請求項5に記載の投影装置。
  7. 前記画像に複数の人物が写っている場合、所定の条件を満たす人物を前記映像を閲覧する人物として特定することを特徴とする請求項1乃至6のいずれか1項に記載の投影装置。
  8. 前記画像に複数の人物が写っている場合、前記投影手段による投影方向と、前記人物の視点の方向とに基づき、いずれかの人物を前記映像を閲覧する人物として特定することを特徴とする請求項1乃至6のいずれか1項に記載の投影装置。
  9. 携帯端末装置と通信する通信手段をさらに有し、
    前記携帯端末装置からの所定の指示に応じて前記映像を閲覧する人物の視点位置および姿勢を推論する場合であって、かつ前記画像に複数の人物が写っている場合、前記指示を送信した前記携帯端末装置の位置を、前記通信手段が受け付けた指示の信号に基づき特定し、該特定された前記携帯端末装置の位置に基づき、いずれかの人物を前記映像を閲覧する人物として特定することを特徴とする請求項1乃至6のいずれか1項に記載の投影装置。
  10. 前記面の形状を記録する記録手段をさらに有し、
    すでに前記記録手段に面の形状が記録されている場合、前記特定手段は、前記投影する面の形状の特定のための処理を実行しないことを特徴とする請求項1乃至9のいずれか1項に記載の投影装置。
  11. 映像を投影する投影手段と、撮像手段とを有する投影装置の制御方法であって、
    前記撮像手段により得られた画像に基づき、映像を投影する面の形状を特定する特定ステップと、
    前記撮像手段により得られた画像に基づき、前記映像を閲覧する人物の視点位置および姿勢を推論する推論ステップと、
    前記面の形状と前記視点位置および姿勢に応じて前記映像を補正する補正ステップと、
    前記補正ステップで補正された映像を投影するよう前記投影手段を制御する制御ステップと
    を有する投影装置の制御方法。
  12. コンピュータを請求項1乃至10の何れか1項に記載の情報処理装置の各手段として動作させるためのプログラム。
JP2020125167A 2020-07-22 2020-07-22 投影装置、投影装置の制御方法、プログラム Pending JP2022021544A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020125167A JP2022021544A (ja) 2020-07-22 2020-07-22 投影装置、投影装置の制御方法、プログラム
US17/376,000 US11601627B2 (en) 2020-07-22 2021-07-14 Apparatus, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125167A JP2022021544A (ja) 2020-07-22 2020-07-22 投影装置、投影装置の制御方法、プログラム

Publications (1)

Publication Number Publication Date
JP2022021544A true JP2022021544A (ja) 2022-02-03

Family

ID=80220494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125167A Pending JP2022021544A (ja) 2020-07-22 2020-07-22 投影装置、投影装置の制御方法、プログラム

Country Status (2)

Country Link
US (1) US11601627B2 (ja)
JP (1) JP2022021544A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7163947B2 (ja) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 投写領域の設定支援方法、設定支援システム、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017348A (ja) 2006-07-07 2008-01-24 Matsushita Electric Works Ltd 映像表示装置、映像信号の歪み補正処理方法
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6760318B2 (ja) * 2018-03-14 2020-09-23 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム
US10777010B1 (en) * 2018-03-16 2020-09-15 Amazon Technologies, Inc. Dynamic environment mapping for augmented reality
JP7171212B2 (ja) * 2018-04-02 2022-11-15 キヤノン株式会社 情報処理装置、画像表示方法、コンピュータプログラム、及び記憶媒体
JP2022011821A (ja) * 2020-06-30 2022-01-17 キヤノン株式会社 情報処理装置、情報処理方法、移動ロボット

Also Published As

Publication number Publication date
US20220030207A1 (en) 2022-01-27
US11601627B2 (en) 2023-03-07

Similar Documents

Publication Publication Date Title
US10638035B2 (en) Image processing devices, image processing method, and non-transitory computer-readable medium
KR102713694B1 (ko) 이미지 안정화를 위한 전자 장치 및 그의 동작 방법
KR102328539B1 (ko) 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
KR20190032061A (ko) 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
KR102318013B1 (ko) 복수의 이미지들을 합성하는 전자장치 및 방법
KR102705524B1 (ko) 카메라 프리뷰를 제공하는 전자 장치 및 그 방법
JP2017168982A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP7205386B2 (ja) 撮像装置、画像処理方法、プログラム
JP2019080226A (ja) 撮像装置、撮像装置の制御方法、及びプログラム
CN114125411B (zh) 投影设备校正方法、装置、存储介质以及投影设备
KR20190014959A (ko) 움직임 정보에 기반하여 동영상을 재생하기 위한 장치 및 그의 동작 방법
KR102650217B1 (ko) 이미지를 제공하기 위한 방법 및 이를 지원하는 전자 장치
JP2020088708A (ja) 制御装置、撮像装置およびプログラム
JP4428371B2 (ja) 投写型画像表示装置及び平面被投写体
CN114827564A (zh) 投影设备控制方法、装置、存储介质以及投影设备
JP2022021544A (ja) 投影装置、投影装置の制御方法、プログラム
JP5845565B2 (ja) プロジェクター、及び、プロジェクターの制御方法
KR20120105208A (ko) 영상 처리 장치
JP2010171774A (ja) 携帯型画像投影装置、画像投影方法及び画像投影プログラム
JP7054437B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018174431A (ja) 画像処理装置、撮影装置、及び画像処理方法
JP6953961B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2022143122A (ja) 画像処理方法、撮像制御方法、プログラム、画像処理装置および撮像装置
JP2021193500A (ja) 位置検出方法、位置検出装置及びプロジェクター
CN116582654A (zh) 焦距运算方法、投影仪的显示方法以及拍摄系统

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240820