JP2016019194A - 画像処理装置、画像処理方法、および画像投影装置 - Google Patents
画像処理装置、画像処理方法、および画像投影装置 Download PDFInfo
- Publication number
- JP2016019194A JP2016019194A JP2014141753A JP2014141753A JP2016019194A JP 2016019194 A JP2016019194 A JP 2016019194A JP 2014141753 A JP2014141753 A JP 2014141753A JP 2014141753 A JP2014141753 A JP 2014141753A JP 2016019194 A JP2016019194 A JP 2016019194A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- information
- projection plane
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/147—Optical correction of image distortions, e.g. keystone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3188—Scale or resolution adjustment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【課題】投影面に投影された画像の形状の歪みを抑えることができる、あるいは適正な大きさの画像を投影することができる画像処理装置、画像処理方法、および画像投影装置を提供する。【解決手段】実施形態によれば、設定部と、補正部と、を備えた画像処理装置が提供される。前記設定部は、対象画像が投影される投影面の形状に関する情報と、前記対象画像を投影する投影位置に関する情報と、視点の位置に関する情報と、に基づいて、前記投影面に投影される画像を前記視点から観察したときに前記対象画像の全体を視認可能とする補正情報を設定する。前記補正部は、前記補正情報に基づいて前記対象画像を補正する。【選択図】図1
Description
本発明の実施形態は、画像処理装置、画像処理方法、および画像投影装置に関する。
例えばプロジェクタなどの画像投影装置が画像を投影する場合において、画像が投影される投影面が非平面を含むと、画像投影装置とは異なる位置から投影面を見たときに投影面に投影された画像が歪むことがある。これに対して、投影面の凹凸に関する情報に基づいて入力画像を補正すると、画像投射装置とは異なる位置から投影面を見ても投影面に投影された画像の歪みが抑えられる。
しかし、そのような補正を加えると、補正された画像の大きさが、投影面上において適正ではないことがある。画像投影装置とは異なる位置から非平面の投影面を見た場合でも、例えば視点位置から投影面を撮影するなどの煩雑な動作を行うことなく、投影面に投影された画像の形状の歪みを抑え、適正な大きさの画像を投影することができる画像処理装置、画像処理方法、および画像投影装置が望まれている。
しかし、そのような補正を加えると、補正された画像の大きさが、投影面上において適正ではないことがある。画像投影装置とは異なる位置から非平面の投影面を見た場合でも、例えば視点位置から投影面を撮影するなどの煩雑な動作を行うことなく、投影面に投影された画像の形状の歪みを抑え、適正な大きさの画像を投影することができる画像処理装置、画像処理方法、および画像投影装置が望まれている。
高橋、沼、青木、近藤、「三次元計測に基づく投影画像の幾何補正手法の検討」、電子情報通信学会技術研究報告、2007年10月、vol.107、no.287、p.71−76
本発明の実施形態は、投影面に投影された画像の形状の歪みを抑えることができる、あるいは適正な大きさの画像を投影することができる画像処理装置、画像処理方法、および画像投影装置を提供する。
実施形態によれば、設定部と、補正部と、を備えた画像処理装置が提供される。前記設定部は、対象画像が投影される投影面の形状に関する情報と、前記対象画像を投影する投影位置に関する情報と、視点の位置に関する情報と、に基づいて、前記投影面に投影される画像を前記視点から観察したときに前記対象画像の全体を視認可能とする補正情報を設定する。前記補正部は、前記補正情報に基づいて前記対象画像を補正する。
以下、本発明の実施の形態について図面を参照しつつ説明する。なお、各図面中、同様の構成要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、本発明の実施の形態にかかる画像投影装置を表すブロック図である。
なお、図1に表したブロック図は、本実施形態にかかる画像処理装置の要部構成の一例であり、必ずしも実際のプログラムモジュールの構成とは一致しない場合がある。
図1は、本発明の実施の形態にかかる画像投影装置を表すブロック図である。
なお、図1に表したブロック図は、本実施形態にかかる画像処理装置の要部構成の一例であり、必ずしも実際のプログラムモジュールの構成とは一致しない場合がある。
図1に表した画像投影装置100は、画像処理装置200と、取得部110と、投影部120と、を備える。
画像処理装置200は、設定部210と、補正部220と、を有する。
画像処理装置200は、設定部210と、補正部220と、を有する。
なお、画像処理装置200は、画像投影装置100とは異なる外部の装置であってもよいし、画像投影装置100が備える装置であってもよい。図1に表したハードウェア構成は、一例であり、各実施形態および各具体例に係る画像処理装置200の一部、又は全部を、LSI(Large Scale Integration)等の集積回路又はIC(Integrated Circuit)チップセットとして実現してもよい。各機能ブロックについては、個別にプロセッサ化してもよいし、各機能ブロックの一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法については、LSIに限らず専用回路、又は汎用プロセッサで実現してもよい。
取得部110は、画像が投影される面(投影面)351(図5(c)参照)の3次元形状に関する情報(形状情報)112と、画像を投影する画像投影装置100の位置に関する情報(投影位置情報)113と、投影面351を観察する視点の位置に関する情報(視点情報)114を取得する。取得部110は、形状情報112と、投影位置情報113と、視点情報114と、を設定部210に送る。
設定部210は、形状情報112と、投影位置情報113と、視点情報114と、に基づいて、補正画像の大きさに関する情報および補正画像の位置に関する情報(補正情報)212を設定する。補正画像222は、入力画像(対象画像)301が補正部220により補正された画像である。設定部210は、補正情報212を補正部220に送る。
補正部220は、補正情報212に基づいて入力画像301を補正し、補正画像222を投影部120に送る。投影部120は、補正画像222を投影する。
図2は、本実施形態にかかる画像処理方法を説明するフローチャート図である。
取得部110は、投影面351の形状情報112と、投影位置情報113と、視点情報114と、を取得し設定部210に送る(ステップS201)。
取得部110は、投影面351の形状情報112と、投影位置情報113と、視点情報114と、を取得し設定部210に送る(ステップS201)。
ここで、本実施形態の取得部110について、図面を参照しつつ説明する。
図3は、本実施形態の取得部を例示するブロック図である。
図4は、本実施形態の距離センサを例示する斜視図である。
図5(a)〜図5(c)は、投影面の3次元座標の算出方法を説明する模式的平面図である。
図5(a)は、投光画像の画素の座標を例示する模式的平面図である。図5(b)は、受光画像の画素の座標を例示する模式的平面図である。図5(c)は、投光部と受光部と対象物体との幾何学的関係を例示する模式的平面図である。対象物体350は、投影面351を形成する。
図3に表したように、取得部110は、距離センサ116と、算出部117と、視点取得部118と、を有する。距離センサ116は、距離センサ116自身と、投影面351と、の間の距離を計測し、その距離に関する情報(距離情報)119を算出部117に送る。算出部117は、距離情報119に基づいて、投影面351の形状情報112と、投影位置情報113と、を取得し設定部210に送る。
図3は、本実施形態の取得部を例示するブロック図である。
図4は、本実施形態の距離センサを例示する斜視図である。
図5(a)〜図5(c)は、投影面の3次元座標の算出方法を説明する模式的平面図である。
図5(a)は、投光画像の画素の座標を例示する模式的平面図である。図5(b)は、受光画像の画素の座標を例示する模式的平面図である。図5(c)は、投光部と受光部と対象物体との幾何学的関係を例示する模式的平面図である。対象物体350は、投影面351を形成する。
図3に表したように、取得部110は、距離センサ116と、算出部117と、視点取得部118と、を有する。距離センサ116は、距離センサ116自身と、投影面351と、の間の距離を計測し、その距離に関する情報(距離情報)119を算出部117に送る。算出部117は、距離情報119に基づいて、投影面351の形状情報112と、投影位置情報113と、を取得し設定部210に送る。
図4に表したように、本実施形態の距離センサ116は、投光部116aと、受光部116bと、を有する。投光部116aおよび受光部116bは、互いに略同じ高さに設けられている。投光部116aの中心116cと受光部116bの中心116dとを結ぶ中心線C1は、距離センサ116の底面116eと略平行である。そのため、距離センサ116を水平面に設置すると、中心線C1は、水平となる。
投光部116aは、ランダムパターンを持つ赤外光を投影面351に対して投射する。受光部116bは、投光部116aが投射した赤外光のうちで投影面351から反射される赤外光を受光する。ここで、距離センサ116が投光する赤外光および距離センサ116が受光する赤外光のパターンを2次元の画像として考え、投光画像の画素の座標(xp,yp)に対応する受光画像の画素の座標を(xc,yc)と表す。算出部117は、投光画像の画素の座標(xp,yp)に対応する受光画像の画素の座標(xc,yc)を求めることで、受光部116bを原点としたときの投影面351の3次元形状の座標(Xs,Ys,Zs)を求めることができる。
図5(a)〜図5(c)を参照しつつ、投影面351の3次元形状の座標(Xs,Ys,Zs)の算出方法についてさらに説明する。
図5(a)に表したように、投光画像の画素の座標(x1,0)に対応する受光画像の画素の座標が座標(x2,0)である場合について考える。投光部116aと、受光部116bと、投光画像の座標(x1,0)の画素の光があたる対象物体350と、の関係は、図5(c)に表した通りである。
図5(a)に表したように、投光画像の画素の座標(x1,0)に対応する受光画像の画素の座標が座標(x2,0)である場合について考える。投光部116aと、受光部116bと、投光画像の座標(x1,0)の画素の光があたる対象物体350と、の関係は、図5(c)に表した通りである。
図5(c)に表した「L」は、投光部116aと受光部116bとの間の物理的な距離である。図5(c)に表した「D」は、距離センサ116と対象物体350との間の距離である。図5(c)に表した「f」は、受光部116bの焦点距離である。このとき、幾何的な関係から式(1)の関係が成り立つ。
距離センサ116と対象物体350との間の距離Dは、式(1)により式(2)で表される。
これにより、投光画像の座標(x1,0)の画素の光があたる対象物体350の点の3次元座標(Xs,Ys,Zs)は、式(3)〜式(5)で表される。
距離センサ116と対象物体350との間の距離Dは、式(1)により式(2)で表される。
これにより、投光画像の座標(x1,0)の画素の光があたる対象物体350の点の3次元座標(Xs,Ys,Zs)は、式(3)〜式(5)で表される。
本実施形態では、特定のパターンを持った赤外光を投射する投光部116aと、赤外光を受光する受光部116bと、が一体となった距離センサ116について説明している。なお、投光部116aが投影し受光部116bが受光する光は、可視光であってもよい。 また、距離を計測する手段の別の例としては、画像投影装置100は、距離センサ116の代わりに図示しない撮影部を備えていてもよい。この場合には、投影部120は、特定のパターンの光を対象物体350に投影する。撮影部は、対象物体350を撮影する。画像投影装置100は、撮影部が撮影した画像と、投影部120が対象物体350に投影した元のパターンと、の対応関係から撮影部と対象物体350との間の距離を求める。
また、画像投影装置100は、距離センサ116の代わりに、図示しない複数の撮影部を備えていてもよい。この場合には、画像投影装置100は、複数の撮影部が撮影した複数の画像の画素の対応関係から撮影部と対象物体350との間の距離を求める。例えば、画像投影装置100は、2つの撮影部同士を結ぶ直線と、対象物体350と、の間の距離を求める。
また、距離センサ116が距離を計測する方法は、特定のパターンを持った光を投影する方法には限定されない。例えば、距離センサ116は、パルス形状に変調した光を投影面351に投影し、投影面351において反射した光を受光し、投影した光の位相と受光した光の位相との間の差に基づいて距離センサ116自身と投影面351との間の距離を計測してもよい。
このように、距離センサ116は、投影部120から画像を投影する対象物体350の3次元形状を取得する手段の一例である。対象物体350の3次元形状を取得する手段は、これらに限られるわけではない。
このように、距離センサ116は、投影部120から画像を投影する対象物体350の3次元形状を取得する手段の一例である。対象物体350の3次元形状を取得する手段は、これらに限られるわけではない。
なお、対象物体350の3次元形状の座標は、距離センサ116の受光部116bを原点として算出される。そのため、距離センサ116の受光部116bと、投影部120と、の間の距離に基づいて、投影位置(投影部120)の座標を設定することができる。例えば、投影部120と受光部116bとが、x方向にpx、y方向にpy、z方向にpzだけ互いに離れている場合には、投影位置の座標は、(Xp,Yp,Zp)=(px,py,pz)と設定することができる。算出部117は、投影面351の3次元形状を算出し、投影面351の形状情報112と、投影位置情報113と、を設定部210に送る。
視点取得部118は、視点情報114を取得し設定部210へ送る。本実施形態では、視点取得部118は、予め定めた視点の位置を記録したルックアップテーブル(LUT:Look up Table)を有し、LUTを読み込むことによって視点情報114を取得する。LUTには、距離センサ116の受光部116bを原点としたときの視点の座標が予め記録されている。視点取得部118は、LUTに記録された座標(Xc,Yc,Zc)を視点情報114として取得する。
図6(a)〜図6(c)は、本実施形態の他の取得部を例示するブロック図である。
図6(a)に表したように、視点情報114を取得する別の形態として、取得部110aは、ユーザが視点位置を入力可能な視点位置入力部111aを有していてもよい。この場合には、ユーザが視点位置入力部111aにより視点の位置に関する情報を入力する。これにより、視点取得部118は、視点情報114を取得することができる。
図6(a)に表したように、視点情報114を取得する別の形態として、取得部110aは、ユーザが視点位置を入力可能な視点位置入力部111aを有していてもよい。この場合には、ユーザが視点位置入力部111aにより視点の位置に関する情報を入力する。これにより、視点取得部118は、視点情報114を取得することができる。
また、視点情報114を取得する別の形態として、図6(b)に表したように、取得部110bは、第2の距離センサ111bを有していてもよい。第2の距離センサ111bは、視聴者の位置に関する情報を取得することができる。これにより、視点取得部118は、視点情報114を取得することができる。
また、視点情報114を取得する別の形態として、図6(c)に表したように、取得部110cは、可視カメラ111cを有していてもよい。可視カメラ111cは、視聴者の位置に関する情報を取得することができる。これにより、視点取得部118は、視点情報114を取得することができる。
図7は、視点情報を取得する別の形態を例示する平面図である。
視点情報114を取得する別の形態として、視点取得部118は、算出部117が算出した投影部120と投影面351との間の距離に基づいて視点情報114を取得してもよい。具体的には、図7に表したように、視野角θが予め設定されている。視野角θと、投影部120と投影面351との間の距離dの値と、に応じて、視点の位置の座標(Xc,Yc,Zc)を設定することができる。視点の位置の座標(Xc,Yc,Zc)は、式(6)〜式(8)で表される。なお、(XP,YP,ZP)は、投影部120の3次元座標を表す。θXは、水平方向の視野角を表す。θYは、垂直方向の視野角を表す。
取得部110は、投影面351の形状情報112と、投影位置情報113と、視点情報114と、を設定部210に送る。
視点情報114を取得する別の形態として、視点取得部118は、算出部117が算出した投影部120と投影面351との間の距離に基づいて視点情報114を取得してもよい。具体的には、図7に表したように、視野角θが予め設定されている。視野角θと、投影部120と投影面351との間の距離dの値と、に応じて、視点の位置の座標(Xc,Yc,Zc)を設定することができる。視点の位置の座標(Xc,Yc,Zc)は、式(6)〜式(8)で表される。なお、(XP,YP,ZP)は、投影部120の3次元座標を表す。θXは、水平方向の視野角を表す。θYは、垂直方向の視野角を表す。
取得部110は、投影面351の形状情報112と、投影位置情報113と、視点情報114と、を設定部210に送る。
図2に戻って説明すると、設定部210は、投影面351の3次元形状の座標(Xs,Ys,Zs)と、投影位置位置の座標(Xp,Yp,Zp)と、視点位置の座標(Xc,Yc,Zc)と、に基づいて、補正情報212を設定し補正部220に送る(ステップS202)。補正情報212は、視点位置の座標(Xc,Yc,Zc)から投影面351に投影された画像を見たときに入力画像301の全体の画像情報を視認可能な投影画像(補正画像222)の位置に関する情報および投影画像(補正画像222)の大きさに関する情報を有する。
図8および図9を参照しつつ、設定部210の動作をさらに説明する。
図8は、投影面と、投影位置と、視点と、の位置関係を例示する斜視図である。
図9(a)〜図9(c)は、入力画像および観察画像を表す平面図である。
図9(a)は、入力画像301を表す模式的平面図である。図9(b)は、図9(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の例を表す模式的平面図である。図9(c)は、図9(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の他の例を表す模式的平面図である。
図8は、投影面と、投影位置と、視点と、の位置関係を例示する斜視図である。
図9(a)〜図9(c)は、入力画像および観察画像を表す平面図である。
図9(a)は、入力画像301を表す模式的平面図である。図9(b)は、図9(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の例を表す模式的平面図である。図9(c)は、図9(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の他の例を表す模式的平面図である。
設定部210の動作の説明においては、説明の便宜上、カメラなどの撮影装置により視点の位置から投影面を撮影した画像を観察画像とする。但し、カメラなどの撮影装置により視点の位置から投影面を撮影することは、設定部210の動作の説明の便宜上のもの、あるいは想定上のものである。本実施形態において、カメラなどの撮影装置が視点の位置に必要となるわけではない。例えば、人の目を表すパラメータを設定して観察画像の見え方を推定してもよい。
図9(b)は、投影部120が比較的小さいサイズの画像を投影した場合に、視点の位置で観察される観察画像の例を表す。図9(c)は、投影部120が比較的大きいサイズの画像を投影した場合に、視点の位置で観察される観察画像の例を表す。図9(b)に表した観察画像は、入力画像301の全体の情報を含む。一方で、図9(c)に表した観察画像は、入力画像301の一部の情報を含まない。つまり、投影部120が投影する画像のサイズが比較的大きいため、投影面に投影された画像は、視点における観察画像の画面355の範囲から外れた部分を有する。言い換えれば、入力画像301のうち観察できない領域が存在する。入力画像301に関する情報は、表示が望まれる情報を含む。そのため、入力画像301に関する情報の全ては、視点位置で観察される観察画像の画面355の範囲内に含まれることが望ましい。
画面355の範囲は、前述したカメラなどの撮影装置が撮影可能な範囲と等価である。言い換えれば、画面355の範囲は、視点の位置における視野の限界の範囲と等価である。
ここで、投影部120から投影面351に投影された投影画像を視点から観察し、その観察画像の見え方に応じて投影画像の大きさなどを調整することで、観察画像の画面355の範囲内に入力画像301に関する情報を収めることは可能である。しかし、投影と観察とを繰り返しながら投影条件を調整することは、ユーザの負担となる。
これに対して、本実施形態にかかる画像処理装置200は、入力画像301の各画素が観察画像においてどこの位置に対応するかを演算により算出することで視点における観察画像を推定し、入力画像301に関する情報が観察画像の画面355の範囲に収まるように入力画像301を補正する(ステップS203)。本実施形態にかかる画像投影装置100は、入力画像301が補正された補正画像222を投影部120から投影面に投影する(ステップS204)。
図10は、本実施形態の設定部の処理を表すフローチャート図である。
図11(a)〜図11(c)は、入力画像および観察画像を座標軸とともに表す模式的平面図である。
図11(a)は、入力画像301を表す模式的平面図である。図11(b)は、図11(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の例を表す模式的平面図である。図11(c)は、図11(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の他の例を表す模式的平面図である。
図11(a)〜図11(c)は、入力画像および観察画像を座標軸とともに表す模式的平面図である。
図11(a)は、入力画像301を表す模式的平面図である。図11(b)は、図11(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の例を表す模式的平面図である。図11(c)は、図11(a)に表した入力画像301が投影面に投影された投影画像を視点から観察した観察画像の他の例を表す模式的平面図である。
設定部210は、投影部120が投影面に画像を仮想的に投影したときに、投影面351上の点の3次元座標に対応する入力画像301の画素の座標を算出する(ステップS221)。図11(a)〜図11(c)では、入力画像および観察画像のそれぞれの画像の中心を原点が通るように、x軸およびy軸が設定されている。画面355のx座標の最小値は、「−1」である。画面355のx座標の最大値は、「1」である。画面355のy座標の最小値は、「−1」である。画面355のy座標の最大値は、「1」である。ここで、入力画像の画素の座標をmp=(xp,yp)と表し、座標mp=(xp,yp)の入力画像301の画素が投影面351に投影される位置の3次元座標をM=(Xs,Ys,Zs)と表す。入力画像301の画素の座標mp=(xp,yp)と、投影面351上の3次元座標M=(Xs,Ys,Zs)と、の間の関係式は、次の式の通りである。
式(9)中のPPは、投影部120が投影面351に画像を投影する際の透視投影行列を表す。つまり、設定部210は、投影面351上の点の3次元座標に対応する入力画像301の画素の座標を算出する処理において透視投影変換を実行する。
式(9)中のPPは、投影部120が投影面351に画像を投影する際の透視投影行列を表す。つまり、設定部210は、投影面351上の点の3次元座標に対応する入力画像301の画素の座標を算出する処理において透視投影変換を実行する。
次の式に表したように、透視投影行列PPは、内部パラメータAPと、外部パラメータRP、tPと、で表される。
内部パラメータAPは、投影部120の特性などを表す。例えば、内部パラメータAPは、投影部120が有するレンズの焦点距離や、投影部120が有するレンズの光軸に対する表示素子の(画像)中心の位置(座標)などを含む。
外部パラメータRP、tPは、画像投影装置100の位置や、画像投影装置100の姿勢などを表す。例えば、外部パラメータRP、tPは、3次元空間において任意に設定された原点に対して、画像投影装置100が存在する位置や、画像投影装置100が画像を投影する方向などを表す。
内部パラメータAPは、投影部120の特性などを表す。例えば、内部パラメータAPは、投影部120が有するレンズの焦点距離や、投影部120が有するレンズの光軸に対する表示素子の(画像)中心の位置(座標)などを含む。
外部パラメータRP、tPは、画像投影装置100の位置や、画像投影装置100の姿勢などを表す。例えば、外部パラメータRP、tPは、3次元空間において任意に設定された原点に対して、画像投影装置100が存在する位置や、画像投影装置100が画像を投影する方向などを表す。
ここで、図12(a)、図12(b)、および図13を参照しつつ、内部パラメータAPおよび外部パラメータRP、tPをさらに説明する。
図12(a)および図12(b)は、内部パラメータAPを説明する模式的平面図である。
図13は、外部パラメータRP、tPを説明する模式的斜視図である。
図12(a)は、レンズの光軸が表示素子の中心と一致している場合を例示する模式的平面図である。図12(b)は、レンズの光軸が表示素子の中心からy方向にずれている場合を例示する模式的平面図である。なお、図12(a)および図12(b)は、yz平面における模式的平面図である。
図12(a)および図12(b)は、内部パラメータAPを説明する模式的平面図である。
図13は、外部パラメータRP、tPを説明する模式的斜視図である。
図12(a)は、レンズの光軸が表示素子の中心と一致している場合を例示する模式的平面図である。図12(b)は、レンズの光軸が表示素子の中心からy方向にずれている場合を例示する模式的平面図である。なお、図12(a)および図12(b)は、yz平面における模式的平面図である。
まず、内部パラメータAPについて説明する。
図12(a)および図12(b)に表した例において、レンズ121の光軸121aと投影像353の端部353aとの間の距離Y、レンズ121の光軸121aと対象物133の端部133aとの間の距離y、レンズ121と投影像353との間の距離Z、および焦点距離fについては、次の式が成り立つ。
図12(a)および図12(b)に表した例において、レンズ121の光軸121aと投影像353の端部353aとの間の距離Y、レンズ121の光軸121aと対象物133の端部133aとの間の距離y、レンズ121と投影像353との間の距離Z、および焦点距離fについては、次の式が成り立つ。
図12(a)に表した例では、レンズ121の光軸121aが表示素子131の中心131aと一致しているため、表示素子131上の対象物133のy座標y’については、次の式が成り立つ。
y’=y ・・・式(12)
そのため、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)は、(0,0)となる。つまり、cx=0およびcy=0が成り立つ。
y’=y ・・・式(12)
そのため、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)は、(0,0)となる。つまり、cx=0およびcy=0が成り立つ。
一方で、図12(b)に表した例では、レンズ121の光軸121aが表示素子131の中心131aからy方向にずれている。そのため、表示素子131上の対象物133のy座標y’については、次の式が成り立つ。
y’=y+cy ・・・式(13)
そのため、レンズ121の光軸121aに対する表示素子131の中心131aの位置のy座標cyについては、cy=0が成り立たない。つまり、レンズ121の光軸121aと、表示素子131の(画素)中心の位置と、に応じて座標cyは、0以外の値となる。レンズ121の光軸121aが表示素子131の中心131aからx方向にずれている場合には、レンズ121の光軸121aに対する表示素子131の中心131aの位置のx座標cxについては、cx=0が成り立たない。
y’=y+cy ・・・式(13)
そのため、レンズ121の光軸121aに対する表示素子131の中心131aの位置のy座標cyについては、cy=0が成り立たない。つまり、レンズ121の光軸121aと、表示素子131の(画素)中心の位置と、に応じて座標cyは、0以外の値となる。レンズ121の光軸121aが表示素子131の中心131aからx方向にずれている場合には、レンズ121の光軸121aに対する表示素子131の中心131aの位置のx座標cxについては、cx=0が成り立たない。
内部パラメータAPは、次の式で表される。
前述したように、式(14)の中のcx、cyは、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)を表す。式(14)の中のfx、fyは、画素単位で表されるレンズ121の焦点距離fx、fyを表す。式(14)に表したように、内部パラメータAPは、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)と、画素単位で表されるレンズ121の焦点距離fx、fyと、を含むパラメータである。
前述したように、式(14)の中のcx、cyは、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)を表す。式(14)の中のfx、fyは、画素単位で表されるレンズ121の焦点距離fx、fyを表す。式(14)に表したように、内部パラメータAPは、レンズ121の光軸121aに対する表示素子131の中心131aの位置の座標(cx,cy)と、画素単位で表されるレンズ121の焦点距離fx、fyと、を含むパラメータである。
次に、外部パラメータRP、tPについて説明する。
外部パラメータtPは、投影位置の平行移動を表すパラメータである。外部パラメータtPに関する行列は、投影位置を原点とするための並進行列tである。図13に表した例では、並進行列tは、次の式で表される。
外部パラメータtPは、投影位置の平行移動を表すパラメータである。外部パラメータtPに関する行列は、投影位置を原点とするための並進行列tである。図13に表した例では、並進行列tは、次の式で表される。
外部パラメータRPは、投影部120の投影方向を表すパラメータである。外部パラメータRPに関する行列は、投影方向を表すベクトルVがZ軸となるように座標を変換するための回転行列Rである。回転行列Rは、次の式で表される。
これにより、外部パラメータ行列[RP・tP]は、ワールド座標で表現されている投影面351の座標を、投影位置を原点とし投影方向をz軸とした画像投影装置100の座標に変換するための変換行列を表す。
なお、回転行列の例として、座標(x,y,z)をx軸まわりに角度αだけ回転させる回転行列Rxは、次の式で表される。
また、回転行列の例として、座標(x,y,z)をy軸まわりに角度βだけ回転させる回転行列Ryは、次の式で表される。
また、回転行列の例として、座標(x,y,z)をz軸まわりに角度γだけ回転させる回転行列Rzは、次の式で表される。
また、回転行列の例として、座標(x,y,z)をy軸まわりに角度βだけ回転させる回転行列Ryは、次の式で表される。
また、回転行列の例として、座標(x,y,z)をz軸まわりに角度γだけ回転させる回転行列Rzは、次の式で表される。
図3〜図5(c)に関して前述したように、取得部110は、投影面351の形状情報112を算出している。そのため、投影面351を形成する各点の3次元座標は既知である。そのため、投影面351を形成する複数の点について、投影される入力画像301の画素の座標を式(9)により算出する。ただし、式(9)で算出した入力画像301の画素の座標(x,y)が次の式(式(20))に示す条件を満たさない場合には、投影面351上の座標(x,y)に対応する点は、入力画像301から外れた範囲に存在することを意味する。そのため、入力画像301の画素の座標(x,y)が式(20)に示す条件を満たす投影面351上の点を対象として以降の処理を行う。この処理について、図10に戻って説明する。
|x|≦1 かつ |y|≦1 ・・・式(20)
なお、本実施の形態では、図11(a)〜図11(c)に示すように入力画像301の座標ならびに観察画像の座標の範囲を−1≦x≦1、−1≦y≦1に正規化しているため、座標の条件は、式(20)に示す条件となっている。入力画像301の座標と観察画像の座標との正規化によっては、座標の条件は式(20)に示す限りではない。
|x|≦1 かつ |y|≦1 ・・・式(20)
なお、本実施の形態では、図11(a)〜図11(c)に示すように入力画像301の座標ならびに観察画像の座標の範囲を−1≦x≦1、−1≦y≦1に正規化しているため、座標の条件は、式(20)に示す条件となっている。入力画像301の座標と観察画像の座標との正規化によっては、座標の条件は式(20)に示す限りではない。
ステップS221に関して前述した処理に続いて、設定部210は、視点から投影面351を観察したときに、投影面351上の点の3次元座標に対応する観察画像の画素の座標を算出する(ステップS223)。ここで、観察画像の画素の座標をmc=(xc,yc)と表し、投影面351において座標mc=(xc,yc)に対応する位置の3次元座標をM=(Xs,Ys,Zs)と表す。観察画像の画素mc=(xc,yc)と、投影面351上の3次元座標M=(Xs,Ys,Zs)と、の間の関係式は、次の式の通りである。
式(21)中のPCは、座標(XC,YC,ZC)の視点の位置から投影面351を観察する際の透視投影行列である。つまり、設定部210は、投影面351上の点の3次元座標に対応する観察画像の画素の座標を算出する処理において透視投影変換を実行する。図8〜図9(c)に関して前述したように、本実施形態においては、視点からカメラなどの撮影装置を用いて投影面351を観察することを想定する。そのため、透視投影行列PCは、撮影装置の内部パラメータおよび外部パラメータで決定される。内部パラメータおよび外部パラメータの詳細は、投影部120の透視投影行列PPの場合と同様であり、事前にキャリブレーションによって求めることが可能である。
次に、設定部210は、式(9)および式(21)により、座標(Xs,Ys,Zs)の投影面351上の点に対応する入力画像301上の画素の座標(xp,yp)と、座標(Xs,Ys,Zs)の投影面351上の点に対応する観察画像上の画素の座標(xc,yc)と、を算出し、入力画像301上の画素の座標(xp,yp)と、観察画像上の画素の座標(xc,yc)と、の間の対応関係を求める(ステップS225)。
ここで、図11(a)に表したように、入力画像301における2つの画素(第1の画素311および第2の画素312)を例に挙げ説明する。第1の画素311については、入力画像301の座標を図11(c)に表した観察画像における座標に変換すると、式(20)の条件が満たされない。そのため、図11(c)に示すように、第1の画素311は、観察画像の画面355の範囲には含まれない。
一方で、入力画像301の座標を図11(c)に表した観察画像における座標に変換すると、第2の画素312は、観察画像の画面355の範囲内に含まれる。そのため、図11(c)に示すように、第2の画素312を観察画像内に確認することができる。
このように、入力画像301の全体が観察画像の画面355の範囲に含まれるためには、式(9)および式(21)によって求めた入力画像301の各画素の座標(xp,yp)に対応する観察画像の画素(xc,yc)が式(20)に示す条件を満たす必要がある。
このように、入力画像301の全体が観察画像の画面355の範囲に含まれるためには、式(9)および式(21)によって求めた入力画像301の各画素の座標(xp,yp)に対応する観察画像の画素(xc,yc)が式(20)に示す条件を満たす必要がある。
そこで、設定部210は、設定した補正情報(投影パラメータ)212において、入力画像301の画素の座標に対応する観察画像の画素の座標を式(9)および式(21)により算出し、算出された観察画像の画素の座標が式(20)の条件を満たすか否かを判定する(ステップS227)。判定の結果、入力画像301の画素の座標に対応する観察画像の画素の座標のうち、式(20)の条件を満たさない画素の座標が存在する場合には(ステップS227:No)、設定部210は補正情報212を更新し(ステップS229)、ステップS221〜ステップS227の処理を繰り返す。判定の結果、投影面351上の点から算出した入力画像301の画素の座標に対応する観察画像の各画素の座標が式(20)の条件を満たす場合には(ステップS227:Yes)、設定部210は、設定した補正情報(投影パラメータ:大きさおよび位置に関する情報)212を補正部220に送る(ステップS231)。
ここで、補正情報212の更新方法について、図面を参照しつつ説明する。
図14(a)〜図14(c)は、本実施形態の補正情報の更新方法を説明する模式的平面図である。
図14(a)は、投影範囲の最大限の画像を投影したときの投影画像を表す模式的平面図である。図14(b)は、投影範囲内で画像の大きさを縮小した投影画像を表す模式的平面図である。図14(c)は、投影範囲内で画像の大きさを縮小し、縮小した画像の位置を移動させた投影画像を表す模式的平面図である。
図14(a)〜図14(c)は、本実施形態の補正情報の更新方法を説明する模式的平面図である。
図14(a)は、投影範囲の最大限の画像を投影したときの投影画像を表す模式的平面図である。図14(b)は、投影範囲内で画像の大きさを縮小した投影画像を表す模式的平面図である。図14(c)は、投影範囲内で画像の大きさを縮小し、縮小した画像の位置を移動させた投影画像を表す模式的平面図である。
具体的には、式(14)に示した内部パラメータにおいて、焦点距離fx、fyを変化させることで投影画像303の投影角を変化させることができる。そのため、式(20)の条件を満たさない画素が存在する場合には、式(14)の焦点距離fx、fyの値を大きくすることで、投影角を小さくし、図14(b)に表した補正画像222のように投影範囲357内における画像の大きさを小さくすることができる。また、式(10)に示した外部パラメータRP(回転パラメータ)を変化させることで投影方向を変化させることができる。そのため、回転パラメータを変化させることで、図14(c)に表した補正画像222のように投影範囲357内における画像の位置を変更することができる。
以上説明したように、設定部210は、補正情報212を再設定し、再設定された補正情報212に基づいて仮想的に投影部120から投影したときの投影画像(補正画像222)に対応する観察画像の画素を算出し評価する処理を繰り返す(ステップS221〜S229)。設定部210は、投影画像の各画素に対応する観察画像の画素の位置が式(20)の条件を満たすまで、ステップS221〜S229の処理を繰り返す。設定部210は、最終的に算出した補正情報212(大きさに関する情報および位置に関する情報)を補正部220に送る(ステップS231)。なお、本実施形態では、ステップS227においては、観察画像の各画素の座標が式(20)を満たすように判定を行う。但し、判定に使用する画素は、各画素でなくともよい。例えば、投影画像の端部の画素に対応する観察画像の画素について、式(20)の判定を行ってもよい。「投影画像の端部の画素」とは、投影画像の端に位置する画素、若しくは投影画像内で相対的に外側の領域内に含まれる画素をいう。
補正部220は、設定部210から送られた画像の大きさに関する情報および画像の位置に関する情報を有する補正情報(投影パラメータ)212に基づいて、入力画像301を補正した補正画像222を生成し、補正画像222を投影部120に送る。投影部120は、補正画像222を投影面351に向けて投影する。
以上、本実施形態によれば、設定部210は、投影面351を表す3次元座標に対応する入力画像301の画素の2次元座標、および投影面351を表す3次元座標に対応する観察画像の画素の2次元座標を求める。これにより、非平面の投影面351を有する対象物体350に画像が投影される場合であっても、投影面351を視点位置から撮影することや、補正情報212を更新して画像の生成、投影、撮影、および検証を繰り返す必要はない。また、入力画像301が観察画像の画面355の範囲に含まれるような画像の大きさおよび画像の位置を決定し、入力画像301の情報を観察画像の画面355の範囲内に表示させることが可能である。
次に、本発明の他の実施の形態について説明する。
図15は、実施形態の変形例にかかる画像処理方法を説明するフローチャート図である。本実施形態の全体的な構成は、前述した実施形態の構成と同様である。
図15は、実施形態の変形例にかかる画像処理方法を説明するフローチャート図である。本実施形態の全体的な構成は、前述した実施形態の構成と同様である。
本実施形態の設定部210は、入力画像301の全体の情報が観察画像の画面355の範囲に含まれ、かつ入力画像301の大きさが最大となるように補正情報212を設定する。この点が、図1〜図14に関して前述した実施形態と異なる。
以下、本実施形態の設定部210について説明する。
設定部210は、図10に関して前述したように、入力画像301の補正情報212を更新して、入力画像301の全体の情報が観察画像の画面355の範囲に含まれるような補正情報212を算出する(ステップS251〜S259)。このとき、補正情報212の初期値や補正情報212の更新方法によっては、視点における観察画像が投影範囲357(図14参照)に対して小さくなりすぎて、投影範囲357を最大限まで生かせない可能性がある。
設定部210は、図10に関して前述したように、入力画像301の補正情報212を更新して、入力画像301の全体の情報が観察画像の画面355の範囲に含まれるような補正情報212を算出する(ステップS251〜S259)。このとき、補正情報212の初期値や補正情報212の更新方法によっては、視点における観察画像が投影範囲357(図14参照)に対して小さくなりすぎて、投影範囲357を最大限まで生かせない可能性がある。
これに対して、本実施形態の設定部210は、ステップS257で式(20)の条件(第1の条件)を満たした観察画像の画素の座標に対して第2の条件を用いて判定を行う(ステップS261)。観察画像の各画素の座標が第2の条件を満たす場合には、設定部210は、補正情報212を更新し(ステップS259)、ステップS251〜S257の処理を繰り返す。第2の条件の式は、次の式の通りである。
|x|≦Th かつ |y|≦Th ・・・式(22)
|x|≦Th かつ |y|≦Th ・・・式(22)
式(22)の中の「Th」は、観察画像のx座標およびy座標の閾値であり、1に近く1よりも小さい値である。例えば、閾値Thを0.9に設定すると、式(20)および式(22)の条件に基づいて、各画素が観察画像の画面355の範囲に含まれ、観察画像の画素のうちの少なくとも1つの画素のx座標またはy座標が0.9よりも大きい値となるように補正情報212が更新される。式(22)を満たす場合において、閾値Thが小さければ小さいほど、入力画像301の各画素が観察画像の中央に集中して分布し、観察画像に対して入力画像301が小さく表示される。そのため、観察画像の各画素が式(22)を満たす場合には、設定部210は、入力画像301がより大きく投影されるように補正情報212を更新して、ステップS251〜S257およびステップS261の処理を繰り返す。
設定部210は、ステップS263において最終的に算出した補正情報212(大きさに関する情報および位置に関する情報)を補正部220に送る(ステップS263)。補正部220は、設定部210から送られた画像の大きさに関する情報および画像の位置に関する情報を有する補正情報(投影パラメータ)212に基づいて、入力画像301を補正した補正画像222を生成し、補正画像222を投影部120に送る。投影部120は、補正画像222を投影面351に向けて投影する。
設定部210は、入力画像301が観察画像の画面355の範囲に含まれるような画像の大きさおよび画像の位置を決定し、可能な限り多くの入力画像301の情報を観察画像の画面355の範囲内に可能な限り大きく表示させることが可能である。
次に、本発明のさらに他の実施の形態について説明する。
図16は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。
図16は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。
本実施形態の設定部210は、入力画像301の各画素が観察画像の画面355の範囲内に収まり、かつ投影位置から投影面351までの奥行の幅が比較的小さい範囲の投影面351上に投影されるように、補正情報212を設定する。言い換えれば、入力画像301の各画素が観察画像の画面355の範囲内に収まり、かつ投影位置と投影面351上の各点と投影位置との間の複数の距離を算出する。その複数の距離が互いに近い範囲の投影面351上に投影されるように、設定部210は、補正情報212を設定する。この点が、図1〜図14に関して前述した実施形態と異なる。
設定部210は、投影面351上の点の3次元座標に基づいて、奥行値(z座標)が互いに近い点の範囲を検出する。具体的には、設定部210は、投影面351上の全点に対して奥行値(z座標)によってクラスタリングを行う。クラスタリングの手法としては、例えばk−means法や領域統合法などが挙げられる。例に挙げたクラスタリングの手法などを適用することによって、投影面351上を形成する点に対して、奥行値(z座標)が互いに近い点でクラスタリングが行われる。設定部210は、クラスタリングの結果、もっとも点の数が多かったクラスタを奥行値が互いに近い領域と判断し、そのクラスタの重心となる投影面351上の点が投影の中心となるように投影位置を表す補正情報212を設定する。クラスタの重心が投影面351上ではない場合には、設定部210は、重心を投影面351上に射影した点と、中心と、が一致するように補正情報212を設定する。射影の方向は、投影面351に対して垂直方向であってもよいし、投影方向であってもよい。以下、設定部210は、図10に関して前述したステップS221〜S229の処理を繰り返し、入力画像301の情報が観察画像の画面355の範囲内に収まるように投影画面の大きさを表す補正情報212を更新する。
本実施形態における補正情報212の更新では、設定部210は、画像の大きさを表すパラメータを更新する。画像の投影位置を表す補正情報212は、補正情報212の初期値を設定する際に設定される。設定部210は、設定した補正情報212を補正部220に送る。補正部220は、補正情報212に基づいて補正画像222を生成し、補正画像222を投影部120に送る。投影部120は、補正画像222を投影する。
設定部210は、入力画像301が観察画像の画面355の範囲に含まれるような画像の大きさおよび画像の位置を決定し、観察画像の画面355の範囲であって奥行が近く見やすい範囲に入力画像301の情報を表示することができる。
次に、本発明のさらに他の実施の形態について説明する。
図17は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。本実施形態の全体的な構成は、前述した実施形態の構成と同様である。
図17は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。本実施形態の全体的な構成は、前述した実施形態の構成と同様である。
本実施形態の設定部210は、入力画像301の各画素が観察画像の画面355範囲内に収まり、かつ奥行が滑らかに変化する平面のような範囲の投影面351上に投影されるように、補正情報212を設定する。この点が、図1〜図14に関して前述した実施形態と異なる。
設定部210は、投影面351上の点の3次元座標に基づいて、各点の法線ベクトル359に関する情報を算出する。具体的には、投影面351上の各点に対して、投影面351上の第1の点と、第1の点の近隣の2点(第2の点および第3の点)と、の3点の3次元座標を次の式(式(23))に示す平面の方程式に代入し、連立方程式から平面方程式の係数すなわち法線ベクトル359を算出する。なお、法線ベクトル359の算出方法は、この方法には限定されず、別の算出方法であってもよい。
ax+by+cz=1 ・・・式(23)
設定部210は、投影面351の各点の法線ベクトル359を算出した後、図16に関して前述した実施形態と同様に、投影面351上の全点に対して法線ベクトル359と奥行値(z座標)とによってクラスタリングを行う。
ax+by+cz=1 ・・・式(23)
設定部210は、投影面351の各点の法線ベクトル359を算出した後、図16に関して前述した実施形態と同様に、投影面351上の全点に対して法線ベクトル359と奥行値(z座標)とによってクラスタリングを行う。
具体的には、設定部210は、法線ベクトル359が互いに近い点および奥行値が互いに近い点のクラスタリングを行う。
設定部210は、クラスタリングの結果、もっとも点の数が多かったクラスタを法線ベクトル359ならびに奥行値(z座標)のそれぞれが互いに近い領域、すなわち奥行が滑らかに変化する平面に近い領域と判断し、そのクラスタの重心となる投影面351上の点が投影の中心となるように投影位置を表す補正情報212を設定する。クラスタの重心が投影面351上ではない場合には、設定部210は、重心を投影面351上に射影した点と、中心と、が一致するように補正情報212を設定する。射影の方向は、投影面351に対して垂直方向であってもよいし、投影方向であってもよい。以下、設定部210は、図10に関して前述したステップS221〜S229の処理を繰り返し、入力画像301の情報が観察画像の画面355の範囲内に収まるように投影画面の大きさを表す補正情報212を更新する。
本実施形態における補正情報212の更新では、設定部210は、画像の大きさを表すパラメータを更新し、画像の位置を表すパラメータを更新しない。これは、図16に関して前述した通りである。設定部210は、設定した補正情報212を補正部220に送る。補正部220は、補正情報212に基づいて補正画像222を生成し、補正画像222を投影部120に送る。投影部120は、補正画像222を投影する。
以上、本実施形態によれば、図1〜図14に関して前述した実施形態において得られる効果と同様の効果が得られる。また、設定部210は、入力画像301が観察画像の画面355の範囲に含まれるような画像の大きさおよび画像の位置を決定し、観察画像の画面355の範囲であって奥行が滑らかに変化する範囲に入力画像301の情報を表示することができる。
次に、本発明のさらに他の実施の形態について説明する。
図18(a)および図18(b)は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。
本実施形態の全体的な構成は、図1〜図14に関して前述した実施形態の構成と同様である。ここでは、図1〜図14に関して前述した実施形態との差分について説明する。
図18(a)および図18(b)は、実施形態の変形例にかかる画像投影装置を説明する模式的平面図である。
本実施形態の全体的な構成は、図1〜図14に関して前述した実施形態の構成と同様である。ここでは、図1〜図14に関して前述した実施形態との差分について説明する。
本実施形態の設定部210は、視点位置から仮想的に入力画像を投影面351に投影し、投影位置から仮想的に投影面351を観察したときに、仮想的観察画像の画面355の範囲内に仮想的入力画像が全て含まれるような補正情報212(画像の大きさに関する情報および位置に関する情報)を設定する。この点が、図1〜図14に関して前述した実施形態と異なる。
また、補正部220は、設定部210が設定した補正情報212に基づいて、視点位置から投影面351に仮想的に入力画像を投影したときに、投影位置から仮想的に観察される観察画像を補正画像222として生成し投影部120に送る。この点が、図1〜図14に関して前述した実施形態と異なる。
以下、設定部210および補正部220について説明する。
画像が投影面351に投影されたときの歪みについて、図18(a)および図18(b)を参照しつつ説明する。投影面351と、画像投影装置100と、撮影装置370と、の互いの位置関係は、例えば図18(a)および図18(b)に表した通りである。
画像が投影面351に投影されたときの歪みについて、図18(a)および図18(b)を参照しつつ説明する。投影面351と、画像投影装置100と、撮影装置370と、の互いの位置関係は、例えば図18(a)および図18(b)に表した通りである。
図18(a)に表したように、画像投影装置100が投影面351に入力画像を投影し、撮影装置370が投影面351に投影された投影画像を撮影することを考える。このとき、撮影装置370が撮影する画像を観察画像とする。また、入力画像の位置xPの画素に対応する観察画像の画素の位置をxC1とする。画像投影装置100の透視投影行列PPと、撮影装置370の透視投影行列PCと、を用いると、画素の位置xPと、画素の位置 xC1と、の間の関係は、次の式のように表される。
一方で、図18(b)に表したように、撮影装置370が仮想的に投影面351に入力画像を投影し、画像投影装置100が仮想的に投影面351に投影された投影画像を撮影することを考える。仮想的入力画像の位置xPの画素に対応する仮想的観察画像の画素の位置をxC2とする。画素の位置xPと、画素の位置xC2と、の間の関係は、次の式のように表される。
式(24)および式(25)から、画像投影装置100の位置から投影され撮影装置370の位置で撮影される画像の歪みは、撮影装置370の位置から仮想的に投影され画像投影装置100の位置で仮想的に撮影される画像の歪みの逆歪みであることがわかる。従って、次の式(式(26))に示すように、撮影装置370の位置から仮想的に投影され画像投影装置100の位置で仮想的に撮影される画像を、画像投影装置100の位置から投影し撮影装置370の位置で観察すれば、歪みはキャンセルされる。そのため、元の画像(入力画像)の幾何的な歪みを抑えて表示することが可能である。
以上を踏まえて、本実施形態にかかる画像処理装置200は、視点位置から投影面351に入力画像を仮想的に投影したときに、投影位置で仮想的に観察される観察画像を補正画像222として算出する。本実施形態にかかる画像投影装置100は、補正画像222を投影部120から投影面351に投影することで、視点から投影面351を観察したときの歪みを抑えた画像表示を行う。
ここで、図8を参照しつつ、本実施形態における設定部210の動作を説明する。
本実施形態の設定部210は、入力画像が視点位置から投影面351に仮想的に投影されたときに、投影位置から仮想的に投影面351を観察して得られる仮想的観察画像の画素であって仮想的入力画像の画素に対応する画素を算出する。設定部210は、仮想的入力画像の全範囲が仮想的観察画像に収まるように、図10に関して前述したステップS221〜S231の処理を行う。
本実施形態の設定部210は、入力画像が視点位置から投影面351に仮想的に投影されたときに、投影位置から仮想的に投影面351を観察して得られる仮想的観察画像の画素であって仮想的入力画像の画素に対応する画素を算出する。設定部210は、仮想的入力画像の全範囲が仮想的観察画像に収まるように、図10に関して前述したステップS221〜S231の処理を行う。
なお、入力画像が視点位置から仮想的に投影される場合には、設定部210は、撮影装置370の透視投影行列PCに基づいて投影面351上の点を表す3次元座標から仮想的入力画像の2次元座標を算出する。投影面351に仮想的に投影された投影画像が投影位置から仮想的に観察される場合には、設定部210は、画像投影装置100の透視投影行列PPに基づいて投影面351上の点を表す3次元座標から仮想的観察画像の2次元座標を算出する。
ここで、仮想的入力画像の画素の座標をmp’=(xp’,yp’)と表し、座標mp’=(xp’,yp’)の画素が投影面351に仮想的に投影される位置の3次元座標をM=(Xs,Ys,Zs)と表す。仮想的入力画像の画素の座標mp’=(xp’,yp’)と、投影面351上の3次元座標M=(Xs,Ys,Zs)と、の間の関係は、次の式のように表される。
式(27)中のPCは、座標(XC,YC,ZC)の視点の位置から投影面351を観察する際の透視投影行列である。つまり、設定部210は、投影面351上の点の3次元座標に対応する仮想的入力画像の画素の座標を算出する処理において、視点の位置から投影面351を観察する際の透視投影行列に基づいて透視投影変換を実行する。
一方で、投影位置から投影面351を仮想的に観察したときの仮想的観察画像の画素の座標をmc’=(xc’,yc’)と表すと、仮想的観察画像の画素の座標mc’=(xc’,yc’)と、投影面351上の3次元座標M=(Xs,Ys,Zs)と、の間の関係は、次の式のように表される。
式(28)中のPPは、投影部120が投影面351に画像を投影する際の透視投影行列を表す。つまり、設定部210は、投影面351上の点の3次元座標に対応する仮想的観察画像の画素の座標を算出する処理において、投影部120が投影面351に画像を投影する際の透視投影行列に基づいて透視投影変換を実行する。
式(27)および式(28)により、仮想的入力画像の画素の座標mp’=(xp’,yp’)と、仮想的観察画像の画素の座標mc’=(xc’,yc’)と、の間の対応関係が求まる。設定部210は、図10に関して前述したステップS221〜S229の処理を繰り返すことで、仮想的入力画像の情報が仮想的観察画像の画面355の範囲内に含まれるような仮想的補正情報(仮想投影パラメータ)PC’を算出することができる。設定部210は、仮想的補正情報PC’として求めた画像の大きさに関する情報および画像の位置に関する情報を補正部220に送る。
補正部220は、設定部210が設定した仮想的補正情報PC’に基づいて、視点位置から投影面351に入力画像を仮想的に投影したときに投影位置において仮想的に観察される仮想的観察画像を生成する。設定部210は、仮想的入力画像の座標と仮想的観察画像の座標との間の比較により仮想的補正情報PC’の更新を行う。一方で、補正部220は、設定部210が設定した仮想的補正情報PC’に基づいて、算出される仮想的観察画像の座標から、仮想的観察画像を補正画像222として生成する。具体的には、補正部220は、射影テクスチャマッピング処理を行うことで、補正画像222を生成することが可能である。補正部220は、生成した補正画像222を投影部120に送る。投影部120は、補正画像222を投影する。
以上、本実施形態によれば、補正部220は、視点位置を仮想的投影位置として、投影面351に入力画像を仮想的に投影したときに投影位置を仮想視点として観察される仮想的観察画像を補正画像222として生成する。投影部120が補正画像222を投影位置から投影面351に投影することで、投影面351が非平面な形状を含む場合でも、視点位置から画像を観察したときの幾何的な歪みを抑え、入力画像の情報が含まれた画像を観察することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…画像投影装置、 110、110a、110b、110c…取得部、 111a…視点位置入力部、 111b…距離センサ、 111c…可視カメラ、 112…形状情報、 113…投影位置情報、 114…視点情報、 116…距離センサ、 116a…投光部、 116b…受光部、 116c、116d…中心、 116e…底面、 117…算出部、 118…視点取得部、 119…距離情報、 120…投影部、 121…レンズ、 121a…光軸、 131…表示素子、 131a…中心、 133…対象物、 133a…端部、 200…画像処理装置、 210…設定部、 212…補正情報、 220…補正部、 222…補正画像、 301…入力画像、 303…投影画像、 311…第1の画素、 312…第2の画素、 350…対象物体、 351…投影面、 353…投影像、 353a…端部、 355…画面、 357…投影範囲、 370…撮影装置、 359…法線ベクトル
Claims (17)
- 対象画像が投影される投影面の形状に関する情報と、前記対象画像を投影する投影位置に関する情報と、視点の位置に関する情報と、に基づいて、前記投影面に投影される画像を前記視点から観察したときに前記対象画像の全体を視認可能とする補正情報を設定する設定部と、
前記補正情報に基づいて前記対象画像を補正する補正部と、
を備えた画像処理装置。 - 前記補正情報は、前記投影面に投影される画像の大きさに関する情報と、前記投影面に投影される画像の位置に関する情報と、を含む請求項1記載の画像処理装置。
- 前記設定部は、前記投影面に投影される画像を前記視点から観察したときに前記対象画像の大きさが最大となるような前記補正情報を設定する請求項1または2に記載の画像処理装置。
- 前記設定部は、前記形状に関する情報に基づいて前記投影面上の複数の点と前記投影位置との間の距離に基づいてクラスタリングを行い、前記点の数が最も多いクラスタの領域に前記対象画像を投影させる前記補正情報を設定する請求項1または2に記載の画像処理装置。
- 前記設定部は、前記距離が互いに近い点に基づいて前記クラスタリングを行う請求項4記載の画像処理装置。
- 前記設定部は、前記点の数が最も多いクラスタを選択し、選択された前記クラスタの重心が前記対象画像の投影の中心と対応するように前記補正情報を設定する請求項5記載の画像処理装置。
- 前記設定部は、前記形状に関する情報に基づいて前記投影面上の複数の点の前記投影面に対する法線ベクトルおよび前記複数の点と前記投影位置との間の距離に基づいてクラスタリングを行い、前記点の数が最も多いクラスタの領域に前記対象画像を投影させる前記補正情報を設定する請求項1または2に記載の画像処理装置。
- 前記設定部は、前記法線ベクトルが互いに近い点および前記距離が互いに近い点に基づいて前記クラスタリングを行う請求項7記載の画像処理装置。
- 前記設定部は、前記点が最も多いクラスタを選択し、選択された前記クラスタの重心が前記対象画像の投影の中心と対応するように前記補正情報を設定する請求項8記載の画像処理装置。
- 前記設定部は、前記視点を仮想的投影位置と設定し、前記投影位置を仮想的視点と設定し、前記投影面に投影される仮想的投影画像を前記仮想的視点から観察したときに前記仮想的投影位置から投影される仮想的対象画像の全体を視認可能とする前記補正情報を設定する請求項1または2に記載の画像処理装置。
- 前記補正部は、前記補正情報に基づいて補正された前記仮想的対象画像が前記仮想的投影位置から前記投影面に投影されたときに前記仮想的視点から観察される仮想的観察画像を補正画像とする請求項10記載の画像処理装置。
- 前記設定部は、前記投影面上の点の3次元座標に対応する前記対象画像の画素の2次元座標と、前記3次元座標に対応する前記投影面に投影される画像を前記視点から観察した場合の画素の2次元座標と、に基づいて前記補正情報を設定する請求項1または2に記載の画像処理装置。
- 前記設定部は、前記投影面に投影される画像の端部の画素に対応する前記観察画像の画素の2次元座標を算出する請求項12記載の画像処理装置。
- 対象画像が投影される投影面の形状に関する情報と、前記対象画像を投影する投影位置に関する情報と、視点の位置に関する情報と、に基づいて、前記投影面に投影される画像を前記視点から観察したときに前記対象画像の全体を視認可能とする補正情報を設定し、
前記補正情報に基づいて前記対象画像を補正する画像処理方法。 - 前記補正情報は、前記投影面に投影される画像の大きさに関する情報と、前記投影面に投影される画像の位置に関する情報と、を有する請求項14記載の画像処理方法。
- 請求項1〜13のいずれか1つに記載の画像処理装置と、
前記補正情報に基づいて前記対象画像を補正する補正部と、
前記補正された前記対象画像を前記投影面へ投影する投影部と、
を備えた画像投影装置。 - 前記投影面までの距離を計測する距離センサを有し、前記距離に関する情報に基づいて前記形状に関する情報を取得する取得部をさらに備えた請求項16記載の画像投影装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141753A JP2016019194A (ja) | 2014-07-09 | 2014-07-09 | 画像処理装置、画像処理方法、および画像投影装置 |
US14/704,247 US9716870B2 (en) | 2014-07-09 | 2015-05-05 | Image processor, image processing method, and image projector |
CN201510249561.XA CN105323518A (zh) | 2014-07-09 | 2015-05-15 | 图像处理器,图像处理方法和图像投影仪 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141753A JP2016019194A (ja) | 2014-07-09 | 2014-07-09 | 画像処理装置、画像処理方法、および画像投影装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016019194A true JP2016019194A (ja) | 2016-02-01 |
Family
ID=55068524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141753A Pending JP2016019194A (ja) | 2014-07-09 | 2014-07-09 | 画像処理装置、画像処理方法、および画像投影装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9716870B2 (ja) |
JP (1) | JP2016019194A (ja) |
CN (1) | CN105323518A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097165A (ja) * | 2016-12-14 | 2018-06-21 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
JP2018175067A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175075A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175069A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175068A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175074A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175061A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175065A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175064A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175077A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175060A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175076A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175066A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
US11676241B2 (en) | 2020-01-31 | 2023-06-13 | Seiko Epson Corporation | Control method for image projection system, and image projection system |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015130555A (ja) * | 2014-01-06 | 2015-07-16 | 株式会社東芝 | 画像処理装置、画像処理方法、および画像投影装置 |
CN105954960A (zh) * | 2016-04-29 | 2016-09-21 | 广东美的制冷设备有限公司 | 球面投射显示方法、球面投射显示系统和家用电器 |
CN107454373B (zh) * | 2016-05-31 | 2019-06-14 | 财团法人工业技术研究院 | 投影系统及其非平面自动校正方法与自动校正处理装置 |
JP6780315B2 (ja) * | 2016-06-22 | 2020-11-04 | カシオ計算機株式会社 | 投影装置、投影システム、投影方法及びプログラム |
CN107995477A (zh) | 2016-10-26 | 2018-05-04 | 中联盛世文化(北京)有限公司 | 图像展示方法、客户端及系统、图像发送方法及服务器 |
WO2018134946A1 (ja) * | 2017-01-19 | 2018-07-26 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、及び画像表示制御装置 |
CN106933360A (zh) * | 2017-03-06 | 2017-07-07 | 杜宇 | 一种增强现实的装置和实现方法 |
US10495961B2 (en) * | 2017-06-14 | 2019-12-03 | Newtonoid Technologies, L.L.C. | Projection mapping system and apparatus |
US11856336B2 (en) | 2017-06-14 | 2023-12-26 | Newtonold Technologies, L.L.C. | Projection mapping system and apparatus |
CN107277380B (zh) * | 2017-08-16 | 2020-10-30 | 成都极米科技股份有限公司 | 一种变焦方法及装置 |
US10681318B2 (en) * | 2017-11-14 | 2020-06-09 | Texas Instruments Incorporated | Camera-assisted arbitrary surface characterization and slope-based correction |
US10684537B2 (en) * | 2017-11-14 | 2020-06-16 | Texas Instruments Incorporated | Camera-assisted arbitrary surface characterization and correction |
CN108683898B (zh) * | 2018-05-31 | 2020-10-09 | 歌尔股份有限公司 | 彩色汇聚误差的修正方法、装置及设备 |
US11302774B2 (en) * | 2019-11-18 | 2022-04-12 | Xia Tai Xin Semiconductor (Qing Dao) Ltd. | Semiconductor device and method fabricating the same |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001069433A (ja) * | 1999-08-25 | 2001-03-16 | Ricoh Co Ltd | 画像投影装置、画像投影方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2005244835A (ja) * | 2004-02-27 | 2005-09-08 | Olympus Corp | マルチプロジェクションシステム |
JP2008229175A (ja) * | 2007-03-22 | 2008-10-02 | Matsushita Electric Works Ltd | 映像表示装置および両眼視機能検査装置 |
JP2008294961A (ja) * | 2007-05-28 | 2008-12-04 | Panasonic Electric Works Co Ltd | 映像表示装置 |
JP2010123007A (ja) * | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | 画像処理装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100779634B1 (ko) * | 2003-06-20 | 2007-11-26 | 니폰 덴신 덴와 가부시끼가이샤 | 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치 |
JPWO2012060269A1 (ja) * | 2010-11-04 | 2014-05-12 | コニカミノルタ株式会社 | 画像処理方法、画像処理装置及び撮像装置 |
JP2015130555A (ja) | 2014-01-06 | 2015-07-16 | 株式会社東芝 | 画像処理装置、画像処理方法、および画像投影装置 |
-
2014
- 2014-07-09 JP JP2014141753A patent/JP2016019194A/ja active Pending
-
2015
- 2015-05-05 US US14/704,247 patent/US9716870B2/en not_active Expired - Fee Related
- 2015-05-15 CN CN201510249561.XA patent/CN105323518A/zh not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001069433A (ja) * | 1999-08-25 | 2001-03-16 | Ricoh Co Ltd | 画像投影装置、画像投影方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2005244835A (ja) * | 2004-02-27 | 2005-09-08 | Olympus Corp | マルチプロジェクションシステム |
JP2008229175A (ja) * | 2007-03-22 | 2008-10-02 | Matsushita Electric Works Ltd | 映像表示装置および両眼視機能検査装置 |
JP2008294961A (ja) * | 2007-05-28 | 2008-12-04 | Panasonic Electric Works Co Ltd | 映像表示装置 |
JP2010123007A (ja) * | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | 画像処理装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097165A (ja) * | 2016-12-14 | 2018-06-21 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
JP2018175067A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175075A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175069A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175068A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175074A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175061A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175065A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175064A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175077A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175060A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175076A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
JP2018175066A (ja) * | 2017-04-05 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 遊技機 |
US11676241B2 (en) | 2020-01-31 | 2023-06-13 | Seiko Epson Corporation | Control method for image projection system, and image projection system |
Also Published As
Publication number | Publication date |
---|---|
CN105323518A (zh) | 2016-02-10 |
US9716870B2 (en) | 2017-07-25 |
US20160014385A1 (en) | 2016-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016019194A (ja) | 画像処理装置、画像処理方法、および画像投影装置 | |
JP6330987B2 (ja) | 画像処理装置、画像処理方法、及び記憶媒体 | |
US9495750B2 (en) | Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object | |
JP5858433B2 (ja) | 注視点検出方法及び注視点検出装置 | |
JP5392415B2 (ja) | ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム | |
TWI496108B (zh) | AR image processing apparatus and method | |
JP6763037B2 (ja) | 眼の画像処理の改良 | |
EP2870428A1 (en) | 3-d scanning and positioning system | |
CN107808398B (zh) | 摄像头参数算出装置以及算出方法、程序、记录介质 | |
JP2009042162A (ja) | キャリブレーション装置及びその方法 | |
US20190156511A1 (en) | Region of interest image generating device | |
US10205928B2 (en) | Image processing apparatus that estimates distance information, method of controlling the same, and storage medium | |
JP2011086111A (ja) | 撮像装置校正方法及び画像合成装置 | |
JP2011215082A (ja) | 撮像パラメータ決定方法、撮像パラメータ決定装置、撮像パラメータ決定プログラム | |
JP6594170B2 (ja) | 画像処理装置、画像処理方法、画像投影システムおよびプログラム | |
JP6324119B2 (ja) | 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム | |
JP2018084954A (ja) | プログラム、姿勢導出方法、姿勢導出装置 | |
JP2015130555A (ja) | 画像処理装置、画像処理方法、および画像投影装置 | |
CN107960123A (zh) | 信息处理设备和信息处理方法 | |
WO2016135856A1 (ja) | 3次元形状計測システムおよびその計測方法 | |
JP2018044942A (ja) | カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体 | |
JP2018101211A (ja) | 車載器 | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム | |
JP2018149234A (ja) | 注視点推定システム、注視点推定方法及び注視点推定プログラム | |
KR101439966B1 (ko) | 뎁스 정보를 이용한 영상의 재구성을 위한 영상 처리 방법 및 이를 이용한 영상 처리 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170605 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171128 |