JP2004088197A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2004088197A JP2004088197A JP2002243050A JP2002243050A JP2004088197A JP 2004088197 A JP2004088197 A JP 2004088197A JP 2002243050 A JP2002243050 A JP 2002243050A JP 2002243050 A JP2002243050 A JP 2002243050A JP 2004088197 A JP2004088197 A JP 2004088197A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- area
- camera
- requester
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像データにおける出力画角範囲を設定するための画像処理装置に関する。
【0002】
【従来の技術】
テレビ番組には、例えばジェットコースターに芸能人等を乗車させ、該乗員の怖がる顔や泣き顔等の表情(の変化)の画像を見せて視聴者を楽しませるものがあるが、このような画像を一般の乗員に提供することが考えられている。
【0003】
例えば、特開平10−197919号公報には、ジェットコースターの乗員を撮像するカメラと、該カメラによる撮像位置を乗員に報知するフラッシュライトとを備え、該フラッシュライトによる撮像位置の報知によって乗員にポーズ等を取るための余裕を与える技術が記載されている。
【0004】
このような技術によれば、乗員は、予め撮像に備えてポーズを取ったり表情を整えたりすることができ、比較的満足な画像(写真等)を得ることができる。
【0005】
【発明が解決しようとする課題】
しかしながら、このような従来の技術では、撮像位置が予め乗員に報知されるため、該乗員の思いがけない表情を得ることができず、趣味性に欠けるという問題があった。
【0006】
一方、例えば恋人同士で隣り合ってジェットコースターに乗車する場合、該恋人同士は、一緒に撮像した画像によって思い出を記録したいという要求がある反面、自己の思いがけない表情、特に自己の正面から撮像された気に入らない表情の画像を恋人には見せたくないという要求がある。この場合、画像処理によって他者に見られたくなくない部分を削除することも考えられるが、このような処理を画像データに対して直接行なうことは煩雑であり現実的ではない。
【0007】
本発明は、上記事実を考慮して、撮影により得られる画像データを有効に利用することができる画像処理装置を得ることが目的である。
【0008】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係る画像処理装置は、撮像手段による撮像画像の画像データを記憶する記憶手段と、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる領域属性を付与する領域属性設定手段と、を備えている。
【0009】
請求項1記載の画像処理装置では、撮像手段による撮像画像の画像データが記憶手段に記憶される。この画像データには、領域設定手段によって、撮像手段の画角に含まれる異なる画角範囲に各々対応する複数の撮像画像における領域が設定される。これらの複数の領域は、撮像手段の画角範囲内において互いに重なり合う部分があっても良いが、互いに一致することはない。
【0010】
さらに、領域設定手段が設定した複数の領域のうち、少なくとも1つの領域を除く他の領域には、それぞれ領域属性設定手段によって異なる領域属性が付与される。これにより、複数の領域が識別可能となる。なお、全ての領域にそれぞれ異なる領域属性が設定されても良いことは言うまでもない。
【0011】
したがって、本画像処理装置では、1つの画像データから(画像データ毎に)、領域属性に応じた領域毎の(異なる画角範囲を有する)複数の画像を選択的に得ることができる。すなわち、本画像処理装置では、画像データにおける出力可能な画角に対応する範囲を設定でき、例えば、二人の人物を撮像した画像データに基づいて、そのぞれの人物のみの画像を提供したり、一方の者には全体画像を提供し他方の者には部分画像を提供したりすることが可能となる。
【0012】
このように、請求項1記載の画像処理装置では、画像データにおける出力画角範囲を設定できる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0013】
また、上記目的を達成するために請求項2記載の発明に係る画像処理装置は、複数の撮像手段による撮像画像の複数の画像データを、それぞれの撮像手段に属する画像データとしてそれぞれ記憶する記憶手段と、前記複数の撮像手段に属する画像データ毎に、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、前記複数の撮像手段に属する画像データ毎に、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる属性を付与する領域属性設定手段と、を備えている。
【0014】
請求項2記載の画像処理装置では、複数の撮像手段によるそれぞれの撮像画像の画像データが、各撮像手段に属する画像データとして、それぞれ記憶手段に記憶される。各画像データには、それぞれ領域設定手段によって、その属する撮像手段の画角に含まれる異なる画角範囲に各々対応する複数の領域(撮像画像における領域)が設定される。これらの各画像データにおける複数の領域は、その属する撮像手段の画角範囲内において互いに重なり合う部分があっても良いが、互いに一致しない。
【0015】
さらに、一画像データについて領域設定手段が設定した複数の領域のうち、少なくとも1つの領域を除く他の領域には、それぞれ領域属性設定手段によって異なる領域属性が付与され、これが各画像データについて(各撮像手段に属する各画像データ毎に)行なわれる。すなわち、データ属性の異なる画像データ間では、同一の領域属性が存在していても良い。
【0016】
これにより、各撮像手段に属する画像データ毎に、複数の領域が識別可能となる。なお、一画像データについて、全ての領域にそれぞれ異なる領域属性が設定されても良いことは言うまでもない。
【0017】
したがって、本画像処理装置では、互いに異なる撮像手段に属する複数の画像データから、それぞれ領域属性に応じた領域毎の(異なる画角範囲を有する)複数の画像を選択的に得ることができる。
【0018】
すなわち、本画像処理装置では、出力可能な画角に対応する範囲を、各撮像手段に属する画像データ毎に設定でき、例えば、二人の人物を異なる方向から撮像した2つの画像データに基づいて、一方の者には一方の撮像手段による全体画像及び他方の撮像手段による部分画像を提供し、他方の者には一方の撮像手段による部分画像及び他方の撮像手段による全体画像を提供することが可能となる。
【0019】
このように、請求項2記載の画像処理装置では、画像データにおける出力画角範囲を設定できる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0020】
請求項3記載の発明に係る画像処理装置は、請求項1または請求項2記載の画像処理装置において、前記領域属性に応じた出力要求、または前記撮像手段に属する前記領域属性に応じた出力要求が入力されると、該領域属性に対応した領域の画像を出力する出力制御手段を、さらに備えている。
【0021】
請求項3記載の画像処理装置では、出力制御手段は、画像データに設定された領域毎の領域属性に応じた出力要求、または撮像手段に属する領域属性に応じた出力要求が入力されると、該要求に応じた画像を出力する。
【0022】
具体的には、請求項1に従属する本画像処理装置は、領域属性設定手段が設定した領域属性に応じた出力要求が入力されると、該領域属性に応じた領域(画角範囲)の画像を出力する。
【0023】
すなわち、例えば、二人の人物を撮像した画像データに基づいて、第1の領域属性に対応する識別情報(ID)が与えられた一方の者による出力要求に対しては該第1の属性に対応する第1領域の画像(例えば全体画像)を出力し、第2の領域属性に対応するIDが与えられた他方の者による出力要求に対しては該第2の属性に対応する第2領域の画像(例えば部分画像)を提供することが可能となる。
【0024】
一方、請求項2記載に従属する本画像処理装置は、1つの撮像手段に属する領域属性に応じた出力要求が入力されると、該撮像手段に属する画像データにおける領域属性に対応した画像データにおける画角領域の画像を出力する。
【0025】
すなわち、例えば、2つの撮像手段によって二人の人物を異なる方向から撮像した2つの画像データに基づいて、第1の撮像手段に属する第1の領域属性に対応するIDが与えられた一方の者による出力要求に対しては、第1の撮像手段に属する画像データにおける第1の領域属性に対応する全体画像、及び第2の撮像手段に属する画像データにおける第1の領域属性に対応する部分画像を提供すると共に、第2の撮像手段に属する第2の領域属性に対応するIDが与えられた他方の者による出力要求に対しては、第2の撮像手段に属する画像データにおける第2の領域属性に対応する全体画像、及び第1の撮像手段に属する画像データにおける第2の領域属性に対応する部分画像を提供することが可能となる。
【0026】
このように、請求項3記載の画像処理装置では、要求に応じて画像データにおける画角範囲を変更して出力することができる。
【0027】
【発明の実施の形態】
本発明の実施の形態に係る画像処理装置が適用されたジェットコースタームービー撮影システム10について、図1乃至図9に基づいて説明する。
【0028】
図1には、ジェットコースタームービー撮影システム10の概略全体構成がブロック図にて示されている。この図に示される如く、ジェットコースタームービー撮影システム10は、撮像手段としての全方位カメラ12を備えている。
【0029】
全方位カメラ12は後述するジェットコースター14の各座席対応して複数設けられている。以下、複数の全方位カメラ12のうち、図1に示された2つの全方位カメラ12を、それぞれ全方位カメラ12A、12Bとして説明する。
【0030】
全方位カメラ12A、12Bを含む各全方位カメラ12は、それぞれ無線通信(図示しない無線通信装置)によって、画像処理装置としてのセンタサーバ20へ撮像画像の画像データを伝送可能とされている。また、センタサーバ20は、例えばネットワーク等を介して画像呼出表示装置として機能するパーソナルコンピュータ(以下、パソコンという)40に接続されている。
【0031】
このセンタサーバ20は、各全方位カメラ12からデータが伝送される画像処理部22と、該画像処理部22及びパソコン40に接続された出力制御手段としての出力制御部24とを有して構成されている。画像処理部22は、複数の全方位カメラ12にそれぞれ対応した複数のサブ画像処理部26を備えている。
【0032】
サブ画像処理部26Aは、全方位カメラ12Aから伝送された画像データを記憶する記憶手段としての画像メモリ28Aと、該画像メモリ28Aに接続された、領域設定手段及び属性設定手段としてのサブ制御部30Aと、それぞれサブ制御部30Aに接続された領域テンプレートメモリ32A及び領域属性メモリ34Aとを備えて構成されている。また、サブ制御部30Aは、出力制御部24に接続されている。
【0033】
一方、サブ画像処理部26Bは、全方位カメラ12Bから伝送された画像データを記憶する記憶手段としての画像メモリ28Bと、該画像メモリ28Bに接続された、領域設定手段及び属性設定手段としてのサブ制御部30Bと、それぞれサブ制御部30Bに接続された領域テンプレートメモリ32B及び領域属性メモリ34Bとを備えて構成されている。また、サブ制御部30Bは、出力制御部24に接続されている。
【0034】
すなわち、画像処理部22では、サブ画像処理部26A、26Bが、それぞれ画像メモリ28A、28Bに記憶された全方位カメラ12A、12Bによる撮像画像の画像データを、サブ制御部30A、30Bにおいて画像処理(後述)し、出力制御部24を介したパソコン40からの要求に基づいた画像に対応する画像データを、出力制御部24を介してパソコン40に出力するようになっている。
【0035】
なお、他のサブ画像処理部26も、サブ画像処理部26A、26Bと同様に構成されている。
【0036】
パソコン40は、CPU、ROM、RAM、入出力ポートがコマンドを授受可能に接続されると共に、入出力ポートに表示部としてのディスプレイD及び入力装置としてのキーボード、マウス等の電子機器が接続されて構成されている。
【0037】
図2に示される如く、全方位カメラ12は、レールR上を走行するジェットコースター14の各座席の前方にそれぞれ設けられており、該ジェットコースター14が運転(走行)している全期間の動画像を撮像するようになっている。すなわち、ジェットコースタームービー撮影システム10は、複数の全方位カメラ12を備えており、これら複数の全方位カメラ12にはそれぞれ異なるカメラID(カメラ識別情報)が設定されている。
【0038】
本実施の形態では、ジェットコースター14の左右に隣り合う座席に対応した2つの全方位カメラ12を一対としており、以下、ジェットコースター14の最前列において、乗員P1が着座する進行方向右側座席の前方(正面)に配置された全方位カメラ12を全方位カメラ12Aとし、乗員P2が着座する左側座席の前方に配置された全方位カメラ12を全方位カメラ12Bとして説明する。
【0039】
そして、全方位カメラ12AにはカメラID01が設定されており、全方位カメラ12BにはカメラID02が設定されている。また、乗員P1にはカメラID01に対応した要求者ID01が与えられ、乗員P2にはカメラID02に対応した要求者ID02が与えられる。
【0040】
全方位カメラ12A、12B(を含む各全方位カメラ12)は、図3に示される如く、光学的な結像手段であるレンズ16と電荷結合素子であるCCD18とを備えて構成され、レンズ16の軸線との直交面に沿った360°の範囲を含む範囲の光学動画像を撮像して画像データ(デジタル情報)に変換するように構成されている。
【0041】
そして、各全方位カメラ12A、12Bは、それぞれのレンズ16の軸線方向がジェットコースター14の上下方向とそれぞれ一致するように各座席前方に配置されている。これにより、全方位カメラ12Aの撮像(画角)範囲には、その設置された右側座席に着座した乗員P1、及び該乗員P1に隣り合って着座した乗員P2が含まれるようになっている。
【0042】
図7に示す環状の画像Gは、全方位カメラ12Aにて撮像した画像(動画のうちの1こま)の一例であり、その画角範囲には、乗員P1、P2、ジェットコースター14用のレールR等が含まれている。図示は省略するが、全方位カメラ12Bによる撮像画像の画角範囲には、その設置された左側座席に着座した乗員P2、該乗員P2に隣り合って着座した乗員P1、レールR等が含まれるようになっている。
【0043】
そして、全方位カメラ12A、12Bによって撮像された画像の画像データは、センタサーバ20に伝送され、各サブ画像処理部26A、26Bによって画像処理されるようになっている。
【0044】
各サブ画像処理部26A、26Bの画像メモリ28A、28Bは、それぞれ全方位カメラ12A、12Bから入力された(全方位カメラ12A、12Bに属する)環状の動画像の画像データを逐次記憶するようになっている。また、領域テンプレートメモリ32Aには図6(A)に概念図として示される領域テンプレート36Aが記憶されており、領域テンプレートメモリ32Bには図6(B)に概念図として示される領域テンプレート36Bが記憶されている。
【0045】
領域テンプレート36Aには、環状の画角範囲を有する全方位カメラ12Aによる撮像画像の全領域に対応した環状の画角領域A1と、該画角領域A1の一部である略扇状の画角領域A2とが予め設定されている。画角領域A2は、全方位カメラ12Aによる撮像画像(例えば、画像G)における乗員P2の占める画角範囲に略対応して設定されている。
【0046】
同様に、領域テンプレート36Bには、環状の画角範囲を有する全方位カメラ12Aによる撮像画像の全領域に対応した環状の画角領域B2と、該画角領域B2の一部である略扇状の画角領域B1とが予め設定されている。画角領域B1は、全方位カメラ12Bによる撮像画像における乗員P1の占める画角に略対応して設定されている。
【0047】
そして、サブ制御部30Aは、領域テンプレート36Aを用いて、画像メモリ28Aに記憶された画像データ(画像Gを含む動画像のデータ)に、画角領域A1及び画角領域A2を設定し、かつ領域属性メモリ34Aに設定されている属性情報に基づいて、画角領域A1には要求者ID01(乗員P1)に対応する領域ID01を設定し、画角領域A2には要求者ID02(乗員P2)に対応する領域ID02を設定するように構成されている。
【0048】
一方、サブ制御部30Bは、領域テンプレート36Bを用いて、画像メモリ28Bに記憶された画像データに、画角領域B2及び画角領域B1を設定し、かつ領域属性メモリ34Bに設定されている属性情報に基づいて、画角領域B2には要求者ID02(乗員P2)に対応する領域ID02を設定し、画角領域B1には要求者ID01(乗員P1)に対応する領域ID01を設定するように構成されている。
【0049】
すなわち、乗員P1は、自己の正面に配置された全方位カメラ12Aに属する画像の全画角範囲である画角領域A1と、隣り合って着座した乗員P2の正面に配置された全方位カメラ12Bに属する画像のうち自己の占める画角範囲に対応する画角領域B1とを参照(閲覧)可能であり、乗員P2は、全方位カメラ12Aに属する画像のうち自己の占める画角範囲に対応する画角領域A2と、全方位カメラ12Bに属する画像の全画角範囲である画角領域B2とを参照可能とされている。これらの参照方法については後述する。
【0050】
また、センタサーバ20の出力制御部24には、画像出力プログラム38が記憶されている。出力制御部24は、パソコン40に記憶された画像閲覧ソフト(プログラム)42からの要求画像に応じた画角範囲の画像データをパソコン40へ出力するようになっている。
【0051】
以下、画像出力プログラム38及び画像閲覧ソフト42の該略機能
(構成)について、図4及び図5に示されるフローチャートに基づいて説明する。
【0052】
図4に示される如く、画像出力プログラム38は、起動すると、ステップ44でパソコン40(画像閲覧ソフト42)からの画像出力要求の有無を判断し、画像出力が要求されている場合には、ステップ46へ進み画像閲覧ソフト42からの要求に基づいて要求画像に対応するカメラIDを特定し、ステップ48へ進み画像要求者の要求者IDを特定するようになっている。
【0053】
カメラID及び要求者IDが特定されると、ステップ50へ進み、カメラIDと要求者IDとが一致するか否かを判断するようになっており、カメラIDと要求者IDとが一致する場合には、ステップ52乃至ステップ56で構成される主画像変換ステップ群へ進むようになっている。一方、カメラIDと要求者IDとが一致しない場合には、ステップ60乃至ステップ64で構成される副画像変換ステップ群へ進むようになっている。
【0054】
ステップ52では、ステップ46で特定したカメラIDに基づいて該当カメラIDを特定するようになっている。すなわち、カメラIDに基づいて、画像出力が要求された全方位カメラ12に属する画像データ(領域IDが設定された画像データ)が記憶されているサブ画像処理部26を選択する。例えば、要求者ID01を有する画像要求者(乗員P1)がカメラID01の全方位カメラ12Aに属する画像を要求している場合には、サブ画像処理部26Aを選択する。
【0055】
ステップ54では、要求者IDに基づいて画像における出力すべき領域(の画像データ)を抽出するようになっている。すなわち、要求者IDと一致する領域IDが付与された画角領域が選択される。本実施の形態では、カメラIDと要求者IDとが一致している場合には、全方位カメラ12に属する画像の全範囲である画角領域に対応した主画像データ(例えば、画角領域A1または画角領域B1の画角範囲を有する画像に対応する画像データ)が選択される。
【0056】
ステップ56では、ステップ54で選択された画角領域の主画像データをフォーマット、すなわち、全方位カメラ12による環状画像に対応した画像データを矩形状にパノラマ展開して表示可能な画像データとして補正するようになっている。そして、このフォーマットされた主画像データを、ステップ58で、パソコン40へ出力するようになっている。
【0057】
一方、ステップ60では、ステップ46で特定したカメラIDに基づいて該当カメラIDを設定するようになっている。すなわち、カメラIDに基づいて、画像出力が要求された全方位カメラ12に属する画像データ(領域IDが設定された画像データ)が記憶されているサブ画像処理部26を選択する。例えば、要求者ID02を有する閲覧者(乗員P2)がカメラID01の全方位カメラ12Aの画像データを要求している場合には、サブ画像処理部26Aを選択する。
【0058】
ステップ62では、要求者IDに基づいて画像データにおける出力すべき領域(の画像データ)を抽出するようになっている。すなわち、要求者IDと一致する領域IDが付与された画角領域が選択される。本実施の形態では、カメラIDと要求者IDとが一致しない場合には、ステップ60で特定されたカメラIDを有する全方位カメラ12に属する画像における画像要求者の占める画角領域の副画像データ(例えば、画角領域A2または画角領域B2の画角範囲を有する画像に対応する画像データ)が選択される。
【0059】
ステップ64では、ステップ62で選択された画角領域の副画像データをフォーマットするようになっている。そして、このフォーマットされた副画像データを、ステップ58で、パソコン40へ出力するようになっている。
【0060】
また、図5に示される如く、画像閲覧ソフト42は、画像要求者が自己の要求者IDを入力して起動すると、ステップ70で、該画像要求者が自己の要求者IDに対応したカメラIDを有する全方位カメラ12の画像の再生を要求しているか否かを判断するようになっている。
【0061】
画像要求者が自己の要求者IDに対応したカメラIDの全方位カメラ12(自カメラ)による画像の再生を要求している場合には、ステップ72へ進み、該自カメラのカメラID及び要求者IDをセンタサーバ20(出力制御部24の画像出力プログラム38)へ出力するようになっている。そして、ステップ74で、センタサーバ20からの応答(画像データの出力)があると判断されると、ステップ76で、該画像データ(この場合、要求者IDがカメラIDと一致するため、主画像データ)に基づく画像を、パソコン40を構成する表示装置としてのディスプレイD上に再生するようになっている。
【0062】
一方、ステップ70で、画像要求者が自己の要求者IDに対応したカメラIDを有する全方位カメラ12による画像を要求していないと判断された場合には、ステップ78へ進み、他のカメラIDを有する全方位カメラ12(他カメラ)による画像の再生を要求しているか否かを判断する。
【0063】
画像要求者が他カメラによる画像を要求している場合には、ステップ80で、該他カメラのカメラIDを特定するようになっている。本実施の形態では、画像要求者が閲覧可能な他カメラ画像は、自己の要求者IDに対応したカメラIDの全方位カメラ12と隣接して設置された全方位カメラ12に属する画像であるため、該要求者IDに基づいて、自カメラに隣接して設置された他カメラのカメラIDを特定する。そして、ステップ82で、該特定した他カメラのカメラID及び要求者IDをセンタサーバ20へ出力するようになっている。
【0064】
さらに、ステップ74で、センタサーバ20からの応答があると判断されると、ステップ76で、該画像データ(この場合、要求者IDがカメラIDと一致しないため、副画像データ)に基づく画像をディスプレイD上に再生するようになっている。
【0065】
次に、本実施の形態の作用を説明する。
【0066】
上記構成のジェットコースタームービー撮影システム10では、乗員P1、P2を含む乗員が乗車したジェットコースター14が発車すると、各全方位カメラ12が動画の撮像(画像データの生成)を開始する。そして、ジェットコースター14が停車すると、各全方位カメラ12による撮像(画像データの生成)が終了する。
【0067】
この間に生成された各全方位カメラ12による撮像画像の画像データは、それぞれ無線通信によってセンタサーバ20の画像処理部22へ伝送される。全方位カメラ12Aに属する画像データは、サブ画像処理部26Aの画像メモリ28Aに記憶される。そしてサブ制御部30Aでは、この画像データに画角領域A1と画角領域A2とを設定すると共に、画角領域A1、A2にそれぞれ領域ID01、02を設定する(図7参照)。
【0068】
また、全方位カメラ12Bに属する画像データは、サブ画像処理部26Bの画像メモリ28Bに記憶される。そしてサブ制御部30Bでは、この画像データに画角領域B2画角領域B1とを設定すると共に、画角領域B2、B1にはそれぞれ領域ID02、01を設定する。
【0069】
一方、ジェットコースター14を降車した各乗員には、自己の座席前方(正面)に配置されていた全方位カメラ12のカメラIDに対応する要求者IDが与えられる。すなわち、乗員P1にはカメラID01に対応した要求者ID01が与えられ、乗員P2にはカメラID02に対応した要求者ID02が与えられる。なお、各要求者IDには、日付情報や時間(または運転回)情報等、自己の画像を呼び出すための情報が含まれている。
【0070】
以下、一例として、図8及び図9を用いて、乗員P1がジェットコースター14からの降車後に、パソコン40のディスプレイD上に画像を再生する場合を、降車後の乗員P1を画像要求者P1として説明する。なお、図8及び図9に示される画像は、図7の画像Gに対応している。
【0071】
画像要求者P1がパソコン40を操作し、自己の要求者ID01を入力して画像閲覧ソフト42立ち上げると、ディスプレイD上には図8に示される如きウインドウ84が表示される。この時点では、ウインドウ84の中央部に配置された画像表示部86には要求画像が表示されていない。
【0072】
画像要求者P1がウインドウ84内の自カメラ選択ボタン88をクリックすると、画像閲覧ソフト42では、ステップ70で、画像要求者P1が自己の要求者ID01に対応したカメラID01を有する全方位カメラ12Aの画像の再生を要求していると判断し、ステップ72でカメラID01及び要求者ID01をセンタサーバ20へ出力する。
【0073】
すると、センタサーバ20を構成する出力制御部24の画像出力プログラム38では、ステップ44で画像要求が為されたと判断して、ステップ46へ進みカメラID01を特定し、ステップ48へ進み要求者ID01を特定する。そして、ステップ50ではカメラID01と要求者ID01とが一致していると判断して主画像変換ステップ群へ進む。
【0074】
ステップ52では、カメラID01に基づいて全方位カメラ12Aに対応するサブ画像処理部26Aを選択し、ステップ54では、要求者ID01に基づいて領域ID01を有する画角領域A1を抽出(選択)する。そして、ステップ56で画角領域A1に対応する主画像データをフォーマットし、該フォーマットされた主画像データをステップ58で画像閲覧ソフト42へ出力する。
【0075】
すると、画像閲覧ソフト42では、ステップ74でセンタサーバ20からの応答が為されたと判断し、ステップ76で、ディスプレイD上に表示されたウインドウ84の画像表示部86に、上記主画像データに基づく画像を表示する。この画像の一例が図8に示されている。主画像データは、画角範囲が360°の環状である全方位カメラ12Aの全画角範囲(上記フォーマットによってパノラマ展開された全範囲)を含んでいるが、画像表示部86では、図8に示されるように、その画角範囲の一部を再生(表示)するようになっている。
【0076】
図8に示されるこの画像では、乗員(画像要求者)P1と乗員P2とが共に表示されており、該乗員P1、P2が互いに恋人同士等の親しい知人関係である場合、画像要求者P1は、自己の画像以外に乗員P2の斜め前方からの表情(の変化)等を楽しむことができる。また、画像閲覧ソフト42では、ウインドウ84内の視野角変更ボタン90を適宜クリックすると、図9(A)乃至図9(C)に示されるような画像を、画像表示部86に再生する。
【0077】
図9(A)は、ジェットコースター14の進行方向の画像を示しており、該ジェットコースター14の臨場感のある映像を楽しむことができる。図9(B)は、画像要求者P1と隣り合って着座していた乗員P2のみを表示させた場合の画像を示している。この場合も、画像要求者P1は、乗員P2の斜め前方からの表情(の変化)等を楽しむことができる。図9(C)は、画像要求者P1の正面画像を示している。
【0078】
なお、図9(B)の画像は、乗員P2であった画像要求者P2が他カメラ選択ボタン92をクリックした場合における他カメラ画像(画角領域A2の画像)に対応しており、画像要求者P1、P2は、この画像を共有できる。
【0079】
一方、画像要求者P1がウインドウ84内の他カメラ選択ボタン92をクリックすると、画像閲覧ソフト42では、ステップ70で自カメラ画像が要求されていないと判断してステップ78へ進み、該ステップ78で他カメラ画像が要求されたと判断する。すると、ステップ80で、画像要求者P1の要求者ID01に基づいて、該要求者ID01に対する他カメラが、該画像要求者P1に隣り合って着座していた乗員P2(要求者ID02)に対応したカメラID02を有する全方位カメラ12Bであると特定し、ステップ82で、このカメラID02及び要求者ID01をセンタサーバ20へ出力する。
【0080】
すると、センタサーバ20を構成する出力制御部24の画像出力プログラム38では、ステップ44で画像要求が為されたと判断して、ステップ46へ進みカメラID02を特定し、ステップ48へ進み要求者ID01を特定する。そして、ステップ50ではカメラID02と要求者ID01とが一致していないと判断して副画像変換ステップ群へ進む。
【0081】
ステップ60では、カメラID02に基づいて全方位カメラ12Bに対応するサブ画像処理部26Bを選択し、ステップ62では、要求者ID01に基づいて領域ID01を有する画角領域B1を抽出(選択)する。そして、ステップ64で画角領域B1に対応する副画像データをフォーマットし、該フォーマットされた副画像データをステップ58で画像閲覧ソフト42へ出力する。
【0082】
すると、画像閲覧ソフト42では、ステップ74でセンタサーバ20からの応答が為されたと判断し、ステップ76で、ディスプレイD上に表示されたウインドウ84の画像表示部86に、上記副画像データに基づく画像を表示する。この画像の一例が図9(D)に示されている。
【0083】
図9(D)は、全方位カメラ12Bによって斜め前方から撮像された乗員(画像要求者)P1の画像を示しており、画角領域B1における全画像を表示しているため、視野角変更ボタン90による視野角の変更はできない。この図9(D)の画像も、図9(B)の画像と同様に、画像要求者P1、P2が共有できる。
【0084】
また、ウインドウ84上の静止画記録ボタン94をクリックすると、該クリックした瞬間に表示されていた動画の1こまが静止画としてパソコン40に記録され、該静止画が複数(本実施の形態では4つ)の静止画表示部96に上から順に表示される。そして、この静止画は適宜プリント可能とされている。
【0085】
このように、ジェットコースタームービー撮影システム10を構成する画像処理部22(サブ画像処理部26)では、1つの全方位カメラ12の画像データ上に複数の画角領域(例えば、画角領域A1、A2)を設定すると共に、該複数の画角領域にそれぞれ異なる属性(例えば、領域ID01、02)を設定するため、パソコン40等からの要求に応じて異なる画角範囲の画像を出力することができる。
【0086】
このため、例えば、上記の通り、画像要求者P1、P2が共有できる画像と、一方の画像要求者のみが閲覧可能な画像とを設定することが可能となり、一方の画像要求者が他方の画像要求者には見せたくない自己の正面画像を、該他方の画像要求者に対し閲覧不能とすることができる。
【0087】
特に、複数の全方位カメラ12を備えたジェットコースタームービー撮影システム10において、隣り合って配置された全方位カメラ12が一対として構成され、かつ各全方位カメラ12毎に異なるカメラIDが設定されると共に各全方位カメラ12に属する画像データ毎に複数の画角領域が設定されるため、例えば、画像要求者は、隣り合って着座していた他の画像要求者が見せたくない画像を除いて、他カメラによる撮像画像を楽しむことができる。
【0088】
また、ジェットコースタームービー撮影システム10を構成するセンタサーバ20の出力制御部24は、画像出力プログラム38を有し、画像要求者の要求者IDと要求画像の属するカメラIDとに基づいて、出力すべき画像データ(カメラID)と該画像データにおける出力画角範囲(要求者IDに対応した領域IDに基づく画角領域)とを設定することで、パソコン40からの要求におじて出力画像及び該画像の画角範囲を変更する機能を実現している。すなわち、センタサーバ20は、例えば、画像要求者が自カメラによる全範囲の画像及び他カメラによる部分画像(他方の画像要求者が他人に見せたくない自己の正面画像を除く画像)を楽しむ機能を実現している。
【0089】
このように、本実施の形態に係るジェットコースタームービー撮影システム10(センタサーバ20)では、画像データにおける出力画角範囲を設定でき、要求に応じて画像データにおける画角範囲を変更して出力することができる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0090】
なお、上記の実施の形態では、ジェットコースター14の隣り合う乗員同士が一部の画像を共用できるように、例えば画角領域A1と画角領域A2とが重なり合うように設定された構成としたが、本発明はこれに限定されず、例えば、乗員P1、P2に全く異なる画角範囲の画像を提供するように複数の画角領域を設定しても良い。したがって、例えば、乗員P1、P2間に1つの(共用の)全方位カメラ12を設置し、互いに自己の画像のみを閲覧可能に設定しても良い。
【0091】
また、上記の実施の形態では、1つの全方位カメラ12による画像データに2つの画角領域が設定される構成としたが、本発明はこれに限定されず、画像データに3つ以上の画角領域を設定しても良い。したがって、例えば、図9(A)に示される画像を、ジェットコースター14の全乗員が共有する画像とすることもできる。
【0092】
さらに、上記の実施の形態では、センタサーバ20がネットワーク等を介して画像を出力する構成としたが、本発明はこれに限定されず、例えば、乗員(画像要求者)の希望に応じて、該乗員の閲覧可能な画像データ(各IDと共に)をCD−ROM等の記録媒体に記録して提供しても良い。この場合、このCD−ROM等に画像閲覧ソフト42を記憶しておくこともできる。
【0093】
さらにまた、上記の実施の形態では、撮像手段として全方位カメラ12を備えた構成としたが、本発明はこれに限定されず、撮像手段は、所定の画角(撮像領域)を有すれば良く、また静止画を撮像する構成であっても良い。
【0094】
また、本発明における画像処理装置は、ジェットコースタームービー撮影システム10に適用される構成に限定されないことは言うまでもない。
【0095】
【発明の効果】
以上説明したように本発明に係る画像処理装置は、撮影により得られる画像データを有効に利用することができるという優れた効果を有する。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像処理装置が適用されたジェットコースタームービー撮影システムの概略全体構成、及び該ジェットコースタームービー撮影システムに接続されたパソコンを示すブロック図である。
【図2】ジェットコースタームービー撮影システム10を構成する全方位カメラのジェットコースターへの設置状態を示す斜視図である。
【図3】ジェットコースタームービー撮影システム10を構成する全方位カメラの概念構成図である。
【図4】ジェットコースタームービー撮影システムを構成する出力制御部に記憶された画像出力プログラムのフローチャートである。
【図5】ジェットコースタームービー撮影システムに接続されたパソコンの画像閲覧ソフトのフローチャートである。
【図6】ジェットコースタームービー撮影システム10を構成するセンタサーバに記憶された領域テンプレートを示す図であって、(A)は一方の全方位カメラの画像データに対応した領域テンプレートの概念図、(B)は他方の全方位カメラの画像データに対応した領域テンプレートの概念図である。
【図7】ジェットコースタームービー撮影システム10を構成する全方位カメラによる撮像画像の一例を示す図である。
【図8】ジェットコースタームービー撮影システムに接続されたパソコンによる主画像の閲覧状態を示す図である。
【図9】ジェットコースタームービー撮影システムに接続されたパソコンによる画像の閲覧状態を示す図であって、(A)は主画像の視野角をジェットコースター前方に設定した場合、(B)は主画像の視野角を同乗者に設定した場合、(C)は主画像の視野角を自己の正面に設定した場合、(D)は副画像を再生した場合をそれぞれ示す図である。
【符号の説明】
10 ジェットコースタームービー撮影システム
12 全方位カメラ(撮像手段)
20 センタサーバ(画像処理装置)
22 画像処理部(画像処理装置)
24 出力制御部(出力制御手段)
26 サブ画像処理部(画像処理装置)
28 画像メモリ(記憶手段)
30 サブ制御部(領域設定手段、属性設定手段)
32 領域テンプレートメモリ(領域設定手段)
34 領域属性メモリ(領域設定手段)
38 画像出力プログラム(出力制御手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for setting an output field angle range in image data.
[0002]
[Prior art]
Some television programs, for example, entertainers on a roller coaster and entertain viewers by showing images of facial expressions (changes) such as scared faces and crying faces of the crew. It is considered to be provided to passengers.
[0003]
For example, Japanese Patent Application Laid-Open No. 10-197919 includes a camera that captures an occupant of a roller coaster and a flashlight that informs the occupant of an imaging position by the camera, and pauses the occupant by notifying the imaging position of the flashlight. A technique for providing a margin for taking the etc. is described.
[0004]
According to such a technique, the occupant can pose and prepare facial expressions in advance for imaging, and can obtain a relatively satisfactory image (photograph or the like).
[0005]
[Problems to be solved by the invention]
However, in such a conventional technique, since the imaging position is notified to the occupant in advance, there is a problem that an unexpected expression of the occupant cannot be obtained and the hobby is lacking.
[0006]
On the other hand, for example, when lovers ride next to each other on a roller coaster, the lovers are required to record memories with images taken together, but they are taken from their own unexpected expressions, especially from their own front. There is a demand that you do not want your lover to display an image of a facial expression that you do not like. In this case, it is conceivable to delete a portion that is not desired to be seen by others by image processing. However, it is complicated and impractical to perform such processing directly on image data.
[0007]
In view of the above facts, an object of the present invention is to obtain an image processing apparatus that can effectively use image data obtained by photographing.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes a storage unit that stores image data of an image captured by an imaging unit, and each of different field angle ranges included in the field angle of the imaging unit. Region setting means for setting the regions in the plurality of captured images corresponding to the image data, and region attribute setting for assigning different region attributes to at least one of the plurality of regions excluding one region Means.
[0009]
In the image processing apparatus according to the first aspect, the image data of the image captured by the imaging unit is stored in the storage unit. In this image data, regions in a plurality of captured images respectively corresponding to different field angle ranges included in the field angle of the image capturing unit are set by the region setting unit. These plural regions may have overlapping portions within the field angle range of the image pickup means, but they do not coincide with each other.
[0010]
Further, among the plurality of areas set by the area setting means, different area attributes are assigned to the other areas excluding at least one area by the area attribute setting means. As a result, a plurality of areas can be identified. Needless to say, different region attributes may be set for all regions.
[0011]
Therefore, in the present image processing apparatus, it is possible to selectively obtain a plurality of images for each region (having different field angle ranges) according to region attributes from one image data (for each image data). That is, in the present image processing apparatus, a range corresponding to the viewable angle of view in the image data can be set. For example, based on image data obtained by imaging two people, only an image of each person is provided. It is possible to provide one person with the entire image and the other person with the partial image.
[0012]
Thus, in the image processing apparatus according to the first aspect, the output field angle range in the image data can be set. That is, image data obtained by photographing can be used effectively.
[0013]
In order to achieve the above object, the image processing apparatus according to the second aspect of the present invention is a storage means for storing a plurality of image data of images taken by a plurality of image pickup means as image data belonging to each image pickup means. And, for each piece of image data belonging to the plurality of imaging units, a region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the imaging unit. And area attribute setting means for assigning different attributes to at least other areas excluding one area from the plurality of areas, for each image data belonging to the plurality of imaging means.
[0014]
In the image processing apparatus according to the second aspect, the image data of each captured image by the plurality of imaging units is stored in the storage unit as the image data belonging to each imaging unit. In each image data, a plurality of regions (regions in the captured image) respectively corresponding to different field angle ranges included in the field angle of the image capturing unit to which the image capturing unit belongs are set by the region setting unit. The plurality of regions in each of these image data may have overlapping portions within the field angle range of the imaging means to which they belong, but they do not match each other.
[0015]
Further, among the plurality of areas set by the area setting means for one image data, different area attributes are assigned to the other areas except for at least one area by the area attribute setting means. For each image data belonging to the imaging means). That is, the same area attribute may exist between image data having different data attributes.
[0016]
Thereby, a plurality of areas can be identified for each image data belonging to each imaging means. Needless to say, different region attributes may be set for all regions of one image data.
[0017]
Therefore, in the present image processing apparatus, it is possible to selectively obtain a plurality of images for each region (having different field angle ranges) according to the region attributes from a plurality of image data belonging to different imaging units.
[0018]
That is, in the present image processing apparatus, a range corresponding to the viewable angle of view can be set for each image data belonging to each imaging means. For example, based on two image data obtained by imaging two persons from different directions. One person can be provided with the whole image by one imaging means and the partial image by the other imaging means, and the other person can be provided with the partial image by one imaging means and the whole image by the other imaging means. It becomes possible.
[0019]
Thus, in the image processing apparatus according to the second aspect, the output angle of view range in the image data can be set. That is, image data obtained by photographing can be used effectively.
[0020]
An image processing apparatus according to a third aspect of the present invention is the image processing apparatus according to the first or second aspect, wherein the output request according to the area attribute or the output request according to the area attribute belonging to the imaging means Is further provided with output control means for outputting an image of an area corresponding to the area attribute.
[0021]
In the image processing apparatus according to claim 3, when the output control unit receives an output request according to the region attribute for each region set in the image data or an output request according to the region attribute belonging to the imaging unit, An image corresponding to the request is output.
[0022]
Specifically, when an output request corresponding to the region attribute set by the region attribute setting unit is input, the image processing apparatus dependent on claim 1 sets the region (view angle range) corresponding to the region attribute. Output an image.
[0023]
That is, for example, in response to an output request by one person who is given identification information (ID) corresponding to the first region attribute based on image data obtained by imaging two persons, the first attribute is set. A second area corresponding to the second attribute is output in response to an output request by the other person who outputs an image of the corresponding first area (for example, the entire image) and is given an ID corresponding to the second area attribute. Images (for example, partial images) can be provided.
[0024]
On the other hand, when the output request corresponding to the region attribute belonging to one image pickup unit is input, the image processing apparatus dependent on claim 2 is configured to display the image data corresponding to the region attribute in the image data belonging to the image pickup unit. Outputs the image of the angle of view area
[0025]
That is, for example, one person who is given an ID corresponding to the first region attribute belonging to the first imaging means based on two image data obtained by imaging two persons from different directions by the two imaging means In response to the output request, the whole image corresponding to the first area attribute in the image data belonging to the first imaging means, and the partial image corresponding to the first area attribute in the image data belonging to the second imaging means. In response to an output request by the other person who is given an ID corresponding to the second area attribute belonging to the second imaging means, the second area in the image data belonging to the second imaging means It is possible to provide a whole image corresponding to the attribute and a partial image corresponding to the second region attribute in the image data belonging to the first imaging means.
[0026]
In this way, the image processing apparatus according to the third aspect can change and output the field angle range in the image data according to the request.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
A roller coaster
[0028]
FIG. 1 is a block diagram showing a schematic overall configuration of a roller coaster
[0029]
A plurality of
[0030]
Each
[0031]
The
[0032]
The sub
[0033]
On the other hand, the sub
[0034]
That is, in the
[0035]
The other sub
[0036]
In the
[0037]
As shown in FIG. 2, the
[0038]
In this embodiment, two
[0039]
The camera ID 01 is set for the omnidirectional camera 12A, and the camera ID 02 is set for the
[0040]
As shown in FIG. 3, the
[0041]
The
[0042]
An annular image G shown in FIG. 7 is an example of an image (one frame of a moving image) captured by the omnidirectional camera 12A. The range of angles of view includes rails for the passengers P1, P2 and the
[0043]
The image data of the images captured by the
[0044]
The
[0045]
The
[0046]
Similarly, the area template 36B includes an annular field angle area B2 corresponding to the entire area of the image captured by the omnidirectional camera 12A having an annular field angle range, and a substantially fan-shaped area that is a part of the field angle area B2. An angle of view area B1 is set in advance. The field angle area B1 is set substantially corresponding to the field angle occupied by the occupant P1 in the image captured by the
[0047]
Then, the
[0048]
On the other hand, the sub-control unit 30B uses the area template 36B to set the view angle area B2 and the view angle area B1 in the image data stored in the image memory 28B, and the attributes set in the
[0049]
In other words, the occupant P1 has an angle-of-view area A1 that is a full-angle range of an image belonging to the omnidirectional camera 12A disposed in front of the occupant P1, and an
[0050]
An
[0051]
Hereinafter, the approximate functions of the
(Configuration) will be described based on the flowcharts shown in FIGS.
[0052]
As shown in FIG. 4, when activated, the
[0053]
When the camera ID and the requester ID are specified, the process proceeds to step 50, where it is determined whether the camera ID and the requester ID match, and the camera ID and the requester ID match. In step S52 to step S56, the process proceeds to a main image conversion step group. On the other hand, if the camera ID does not match the requester ID, the process proceeds to a sub-image conversion step group consisting of
[0054]
In
[0055]
In
[0056]
In step 56, the main image data in the field of view area selected in
[0057]
On the other hand, in
[0058]
In
[0059]
In
[0060]
Further, as shown in FIG. 5, when the image requester starts up by inputting his requester ID, the
[0061]
If the image requester has requested reproduction of an image by the omnidirectional camera 12 (own camera) of the camera ID corresponding to the requester ID of the user, the process proceeds to step 72, and the camera ID of the own camera and the requester The ID is output to the center server 20 (
[0062]
On the other hand, if it is determined in
[0063]
If the image requester requests an image from another camera, the camera ID of the other camera is specified in
[0064]
Further, if it is determined in
[0065]
Next, the operation of the present embodiment will be described.
[0066]
In the roller coaster
[0067]
The image data of the image captured by each
[0068]
The image data belonging to the
[0069]
On the other hand, each passenger who gets off the
[0070]
Hereinafter, as an example, referring to FIG. 8 and FIG. 9, when the passenger P1 reproduces an image on the display D of the
[0071]
When the image requester P1 operates the
[0072]
When the image requester P1 clicks the own
[0073]
Then, the
[0074]
In
[0075]
Then, the
[0076]
In this image shown in FIG. 8, when an occupant (image requester) P1 and an occupant P2 are both displayed, and the occupants P1 and P2 are in close acquaintances such as lovers, the image requester P1 In addition to the self image, it is possible to enjoy the expression (change) of the occupant P2 from an oblique front. Further, in the
[0077]
FIG. 9A shows an image in the traveling direction of the
[0078]
Note that the image in FIG. 9B corresponds to the other camera image (image of the view angle area A2) when the image requester P2 who is the occupant P2 clicks the other
[0079]
On the other hand, when the image requester P1 clicks the other
[0080]
Then, the
[0081]
In
[0082]
Then, the
[0083]
FIG. 9D shows an image of the occupant (image requester) P1 imaged obliquely from the front by the
[0084]
When the still
[0085]
As described above, in the image processing unit 22 (sub-image processing unit 26) constituting the roller coaster
[0086]
Therefore, for example, as described above, it is possible to set an image that can be shared by the image requesters P1 and P2 and an image that can be viewed only by one image requester, and one image requester can set the other image. The front image of the self that the requester does not want to show can be made invisible to the other image requester.
[0087]
In particular, in the roller coaster
[0088]
Further, the
[0089]
As described above, in the roller coaster movie shooting system 10 (center server 20) according to the present embodiment, the output angle of view range in the image data can be set, and the angle of view range in the image data is changed and output as required. be able to. That is, image data obtained by photographing can be used effectively.
[0090]
In the above embodiment, for example, the angle of view area A1 and the angle of view area A2 are set to overlap so that adjacent passengers of the
[0091]
In the above-described embodiment, two field angle areas are set in image data obtained by one
[0092]
Further, in the above embodiment, the
[0093]
Furthermore, in the above embodiment, the
[0094]
Needless to say, the image processing apparatus according to the present invention is not limited to the configuration applied to the roller coaster
[0095]
【The invention's effect】
As described above, the image processing apparatus according to the present invention has an excellent effect that image data obtained by photographing can be used effectively.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic overall configuration of a roller coaster movie shooting system to which an image processing apparatus according to an embodiment of the present invention is applied, and a personal computer connected to the roller coaster movie shooting system.
FIG. 2 is a perspective view showing an installation state of an omnidirectional camera constituting the roller coaster
FIG. 3 is a conceptual configuration diagram of an omnidirectional camera constituting the roller coaster
FIG. 4 is a flowchart of an image output program stored in an output control unit constituting the roller coaster movie shooting system.
FIG. 5 is a flowchart of image browsing software of a personal computer connected to a roller coaster movie shooting system.
6A and 6B are diagrams showing region templates stored in a center server that constitutes the roller coaster
7 is a diagram showing an example of an image captured by an omnidirectional camera constituting the roller coaster
FIG. 8 is a diagram illustrating a main image viewing state by a personal computer connected to the roller coaster movie shooting system.
FIGS. 9A and 9B are diagrams showing an image browsing state by a personal computer connected to the roller coaster movie shooting system, in which FIG. 9A shows the main image when the viewing angle of the main image is set in front of the roller coaster, and FIG. (C) is a diagram showing a case where the viewing angle of the main image is set in front of itself, and (D) is a diagram showing a case where the sub-image is reproduced.
[Explanation of symbols]
10 Roller coaster movie shooting system
12 Omnidirectional camera (imaging means)
20 Center server (image processing device)
22 Image processing unit (image processing device)
24 Output control unit (output control means)
26 Sub-image processing unit (image processing device)
28 Image memory (storage means)
30 sub-control unit (area setting means, attribute setting means)
32 area template memory (area setting means)
34 Area attribute memory (area setting means)
38 Image output program (output control means)
Claims (3)
前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、
少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる領域属性を付与する領域属性設定手段と、
を備えた画像処理装置。Storage means for storing image data of an image captured by the imaging means;
A region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the imaging unit;
Region attribute setting means for assigning different region attributes to at least one of the plurality of regions excluding one region;
An image processing apparatus.
前記複数の撮像手段に属する画像データ毎に、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、
前記複数の撮像手段に属する画像データ毎に、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる属性を付与する領域属性設定手段と、
を備えた画像処理装置。Storage means for storing a plurality of image data of images taken by a plurality of imaging means as image data belonging to the respective imaging means;
A region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the image capturing unit for each image data belonging to the plurality of image capturing units;
Area attribute setting means for assigning different attributes to at least other areas excluding one area from the plurality of areas for each image data belonging to the plurality of imaging means;
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002243050A JP2004088197A (en) | 2002-08-23 | 2002-08-23 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002243050A JP2004088197A (en) | 2002-08-23 | 2002-08-23 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004088197A true JP2004088197A (en) | 2004-03-18 |
Family
ID=32051917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002243050A Pending JP2004088197A (en) | 2002-08-23 | 2002-08-23 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004088197A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017108356A (en) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | Image management system, image management method and program |
CN113706723A (en) * | 2021-08-23 | 2021-11-26 | 维沃移动通信有限公司 | Image processing method and device |
-
2002
- 2002-08-23 JP JP2002243050A patent/JP2004088197A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017108356A (en) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | Image management system, image management method and program |
CN113706723A (en) * | 2021-08-23 | 2021-11-26 | 维沃移动通信有限公司 | Image processing method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5115139B2 (en) | Composition determination apparatus, composition determination method, and program | |
US11277585B2 (en) | Content distribution server, content distribution system, content distribution method, and program | |
JP4894712B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP6178524B2 (en) | Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device | |
US20220167021A1 (en) | Virtual Reality Viewing System | |
US20060115235A1 (en) | Moving picture recording apparatus and moving picture reproducing apparatus | |
TWI255141B (en) | Method and system for real-time interactive video | |
JP2013509785A (en) | Video providing system and method | |
JP5278840B1 (en) | Photo shooting game system, server, image providing method and image providing program. | |
US20230079542A1 (en) | Apparatus for use in the performance of cognitive behaviour therapy and method of performance | |
WO2020059327A1 (en) | Information processing device, information processing method, and program | |
KR101839406B1 (en) | Display apparatus and control method thereof | |
KR20190031220A (en) | System and method for providing virtual reality content | |
JPH11327005A (en) | Theme park system | |
JP2023153790A (en) | program | |
JP2004088197A (en) | Image processor | |
JP7026364B1 (en) | Imaging program and computer | |
JP2010074399A (en) | Device for determining composition, method of determining composition, image processing unit, method of processing image, and program | |
JP5440588B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP2008301399A (en) | Television conference apparatus, television conference method, television conference system, computer program and recording medium | |
JP2004297363A (en) | Remote photographing system | |
JP5098917B2 (en) | Composition determination apparatus, composition determination method, and program | |
WO2006109459A1 (en) | Person imaging device and person imaging method | |
JP2020071519A (en) | Guide device and guide system | |
JP6829348B1 (en) | Shooting control method, information processing device, program, and shooting system |