JP2004088197A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2004088197A
JP2004088197A JP2002243050A JP2002243050A JP2004088197A JP 2004088197 A JP2004088197 A JP 2004088197A JP 2002243050 A JP2002243050 A JP 2002243050A JP 2002243050 A JP2002243050 A JP 2002243050A JP 2004088197 A JP2004088197 A JP 2004088197A
Authority
JP
Japan
Prior art keywords
image
image data
area
camera
requester
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002243050A
Other languages
Japanese (ja)
Inventor
Ayumi Isomura
磯村 歩
Takeo Okabe
岡部 雄生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002243050A priority Critical patent/JP2004088197A/en
Publication of JP2004088197A publication Critical patent/JP2004088197A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of effectively utilizing image data obtained through photographing. <P>SOLUTION: In a center server 20, an image memory 28A stores image data produced by an omnidirectional camera 12A of a camera ID 01, and a sub control section 30A sets two field angle areas having different field angle ranges on image data and sets different area IDs 01, 02 in each field angle area. Similarly two areas having area IDs 01, 02 are set on image data of an omnidirectional camera 12B of a camera ID 02. When an output request in response to the camera ID 01 and the area ID 01 is received, an image in the area ID 01 in the image data by the omnidirectional camera 12A is outputted. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像データにおける出力画角範囲を設定するための画像処理装置に関する。
【0002】
【従来の技術】
テレビ番組には、例えばジェットコースターに芸能人等を乗車させ、該乗員の怖がる顔や泣き顔等の表情(の変化)の画像を見せて視聴者を楽しませるものがあるが、このような画像を一般の乗員に提供することが考えられている。
【0003】
例えば、特開平10−197919号公報には、ジェットコースターの乗員を撮像するカメラと、該カメラによる撮像位置を乗員に報知するフラッシュライトとを備え、該フラッシュライトによる撮像位置の報知によって乗員にポーズ等を取るための余裕を与える技術が記載されている。
【0004】
このような技術によれば、乗員は、予め撮像に備えてポーズを取ったり表情を整えたりすることができ、比較的満足な画像(写真等)を得ることができる。
【0005】
【発明が解決しようとする課題】
しかしながら、このような従来の技術では、撮像位置が予め乗員に報知されるため、該乗員の思いがけない表情を得ることができず、趣味性に欠けるという問題があった。
【0006】
一方、例えば恋人同士で隣り合ってジェットコースターに乗車する場合、該恋人同士は、一緒に撮像した画像によって思い出を記録したいという要求がある反面、自己の思いがけない表情、特に自己の正面から撮像された気に入らない表情の画像を恋人には見せたくないという要求がある。この場合、画像処理によって他者に見られたくなくない部分を削除することも考えられるが、このような処理を画像データに対して直接行なうことは煩雑であり現実的ではない。
【0007】
本発明は、上記事実を考慮して、撮影により得られる画像データを有効に利用することができる画像処理装置を得ることが目的である。
【0008】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係る画像処理装置は、撮像手段による撮像画像の画像データを記憶する記憶手段と、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる領域属性を付与する領域属性設定手段と、を備えている。
【0009】
請求項1記載の画像処理装置では、撮像手段による撮像画像の画像データが記憶手段に記憶される。この画像データには、領域設定手段によって、撮像手段の画角に含まれる異なる画角範囲に各々対応する複数の撮像画像における領域が設定される。これらの複数の領域は、撮像手段の画角範囲内において互いに重なり合う部分があっても良いが、互いに一致することはない。
【0010】
さらに、領域設定手段が設定した複数の領域のうち、少なくとも1つの領域を除く他の領域には、それぞれ領域属性設定手段によって異なる領域属性が付与される。これにより、複数の領域が識別可能となる。なお、全ての領域にそれぞれ異なる領域属性が設定されても良いことは言うまでもない。
【0011】
したがって、本画像処理装置では、1つの画像データから(画像データ毎に)、領域属性に応じた領域毎の(異なる画角範囲を有する)複数の画像を選択的に得ることができる。すなわち、本画像処理装置では、画像データにおける出力可能な画角に対応する範囲を設定でき、例えば、二人の人物を撮像した画像データに基づいて、そのぞれの人物のみの画像を提供したり、一方の者には全体画像を提供し他方の者には部分画像を提供したりすることが可能となる。
【0012】
このように、請求項1記載の画像処理装置では、画像データにおける出力画角範囲を設定できる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0013】
また、上記目的を達成するために請求項2記載の発明に係る画像処理装置は、複数の撮像手段による撮像画像の複数の画像データを、それぞれの撮像手段に属する画像データとしてそれぞれ記憶する記憶手段と、前記複数の撮像手段に属する画像データ毎に、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、前記複数の撮像手段に属する画像データ毎に、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる属性を付与する領域属性設定手段と、を備えている。
【0014】
請求項2記載の画像処理装置では、複数の撮像手段によるそれぞれの撮像画像の画像データが、各撮像手段に属する画像データとして、それぞれ記憶手段に記憶される。各画像データには、それぞれ領域設定手段によって、その属する撮像手段の画角に含まれる異なる画角範囲に各々対応する複数の領域(撮像画像における領域)が設定される。これらの各画像データにおける複数の領域は、その属する撮像手段の画角範囲内において互いに重なり合う部分があっても良いが、互いに一致しない。
【0015】
さらに、一画像データについて領域設定手段が設定した複数の領域のうち、少なくとも1つの領域を除く他の領域には、それぞれ領域属性設定手段によって異なる領域属性が付与され、これが各画像データについて(各撮像手段に属する各画像データ毎に)行なわれる。すなわち、データ属性の異なる画像データ間では、同一の領域属性が存在していても良い。
【0016】
これにより、各撮像手段に属する画像データ毎に、複数の領域が識別可能となる。なお、一画像データについて、全ての領域にそれぞれ異なる領域属性が設定されても良いことは言うまでもない。
【0017】
したがって、本画像処理装置では、互いに異なる撮像手段に属する複数の画像データから、それぞれ領域属性に応じた領域毎の(異なる画角範囲を有する)複数の画像を選択的に得ることができる。
【0018】
すなわち、本画像処理装置では、出力可能な画角に対応する範囲を、各撮像手段に属する画像データ毎に設定でき、例えば、二人の人物を異なる方向から撮像した2つの画像データに基づいて、一方の者には一方の撮像手段による全体画像及び他方の撮像手段による部分画像を提供し、他方の者には一方の撮像手段による部分画像及び他方の撮像手段による全体画像を提供することが可能となる。
【0019】
このように、請求項2記載の画像処理装置では、画像データにおける出力画角範囲を設定できる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0020】
請求項3記載の発明に係る画像処理装置は、請求項1または請求項2記載の画像処理装置において、前記領域属性に応じた出力要求、または前記撮像手段に属する前記領域属性に応じた出力要求が入力されると、該領域属性に対応した領域の画像を出力する出力制御手段を、さらに備えている。
【0021】
請求項3記載の画像処理装置では、出力制御手段は、画像データに設定された領域毎の領域属性に応じた出力要求、または撮像手段に属する領域属性に応じた出力要求が入力されると、該要求に応じた画像を出力する。
【0022】
具体的には、請求項1に従属する本画像処理装置は、領域属性設定手段が設定した領域属性に応じた出力要求が入力されると、該領域属性に応じた領域(画角範囲)の画像を出力する。
【0023】
すなわち、例えば、二人の人物を撮像した画像データに基づいて、第1の領域属性に対応する識別情報(ID)が与えられた一方の者による出力要求に対しては該第1の属性に対応する第1領域の画像(例えば全体画像)を出力し、第2の領域属性に対応するIDが与えられた他方の者による出力要求に対しては該第2の属性に対応する第2領域の画像(例えば部分画像)を提供することが可能となる。
【0024】
一方、請求項2記載に従属する本画像処理装置は、1つの撮像手段に属する領域属性に応じた出力要求が入力されると、該撮像手段に属する画像データにおける領域属性に対応した画像データにおける画角領域の画像を出力する。
【0025】
すなわち、例えば、2つの撮像手段によって二人の人物を異なる方向から撮像した2つの画像データに基づいて、第1の撮像手段に属する第1の領域属性に対応するIDが与えられた一方の者による出力要求に対しては、第1の撮像手段に属する画像データにおける第1の領域属性に対応する全体画像、及び第2の撮像手段に属する画像データにおける第1の領域属性に対応する部分画像を提供すると共に、第2の撮像手段に属する第2の領域属性に対応するIDが与えられた他方の者による出力要求に対しては、第2の撮像手段に属する画像データにおける第2の領域属性に対応する全体画像、及び第1の撮像手段に属する画像データにおける第2の領域属性に対応する部分画像を提供することが可能となる。
【0026】
このように、請求項3記載の画像処理装置では、要求に応じて画像データにおける画角範囲を変更して出力することができる。
【0027】
【発明の実施の形態】
本発明の実施の形態に係る画像処理装置が適用されたジェットコースタームービー撮影システム10について、図1乃至図9に基づいて説明する。
【0028】
図1には、ジェットコースタームービー撮影システム10の概略全体構成がブロック図にて示されている。この図に示される如く、ジェットコースタームービー撮影システム10は、撮像手段としての全方位カメラ12を備えている。
【0029】
全方位カメラ12は後述するジェットコースター14の各座席対応して複数設けられている。以下、複数の全方位カメラ12のうち、図1に示された2つの全方位カメラ12を、それぞれ全方位カメラ12A、12Bとして説明する。
【0030】
全方位カメラ12A、12Bを含む各全方位カメラ12は、それぞれ無線通信(図示しない無線通信装置)によって、画像処理装置としてのセンタサーバ20へ撮像画像の画像データを伝送可能とされている。また、センタサーバ20は、例えばネットワーク等を介して画像呼出表示装置として機能するパーソナルコンピュータ(以下、パソコンという)40に接続されている。
【0031】
このセンタサーバ20は、各全方位カメラ12からデータが伝送される画像処理部22と、該画像処理部22及びパソコン40に接続された出力制御手段としての出力制御部24とを有して構成されている。画像処理部22は、複数の全方位カメラ12にそれぞれ対応した複数のサブ画像処理部26を備えている。
【0032】
サブ画像処理部26Aは、全方位カメラ12Aから伝送された画像データを記憶する記憶手段としての画像メモリ28Aと、該画像メモリ28Aに接続された、領域設定手段及び属性設定手段としてのサブ制御部30Aと、それぞれサブ制御部30Aに接続された領域テンプレートメモリ32A及び領域属性メモリ34Aとを備えて構成されている。また、サブ制御部30Aは、出力制御部24に接続されている。
【0033】
一方、サブ画像処理部26Bは、全方位カメラ12Bから伝送された画像データを記憶する記憶手段としての画像メモリ28Bと、該画像メモリ28Bに接続された、領域設定手段及び属性設定手段としてのサブ制御部30Bと、それぞれサブ制御部30Bに接続された領域テンプレートメモリ32B及び領域属性メモリ34Bとを備えて構成されている。また、サブ制御部30Bは、出力制御部24に接続されている。
【0034】
すなわち、画像処理部22では、サブ画像処理部26A、26Bが、それぞれ画像メモリ28A、28Bに記憶された全方位カメラ12A、12Bによる撮像画像の画像データを、サブ制御部30A、30Bにおいて画像処理(後述)し、出力制御部24を介したパソコン40からの要求に基づいた画像に対応する画像データを、出力制御部24を介してパソコン40に出力するようになっている。
【0035】
なお、他のサブ画像処理部26も、サブ画像処理部26A、26Bと同様に構成されている。
【0036】
パソコン40は、CPU、ROM、RAM、入出力ポートがコマンドを授受可能に接続されると共に、入出力ポートに表示部としてのディスプレイD及び入力装置としてのキーボード、マウス等の電子機器が接続されて構成されている。
【0037】
図2に示される如く、全方位カメラ12は、レールR上を走行するジェットコースター14の各座席の前方にそれぞれ設けられており、該ジェットコースター14が運転(走行)している全期間の動画像を撮像するようになっている。すなわち、ジェットコースタームービー撮影システム10は、複数の全方位カメラ12を備えており、これら複数の全方位カメラ12にはそれぞれ異なるカメラID(カメラ識別情報)が設定されている。
【0038】
本実施の形態では、ジェットコースター14の左右に隣り合う座席に対応した2つの全方位カメラ12を一対としており、以下、ジェットコースター14の最前列において、乗員P1が着座する進行方向右側座席の前方(正面)に配置された全方位カメラ12を全方位カメラ12Aとし、乗員P2が着座する左側座席の前方に配置された全方位カメラ12を全方位カメラ12Bとして説明する。
【0039】
そして、全方位カメラ12AにはカメラID01が設定されており、全方位カメラ12BにはカメラID02が設定されている。また、乗員P1にはカメラID01に対応した要求者ID01が与えられ、乗員P2にはカメラID02に対応した要求者ID02が与えられる。
【0040】
全方位カメラ12A、12B(を含む各全方位カメラ12)は、図3に示される如く、光学的な結像手段であるレンズ16と電荷結合素子であるCCD18とを備えて構成され、レンズ16の軸線との直交面に沿った360°の範囲を含む範囲の光学動画像を撮像して画像データ(デジタル情報)に変換するように構成されている。
【0041】
そして、各全方位カメラ12A、12Bは、それぞれのレンズ16の軸線方向がジェットコースター14の上下方向とそれぞれ一致するように各座席前方に配置されている。これにより、全方位カメラ12Aの撮像(画角)範囲には、その設置された右側座席に着座した乗員P1、及び該乗員P1に隣り合って着座した乗員P2が含まれるようになっている。
【0042】
図7に示す環状の画像Gは、全方位カメラ12Aにて撮像した画像(動画のうちの1こま)の一例であり、その画角範囲には、乗員P1、P2、ジェットコースター14用のレールR等が含まれている。図示は省略するが、全方位カメラ12Bによる撮像画像の画角範囲には、その設置された左側座席に着座した乗員P2、該乗員P2に隣り合って着座した乗員P1、レールR等が含まれるようになっている。
【0043】
そして、全方位カメラ12A、12Bによって撮像された画像の画像データは、センタサーバ20に伝送され、各サブ画像処理部26A、26Bによって画像処理されるようになっている。
【0044】
各サブ画像処理部26A、26Bの画像メモリ28A、28Bは、それぞれ全方位カメラ12A、12Bから入力された(全方位カメラ12A、12Bに属する)環状の動画像の画像データを逐次記憶するようになっている。また、領域テンプレートメモリ32Aには図6(A)に概念図として示される領域テンプレート36Aが記憶されており、領域テンプレートメモリ32Bには図6(B)に概念図として示される領域テンプレート36Bが記憶されている。
【0045】
領域テンプレート36Aには、環状の画角範囲を有する全方位カメラ12Aによる撮像画像の全領域に対応した環状の画角領域A1と、該画角領域A1の一部である略扇状の画角領域A2とが予め設定されている。画角領域A2は、全方位カメラ12Aによる撮像画像(例えば、画像G)における乗員P2の占める画角範囲に略対応して設定されている。
【0046】
同様に、領域テンプレート36Bには、環状の画角範囲を有する全方位カメラ12Aによる撮像画像の全領域に対応した環状の画角領域B2と、該画角領域B2の一部である略扇状の画角領域B1とが予め設定されている。画角領域B1は、全方位カメラ12Bによる撮像画像における乗員P1の占める画角に略対応して設定されている。
【0047】
そして、サブ制御部30Aは、領域テンプレート36Aを用いて、画像メモリ28Aに記憶された画像データ(画像Gを含む動画像のデータ)に、画角領域A1及び画角領域A2を設定し、かつ領域属性メモリ34Aに設定されている属性情報に基づいて、画角領域A1には要求者ID01(乗員P1)に対応する領域ID01を設定し、画角領域A2には要求者ID02(乗員P2)に対応する領域ID02を設定するように構成されている。
【0048】
一方、サブ制御部30Bは、領域テンプレート36Bを用いて、画像メモリ28Bに記憶された画像データに、画角領域B2及び画角領域B1を設定し、かつ領域属性メモリ34Bに設定されている属性情報に基づいて、画角領域B2には要求者ID02(乗員P2)に対応する領域ID02を設定し、画角領域B1には要求者ID01(乗員P1)に対応する領域ID01を設定するように構成されている。
【0049】
すなわち、乗員P1は、自己の正面に配置された全方位カメラ12Aに属する画像の全画角範囲である画角領域A1と、隣り合って着座した乗員P2の正面に配置された全方位カメラ12Bに属する画像のうち自己の占める画角範囲に対応する画角領域B1とを参照(閲覧)可能であり、乗員P2は、全方位カメラ12Aに属する画像のうち自己の占める画角範囲に対応する画角領域A2と、全方位カメラ12Bに属する画像の全画角範囲である画角領域B2とを参照可能とされている。これらの参照方法については後述する。
【0050】
また、センタサーバ20の出力制御部24には、画像出力プログラム38が記憶されている。出力制御部24は、パソコン40に記憶された画像閲覧ソフト(プログラム)42からの要求画像に応じた画角範囲の画像データをパソコン40へ出力するようになっている。
【0051】
以下、画像出力プログラム38及び画像閲覧ソフト42の該略機能
(構成)について、図4及び図5に示されるフローチャートに基づいて説明する。
【0052】
図4に示される如く、画像出力プログラム38は、起動すると、ステップ44でパソコン40(画像閲覧ソフト42)からの画像出力要求の有無を判断し、画像出力が要求されている場合には、ステップ46へ進み画像閲覧ソフト42からの要求に基づいて要求画像に対応するカメラIDを特定し、ステップ48へ進み画像要求者の要求者IDを特定するようになっている。
【0053】
カメラID及び要求者IDが特定されると、ステップ50へ進み、カメラIDと要求者IDとが一致するか否かを判断するようになっており、カメラIDと要求者IDとが一致する場合には、ステップ52乃至ステップ56で構成される主画像変換ステップ群へ進むようになっている。一方、カメラIDと要求者IDとが一致しない場合には、ステップ60乃至ステップ64で構成される副画像変換ステップ群へ進むようになっている。
【0054】
ステップ52では、ステップ46で特定したカメラIDに基づいて該当カメラIDを特定するようになっている。すなわち、カメラIDに基づいて、画像出力が要求された全方位カメラ12に属する画像データ(領域IDが設定された画像データ)が記憶されているサブ画像処理部26を選択する。例えば、要求者ID01を有する画像要求者(乗員P1)がカメラID01の全方位カメラ12Aに属する画像を要求している場合には、サブ画像処理部26Aを選択する。
【0055】
ステップ54では、要求者IDに基づいて画像における出力すべき領域(の画像データ)を抽出するようになっている。すなわち、要求者IDと一致する領域IDが付与された画角領域が選択される。本実施の形態では、カメラIDと要求者IDとが一致している場合には、全方位カメラ12に属する画像の全範囲である画角領域に対応した主画像データ(例えば、画角領域A1または画角領域B1の画角範囲を有する画像に対応する画像データ)が選択される。
【0056】
ステップ56では、ステップ54で選択された画角領域の主画像データをフォーマット、すなわち、全方位カメラ12による環状画像に対応した画像データを矩形状にパノラマ展開して表示可能な画像データとして補正するようになっている。そして、このフォーマットされた主画像データを、ステップ58で、パソコン40へ出力するようになっている。
【0057】
一方、ステップ60では、ステップ46で特定したカメラIDに基づいて該当カメラIDを設定するようになっている。すなわち、カメラIDに基づいて、画像出力が要求された全方位カメラ12に属する画像データ(領域IDが設定された画像データ)が記憶されているサブ画像処理部26を選択する。例えば、要求者ID02を有する閲覧者(乗員P2)がカメラID01の全方位カメラ12Aの画像データを要求している場合には、サブ画像処理部26Aを選択する。
【0058】
ステップ62では、要求者IDに基づいて画像データにおける出力すべき領域(の画像データ)を抽出するようになっている。すなわち、要求者IDと一致する領域IDが付与された画角領域が選択される。本実施の形態では、カメラIDと要求者IDとが一致しない場合には、ステップ60で特定されたカメラIDを有する全方位カメラ12に属する画像における画像要求者の占める画角領域の副画像データ(例えば、画角領域A2または画角領域B2の画角範囲を有する画像に対応する画像データ)が選択される。
【0059】
ステップ64では、ステップ62で選択された画角領域の副画像データをフォーマットするようになっている。そして、このフォーマットされた副画像データを、ステップ58で、パソコン40へ出力するようになっている。
【0060】
また、図5に示される如く、画像閲覧ソフト42は、画像要求者が自己の要求者IDを入力して起動すると、ステップ70で、該画像要求者が自己の要求者IDに対応したカメラIDを有する全方位カメラ12の画像の再生を要求しているか否かを判断するようになっている。
【0061】
画像要求者が自己の要求者IDに対応したカメラIDの全方位カメラ12(自カメラ)による画像の再生を要求している場合には、ステップ72へ進み、該自カメラのカメラID及び要求者IDをセンタサーバ20(出力制御部24の画像出力プログラム38)へ出力するようになっている。そして、ステップ74で、センタサーバ20からの応答(画像データの出力)があると判断されると、ステップ76で、該画像データ(この場合、要求者IDがカメラIDと一致するため、主画像データ)に基づく画像を、パソコン40を構成する表示装置としてのディスプレイD上に再生するようになっている。
【0062】
一方、ステップ70で、画像要求者が自己の要求者IDに対応したカメラIDを有する全方位カメラ12による画像を要求していないと判断された場合には、ステップ78へ進み、他のカメラIDを有する全方位カメラ12(他カメラ)による画像の再生を要求しているか否かを判断する。
【0063】
画像要求者が他カメラによる画像を要求している場合には、ステップ80で、該他カメラのカメラIDを特定するようになっている。本実施の形態では、画像要求者が閲覧可能な他カメラ画像は、自己の要求者IDに対応したカメラIDの全方位カメラ12と隣接して設置された全方位カメラ12に属する画像であるため、該要求者IDに基づいて、自カメラに隣接して設置された他カメラのカメラIDを特定する。そして、ステップ82で、該特定した他カメラのカメラID及び要求者IDをセンタサーバ20へ出力するようになっている。
【0064】
さらに、ステップ74で、センタサーバ20からの応答があると判断されると、ステップ76で、該画像データ(この場合、要求者IDがカメラIDと一致しないため、副画像データ)に基づく画像をディスプレイD上に再生するようになっている。
【0065】
次に、本実施の形態の作用を説明する。
【0066】
上記構成のジェットコースタームービー撮影システム10では、乗員P1、P2を含む乗員が乗車したジェットコースター14が発車すると、各全方位カメラ12が動画の撮像(画像データの生成)を開始する。そして、ジェットコースター14が停車すると、各全方位カメラ12による撮像(画像データの生成)が終了する。
【0067】
この間に生成された各全方位カメラ12による撮像画像の画像データは、それぞれ無線通信によってセンタサーバ20の画像処理部22へ伝送される。全方位カメラ12Aに属する画像データは、サブ画像処理部26Aの画像メモリ28Aに記憶される。そしてサブ制御部30Aでは、この画像データに画角領域A1と画角領域A2とを設定すると共に、画角領域A1、A2にそれぞれ領域ID01、02を設定する(図7参照)。
【0068】
また、全方位カメラ12Bに属する画像データは、サブ画像処理部26Bの画像メモリ28Bに記憶される。そしてサブ制御部30Bでは、この画像データに画角領域B2画角領域B1とを設定すると共に、画角領域B2、B1にはそれぞれ領域ID02、01を設定する。
【0069】
一方、ジェットコースター14を降車した各乗員には、自己の座席前方(正面)に配置されていた全方位カメラ12のカメラIDに対応する要求者IDが与えられる。すなわち、乗員P1にはカメラID01に対応した要求者ID01が与えられ、乗員P2にはカメラID02に対応した要求者ID02が与えられる。なお、各要求者IDには、日付情報や時間(または運転回)情報等、自己の画像を呼び出すための情報が含まれている。
【0070】
以下、一例として、図8及び図9を用いて、乗員P1がジェットコースター14からの降車後に、パソコン40のディスプレイD上に画像を再生する場合を、降車後の乗員P1を画像要求者P1として説明する。なお、図8及び図9に示される画像は、図7の画像Gに対応している。
【0071】
画像要求者P1がパソコン40を操作し、自己の要求者ID01を入力して画像閲覧ソフト42立ち上げると、ディスプレイD上には図8に示される如きウインドウ84が表示される。この時点では、ウインドウ84の中央部に配置された画像表示部86には要求画像が表示されていない。
【0072】
画像要求者P1がウインドウ84内の自カメラ選択ボタン88をクリックすると、画像閲覧ソフト42では、ステップ70で、画像要求者P1が自己の要求者ID01に対応したカメラID01を有する全方位カメラ12Aの画像の再生を要求していると判断し、ステップ72でカメラID01及び要求者ID01をセンタサーバ20へ出力する。
【0073】
すると、センタサーバ20を構成する出力制御部24の画像出力プログラム38では、ステップ44で画像要求が為されたと判断して、ステップ46へ進みカメラID01を特定し、ステップ48へ進み要求者ID01を特定する。そして、ステップ50ではカメラID01と要求者ID01とが一致していると判断して主画像変換ステップ群へ進む。
【0074】
ステップ52では、カメラID01に基づいて全方位カメラ12Aに対応するサブ画像処理部26Aを選択し、ステップ54では、要求者ID01に基づいて領域ID01を有する画角領域A1を抽出(選択)する。そして、ステップ56で画角領域A1に対応する主画像データをフォーマットし、該フォーマットされた主画像データをステップ58で画像閲覧ソフト42へ出力する。
【0075】
すると、画像閲覧ソフト42では、ステップ74でセンタサーバ20からの応答が為されたと判断し、ステップ76で、ディスプレイD上に表示されたウインドウ84の画像表示部86に、上記主画像データに基づく画像を表示する。この画像の一例が図8に示されている。主画像データは、画角範囲が360°の環状である全方位カメラ12Aの全画角範囲(上記フォーマットによってパノラマ展開された全範囲)を含んでいるが、画像表示部86では、図8に示されるように、その画角範囲の一部を再生(表示)するようになっている。
【0076】
図8に示されるこの画像では、乗員(画像要求者)P1と乗員P2とが共に表示されており、該乗員P1、P2が互いに恋人同士等の親しい知人関係である場合、画像要求者P1は、自己の画像以外に乗員P2の斜め前方からの表情(の変化)等を楽しむことができる。また、画像閲覧ソフト42では、ウインドウ84内の視野角変更ボタン90を適宜クリックすると、図9(A)乃至図9(C)に示されるような画像を、画像表示部86に再生する。
【0077】
図9(A)は、ジェットコースター14の進行方向の画像を示しており、該ジェットコースター14の臨場感のある映像を楽しむことができる。図9(B)は、画像要求者P1と隣り合って着座していた乗員P2のみを表示させた場合の画像を示している。この場合も、画像要求者P1は、乗員P2の斜め前方からの表情(の変化)等を楽しむことができる。図9(C)は、画像要求者P1の正面画像を示している。
【0078】
なお、図9(B)の画像は、乗員P2であった画像要求者P2が他カメラ選択ボタン92をクリックした場合における他カメラ画像(画角領域A2の画像)に対応しており、画像要求者P1、P2は、この画像を共有できる。
【0079】
一方、画像要求者P1がウインドウ84内の他カメラ選択ボタン92をクリックすると、画像閲覧ソフト42では、ステップ70で自カメラ画像が要求されていないと判断してステップ78へ進み、該ステップ78で他カメラ画像が要求されたと判断する。すると、ステップ80で、画像要求者P1の要求者ID01に基づいて、該要求者ID01に対する他カメラが、該画像要求者P1に隣り合って着座していた乗員P2(要求者ID02)に対応したカメラID02を有する全方位カメラ12Bであると特定し、ステップ82で、このカメラID02及び要求者ID01をセンタサーバ20へ出力する。
【0080】
すると、センタサーバ20を構成する出力制御部24の画像出力プログラム38では、ステップ44で画像要求が為されたと判断して、ステップ46へ進みカメラID02を特定し、ステップ48へ進み要求者ID01を特定する。そして、ステップ50ではカメラID02と要求者ID01とが一致していないと判断して副画像変換ステップ群へ進む。
【0081】
ステップ60では、カメラID02に基づいて全方位カメラ12Bに対応するサブ画像処理部26Bを選択し、ステップ62では、要求者ID01に基づいて領域ID01を有する画角領域B1を抽出(選択)する。そして、ステップ64で画角領域B1に対応する副画像データをフォーマットし、該フォーマットされた副画像データをステップ58で画像閲覧ソフト42へ出力する。
【0082】
すると、画像閲覧ソフト42では、ステップ74でセンタサーバ20からの応答が為されたと判断し、ステップ76で、ディスプレイD上に表示されたウインドウ84の画像表示部86に、上記副画像データに基づく画像を表示する。この画像の一例が図9(D)に示されている。
【0083】
図9(D)は、全方位カメラ12Bによって斜め前方から撮像された乗員(画像要求者)P1の画像を示しており、画角領域B1における全画像を表示しているため、視野角変更ボタン90による視野角の変更はできない。この図9(D)の画像も、図9(B)の画像と同様に、画像要求者P1、P2が共有できる。
【0084】
また、ウインドウ84上の静止画記録ボタン94をクリックすると、該クリックした瞬間に表示されていた動画の1こまが静止画としてパソコン40に記録され、該静止画が複数(本実施の形態では4つ)の静止画表示部96に上から順に表示される。そして、この静止画は適宜プリント可能とされている。
【0085】
このように、ジェットコースタームービー撮影システム10を構成する画像処理部22(サブ画像処理部26)では、1つの全方位カメラ12の画像データ上に複数の画角領域(例えば、画角領域A1、A2)を設定すると共に、該複数の画角領域にそれぞれ異なる属性(例えば、領域ID01、02)を設定するため、パソコン40等からの要求に応じて異なる画角範囲の画像を出力することができる。
【0086】
このため、例えば、上記の通り、画像要求者P1、P2が共有できる画像と、一方の画像要求者のみが閲覧可能な画像とを設定することが可能となり、一方の画像要求者が他方の画像要求者には見せたくない自己の正面画像を、該他方の画像要求者に対し閲覧不能とすることができる。
【0087】
特に、複数の全方位カメラ12を備えたジェットコースタームービー撮影システム10において、隣り合って配置された全方位カメラ12が一対として構成され、かつ各全方位カメラ12毎に異なるカメラIDが設定されると共に各全方位カメラ12に属する画像データ毎に複数の画角領域が設定されるため、例えば、画像要求者は、隣り合って着座していた他の画像要求者が見せたくない画像を除いて、他カメラによる撮像画像を楽しむことができる。
【0088】
また、ジェットコースタームービー撮影システム10を構成するセンタサーバ20の出力制御部24は、画像出力プログラム38を有し、画像要求者の要求者IDと要求画像の属するカメラIDとに基づいて、出力すべき画像データ(カメラID)と該画像データにおける出力画角範囲(要求者IDに対応した領域IDに基づく画角領域)とを設定することで、パソコン40からの要求におじて出力画像及び該画像の画角範囲を変更する機能を実現している。すなわち、センタサーバ20は、例えば、画像要求者が自カメラによる全範囲の画像及び他カメラによる部分画像(他方の画像要求者が他人に見せたくない自己の正面画像を除く画像)を楽しむ機能を実現している。
【0089】
このように、本実施の形態に係るジェットコースタームービー撮影システム10(センタサーバ20)では、画像データにおける出力画角範囲を設定でき、要求に応じて画像データにおける画角範囲を変更して出力することができる。すなわち、撮影により得られる画像データを有効に利用することができる。
【0090】
なお、上記の実施の形態では、ジェットコースター14の隣り合う乗員同士が一部の画像を共用できるように、例えば画角領域A1と画角領域A2とが重なり合うように設定された構成としたが、本発明はこれに限定されず、例えば、乗員P1、P2に全く異なる画角範囲の画像を提供するように複数の画角領域を設定しても良い。したがって、例えば、乗員P1、P2間に1つの(共用の)全方位カメラ12を設置し、互いに自己の画像のみを閲覧可能に設定しても良い。
【0091】
また、上記の実施の形態では、1つの全方位カメラ12による画像データに2つの画角領域が設定される構成としたが、本発明はこれに限定されず、画像データに3つ以上の画角領域を設定しても良い。したがって、例えば、図9(A)に示される画像を、ジェットコースター14の全乗員が共有する画像とすることもできる。
【0092】
さらに、上記の実施の形態では、センタサーバ20がネットワーク等を介して画像を出力する構成としたが、本発明はこれに限定されず、例えば、乗員(画像要求者)の希望に応じて、該乗員の閲覧可能な画像データ(各IDと共に)をCD−ROM等の記録媒体に記録して提供しても良い。この場合、このCD−ROM等に画像閲覧ソフト42を記憶しておくこともできる。
【0093】
さらにまた、上記の実施の形態では、撮像手段として全方位カメラ12を備えた構成としたが、本発明はこれに限定されず、撮像手段は、所定の画角(撮像領域)を有すれば良く、また静止画を撮像する構成であっても良い。
【0094】
また、本発明における画像処理装置は、ジェットコースタームービー撮影システム10に適用される構成に限定されないことは言うまでもない。
【0095】
【発明の効果】
以上説明したように本発明に係る画像処理装置は、撮影により得られる画像データを有効に利用することができるという優れた効果を有する。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る画像処理装置が適用されたジェットコースタームービー撮影システムの概略全体構成、及び該ジェットコースタームービー撮影システムに接続されたパソコンを示すブロック図である。
【図2】ジェットコースタームービー撮影システム10を構成する全方位カメラのジェットコースターへの設置状態を示す斜視図である。
【図3】ジェットコースタームービー撮影システム10を構成する全方位カメラの概念構成図である。
【図4】ジェットコースタームービー撮影システムを構成する出力制御部に記憶された画像出力プログラムのフローチャートである。
【図5】ジェットコースタームービー撮影システムに接続されたパソコンの画像閲覧ソフトのフローチャートである。
【図6】ジェットコースタームービー撮影システム10を構成するセンタサーバに記憶された領域テンプレートを示す図であって、(A)は一方の全方位カメラの画像データに対応した領域テンプレートの概念図、(B)は他方の全方位カメラの画像データに対応した領域テンプレートの概念図である。
【図7】ジェットコースタームービー撮影システム10を構成する全方位カメラによる撮像画像の一例を示す図である。
【図8】ジェットコースタームービー撮影システムに接続されたパソコンによる主画像の閲覧状態を示す図である。
【図9】ジェットコースタームービー撮影システムに接続されたパソコンによる画像の閲覧状態を示す図であって、(A)は主画像の視野角をジェットコースター前方に設定した場合、(B)は主画像の視野角を同乗者に設定した場合、(C)は主画像の視野角を自己の正面に設定した場合、(D)は副画像を再生した場合をそれぞれ示す図である。
【符号の説明】
10  ジェットコースタームービー撮影システム
12  全方位カメラ(撮像手段)
20  センタサーバ(画像処理装置)
22  画像処理部(画像処理装置)
24  出力制御部(出力制御手段)
26  サブ画像処理部(画像処理装置)
28  画像メモリ(記憶手段)
30  サブ制御部(領域設定手段、属性設定手段)
32  領域テンプレートメモリ(領域設定手段)
34  領域属性メモリ(領域設定手段)
38  画像出力プログラム(出力制御手段)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus for setting an output field angle range in image data.
[0002]
[Prior art]
Some television programs, for example, entertainers on a roller coaster and entertain viewers by showing images of facial expressions (changes) such as scared faces and crying faces of the crew. It is considered to be provided to passengers.
[0003]
For example, Japanese Patent Application Laid-Open No. 10-197919 includes a camera that captures an occupant of a roller coaster and a flashlight that informs the occupant of an imaging position by the camera, and pauses the occupant by notifying the imaging position of the flashlight. A technique for providing a margin for taking the etc. is described.
[0004]
According to such a technique, the occupant can pose and prepare facial expressions in advance for imaging, and can obtain a relatively satisfactory image (photograph or the like).
[0005]
[Problems to be solved by the invention]
However, in such a conventional technique, since the imaging position is notified to the occupant in advance, there is a problem that an unexpected expression of the occupant cannot be obtained and the hobby is lacking.
[0006]
On the other hand, for example, when lovers ride next to each other on a roller coaster, the lovers are required to record memories with images taken together, but they are taken from their own unexpected expressions, especially from their own front. There is a demand that you do not want your lover to display an image of a facial expression that you do not like. In this case, it is conceivable to delete a portion that is not desired to be seen by others by image processing. However, it is complicated and impractical to perform such processing directly on image data.
[0007]
In view of the above facts, an object of the present invention is to obtain an image processing apparatus that can effectively use image data obtained by photographing.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention includes a storage unit that stores image data of an image captured by an imaging unit, and each of different field angle ranges included in the field angle of the imaging unit. Region setting means for setting the regions in the plurality of captured images corresponding to the image data, and region attribute setting for assigning different region attributes to at least one of the plurality of regions excluding one region Means.
[0009]
In the image processing apparatus according to the first aspect, the image data of the image captured by the imaging unit is stored in the storage unit. In this image data, regions in a plurality of captured images respectively corresponding to different field angle ranges included in the field angle of the image capturing unit are set by the region setting unit. These plural regions may have overlapping portions within the field angle range of the image pickup means, but they do not coincide with each other.
[0010]
Further, among the plurality of areas set by the area setting means, different area attributes are assigned to the other areas excluding at least one area by the area attribute setting means. As a result, a plurality of areas can be identified. Needless to say, different region attributes may be set for all regions.
[0011]
Therefore, in the present image processing apparatus, it is possible to selectively obtain a plurality of images for each region (having different field angle ranges) according to region attributes from one image data (for each image data). That is, in the present image processing apparatus, a range corresponding to the viewable angle of view in the image data can be set. For example, based on image data obtained by imaging two people, only an image of each person is provided. It is possible to provide one person with the entire image and the other person with the partial image.
[0012]
Thus, in the image processing apparatus according to the first aspect, the output field angle range in the image data can be set. That is, image data obtained by photographing can be used effectively.
[0013]
In order to achieve the above object, the image processing apparatus according to the second aspect of the present invention is a storage means for storing a plurality of image data of images taken by a plurality of image pickup means as image data belonging to each image pickup means. And, for each piece of image data belonging to the plurality of imaging units, a region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the imaging unit. And area attribute setting means for assigning different attributes to at least other areas excluding one area from the plurality of areas, for each image data belonging to the plurality of imaging means.
[0014]
In the image processing apparatus according to the second aspect, the image data of each captured image by the plurality of imaging units is stored in the storage unit as the image data belonging to each imaging unit. In each image data, a plurality of regions (regions in the captured image) respectively corresponding to different field angle ranges included in the field angle of the image capturing unit to which the image capturing unit belongs are set by the region setting unit. The plurality of regions in each of these image data may have overlapping portions within the field angle range of the imaging means to which they belong, but they do not match each other.
[0015]
Further, among the plurality of areas set by the area setting means for one image data, different area attributes are assigned to the other areas except for at least one area by the area attribute setting means. For each image data belonging to the imaging means). That is, the same area attribute may exist between image data having different data attributes.
[0016]
Thereby, a plurality of areas can be identified for each image data belonging to each imaging means. Needless to say, different region attributes may be set for all regions of one image data.
[0017]
Therefore, in the present image processing apparatus, it is possible to selectively obtain a plurality of images for each region (having different field angle ranges) according to the region attributes from a plurality of image data belonging to different imaging units.
[0018]
That is, in the present image processing apparatus, a range corresponding to the viewable angle of view can be set for each image data belonging to each imaging means. For example, based on two image data obtained by imaging two persons from different directions. One person can be provided with the whole image by one imaging means and the partial image by the other imaging means, and the other person can be provided with the partial image by one imaging means and the whole image by the other imaging means. It becomes possible.
[0019]
Thus, in the image processing apparatus according to the second aspect, the output angle of view range in the image data can be set. That is, image data obtained by photographing can be used effectively.
[0020]
An image processing apparatus according to a third aspect of the present invention is the image processing apparatus according to the first or second aspect, wherein the output request according to the area attribute or the output request according to the area attribute belonging to the imaging means Is further provided with output control means for outputting an image of an area corresponding to the area attribute.
[0021]
In the image processing apparatus according to claim 3, when the output control unit receives an output request according to the region attribute for each region set in the image data or an output request according to the region attribute belonging to the imaging unit, An image corresponding to the request is output.
[0022]
Specifically, when an output request corresponding to the region attribute set by the region attribute setting unit is input, the image processing apparatus dependent on claim 1 sets the region (view angle range) corresponding to the region attribute. Output an image.
[0023]
That is, for example, in response to an output request by one person who is given identification information (ID) corresponding to the first region attribute based on image data obtained by imaging two persons, the first attribute is set. A second area corresponding to the second attribute is output in response to an output request by the other person who outputs an image of the corresponding first area (for example, the entire image) and is given an ID corresponding to the second area attribute. Images (for example, partial images) can be provided.
[0024]
On the other hand, when the output request corresponding to the region attribute belonging to one image pickup unit is input, the image processing apparatus dependent on claim 2 is configured to display the image data corresponding to the region attribute in the image data belonging to the image pickup unit. Outputs the image of the angle of view area
[0025]
That is, for example, one person who is given an ID corresponding to the first region attribute belonging to the first imaging means based on two image data obtained by imaging two persons from different directions by the two imaging means In response to the output request, the whole image corresponding to the first area attribute in the image data belonging to the first imaging means, and the partial image corresponding to the first area attribute in the image data belonging to the second imaging means. In response to an output request by the other person who is given an ID corresponding to the second area attribute belonging to the second imaging means, the second area in the image data belonging to the second imaging means It is possible to provide a whole image corresponding to the attribute and a partial image corresponding to the second region attribute in the image data belonging to the first imaging means.
[0026]
In this way, the image processing apparatus according to the third aspect can change and output the field angle range in the image data according to the request.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
A roller coaster movie shooting system 10 to which an image processing apparatus according to an embodiment of the present invention is applied will be described with reference to FIGS.
[0028]
FIG. 1 is a block diagram showing a schematic overall configuration of a roller coaster movie shooting system 10. As shown in this figure, the roller coaster movie shooting system 10 includes an omnidirectional camera 12 as an imaging means.
[0029]
A plurality of omnidirectional cameras 12 are provided for each seat of a roller coaster 14 to be described later. Hereinafter, two omnidirectional cameras 12 shown in FIG. 1 among the plurality of omnidirectional cameras 12 will be described as omnidirectional cameras 12A and 12B, respectively.
[0030]
Each omnidirectional camera 12 including the omnidirectional cameras 12A and 12B can transmit image data of a captured image to a center server 20 as an image processing device by wireless communication (a wireless communication device (not shown)). The center server 20 is connected to a personal computer (hereinafter referred to as a personal computer) 40 that functions as an image call display device via, for example, a network.
[0031]
The center server 20 includes an image processing unit 22 to which data is transmitted from each omnidirectional camera 12, and an output control unit 24 as output control means connected to the image processing unit 22 and the personal computer 40. Has been. The image processing unit 22 includes a plurality of sub image processing units 26 respectively corresponding to the plurality of omnidirectional cameras 12.
[0032]
The sub image processing unit 26A includes an image memory 28A serving as a storage unit that stores image data transmitted from the omnidirectional camera 12A, and a sub control unit serving as an area setting unit and an attribute setting unit connected to the image memory 28A. 30A, and an area template memory 32A and an area attribute memory 34A each connected to the sub-control unit 30A. The sub control unit 30A is connected to the output control unit 24.
[0033]
On the other hand, the sub image processing unit 26B includes an image memory 28B serving as a storage unit that stores image data transmitted from the omnidirectional camera 12B, and a sub unit serving as an area setting unit and an attribute setting unit connected to the image memory 28B. The controller 30B includes an area template memory 32B and an area attribute memory 34B connected to the sub-controller 30B. The sub-control unit 30B is connected to the output control unit 24.
[0034]
That is, in the image processing unit 22, the sub image processing units 26A and 26B process the image data of the images taken by the omnidirectional cameras 12A and 12B stored in the image memories 28A and 28B in the sub control units 30A and 30B, respectively. Then, image data corresponding to an image based on a request from the personal computer 40 via the output control unit 24 is output to the personal computer 40 via the output control unit 24.
[0035]
The other sub image processing units 26 are configured in the same manner as the sub image processing units 26A and 26B.
[0036]
In the personal computer 40, a CPU, ROM, RAM, and input / output ports are connected so that commands can be exchanged, and a display D as a display unit and electronic devices such as a keyboard and a mouse as input devices are connected to the input / output ports. It is configured.
[0037]
As shown in FIG. 2, the omnidirectional camera 12 is provided in front of each seat of the roller coaster 14 traveling on the rail R, and a moving image of the entire period during which the roller coaster 14 is driven (running). An image is taken. That is, the roller coaster movie shooting system 10 includes a plurality of omnidirectional cameras 12, and different camera IDs (camera identification information) are set for the plurality of omnidirectional cameras 12.
[0038]
In this embodiment, two omnidirectional cameras 12 corresponding to the seats adjacent to the left and right of the roller coaster 14 are paired. Hereinafter, in the front row of the roller coaster 14, the front of the right seat in the traveling direction in which the occupant P1 is seated The omnidirectional camera 12 arranged in the (front) will be referred to as an omnidirectional camera 12A, and the omnidirectional camera 12 arranged in front of the left seat on which the occupant P2 is seated will be described as an omnidirectional camera 12B.
[0039]
The camera ID 01 is set for the omnidirectional camera 12A, and the camera ID 02 is set for the omnidirectional camera 12B. Further, a requester ID01 corresponding to the camera ID01 is given to the occupant P1, and a requester ID02 corresponding to the camera ID02 is given to the occupant P2.
[0040]
As shown in FIG. 3, the omnidirectional cameras 12A and 12B (including the omnidirectional cameras 12) include a lens 16 that is an optical imaging unit and a CCD 18 that is a charge coupled device. An optical moving image in a range including a range of 360 ° along a plane orthogonal to the axis of is picked up and converted into image data (digital information).
[0041]
The omnidirectional cameras 12 </ b> A and 12 </ b> B are arranged in front of each seat so that the axial direction of the lens 16 coincides with the vertical direction of the roller coaster 14. As a result, the imaging (viewing angle) range of the omnidirectional camera 12A includes the occupant P1 seated in the installed right seat and the occupant P2 seated next to the occupant P1.
[0042]
An annular image G shown in FIG. 7 is an example of an image (one frame of a moving image) captured by the omnidirectional camera 12A. The range of angles of view includes rails for the passengers P1, P2 and the roller coaster 14. R and the like are included. Although not shown, the field angle range of the image captured by the omnidirectional camera 12B includes the occupant P2 seated in the left seat, the occupant P1 seated next to the occupant P2, the rail R, and the like. It is like that.
[0043]
The image data of the images captured by the omnidirectional cameras 12A and 12B is transmitted to the center server 20, and is subjected to image processing by the sub image processing units 26A and 26B.
[0044]
The image memories 28A and 28B of the sub-image processing units 26A and 26B are configured so as to sequentially store image data of annular moving images (belonging to the omnidirectional cameras 12A and 12B) input from the omnidirectional cameras 12A and 12B, respectively. It has become. The area template memory 32A stores an area template 36A shown as a conceptual diagram in FIG. 6A, and the area template memory 32B stores an area template 36B shown as a conceptual diagram in FIG. 6B. Has been.
[0045]
The area template 36A includes an annular field angle area A1 corresponding to the entire area of the image captured by the omnidirectional camera 12A having an annular field angle range, and a substantially fan-shaped field angle area that is a part of the field angle area A1. A2 is preset. The field angle area A2 is set substantially corresponding to the field angle range occupied by the occupant P2 in an image captured by the omnidirectional camera 12A (for example, the image G).
[0046]
Similarly, the area template 36B includes an annular field angle area B2 corresponding to the entire area of the image captured by the omnidirectional camera 12A having an annular field angle range, and a substantially fan-shaped area that is a part of the field angle area B2. An angle of view area B1 is set in advance. The field angle area B1 is set substantially corresponding to the field angle occupied by the occupant P1 in the image captured by the omnidirectional camera 12B.
[0047]
Then, the sub-control unit 30A uses the area template 36A to set the view angle area A1 and the view angle area A2 in the image data (moving image data including the image G) stored in the image memory 28A, and Based on the attribute information set in the area attribute memory 34A, the area ID 01 corresponding to the requester ID 01 (occupant P1) is set in the angle of view area A1, and the requester ID 02 (occupant P2) is set in the angle of view area A2. The area ID 02 corresponding to is set.
[0048]
On the other hand, the sub-control unit 30B uses the area template 36B to set the view angle area B2 and the view angle area B1 in the image data stored in the image memory 28B, and the attributes set in the area attribute memory 34B. Based on the information, an area ID 02 corresponding to the requester ID 02 (occupant P2) is set in the view angle area B2, and an area ID 01 corresponding to the requester ID 01 (occupant P1) is set in the view angle area B1. It is configured.
[0049]
In other words, the occupant P1 has an angle-of-view area A1 that is a full-angle range of an image belonging to the omnidirectional camera 12A disposed in front of the occupant P1, and an omnidirectional camera 12B disposed in front of the occupant P2 seated next to the occupant Can be referred to (viewed) in the field of view area B1 corresponding to the field of view range occupied by the self, and the occupant P2 corresponds to the field of view occupied by the self among the images belonging to the omnidirectional camera 12A. It is possible to refer to the view angle area A2 and the view angle area B2 that is the entire view angle range of the image belonging to the omnidirectional camera 12B. These referring methods will be described later.
[0050]
An image output program 38 is stored in the output control unit 24 of the center server 20. The output control unit 24 is configured to output image data in an angle of view range corresponding to a requested image from the image browsing software (program) 42 stored in the personal computer 40 to the personal computer 40.
[0051]
Hereinafter, the approximate functions of the image output program 38 and the image browsing software 42 will be described.
(Configuration) will be described based on the flowcharts shown in FIGS.
[0052]
As shown in FIG. 4, when activated, the image output program 38 determines whether or not there is an image output request from the personal computer 40 (image viewing software 42) in step 44. Proceeding to 46, the camera ID corresponding to the requested image is identified based on the request from the image browsing software 42, and the process proceeds to step 48 to identify the requester ID of the image requester.
[0053]
When the camera ID and the requester ID are specified, the process proceeds to step 50, where it is determined whether the camera ID and the requester ID match, and the camera ID and the requester ID match. In step S52 to step S56, the process proceeds to a main image conversion step group. On the other hand, if the camera ID does not match the requester ID, the process proceeds to a sub-image conversion step group consisting of step 60 to step 64.
[0054]
In step 52, the camera ID is specified based on the camera ID specified in step 46. That is, based on the camera ID, the sub image processing unit 26 in which the image data (image data in which the area ID is set) belonging to the omnidirectional camera 12 for which image output is requested is selected. For example, when the image requester (occupant P1) having the requester ID01 requests an image belonging to the omnidirectional camera 12A with the camera ID01, the sub image processing unit 26A is selected.
[0055]
In step 54, an area (image data) to be output in the image is extracted based on the requester ID. That is, an angle of view area to which an area ID that matches the requester ID is assigned is selected. In the present embodiment, when the camera ID and the requester ID match, main image data corresponding to the view angle area that is the entire range of the image belonging to the omnidirectional camera 12 (for example, the view angle area A1). Alternatively, image data corresponding to an image having an angle of view range of the angle of view area B1) is selected.
[0056]
In step 56, the main image data in the field of view area selected in step 54 is formatted, that is, the image data corresponding to the annular image by the omnidirectional camera 12 is corrected into a rectangular panorama image and corrected as displayable image data. It is like that. The formatted main image data is output to the personal computer 40 in step 58.
[0057]
On the other hand, in step 60, the camera ID is set based on the camera ID specified in step 46. That is, based on the camera ID, the sub image processing unit 26 in which the image data (image data in which the area ID is set) belonging to the omnidirectional camera 12 requested to output an image is selected is selected. For example, when the viewer (occupant P2) having the requester ID 02 requests image data of the omnidirectional camera 12A with the camera ID 01, the sub image processing unit 26A is selected.
[0058]
In step 62, an area (image data) to be output in the image data is extracted based on the requester ID. That is, an angle of view area to which an area ID that matches the requester ID is assigned is selected. In the present embodiment, if the camera ID and the requester ID do not match, the sub-image data of the angle-of-view area occupied by the image requester in the image belonging to the omnidirectional camera 12 having the camera ID specified in step 60. (For example, image data corresponding to an image having a field angle range of the field angle area A2 or the field angle area B2) is selected.
[0059]
In step 64, the sub-image data of the field angle area selected in step 62 is formatted. The formatted sub-image data is output to the personal computer 40 at step 58.
[0060]
Further, as shown in FIG. 5, when the image requester starts up by inputting his requester ID, the image viewing software 42 is activated in step 70 by the camera ID corresponding to his requester ID. It is determined whether or not the reproduction of the image of the omnidirectional camera 12 having the above is requested.
[0061]
If the image requester has requested reproduction of an image by the omnidirectional camera 12 (own camera) of the camera ID corresponding to the requester ID of the user, the process proceeds to step 72, and the camera ID of the own camera and the requester The ID is output to the center server 20 (image output program 38 of the output control unit 24). If it is determined in step 74 that there is a response (output of image data) from the center server 20, the image data (in this case, the requester ID matches the camera ID), An image based on (data) is reproduced on a display D as a display device constituting the personal computer 40.
[0062]
On the other hand, if it is determined in step 70 that the image requester has not requested an image from the omnidirectional camera 12 having the camera ID corresponding to its own requester ID, the process proceeds to step 78 and another camera ID is obtained. It is determined whether or not the reproduction of an image by the omnidirectional camera 12 (other camera) having is requested.
[0063]
If the image requester requests an image from another camera, the camera ID of the other camera is specified in step 80. In the present embodiment, the other camera image that can be viewed by the image requester is an image belonging to the omnidirectional camera 12 installed adjacent to the omnidirectional camera 12 of the camera ID corresponding to the requester ID of the user. Based on the requester ID, the camera ID of another camera installed adjacent to the own camera is specified. In step 82, the camera ID and requester ID of the specified other camera are output to the center server 20.
[0064]
Further, if it is determined in step 74 that there is a response from the center server 20, an image based on the image data (in this case, the requester ID does not match the camera ID, so that the sub-image data) is obtained. It is played back on the display D.
[0065]
Next, the operation of the present embodiment will be described.
[0066]
In the roller coaster movie photographing system 10 having the above-described configuration, when the roller coaster 14 on which passengers including the passengers P1 and P2 get on departs, the omnidirectional cameras 12 start capturing moving images (generating image data). And when the roller coaster 14 stops, the imaging (generation of image data) by each omnidirectional camera 12 is completed.
[0067]
The image data of the image captured by each omnidirectional camera 12 generated during this time is transmitted to the image processing unit 22 of the center server 20 by wireless communication. Image data belonging to the omnidirectional camera 12A is stored in the image memory 28A of the sub image processing unit 26A. Then, the sub-control unit 30A sets the field angle area A1 and the field angle area A2 to the image data, and sets area IDs 01 and 02 for the field angle areas A1 and A2 (see FIG. 7).
[0068]
The image data belonging to the omnidirectional camera 12B is stored in the image memory 28B of the sub image processing unit 26B. The sub-control unit 30B sets the field angle area B2 and the field angle area B1 in the image data, and sets field IDs 02 and 01 for the field angle areas B2 and B1, respectively.
[0069]
On the other hand, each passenger who gets off the roller coaster 14 is given a requester ID corresponding to the camera ID of the omnidirectional camera 12 arranged in front of his seat (front). That is, the requester ID 01 corresponding to the camera ID 01 is given to the occupant P1, and the requester ID 02 corresponding to the camera ID 02 is given to the occupant P2. Each requester ID includes information for calling up its own image such as date information and time (or driving times) information.
[0070]
Hereinafter, as an example, referring to FIG. 8 and FIG. 9, when the passenger P1 reproduces an image on the display D of the personal computer 40 after getting off the roller coaster 14, the passenger P1 after getting off is set as the image requester P1. explain. The images shown in FIGS. 8 and 9 correspond to the image G in FIG.
[0071]
When the image requester P1 operates the personal computer 40, inputs his requester ID01 and starts up the image browsing software 42, a window 84 as shown in FIG. At this time, the requested image is not displayed on the image display unit 86 arranged at the center of the window 84.
[0072]
When the image requester P1 clicks the own camera selection button 88 in the window 84, in the image browsing software 42, in step 70, the image requester P1 uses the omnidirectional camera 12A having the camera ID01 corresponding to his requester ID01. It is determined that image reproduction is requested, and the camera ID 01 and the requester ID 01 are output to the center server 20 in step 72.
[0073]
Then, the image output program 38 of the output control unit 24 constituting the center server 20 determines that an image request has been made in step 44, proceeds to step 46, specifies the camera ID01, proceeds to step 48, and sets the requester ID01. Identify. In step 50, it is determined that the camera ID 01 matches the requester ID 01, and the process proceeds to the main image conversion step group.
[0074]
In step 52, the sub image processing unit 26A corresponding to the omnidirectional camera 12A is selected based on the camera ID01, and in step 54, the view angle area A1 having the area ID01 is extracted (selected) based on the requester ID01. In step 56, the main image data corresponding to the field angle area A1 is formatted, and the formatted main image data is output to the image browsing software 42 in step 58.
[0075]
Then, the image browsing software 42 determines that a response from the center server 20 has been made in step 74, and in step 76, based on the main image data in the image display unit 86 of the window 84 displayed on the display D. Display an image. An example of this image is shown in FIG. The main image data includes the entire field angle range of the omnidirectional camera 12A having an annular field angle range of 360 ° (entire range panorama developed by the above format). In the image display unit 86, FIG. As shown, a part of the field angle range is reproduced (displayed).
[0076]
In this image shown in FIG. 8, when an occupant (image requester) P1 and an occupant P2 are both displayed, and the occupants P1 and P2 are in close acquaintances such as lovers, the image requester P1 In addition to the self image, it is possible to enjoy the expression (change) of the occupant P2 from an oblique front. Further, in the image browsing software 42, when the viewing angle change button 90 in the window 84 is appropriately clicked, the images as shown in FIGS. 9A to 9C are reproduced on the image display unit 86.
[0077]
FIG. 9A shows an image in the traveling direction of the roller coaster 14, and a realistic video of the roller coaster 14 can be enjoyed. FIG. 9B shows an image when only the occupant P2 sitting next to the image requester P1 is displayed. Also in this case, the image requester P1 can enjoy the expression (change) of the occupant P2 from an oblique front. FIG. 9C shows a front image of the image requester P1.
[0078]
Note that the image in FIG. 9B corresponds to the other camera image (image of the view angle area A2) when the image requester P2 who is the occupant P2 clicks the other camera selection button 92, and the image request is made. The persons P1 and P2 can share this image.
[0079]
On the other hand, when the image requester P1 clicks the other camera selection button 92 in the window 84, the image browsing software 42 determines in step 70 that the own camera image is not requested, and proceeds to step 78. It is determined that another camera image is requested. Then, in step 80, based on the requester ID 01 of the image requester P1, another camera corresponding to the requester ID 01 corresponds to the occupant P2 (requester ID 02) sitting next to the image requester P1. The camera ID 02 is identified as the omnidirectional camera 12B, and the camera ID 02 and the requester ID 01 are output to the center server 20 in step 82.
[0080]
Then, the image output program 38 of the output control unit 24 constituting the center server 20 determines that an image request has been made in step 44, proceeds to step 46, specifies the camera ID 02, proceeds to step 48, and sets the requester ID 01. Identify. In step 50, it is determined that the camera ID 02 and the requester ID 01 do not match, and the process proceeds to the sub-image conversion step group.
[0081]
In step 60, the sub image processing unit 26B corresponding to the omnidirectional camera 12B is selected based on the camera ID02, and in step 62, the field angle area B1 having the area ID01 is extracted (selected) based on the requester ID01. Then, in step 64, the sub image data corresponding to the view angle area B1 is formatted, and the formatted sub image data is output to the image browsing software 42 in step 58.
[0082]
Then, the image browsing software 42 determines that a response from the center server 20 has been made in step 74, and in step 76, based on the sub-image data in the image display unit 86 of the window 84 displayed on the display D. Display an image. An example of this image is shown in FIG.
[0083]
FIG. 9D shows an image of the occupant (image requester) P1 imaged obliquely from the front by the omnidirectional camera 12B, and displays all images in the view angle region B1, so that the viewing angle change button The viewing angle cannot be changed by 90. Similarly to the image of FIG. 9B, the image requesters P1 and P2 can share the image of FIG. 9D.
[0084]
When the still image recording button 94 on the window 84 is clicked, one frame of the moving image displayed at the moment of the click is recorded as a still image on the personal computer 40, and a plurality of still images (4 in the present embodiment) are recorded. Are displayed in order from the top. The still image can be printed as appropriate.
[0085]
As described above, in the image processing unit 22 (sub-image processing unit 26) constituting the roller coaster movie shooting system 10, a plurality of field angle regions (for example, field angle regions A1, A1) are displayed on the image data of one omnidirectional camera 12. A2) is set, and different attributes (for example, area IDs 01 and 02) are set for the plurality of angle-of-view areas, so that images with different angle-of-view ranges can be output in response to a request from the personal computer 40 or the like. it can.
[0086]
Therefore, for example, as described above, it is possible to set an image that can be shared by the image requesters P1 and P2 and an image that can be viewed only by one image requester, and one image requester can set the other image. The front image of the self that the requester does not want to show can be made invisible to the other image requester.
[0087]
In particular, in the roller coaster movie shooting system 10 including a plurality of omnidirectional cameras 12, the omnidirectional cameras 12 arranged adjacent to each other are configured as a pair, and a different camera ID is set for each omnidirectional camera 12. In addition, since a plurality of angle-of-view areas are set for each image data belonging to each omnidirectional camera 12, for example, the image requester excludes images that other image requesters sitting next to each other do not want to show. You can enjoy images taken by other cameras.
[0088]
Further, the output control unit 24 of the center server 20 constituting the roller coaster movie photographing system 10 has an image output program 38 and outputs based on the requester ID of the image requester and the camera ID to which the requested image belongs. By setting the power image data (camera ID) and the output angle of view range (view angle area based on the area ID corresponding to the requester ID) in the image data, the output image and the A function to change the field of view range of the image is realized. That is, for example, the center server 20 has a function of allowing the image requester to enjoy an image of the entire range by the own camera and a partial image by the other camera (an image excluding the own front image that the other image requester does not want to show to the other person). Realized.
[0089]
As described above, in the roller coaster movie shooting system 10 (center server 20) according to the present embodiment, the output angle of view range in the image data can be set, and the angle of view range in the image data is changed and output as required. be able to. That is, image data obtained by photographing can be used effectively.
[0090]
In the above embodiment, for example, the angle of view area A1 and the angle of view area A2 are set to overlap so that adjacent passengers of the roller coaster 14 can share some images. The present invention is not limited to this, and for example, a plurality of field angle regions may be set so as to provide occupants P1 and P2 with images of completely different field angle ranges. Therefore, for example, one (shared) omnidirectional camera 12 may be installed between the passengers P1 and P2 so that only their own images can be viewed.
[0091]
In the above-described embodiment, two field angle areas are set in image data obtained by one omnidirectional camera 12, but the present invention is not limited to this, and three or more images are included in the image data. A corner area may be set. Therefore, for example, the image shown in FIG. 9A can be an image shared by all the occupants of the roller coaster 14.
[0092]
Further, in the above embodiment, the center server 20 is configured to output an image via a network or the like. However, the present invention is not limited to this, for example, according to the desire of an occupant (image requester), The occupant's viewable image data (with each ID) may be recorded on a recording medium such as a CD-ROM. In this case, the image browsing software 42 can be stored in the CD-ROM or the like.
[0093]
Furthermore, in the above embodiment, the omnidirectional camera 12 is provided as the imaging means. However, the present invention is not limited to this, and the imaging means has a predetermined angle of view (imaging area). Alternatively, it may be configured to capture a still image.
[0094]
Needless to say, the image processing apparatus according to the present invention is not limited to the configuration applied to the roller coaster movie photographing system 10.
[0095]
【The invention's effect】
As described above, the image processing apparatus according to the present invention has an excellent effect that image data obtained by photographing can be used effectively.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic overall configuration of a roller coaster movie shooting system to which an image processing apparatus according to an embodiment of the present invention is applied, and a personal computer connected to the roller coaster movie shooting system.
FIG. 2 is a perspective view showing an installation state of an omnidirectional camera constituting the roller coaster movie shooting system 10 on a roller coaster.
FIG. 3 is a conceptual configuration diagram of an omnidirectional camera constituting the roller coaster movie shooting system 10;
FIG. 4 is a flowchart of an image output program stored in an output control unit constituting the roller coaster movie shooting system.
FIG. 5 is a flowchart of image browsing software of a personal computer connected to a roller coaster movie shooting system.
6A and 6B are diagrams showing region templates stored in a center server that constitutes the roller coaster movie shooting system 10, and FIG. 6A is a conceptual diagram of region templates corresponding to image data of one omnidirectional camera; B) is a conceptual diagram of an area template corresponding to the image data of the other omnidirectional camera.
7 is a diagram showing an example of an image captured by an omnidirectional camera constituting the roller coaster movie shooting system 10. FIG.
FIG. 8 is a diagram illustrating a main image viewing state by a personal computer connected to the roller coaster movie shooting system.
FIGS. 9A and 9B are diagrams showing an image browsing state by a personal computer connected to the roller coaster movie shooting system, in which FIG. 9A shows the main image when the viewing angle of the main image is set in front of the roller coaster, and FIG. (C) is a diagram showing a case where the viewing angle of the main image is set in front of itself, and (D) is a diagram showing a case where the sub-image is reproduced.
[Explanation of symbols]
10 Roller coaster movie shooting system
12 Omnidirectional camera (imaging means)
20 Center server (image processing device)
22 Image processing unit (image processing device)
24 Output control unit (output control means)
26 Sub-image processing unit (image processing device)
28 Image memory (storage means)
30 sub-control unit (area setting means, attribute setting means)
32 area template memory (area setting means)
34 Area attribute memory (area setting means)
38 Image output program (output control means)

Claims (3)

撮像手段による撮像画像の画像データを記憶する記憶手段と、
前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、
少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる領域属性を付与する領域属性設定手段と、
を備えた画像処理装置。
Storage means for storing image data of an image captured by the imaging means;
A region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the imaging unit;
Region attribute setting means for assigning different region attributes to at least one of the plurality of regions excluding one region;
An image processing apparatus.
複数の撮像手段による撮像画像の複数の画像データを、それぞれの撮像手段に属する画像データとしてそれぞれ記憶する記憶手段と、
前記複数の撮像手段に属する画像データ毎に、前記撮像手段の画角に含まれる異なる画角範囲の各々に対応する複数の前記撮像画像における領域を、前記画像データに設定する領域設定手段と、
前記複数の撮像手段に属する画像データ毎に、少なくとも前記複数の領域から1つの領域を除いた他の領域に、それぞれ異なる属性を付与する領域属性設定手段と、
を備えた画像処理装置。
Storage means for storing a plurality of image data of images taken by a plurality of imaging means as image data belonging to the respective imaging means;
A region setting unit that sets, in the image data, a region in the plurality of captured images corresponding to each of different field angle ranges included in the field angle of the image capturing unit for each image data belonging to the plurality of image capturing units;
Area attribute setting means for assigning different attributes to at least other areas excluding one area from the plurality of areas for each image data belonging to the plurality of imaging means;
An image processing apparatus.
前記領域属性に応じた出力要求、または前記撮像手段に属する前記領域属性に応じた出力要求が入力されると、該領域属性に対応した領域の画像を出力する出力制御手段を、さらに備えた請求項1または請求項2記載の画像処理装置。And an output control unit configured to output an image of an area corresponding to the area attribute when an output request corresponding to the area attribute or an output request corresponding to the area attribute belonging to the imaging unit is input. The image processing apparatus according to claim 1 or 2.
JP2002243050A 2002-08-23 2002-08-23 Image processor Pending JP2004088197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002243050A JP2004088197A (en) 2002-08-23 2002-08-23 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002243050A JP2004088197A (en) 2002-08-23 2002-08-23 Image processor

Publications (1)

Publication Number Publication Date
JP2004088197A true JP2004088197A (en) 2004-03-18

Family

ID=32051917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002243050A Pending JP2004088197A (en) 2002-08-23 2002-08-23 Image processor

Country Status (1)

Country Link
JP (1) JP2004088197A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108356A (en) * 2015-12-11 2017-06-15 株式会社リコー Image management system, image management method and program
CN113706723A (en) * 2021-08-23 2021-11-26 维沃移动通信有限公司 Image processing method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108356A (en) * 2015-12-11 2017-06-15 株式会社リコー Image management system, image management method and program
CN113706723A (en) * 2021-08-23 2021-11-26 维沃移动通信有限公司 Image processing method and device

Similar Documents

Publication Publication Date Title
JP5115139B2 (en) Composition determination apparatus, composition determination method, and program
US11277585B2 (en) Content distribution server, content distribution system, content distribution method, and program
JP4894712B2 (en) Composition determination apparatus, composition determination method, and program
JP6178524B2 (en) Panoramic video playback device, panoramic video editing device, panoramic video playback method, panoramic video playback program, panoramic video playback system, and panoramic video transmission device
US20220167021A1 (en) Virtual Reality Viewing System
US20060115235A1 (en) Moving picture recording apparatus and moving picture reproducing apparatus
TWI255141B (en) Method and system for real-time interactive video
JP2013509785A (en) Video providing system and method
JP5278840B1 (en) Photo shooting game system, server, image providing method and image providing program.
US20230079542A1 (en) Apparatus for use in the performance of cognitive behaviour therapy and method of performance
WO2020059327A1 (en) Information processing device, information processing method, and program
KR101839406B1 (en) Display apparatus and control method thereof
KR20190031220A (en) System and method for providing virtual reality content
JPH11327005A (en) Theme park system
JP2023153790A (en) program
JP2004088197A (en) Image processor
JP7026364B1 (en) Imaging program and computer
JP2010074399A (en) Device for determining composition, method of determining composition, image processing unit, method of processing image, and program
JP5440588B2 (en) Composition determination apparatus, composition determination method, and program
JP2008301399A (en) Television conference apparatus, television conference method, television conference system, computer program and recording medium
JP2004297363A (en) Remote photographing system
JP5098917B2 (en) Composition determination apparatus, composition determination method, and program
WO2006109459A1 (en) Person imaging device and person imaging method
JP2020071519A (en) Guide device and guide system
JP6829348B1 (en) Shooting control method, information processing device, program, and shooting system