JP2020068513A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2020068513A
JP2020068513A JP2018202077A JP2018202077A JP2020068513A JP 2020068513 A JP2020068513 A JP 2020068513A JP 2018202077 A JP2018202077 A JP 2018202077A JP 2018202077 A JP2018202077 A JP 2018202077A JP 2020068513 A JP2020068513 A JP 2020068513A
Authority
JP
Japan
Prior art keywords
image
panoramic image
base point
image processing
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018202077A
Other languages
English (en)
Other versions
JP7249755B2 (ja
JP2020068513A5 (ja
Inventor
拓 小笠原
Hiroshi Ogasawara
拓 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018202077A priority Critical patent/JP7249755B2/ja
Priority to PCT/JP2019/035950 priority patent/WO2020084951A1/ja
Publication of JP2020068513A publication Critical patent/JP2020068513A/ja
Priority to US17/231,036 priority patent/US11627251B2/en
Publication of JP2020068513A5 publication Critical patent/JP2020068513A5/ja
Application granted granted Critical
Publication of JP7249755B2 publication Critical patent/JP7249755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】より自由度の高いパノラマ画像を提供することを可能にする。【解決手段】画像処理装置は、撮像領域を複数の方向から撮像する複数のカメラによる撮像で得られた複数の画像を取得する取得部と、取得部により取得された画像に基づいて、撮像領域内の位置を基点とするパノラマ画像を生成する生成部と、を備える。【選択図】 図5

Description

本発明は画像処理装置および画像処理方法に関する。
最大360度の範囲内の画像を自在に閲覧可能であるパノラマ画像が注目されている。パノラマ画像には、表示装置に表示される範囲よりも広い範囲の画像が含まれており、視聴者は再生時にパノラマ画像における任意の方向の画像を選ぶことができる。なお、本明細書では、画像という表記は、1フレームで構成される画像(静止画)、複数フレームから構成される動画または映像を含む。
特許文献1は、パノラマ画像を生成し、その部分領域をクリッピングする技術について開示している。特許文献1では、広角レンズを正面と背面に設けた撮像装置を用いて撮像を行い、その撮像装置の置かれた場所を基点とするパノラマ画像を生成する。ここで、基点とは、パノラマ画像の生成に係る基準位置である。例えば、360度の風景を対象とするパノラマ画像の場合は、その中心位置が基点となる。
特開2017−005339号公報
しかしながら、特許文献1では、撮像装置の位置を基点としたパノラマ画像しか生成することができない。そのため、撮像装置の設置が困難な場所を基点とするパノラマ画像を生成すること、およびそれを閲覧することは困難であった。例えば、スタジアムでのサッカー等の試合中に、試合が行われているフィールド内にパノラマ画像を取得するための撮像装置を持って入ることは、試合を邪魔する可能性もあり難しい。そのため、試合中のフィールド内における選手の目前の位置などを基点とするパノラマ画像の生成や閲覧は困難であった。
本発明は、上記の課題に鑑み、より自由度の高いパノラマ画像を提供できるようにすることを目的とする。
本発明の一態様による画像処理装置は、
撮像領域を複数の方向から撮像する複数のカメラによる撮像で得られた複数の画像を取得する取得手段と、
前記取得手段により取得された画像に基づいて、前記撮像領域内の位置を基点とするパノラマ画像を生成する生成手段と、を備える。
本発明によれば、より自由度の高いパノラマ画像を提供することが可能となる。
(a)は実施形態によるパノラマ画像生成システムの構成例を示す図、(b)はパノラマ画像生成システムにおけるセンサシステムと仮想カメラの配置の例を示す図。 (a)は画像処理装置の機能構成例を示すブロック図、(b)は画像処理装置のハードウェア構成例を示すブロック図。 (a)〜(b)はパノラマ画像の基点座標を説明する図、(c)〜(d)は仮想カメラを説明する図。 (a)〜(d)は、仮想カメラを複数生成するための処理を説明する図。 第1実施形態によるパノラマ画像の生成処理を示すフローチャート。 (a)〜(d)はパノラマ画像の出力例を示す図、(e)〜(f)はユーザ端末による閲覧例を示す図。 (a)〜(c)は、第2実施形態によるパノラマ画像の基点を指定する処理を説明する図。 第5実施形態による画像処理装置の機能構成例を示すブロック図。 第5実施形態によるパノラマ画像の生成処理を示すフローチャート。 (a)〜(c)は第5実施形態によるパノラマ画像の出力例を示す図。 パノラマ画像を説明する図。
以下、本発明の実施形態について添付の図面を参照して説明する。なお、以下に説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、本発明は記載された実施形態に限られるものではない。
[第1実施形態]
第1実施形態では、撮像領域を複数のカメラで複数の方向から撮像することで得られる画像(多視点画像)に基づいて、それぞれ視線方向が異なる複数の仮想視点に応じた複数の仮想視点画像を生成し、それらを用いてパノラマ画像を生成する処理に関して説明する。
まず、本明細書に記載されるパノラマ画像について定義する。パノラマ画像とは基点(パノラマ画像の生成に係る基準位置)を視点位置とした複数の視線方向の画像を含む画像である。例えば、図11に示されるような全周のパノラマ画像1101(360°画像)の場合、基点1102を中心とした0°〜±180°の範囲の複数の視線方向に対応した画像が連続的に接続された画像となる。パノラマ画像1101の両端は連続しており、360°の範囲の任意の視線方向の画像が得られることになる。なお、パノラマ画像は全周に対応していなくてもよい。例えば、0°〜±90°の視線方向に対応した画像(180°のパノラマ画像)であってもよい。また、図11では、視線方向が水平方向に回転(視線方向の方位角が変化)することで得られる複数の視線方向に対応する画像を連続させているが、パノラマ画像は視線方向が垂直方向に回転(視線方向の仰俯角が変化)することで得られる複数の視線方向に対応する画像を連続させた画像であってもよい。また、パノラマ画像は、全天球画像のように、視線方向が3次元的に変化することで得られる複数の視線方向に対応する画像を連続させた画像であってもよい。表示装置では、パノラマ画像に対応する視線方向の範囲に含まれる任意の視線方向の画像を当該パノラマ画像から得ることができる。すなわち、表示装置に表示される画像はパノラマ画像の一部分であり、パノラマ画像のどの部分を表示させるかは任意に指定可能である。なお、パノラマ画像の全体を表示装置に表示できるようにしてもよい。
以下、第1実施形態によるパノラマ画像生成システムの全体について図1(a)、(b)を用いて説明する。また、パノラマ画像システムを構成する画像処理装置104の構成について図2(a)、(b)を用いて説明する。画像処理装置104は、多視点画像からパノラマ画像を生成する処理を行う。パノラマ画像の生成処理に使用する座標系や仮想カメラについては図3(a)〜(d)を参照して説明する。また、複数の仮想カメラ(仮想視点)を生成する処理については図4(a)〜(d)を参照して説明する。複数の仮想カメラから複数の仮想視点画像を描画する処理と、それらを合わせてパノラマ画像を生成する処理については、図5のフローチャートを用いて説明する。さらに、パノラマ画像の生成例および閲覧例を図6(a)〜(f)を参照して説明する。
(パノラマ画像システムの構成と配置)
図1(a)は、第1実施形態におけるパノラマ画像生成システムを説明するブロック図である。パノラマ画像生成システムは、N台のセンサシステムとして101a、101b、...101nを含み、1台のセンサシステムは少なくとも1台のカメラを有する。なお、特にN個のセンサシステム101a、101b、...101nを区別する必要がない場合には、センサシステム101と記載する。センサシステム101は、撮像領域を囲むように設置される。センサシステム101の設置例を図1(b)に示す。図1(b)の例では、撮像領域をスタジアムのフィールドとし、それらを囲むようにN台のセンサシステム101が設置されている。なお、パノラマ画像生成システムの設置場所がスタジアムに限られないことは言うまでもなく、例えば、スタジオ等でも設置可能である。
センサシステム101は、それぞれカメラとマイク(不図示)を有する。センサシステム101の各カメラは同期し、撮像領域を撮像する。複数のカメラの同期撮像により得られた画像の集合を多視点画像と呼ぶ。また、センサシステム101の各マイクは同期し音声を集音する。なお、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。画像記録装置102は、センサシステム101から多視点画像、及び、音声を取得し、データベース103に書き込む。画像処理装置104は、データベース103に書き込まれた多視点画像から仮想カメラ106(仮想視点とも呼ぶ)による仮想視点画像を生成する。仮想カメラは、センサシステム101に含まれるどのカメラとも異なる視点で撮像領域(フィールド)を閲覧でき、仮想視点画像の生成に使用される。なお、仮想カメラについては図3の参照により後述される。また、仮想視点画像については図4〜図6の参照により後述される。
基点操作UI105は、パノラマ画像の基点を操作、設定するためのユーザインターフェースを提供する。基点の操作とは、少なくとも基点の座標(基点座標)を変更することである。本実施形態では、例えばキーボードからの座標値入力が用いられる。なお、第2実施形態ではタブレット、第3実施形態ではジョイスティックを用いる例を説明する。第1実施形態の座標値入力は、図3(a)に示す座標系の各成分(x,y,z)の値を入力するものである。座標値は、例えば、キーボード(数値キー)を用いて入力することができる。なお、座標値入力を行わずに、ファイルやメモリから座標値を読み出して基点座標として用いるようにしてもよい。画像処理装置104は、基点操作UI105からパノラマ画像の基点に関する情報(基点座標を含む)を受け付け、それを基にパノラマ画像を生成する。より具体的には、画像処理装置104は、撮像領域を囲む様に配置された複数カメラから取得した多視点画像を用いて、受け付けた基点座標に配置された複数の仮想カメラから得られる複数の仮想視点画像を生成し、それらを合わせてパノラマ画像を生成する。画像処理装置104による処理に関しては、図2〜図6の参照により後述する。
画像処理装置104は、生成したパノラマ画像を配信サーバ111へ送信する。配信サーバ111は、スマートフォンやタブレット等の複数のユーザ端末112へパノラマ画像を配信する。ユーザは、ユーザ端末112を用いて、好みの方向からのパノラマ画像を閲覧する。パノラマ画像の閲覧例については図6(e)(f)により後述する。
(画像処理装置の構成)
図2(a)を参照して、本実施形態による画像処理装置104の機能構成を説明する。パラメータ取得部201は、基点操作UI105からパノラマ画像の基点に関する情報を受け付ける。基点に関する情報には、例えば、パノラマ画像の基点座標等が含まれる。基点座標に用いられる座標系については図3(a)により後述する。また、パノラマ画像の基点座標の例については図3(b)により後述する。仮想カメラ生成部203は、パラメータ取得部201が取得した基点座標を使用し、複数の仮想カメラを生成する。複数の仮想カメラを生成する処理については図3の参照により後述する。三次元モデル生成部202は、データベース103より取得した多視点画像を基に、三次元モデルを生成する。三次元モデルは、例えばVisual Hull等の形状推定方法により生成され、点群で構成される。
仮想視点描画部204は、多視点画像に基づいて、パノラマ画像の基点となる位置から観察される仮想視点画像を描画する。第1実施形態の仮想視点描画部204は、三次元モデル生成部202が生成した三次元モデルを利用して、仮想カメラの位置と姿勢に基づき仮想視点画像を描画する。より具体的には、仮想視点描画部204は、三次元モデルを構成する点毎に多視点画像を選択し、多視点画像から適切な画素値を取得して色付け処理を行う。そして、仮想視点描画部204は、色付け処理された点を三次元空間に配置し、仮想カメラへ投影することで仮想視点画像を生成する。
パノラマ画像生成部205は、描画された仮想視点画像に基づいて、基点から観察されるパノラマ画像を生成する。本実施形態では、パノラマ画像生成部205は、仮想カメラ生成部203へ複数の仮想カメラを生成するように指示し、仮想視点描画部204へ仮想カメラの個数分の仮想視点画像の描画処理を指示する。そして、パノラマ画像生成部205は、仮想視点描画部204により生成された複数の仮想視点画像を用いてパノラマ画像を生成する処理(以下、パノラマ画像生成処理)を行う。パノラマ画像生成処理については図4〜6の参照により後述する。画像出力部206は、生成されたパノラマ画像を配信サーバ111に送信する。複数のユーザ端末112は配信サーバ111からパノラマ画像を受信し、各ユーザはそれを閲覧する。パノラマ画像の閲覧例は図6の参照により後述する。
次に、画像処理装置104のハードウェア構成について説明する。図2(b)は、画像処理装置104のハードウェア構成図である。
CPU(Central Processing Unit)211は、RAM(Random Access Memory)212やROM(Real Only Memory)213に格納されているプログラムやデータを用いて各種の処理を実行する。CPU211は、例えば、画像処理装置104の全体の動作制御や図5のフローチャートに示される処理を実行する。ROM213は、プログラムやデータを保持する。RAM212は、ROM213から読み出されるプログラムやデータを一時的に記憶するワークエリアを有する。また、RAM212は、CPU211が各種処理を実行する際に用いるワークエリアを提供する。
入力部214は、例えば、基点操作UI105から入力情報を受け付ける。外部インターフェース215は、例えば、LAN(Local Area Network)を通じて、データベース103や基点操作UIと情報の送受信を行う。例えば、外部インターフェース215は、パノラマ画像をイーサネット経由で配信サーバ111へ送信する。出力部116は、例えば、ディスプレイやスピーカ等から構成され、オペレータ操作に必要な情報として、生成した仮想視点画像・パノラマ画像や操作UI等を出力する。
(パノラマ画像の基点座標と仮想カメラ)
パノラマ画像の基点座標と、仮想カメラについて説明する。まず、図3(a)(b)を参照して座標系とパノラマ画像の基点座標について説明する。また、図3(c)(d)を参照して本実施形態の仮想カメラについて説明する。
まず、座標系について説明する。座標系を図3(a)に示す。本実施形態では、図3(a)に示す様にx軸・y軸・z軸の3次元空間の直交座標系を用いる。この座標系を撮像領域に設定する。撮像領域は図3(b)に示す様に、例えば、ボール322や選手323等の被写体が位置するスタジアムのフィールド321である。座標系については、原点(0、0、0)をフィールド321の中心へ、x軸をフィールド321の長辺方向へ、y軸をフィールド321の短辺方向へ、z軸をフィールドに対して鉛直方向へ設定する。なお、各軸の方向については、これに限定されない。
図3(a)の座標系を使用し、基点操作UI105がパノラマ画像の基点座標を指定する。指定される基点の位置は、当該位置を視点位置として仮想視点画像を生成することが可能な位置、すなわち複数のカメラによる撮像領域内の位置である。第1実施形態では座標値入力や固定座標値が使用される。例えば、座標値入力で、フィールド321のセンターサークル付近の座標331や、ゴール前付近の座標332が基点の座標として指定される。
次に、図3(c)を参照し、仮想カメラについて説明する。図3(c)に示される四角錐において、頂点が仮想カメラの位置301を表し、頂点を起点とする視線方向のベクトルが仮想カメラの姿勢302を表す。仮想カメラの位置は各軸の成分(x,y,z)で表現され、姿勢は各軸の成分をスカラーとする単位ベクトルで表現される。仮想カメラの姿勢302は、前方クリップ面303と後方クリップ面304の中心点を通るものとする。また、仮想視点描画部204が仮想視点画像に投影する範囲(すなわち仮想視点画像の生成対象の範囲)である、仮想カメラの視錐台は、前方クリップ面303と後方クリップ面に挟まれた空間305である。
次に、図3(d)を参照し、仮想カメラの移動と回転について説明する。仮想カメラは、三次元座標で表現された空間内を移動及び回転する。仮想カメラの移動311は、仮想カメラの位置301の移動であり、各軸の成分(x、y、z)で表現される。仮想カメラの回転312は、図3(a)に示す様に、z軸回りの回転であるヨー(yaw)、x軸回りの回転であるピッチ(pitch)、y軸回りの回転であるロール(roll)で表現される。
(複数の仮想カメラを生成する処理)
図4を参照し、複数の仮想カメラを生成する処理について説明する。仮想カメラ生成部203は、パラメータ取得部201を介して基点操作UI105からパノラマ画像の基点座標を受け取り、受け取った基点座標に基づいて複数の仮想カメラを生成する。本実施形態では、仮想カメラ生成部203は、360度のパノラマ画像を生成するために、図4で説明するような6つの仮想カメラを生成する。パノラマ画像生成部205は、それらの仮想カメラの画像から360度の全周囲に対応するパノラマ画像を生成する。なお、生成する仮想カメラの数は6に限定されないことは言うまでもない。
仮想カメラ生成部203は、受け取ったパノラマ画像の基点座標を、6つの仮想カメラの位置に設定する。また、仮想カメラ生成部203は、6つの仮想カメラの各姿勢を、正面・背面・左・右・上・下の6方向に設定する。以下、具体的に説明する。
図4(a)は、仮想カメラ401を上(z軸)から見た図である。正面方向をx軸方向(1,0,0)とし、仮想カメラ401の姿勢302aのベクトルがそれに設定される。図3(b)の撮像領域であるフィールド321に設定した座標系において、正面方向は図中の右ゴール方向となる。位置301の座標は、パラメータ取得部201が取得したパノラマ動画の基点座標であり、例えば、図3(b)に示した座標331、332である。この基点座標を仮想カメラの位置301とし、まず正面向きの仮想カメラ401が設定される。
他の5つの仮想カメラも、パラメータ取得部201を介して受け取った基点座標に配置される。図4(b)(c)に、6方向の仮想カメラを生成した図を示す。図4(b)は、上(z軸)から見た図であり、図4(c)は、横(y軸)から見た図である。図4(b)には、図4(a)に示した正面向きの仮想カメラ401と、他の3つの仮想カメラ402、403、404が示されている。仮想カメラ402の姿勢302bは左方向で、y軸方向(0,1,0)のベクトルである。仮想カメラ403の姿勢302cは背面方向で、−x軸方向(−1,0,0)のベクトルである。仮想カメラ404の姿勢302dは右方向で、−y軸方向(0,−1,0)のベクトルである。
図4(c)は、y軸方向から見た図であり、図4(a)に示した正面向きの仮想カメラ401と、他の3つの仮想カメラ405、403、406が示されている。なお、仮想カメラ403は図4(b)に示したものである。仮想カメラ405の姿勢302eは上方向で、z軸方向(0,0,1)のベクトルである。仮想カメラ406の姿勢302fは下方向で、−z軸方向(0,0,−1)のベクトルである。
図4(d)に、上記6つの仮想カメラ401〜406を示す。簡単のため、各仮想カメラの位置301、姿勢302a〜302fを図示する。図4(d)に示す様に仮想カメラ401のクリップ面を正方形とすると、仮想カメラ401〜406のクリップ面は立方体の各面となる。先述の様に、仮想カメラ401〜406の姿勢302a〜302fは、順に、正面・左、背面、右、上、下の向きとなる。
仮想視点描画部204は、これら複数の仮想カメラを用いて、複数の仮想視点画像の描画処理を実行する。描画されるこれらの複数の仮想視点画像は、視点位置が同一であり視線方向が異なる複数の仮想視点に応じた仮想視点画像となる。
(パノラマ画像の生成処理)
次に、図5と図6を参照して、第1実施形態におけるパノラマ画像の生成処理について説明する。図5はパノラマ画像の生成処理のフローチャートである。図6(a)は複数の仮想視点画像を示し、図6(b)は図6(a)に示された複数の仮想視点画像から生成されるパノラマ画像を示す。
ステップS501では、パノラマ画像生成部205が、パラメータ取得部201からパノラマ画像の基点座標を取得する。本例では、図3(b)に示したフィールド内のゴール前の座標332をパノラマ画像の基点座標として取得したとする。ステップS502では、パノラマ画像生成部205が、仮想カメラ生成部203を用いて、ステップS501で取得した基点座標から複数の仮想カメラを生成する。複数の仮想カメラを生成する処理は図4で説明したとおりである。ステップS503、ステップS504、ステップS505では、パノラマ画像生成部205が、仮想視点描画部204へ、ステップS502で生成した仮想カメラの台数分の仮想視点画像の描画処理を行うよう指示する。仮想視点描画部204による仮想視点画像の描画処理は上述したとおりである。
ステップS506では、パノラマ画像生成部205が、ステップS504で描画した複数の仮想視点画像を接続する。例えば、パノラマ画像生成部205は、複数の仮想視点画像の各一辺(各端部)が、撮像領域において同地点の画素となる様に、複数の仮想視点画像を接続する。より、具体的には、図4(b)〜(d)に示した様に複数の仮想カメラが立方体になる様に各仮想カメラの姿勢を決定することで、その立方体の展開図は、複数の仮想視点画像を接続した画像となる(図6(a))。
例えば、基点座標を座標332とする例では、複数の仮想視点画像は図6(a)の様に接続される。仮想視点画像601〜606は、仮想カメラ401〜406を用いて描画した画像であり、順に正面・左・背面・左・上・下の方向に対応する。各画像の各一辺は撮像領域の同地点の画素であり、各境目が連続した画像として合わさる。
ステップS507では、パノラマ画像生成部205が、ステップS506で接続した複数の仮想視点画像からパノラマ画像を生成する。本実施形態では、パノラマ画像生成部205は、6面の仮想視点画像からパノラマ画像へ画素単位に対応付けを行う。パノラマ画像のフォーマットは、配信サーバ111が要求する形式となる。例えば、フォーマットは正距円筒図法と呼ばれるものであり、画素単位の対応付けに対応表を用いる。対応表の作成方法は、例えば、球形の地球儀を平面の地図へ対応付ける方法を、6面の画像に適用すればよい。基点座標が変更された場合でも共通の対応表を使用することができる。なお、この対応表はRAM212等に予め格納しておいてもよい。
図6(a)の複数の仮想視点画像から生成されるパノラマ画像は図6(b)となる。言い換えると、図6(b)はゴール前の座標332を基点としたパノラマ画像である。このパノラマ画像は各フレームに360度の全周囲の情報を有し、画像の左端と右端は同じ地点であり連続する。このため、このパノラマ画像は360度画像とも呼ばれる。なお、図3(b)に示したフィールド内のセンターサークル内の座標331の例でも、同様にパノラマ画像を生成可能である。座標331を基点とした複数の仮想視点画像を接続した画像を図6(c)に示す。また、図6(c)に示される画像から生成されるパノラマ画像を図6(d)に示す。
以上のように、第1実施形態のパノラマ画像の生成処理によれば、撮像領域を囲む様に配置された複数カメラにより撮像された多視点画像を用いて、視線方向が異なる複数の仮想視点に応じた複数の仮想視点画像が描画される。そして、それら仮想視点画像を合わせることで、撮像領域の任意位置を基点とするパノラマ画像が生成される。
(ユーザ端末におけるパノラマ画像の閲覧)
ユーザ端末112におけるパノラマ画像の閲覧例に関して説明する。パノラマ画像は、画像出力部206によって配信サーバ111へ送信される。そして、複数のユーザ端末112が配信サーバ111からパノラマ画像を受信して閲覧する。ユーザ端末112は、タブレットやスマートフォンである。配信サーバ111は、通信プロトコルにRTMP(Real Time Message Protocol)等を用いてストリーミング通信する。
配信サーバ111は、配信者からの要求に応じ、パノラマ画像を配信するストリームの識別子(例えば、rtmp://football.com/live/1)を作成する。画像処理装置104は画像出力部206を使用し、その識別子へ接続してパノラマ画像を送信する。ユーザ端末112はその識別子へ接続し、パノラマ画像(ストリーム)を受信する。なお、配信サーバ111は、HTMLで記述されたウェブページにストリーム識別子を埋め込み、配信するようにしてもよい。その場合、ユーザ端末112はそのウェブページへアクセスし、その中でパノラマ画像をRTMPによるストリームで受信してもよい。
以上により、複数のユーザ端末112が同時に配信サーバ111へ接続し、パノラマ画像を閲覧することができる。それぞれのユーザ端末112は、例えばジャイロセンサを有し自身の回転を検知する。ユーザ端末112は検知した回転に合わせ、各々独立して、パノラマ画像における閲覧方向を選択する。つまり、各々のユーザ端末112は、各々が異なる任意の方向でパノラマ画像を閲覧できる。これは本実施形態に限らず、全実施形態で共通である。なお、閲覧方向の指定は、上記(ジャイロセンサ)に限られるものではない。
図6(e)(f)を参照し、ユーザ端末112のパノラマ画像の閲覧例を説明する。複数のユーザ端末112として、異なるタブレット611とタブレット612を使用する。図6(e)は、画像処理装置104が図6(b)のパノラマ画像を配信サーバ111へ送信し、タブレット611が受信し表示したものである。また、図6(f)は、同パノラマ画像を、タブレット612が受信し表示したものである。図6(e)は、ユーザがタブレット611を回転させ、ゴール前でシュートを打つ選手に注目したものである。一方、図6(f)は、別のユーザがタブレット612を回転させ、キーパー等ゴール前で守る選手に注目したものである。この様に、各々のユーザ端末112は、各々が異なる任意方向でパノラマ画像を閲覧できる。当然ながら、1台のタブレットにおいても回転するだけで、図6(e)から図6(f)へ方向を変更しパノラマ画像を閲覧できる。
前述の様に、パノラマ画像は各フレームに360度の情報を保持しており、ユーザ端末112が方向を変更した時に、パノラマ画像の再生成は不要である。ユーザ端末112は既に受信済みのパノラマ画像のフレームを使用すればよい。同様に、仮にユーザ端末112で該フレームを受信後に、配信サーバ111のデータ通信が切断されたとしても、ユーザ端末112は該フレームの閲覧方向を自由に選択できる。
なお、パノラマ画像でなく、1つの仮想視点画像を配信するシステムがある。仮想視点画像は生成時において、撮像領域の任意の位置を対象として画像生成できる。しかしながら、1つの仮想視点画像を配信した場合には、その配信後に複数のユーザ端末で異なる方向を選択することはできない。
以上に述べた様に、第1実施形態によれば、撮像領域を囲む様に配置する複数カメラが撮像した多視点画像を用いて、それぞれ視線方向が異なる複数の仮想視点に応じた複数の仮想視点画像を生成し、それらを合わせて、撮像領域の任意の位置を基点とするパノラマ画像を生成することができる。例えば、スタジアムにおけるスポーツの試合中に、フィールド内の任意の位置を基点としたパノラマ画像を生成することができる。生成されたパノラマ画像において、視聴者は好きな方向を選択することができ、試合中の所望の選手やそのプレイを間近に閲覧できる。
[第2実施形態]
第1実施形態では、ユーザにより入力された座標値が基点の位置に設定される構成を説明した。第2実施形態では、基点操作UI105は、撮像領域の俯瞰画像を表示部に表示し、表示されている俯瞰画像におけるユーザの指示位置に基づいて基点の位置を設定する構成を説明する。第2実施形態では、そのような構成の一例として、表示部にタッチパネルを採用し、タッチパネルへのタッチ入力によりパノラマ画像の基点を指定する構成について説明する。第2実施形態のパノラマ画像生成システム(図1)、画像処理装置104の構成(図2)、画像処理装置104における各処理(図4〜6)は、第1実施形態と同様である。第2実施形態は、基点操作UI105によるパノラマ画像の基点の指定方法が第1実施形態と異なるので、以下では基点の指定方法を主として説明する。
第2実施形態では、基点操作UI105にタッチパネルディスプレイを備えたデバイスを用いる。例えば、タブレットを用いる。基点操作UI105はタッチパネルディスプレイに撮像領域の俯瞰画像を表示する。なお、後述する第3実施形態では、基点操作UIにジョイスティックを使用する。ジョイスティックは三次元空間における移動と回転の両方を同時に指定する方法として一般的である。しかし、ジョイスティックは仮想カメラの動きを緻密に操作できる一方で、操作者がその同時操作に習熟する必要がなる。第2実施形態では、習熟を要求しない簡単なタップ操作のみでパノラマ画像の基点を指定することができる。
(パノラマ画像の基点指定処理)
図7を参照し、パノラマ画像の基点を指定する処理を説明する。図7(a)は、基点操作UI105として用いることが可能なタブレット701を示す。タブレット701は、タッチパネルディスプレイ702を有しており、これは画像を表示可能なLCD装置の上にタッチパネルを重ねたものである。タッチパネルディスプレイ702は、タッチ操作と、操作された位置座標を検出する。タッチパネルディスプレイ702は、検知したタッチ操作や位置座標を例えば基点操作UI105のCPU(不図示)へ定期的に通知する。
基点操作UI105のCPUは、タッチパネルディスプレイ702から通知された情報に基づき、タッチパネルに対してどの様な操作が行なわれたかの判定や、その操作位置の座標を決定する。例えば、タッチ操作として、タッチパネルディスプレイ702を指やペンで触れたこと(以下、タッチインと称する)、指やペンで触れたまま移動していること(以下、ドラッグ)、触れていた指やペンが離れたこと(以下、タッチアウト)、等が判定される。例えば、基点操作UI105のCPUは、タッチインとタッチアウトが短時間で行われた場合にはタップ操作と判定する。なお、判定されるタッチ操作は、これらに限定されない。
なお、タブレット701のタッチパネルは、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、光センサ方式等、様々な方式の内のいずれの方式のものが用いられても良い。また、タブレット701は、タッチパネルディスプレイ702以外に、CPU・RAMや加速度センサ・ジャイロセンサを有するが、一般的なタブレットのハードウェア構成のため、説明を省略する。
図7(b)と(c)を参照し、タッチパネルディスプレイ702を有するタブレット701を用いたパノラマ画像の基点指定処理について説明する。タッチパネルディスプレイ702は、撮像領域の俯瞰画像703を表示する。撮像領域の俯瞰画像703は、直感的な位置把握を容易にする長所がある。
図7(b)(c)において、撮像領域はスタジアム内のフィールドであり、俯瞰画像703は撮像領域のフィールド全体を上から観察したものである。俯瞰画像703は、フィールド上のボール711や人物712を含む。なお、俯瞰画像703としては、例えば、観客席上段やスタジアムの天井に配置したカメラ等で撮影した画像や、同様の位置に配置した仮想視点に応じた仮想視点画像を用いることができる。
図7(b)は、ボール711がフィールド中央のセンターサークルにあり、その付近に対するタップ操作721を受け付けた場合である。タブレット701(または、CPU)は、タップ操作721とそのタップ位置の座標731を検知する。座標731を(x,y)=(x1,y1)とする。z軸の値は、タッチパネルディスプレイ702に表示したスライドバー704を用いて指定する。例えば、スライドバー704によって指定された値を(z)=(z1)とすると、タップ操作721によって指定される座標は(x1,y1,z1)となる。スライドバー704を変更しなければ、z軸の値は変わらない。なお、タブレット701が有する加速度センサを用いてz軸の値を変更するようにしても良い。例えば、垂直かつ上方向にタブレット701を移動することで、z軸の値を増加させ、垂直かつ下方向にタブレットを移動することでz軸の値を減少させる。タブレット701は、座標(x1,y1,z1)を、画像処理装置104(または、その中に含まれるパラメータ取得部201)へパノラマ画像の基点座標として通知する。
図7(c)は、ボール711がゴール前へ移動したことに応じて、ユーザがボールの付近に行ったタップ操作722を受け付けた様子を示している。タッチパネルディスプレイ702は、タップ操作722とそのタップ位置の座標732を検知する。例えば、座標732が(x,y)=(x2,y2)とする。スライドバー704は、図7(c)において図7(b)と同じまま(z=z1)であったとする。タブレット701は、タップ操作722によって指定される座標(x2,y2,z1)を、画像処理装置104(または、その中に含まれるパラメータ取得部201)へパノラマ画像の基点座標として通知する。
画像処理装置104は、基点操作UI105のタブレット701から通知された座標を基点としてパノラマ画像を生成する。パノラマ画像の生成処理は第1実施形態(図4〜図5)で説明した処理と同様である。また、パノラマ画像の生成例についても、タップ位置の座標731と座標331が同じ座標であるとすると、タップ位置の座標731を基点とするパノラマ画像は図6(d)と同じになる。同様に、タップ位置の座標732と座標332が同じ座標であるとすると、タップ位置の座標732を基点とするパノラマ画像は図6(b)と同じになる。さらに、複数のユーザ端末112におけるパノラマ画像の閲覧例についても、図6(b)のパノラマ画像の例を用いると、図6(e)(f)と同様に説明できる。
なお、図7(b)から(c)の順でタップされた場合、座標731と座標732の間を直線等で補間し、線上の座標を連続的に画像処理装置104へ通知しても良い。この場合、通知された補間線上の全座標に対して、画像処理装置104はパノラマ画像を生成する。そうすれば、フレーム間で基点が滑らかに移動するパノラマ画像を生成することができる。
以上の様に、第2実施形態によれば、撮像領域の俯瞰画像に対する簡単なタップ操作のみで、撮像領域の任意の場所を次々にパノラマ画像の基点を指定できる。例えば、サッカーの試合中に、撮像カメラを入れることが困難であるフィールドを撮像領域とし、直感的な位置把握が容易である俯瞰画像に対するタップ操作によって、その位置を基点としたパノラマ画像を生成できる。また、サッカーのパス展開が速いシーン等であっても、撮像領域の俯瞰画像における離れた位置をタップすれば、その位置を基点に次々にパノラマ画像を生成できる。
[第3実施形態]
第3実施形態では、基点操作UI105でパノラマ画像の基点を直接操作せずに、1つの仮想カメラを操作することによりパノラマ画像を生成する方法を説明する。第3実施形態では、基点操作UI105にジョイスティックが用いられ、ジョイスティックにより1つの仮想カメラが操作される。画像処理装置104は、その仮想カメラを基準として複数の仮想カメラを複製し、視線方向が異なる複数の仮想視点画像を生成する。
なお、第3実施形態において、複数の仮想視点画像からパノラマ画像を生成する方法は第1実施形態と同様である。また、第3実施形態において、パノラマ画像生成システム(図1)と画像処理装置の構成(図2)は、第1実施形態と同様である。さらに、画像処理装置104における各処理についても同様の部分は説明を省略し、異なる部分を主に説明する。
ジョイスティックは三次元空間における移動と回転の両方を同時に指定するための装置であり、その構造等は周知であるため、図示を省略する。ジョイスティックを用いることで、パノラマ画像の元となる仮想カメラの位置と姿勢を緻密に操作できる。なお、第3実施形態の基点操作UI105としてジョイスティックを用いるが、これに限られるものではなく、仮想カメラの位置と姿勢を操作できる構成であれば何でもよい。
第1、第2実施形態による複数の仮想カメラの生成処理では、正面・左・背面・右の方向の各仮想カメラ(401〜404)の姿勢は水平方向(XY平面と平行方向)に限定され、上・下の方向の各仮想カメラ(405・406)は垂直方向に限定されている。図6に示すパノラマ画像の元となる仮想視点画像は、水平方向に4面(601〜604)を使用するものの、上下は2面(605と606)しか使用しない。そのため、それらを合わせて生成されるパノラマ画像における解像感は水平方向が比較的高くなる。第3実施形態では、基点操作UI105を柔軟に操作することで、これらの制限を受けることなくパノラマ画像を生成することができる。例えば、基準となる仮想カメラを垂直方向へ90度回転すれば、垂直方向に解像感の高いパノラマ画像を生成することができる。
(基点操作UIによる仮想カメラ操作)
第3実施形態の基点操作UI105について説明する。基点操作UI105として例えば、ジョイスティックを使用し、仮想カメラの三次元空間における移動と回転を同時指定する。基点操作UI105は、指定された仮想カメラの位置と姿勢の情報を画像処理装置104のパラメータ取得部201へ通知する。仮想カメラの位置と姿勢や、移動と回転については第1実施形態(図3)で説明したとおりである。
(仮想カメラの複製処理)
図4を参照し、仮想カメラの複製処理について説明する。仮想カメラの複製処理は、画像処理装置104の仮想カメラ生成部203が実行する。仮想カメラ生成部203は、パラメータ取得部201を介し、少なくとも仮想カメラの位置と姿勢を取得する。なお、その他に仮想カメラの焦点距離等を取得してもよい。仮想カメラ生成部203は、取得したパラメータの仮想カメラを正面の方向とし、その位置と方向を基準として、背面・右・左・上・下の5方向へ回転させた仮想カメラを複製する。なお、複製する仮想カメラの個数は5に限らない。
以下、より具体的に説明する。図4(a)に、パラメータ取得部201が取得した仮想カメラ401を示す。図4(a)は、仮想カメラ401を上(z軸)から見た図である。仮想カメラ401の位置301と姿勢302は、基点操作UI105から通知されたものである。図4(b)(c)に、仮想カメラを複製した図を示す。図4(b)は、上(z軸)から見た図であり、図4(c)は、横(y軸)から見た図である。図4(b)には、図4(a)に示した仮想カメラ401と、それから複製した3つの仮想カメラ402、403、404が示されている。
各仮想カメラは、仮想カメラ401と同じ位置において、仮想カメラ401をz軸回り(Yaw方向)へ、90度、180度、270度回転させ、複製したものである。つまり、仮想カメラ401の姿勢を正面とすると、その姿勢方向をx軸とし、その位置を原点とする座標軸を設定し、仮想カメラ402は右向き(y軸方向)、仮想カメラ403は背面(−x軸方向)、仮想カメラ404は左向き(−y軸方向)の姿勢となる。
図4(c)には、図4(a)に示した仮想カメラ401と、複製した3つの仮想カメラ405、403、406が示されている。仮想カメラ403は図4(b)に示したものである。仮想カメラ405、406は、位置は仮想カメラ401と同じまま、仮想カメラ401をy軸回り(roll方向)へ、90度、270度回転させ、複製したものである。つまり、仮想カメラ401の姿勢を正面とすると、仮想カメラ405は上向きの姿勢(z軸方向)、仮想カメラ406は下向きの姿勢(−z軸方向)となる。図4(d)に、上記6つの仮想カメラを図示したものを示す。簡単のため、各仮想カメラの位置、姿勢、後方クリップ面のみ図示する。
図4(d)に示す様に仮想カメラ401のクリップ面を正方形とすると、仮想カメラ401〜406のクリップ面は立方体の各面となる。先述の様に、仮想カメラ401〜406の姿勢は、順に、正面・左、背面、右、上、下の向きとなる。これらの仮想カメラを用いて、図5に説明したような複数の仮想視点画像の描画処理を実行すれば、視線方向が異なる仮想視点画像を得ることができる。それら仮想視点画像を合わせたパノラマ画像の生成処理も図5で説明したとおりである。
なお、第3実施形態では、基点操作UI105で操作する仮想カメラを正面方向に設定しているが、それをユーザ端末112で最初に表示する方向となる様にパノラマ画像を生成してもよい。すなわち、パノラマ画像生成部205は、基点操作UI105による操作対象の仮想カメラの方向が、最初に表示されるパノラマ画像の正面方向となるようにパノラマ画像を生成するようにしてもよい。
以上に説明した様に、第3実施形態によれば、基点操作UI105にジョイスティックを用いたので、仮想カメラの位置と姿勢を緻密に操作できる。また、操作対象の仮想カメラの位置を基点とし、その仮想カメラの視線方向を基準として、視線方向の異なる複数の仮想視点画像が描画される。したがって、操作対象仮想カメラを複製して得られる複数の仮想視点画像や、それらを合わせて生成するパノラマ画像の傾きを自由に指定できる。
例えば、サッカー等のフィールドスポーツの場合においては、平面に沿った仮想カメラの移動が主であるため必要とされる機会は少ないが、立体的に移動するスポーツにおいて、垂直方向にも解像感の高いパノラマ画像を生成できる。例えば、棒高跳びや体操等がある。以上のように、第3実施形態の基点操作UI105を柔軟に操作することで、水平と垂直方向の両方の組み合わせを使用した特徴的な印象を持つパノラマ画像を生成することが可能である。
[第4実施形態]
第4実施形態では、位置測位技術を用いて、パノラマ画像の基点を指定する。第4実施形態では、例えば、位置測位技術としてGPSを用い、サッカーやラグビー等のフィールドスポーツにおいて、選手が装着するプロテクタ等に位置測位タグを装着して、各選手の位置をリアルタイムに取得する。ここで、GPSとは、Global Positioning Systemである。なお、位置測定技術、位置測位タグは公知のため具体的な説明を省略する。なお、位置測位方法はGPSに限定されない。例えば、画像処理装置104の三次元モデル生成部202で生成した各選手の三次元モデルから得られる座標を使用しても良い。また、第3実施形態において、パノラマ画像生成システム(図1)、画像処理装置の構成(図2)、画像処理装置104における各処理(図3〜6)は、第1実施形態と同様である。
第1実施形態〜第3実施形態では、基点操作UI105を用い、手動でパノラマ画像の基点を指定する。これに対して、第4実施形態では、撮像領域に含まれる人物や物体などの被写体に位置測位タグを付与し、それから自動で得られる位置情報をパノラマ画像の基点として指定する。
(パノラマ画像の基点指定方法)
被写体に付与した位置測位タグから得る座標を、パノラマ画像の基点へ指定する方法を説明する。
まず、位置測位タグを被写体に付与する点について説明する。例えば、撮像領域が図3(b)に示すサッカーのフィールド321の場合、フィールドに含まれるボール322や選手323などの被写体へ位置測位タグを装着し、それらの位置情報を取得する。座標系は図3(a)(b)に示したものを使用する。例えば、ボール322の座標は(x、y、z)=(x3,y3,z3)とし、選手323は(x、y、z)=(x4,y4,z4)とする。位置測定タグを装着する選手は一人に限られるものではなく、複数の選手のそれぞれに位置測位タグを装着してそれぞれから座標を取得してもよい。
基点操作UI105は、それらの位置情報のうちの1つを選択し、画像処理装置104(または、パラメータ取得部201)へ、パノラマ画像の基点座標として通知する。例えば、位置情報の1つを選択するために、基点操作UI105は、図7に示したような、撮像領域の俯瞰画像を表示するタッチパネルディスプレイ702を有するタブレット701等を備える。基点操作UI105は、撮像領域の俯瞰画像703に対するタッチ操作を受け付け、検知した操作座標(例えば、座標731)と、ボールおよび各選手の座標との当たり判定を行う。基点操作UI105は、当たり判定の判定結果が真となるボールまたは選手の位置情報を選択し、その座標を通知する。なお、撮像領域内の被写体に付与された位置測位タグから取得される位置またはその取得位置を規定量移動させた位置を、パノラマ画像の基点の位置に設定するようにしてもよい。すなわち、通知する座標は、位置測位タグから取得した座標値から、一定量を移動させた座標値を通知してもよい。例えば、x、y座標は位置測位タグから取得した値を使用し、z座標の値を一定量、上空へずらした値を使用してもよい。なお、基点操作UIは、座標に加えて方向を通知してよい。例えば、選手の進行方向や顔の向きを位置測位タグより取得し、それを方向として通知してもよい。そして、その方向がユーザ端末112で最初に表示する方向となる様にパノラマ画像を生成してもよい。
例えば、図7(b)の例では、タップ位置の座標731に対して、センターサークル内にいる選手の座標との当たり判定が真となり、その選手の座標を、パノラマ画像の基点座標として画像処理装置104へ通知する。なお、当たり判定において真となるものが無い場合は、前回の当たり判定において真となった位置情報を選択した状態を継続してもよい。なお、パノラマ画像の基点座標として位置情報の1つを選択する操作は、連続して行うことができ、パノラマ画像の基点座標とするボールや選手は自由に切り替え可能である。
画像処理装置104が、パノラマ画像の基点座標を受け取った後の処理は、第1実施形態(図4〜図6)と同様である。
以上のように、第4実施形態によれば、撮像領域に含まれる人物や物体を基点としたパノラマ画像を得ることができる。例えば、撮像領域がサッカーの試合中のフィールドの場合、ボールや注目する選手を基点としたパノラマ画像を生成し、それらを手元のユーザ端末で閲覧できる。
[第5実施形態]
第5実施形態では、撮像領域を囲む様に配置する複数カメラで撮像した多視点画像を用いて、半球の内側に描画し、それからパノラマ画像を生成する処理について説明する。なお、第5実施形態の仮想映像視点生成システム(図1)は第1実施形態と同様である。以下、主に第1実施形態と異なる部分を説明する。
(画像処理装置の構成)
図8を参照し、第5実施形態における画像処理装置104の機能構成を説明する。パラメータ取得部201と画像出力部206は、第1実施形態(図2(a))と同様である。第5実施形態では、パノラマ画像の基点となる位置から観察される、多視点画像に基づいて描画される仮想視点画像として、いわゆる魚眼画像を描画する。半球描画部801は、データベース103より取得した多視点画像を基に、基点座標を中心とした半球の内面に画像を仮想視点画像として描画する。半球描画部801は、半球内面の各画素と多視点画像の各画素が対応付けられた対応表を用いて描画処理を行う。半球描画処理については図9の参照により後述する。パノラマ画像変換部802は、半球描画部801が出力する半球画像をパノラマ画像へ変換する。この変換処理については図9の参照により後述する。画像処理装置104のハードウェア構成は第1実施形態(図2(b))と同様である。
(パノラマ画像の生成処理)
図9と図10を参照し、本実施形態におけるパノラマ画像の生成処理について説明する。図9は第5実施形態によるパノラマ画像の生成処理を示すフローチャートである。図10(a)は撮像領域の少なくとも一部を含む様に設定される半球の例であり、図10(b)はその半球の内面に描画される半球画像である。図10(a)の例では、撮像領域をスタジアムのフィールド321とし、基点座標1001を中心として半球1002が設定されている。座標系は図3(a)(b)と同様である。例えば、基点座標1001には原点(0,0,0)が設定される。
ステップS901では、パノラマ画像変換部802が、多視点画像から半球画像へ変換するための変換テーブルをRAM212等から読み出す。変換テーブルは、基点座標1001を中心とした半球1002内面の各画素と、センサシステム101に含まれる1つのカメラで撮像した多視点画像の1つに含まれる画素との対応付けを管理したテーブルである。
対応付けは全画素について説明しないが、大まかな対応付けを図10(a)(b)に示す。図10(a)(b)の両図において、基点座標1001から半球内面を指すベクトル1011〜1014の各々は同じものを示す。例えば、ベクトル1011はフィールドの長軸に平行に設定したx軸方向であり、図中の右のゴール方向を示す。ベクトル1011を正面方向とすると、ベクトル1012はy軸方向(左方向)を示し、ベクトル1013は−x軸方向(背面方向)、ベクトル1014は−y軸方向(右方向)についても同様である。
なお、半球1002の基点座標1001を変更した場合や、センサシステム101の各センサの有するカメラの位置や姿勢を変更した場合は、対応表の変更が必要になる。すなわち、多視点画像の画素と半球内面の画素との対応を示す変換テーブルは、基点座標ごとに生成され、RAM212等に格納されている。パノラマ画像変換部802は、設定された基準点に対応する変換テーブルを選択して用いる。
なお、図10(b)の例では、中心の基点座標1001が原点であり、半球1002の平面部(フィールド等の地面)は表示されていない。中心の基点座標1001によっては半球1002の平面部についても、センサシステム101が有する少なくとも1つのカメラが撮像した画像に含まれる画素を対応付けることが可能である。
ステップS902、S903、S904では、パノラマ画像変換部802が、生成する半球画像の画素毎に、ステップS901で取得した変換テーブルにおいて対応する多視点画像の画素値を読み出し、その値を設定する。ステップS905では、パノラマ画像変換部802が、半球画像をパノラマ画像へ変換する。半球画像は魚眼画像とも呼ばれ、公知のパノラマ画像変換を用いることができる。変換したパノラマ画像を図10(c)に示す。なお、半球画像において他視点画像との対応付けが無い画素はパノラマ画像において黒色で表示してもよい。
パノラマ画像のフォーマットは第1実施形態のパノラマ画像(図6(b)(d))と同様とすることができ、第1実施形態と同様に、配信サーバ111に送信しユーザ端末112で閲覧できる。
以上のように、第5実施形態によれば、第1実施形態〜第4実施形態とは異なり、それぞれ視線方向が異なる複数の仮想視点に応じた複数の仮想視点画像を描画することなく、撮像領域を囲む様に配置された複数カメラが撮像した多視点画像を用いて、パノラマ画像を生成することができる。
以上説明したように、上記各実施形態によれば、複数カメラを用いて異なる位置から同期撮像を行って得られた多視点画像を使用してパノラマ画像を生成することができる。また、撮像領域の任意の位置をパノラマ画像の基点として指定するための簡単な操作も提供する。したがって、上記各実施形態によれば、撮像装置が入れないような場所であっても、簡単な操作でユーザが任意の位置を指定し、その位置を基点としたパノラマ画像を生成することができる。例えば、スタジアムにてスポーツの試合中に、フィールド内の任意の位置を基点としたパノラマ画像を生成することができる。また、生成されたパノラマ画像において、視聴者は好きな方向を選択し、まさに試合中の選手やそのプレイを間近に閲覧できる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
104:画像処理装置、105:基点操作UI、111:配信サーバ、112:ユーザ端末、201:パラメータ取得部、203:仮想カメラ生成部、204:仮想視点描画部、205:パノラマ画像生成部、206:画像出力部

Claims (16)

  1. 撮像領域を複数の方向から撮像する複数のカメラによる撮像で得られた複数の画像を取得する取得手段と、
    前記取得手段により取得された画像に基づいて、前記撮像領域内の位置を基点とするパノラマ画像を生成する生成手段と、を備えることを特徴とする画像処理装置。
  2. 前記複数の画像に基づいて、視点位置が同一であり視線方向が異なる複数の仮想視点に応じた複数の仮想視点画像を描画する描画手段を有し、
    前記生成手段は、前記複数の仮想視点画像を用いて前記パノラマ画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. ユーザの操作に基づいて前記基点の位置を設定する設定手段をさらに備えることを特徴とする請求項2に記載の画像処理装置。
  4. 前記設定手段は、ユーザにより入力された座標値を前記基点の位置に設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記撮像領域の俯瞰画像を表示する表示手段をさらに備え、
    前記設定手段は、前記表示手段により表示されている前記俯瞰画像におけるユーザの指示位置に基づいて前記基点の位置を設定する、ことを特徴とする請求項3に記載の画像処理装置。
  6. 前記表示手段は、タッチパネルディスプレイを備え、
    前記設定手段は、前記俯瞰画像を表示している前記タッチパネルディスプレイへのタッチ入力の位置を前記指示位置として用いることを特徴とする請求項5に記載の画像処理装置。
  7. 仮想カメラを操作する操作手段をさらに備え、
    前記設定手段は、前記操作手段により操作された仮想カメラの位置を前記基点の位置に設定し、
    前記描画手段は、前記仮想カメラの視線方向を基準として、視線方向の異なる複数の仮想視点画像を描画することを特徴とする請求項3に記載の画像処理装置。
  8. 前記仮想カメラによる仮想視点画像を前記複数の仮想視点画像の1つとして用いることを特徴とする請求項7に記載の画像処理装置。
  9. 前記生成手段は、前記操作手段による操作対象の仮想カメラの方向が、最初に表示されるパノラマ画像の正面方向となるようにパノラマ画像を生成することを特徴とする請求項7または8に記載の画像処理装置。
  10. 前記設定手段は、前記撮像領域内の被写体に付与された位置測位タグから取得される位置またはその取得位置を規定量移動させた位置を、前記基点の位置に設定することを特徴とする請求項3に記載の画像処理装置。
  11. 前記生成手段は、前記位置測位タグから取得した方向が、最初に表示されるパノラマ画像の正面方向となるように、パノラマ画像を生成することを特徴とする請求項10に記載の画像処理装置。
  12. 複数の被写体を含む前記撮像領域の俯瞰画像を表示する表示手段と、
    前記表示手段により表示されている前記俯瞰画像において前記複数の被写体のうちの1つを選択する選択手段と、を備え、
    前記設定手段は、前記選択手段によって選択された被写体に付与されている位置測位タグから取得される位置を前記基点の位置として設定する、ことを特徴とする請求項11に記載の画像処理装置。
  13. 前記複数の画像に基づいて、前記基点を中心とした半球の内面に画像を描画する描画手段を有し、
    前記生成手段は、前記半球の内面の画像からパノラマ画像を生成する、ことを特徴とする請求項1に記載の画像処理装置。
  14. ユーザ端末への配信のために前記パノラマ画像を出力する出力手段をさらに備えることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 画像処理装置の制御方法であって、
    撮像領域を複数の方向から撮像する複数のカメラによる撮像で得られた複数の画像を取得する取得工程と、
    前記取得工程により取得された画像に基づいて、前記撮像領域内の位置を基点とするパノラマ画像を生成する生成工程と、を備えることを特徴とする画像処理装置の制御方法。
  16. コンピュータを、請求項1乃至14のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。
JP2018202077A 2018-10-26 2018-10-26 画像処理システムおよびその制御方法、プログラム Active JP7249755B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018202077A JP7249755B2 (ja) 2018-10-26 2018-10-26 画像処理システムおよびその制御方法、プログラム
PCT/JP2019/035950 WO2020084951A1 (ja) 2018-10-26 2019-09-12 画像処理装置および画像処理方法
US17/231,036 US11627251B2 (en) 2018-10-26 2021-04-15 Image processing apparatus and control method thereof, computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018202077A JP7249755B2 (ja) 2018-10-26 2018-10-26 画像処理システムおよびその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2020068513A true JP2020068513A (ja) 2020-04-30
JP2020068513A5 JP2020068513A5 (ja) 2021-12-09
JP7249755B2 JP7249755B2 (ja) 2023-03-31

Family

ID=70330412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202077A Active JP7249755B2 (ja) 2018-10-26 2018-10-26 画像処理システムおよびその制御方法、プログラム

Country Status (3)

Country Link
US (1) US11627251B2 (ja)
JP (1) JP7249755B2 (ja)
WO (1) WO2020084951A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7474521B2 (ja) 2022-04-08 2024-04-25 三栄通信工業株式会社 情報処理装置及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7237538B2 (ja) 2018-11-14 2023-03-13 キヤノン株式会社 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
US20220219090A1 (en) * 2021-01-08 2022-07-14 Sony Interactive Entertainment America Llc DYNAMIC AND CUSTOMIZED ACCESS TIERS FOR CUSTOMIZED eSPORTS STREAMS
US11845011B2 (en) 2021-01-08 2023-12-19 Sony Interactive Entertainment LLC Individualized stream customizations with social networking and interactions
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events
JP2022131778A (ja) 2021-02-26 2022-09-07 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020487A (ja) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> 任意視点映像生成装置及び任意視点映像生成プログラム
JP2017069787A (ja) * 2015-09-30 2017-04-06 徹平 江里口 動画像処理装置、動画像処理方法、動画像処理プログラム及び動画像処理表示システム。
JP2017139725A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
WO2017217411A1 (ja) * 2016-06-17 2017-12-21 日本電気株式会社 画像処理装置、画像処理方法、及び記憶媒体
WO2018043225A1 (ja) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2018056971A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
JP2018074502A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 撮像装置、情報処理装置、撮像システム、撮像方法、情報処理方法、およびプログラム
JP2018092491A (ja) * 2016-12-06 2018-06-14 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
JP2018092580A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法
JP2018112997A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
JP2018113585A (ja) * 2017-01-11 2018-07-19 キヤノン株式会社 制御装置、画像処理システム、制御方法
JP2018129736A (ja) * 2017-02-10 2018-08-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018133063A (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2018157578A (ja) * 2018-05-10 2018-10-04 パナソニックIpマネジメント株式会社 映像表示システム、映像表示装置及び映像表示方法
JP2019047432A (ja) * 2017-09-06 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019106145A (ja) * 2017-12-14 2019-06-27 キヤノン株式会社 3次元モデルの生成装置、生成方法及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4148671B2 (ja) * 2001-11-06 2008-09-10 ソニー株式会社 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
JP3744002B2 (ja) * 2002-10-04 2006-02-08 ソニー株式会社 表示装置、撮像装置、および撮像/表示システム
JP2006352539A (ja) * 2005-06-16 2006-12-28 Sharp Corp 広視野映像システム
JP5039922B2 (ja) * 2008-03-21 2012-10-03 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像描画システム、画像描画サーバ、画像描画方法およびコンピュータ・プログラム
EP2791909A4 (en) * 2011-12-16 2015-06-24 Thomson Licensing METHOD AND DEVICE FOR PRODUCING 3D CONTENTS WITH FREE VIEWPOINT
NL2010463C2 (nl) * 2013-03-15 2014-09-16 Cyclomedia Technology B V Werkwijze voor het genereren van een panoramabeeld.
US10356393B1 (en) * 2015-02-16 2019-07-16 Amazon Technologies, Inc. High resolution 3D content
WO2016140083A1 (ja) * 2015-03-05 2016-09-09 ソニー株式会社 画像処理装置および画像処理方法
US10412413B2 (en) * 2015-03-05 2019-09-10 Sony Corporation Image processing device and image processing method
JP6551734B2 (ja) 2015-06-05 2019-07-31 リコーイメージング株式会社 動画像作成システム、動画像作成方法及び動画像作成プログラム
US10791285B2 (en) * 2015-10-05 2020-09-29 Woncheol Choi Virtual flying camera system
WO2017149875A1 (ja) * 2016-02-29 2017-09-08 ソニー株式会社 撮像制御装置、撮像装置及び撮像制御方法
JP6742869B2 (ja) * 2016-09-15 2020-08-19 キヤノン株式会社 画像処理装置および画像処理方法
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10237477B2 (en) * 2017-05-22 2019-03-19 Fyusion, Inc. Loop closure
JP7378243B2 (ja) 2019-08-23 2023-11-13 キヤノン株式会社 画像生成装置、画像表示装置および画像処理方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020487A (ja) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> 任意視点映像生成装置及び任意視点映像生成プログラム
JP2017069787A (ja) * 2015-09-30 2017-04-06 徹平 江里口 動画像処理装置、動画像処理方法、動画像処理プログラム及び動画像処理表示システム。
JP2017139725A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 映像表示方法及び映像表示装置
WO2017217411A1 (ja) * 2016-06-17 2017-12-21 日本電気株式会社 画像処理装置、画像処理方法、及び記憶媒体
WO2018043225A1 (ja) * 2016-09-01 2018-03-08 パナソニックIpマネジメント株式会社 多視点撮像システム、三次元空間再構成システム、及び三次元空間認識システム
JP2018056971A (ja) * 2016-09-30 2018-04-05 キヤノン株式会社 撮像システム、画像処理装置、画像処理方法、及びプログラム
JP2018074502A (ja) * 2016-11-02 2018-05-10 キヤノン株式会社 撮像装置、情報処理装置、撮像システム、撮像方法、情報処理方法、およびプログラム
JP2018092580A (ja) * 2016-11-30 2018-06-14 キヤノン株式会社 画像生成装置および方法
JP2018092491A (ja) * 2016-12-06 2018-06-14 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
JP2018113585A (ja) * 2017-01-11 2018-07-19 キヤノン株式会社 制御装置、画像処理システム、制御方法
JP2018112997A (ja) * 2017-01-13 2018-07-19 キヤノン株式会社 画像処理装置及びその方法、プログラム、画像処理システム
JP2018129736A (ja) * 2017-02-10 2018-08-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018133063A (ja) * 2017-02-17 2018-08-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2019047432A (ja) * 2017-09-06 2019-03-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019106145A (ja) * 2017-12-14 2019-06-27 キヤノン株式会社 3次元モデルの生成装置、生成方法及びプログラム
JP2018157578A (ja) * 2018-05-10 2018-10-04 パナソニックIpマネジメント株式会社 映像表示システム、映像表示装置及び映像表示方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7474521B2 (ja) 2022-04-08 2024-04-25 三栄通信工業株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US11627251B2 (en) 2023-04-11
WO2020084951A1 (ja) 2020-04-30
US20210235014A1 (en) 2021-07-29
JP7249755B2 (ja) 2023-03-31

Similar Documents

Publication Publication Date Title
JP7249755B2 (ja) 画像処理システムおよびその制御方法、プログラム
US10574889B2 (en) Information processing device, information processing method, and program
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP7378243B2 (ja) 画像生成装置、画像表示装置および画像処理方法
CN109691084A (zh) 信息处理装置和方法以及程序
JP2024050721A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
CN108616731A (zh) 一种360度vr全景图形图像及视频实时生成方法
JP2016062486A (ja) 画像生成装置および画像生成方法
WO2018175335A1 (en) Method and system for discovering and positioning content into augmented reality space
JP7237538B2 (ja) 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2018033107A (ja) 動画の配信装置及び配信方法
WO2019030427A1 (en) THREE-DIMENSIONAL VIDEO PROCESSING
JP7395296B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020530218A (ja) 没入型視聴覚コンテンツを投影する方法
JP7006912B2 (ja) 画像処理装置、画像表示装置及び画像処理プログラム
JP2019139697A (ja) 表示装置、映像表示システム、及び映像表示方法
JP2020009021A (ja) 情報処理装置及びその制御方法
WO2023248832A1 (ja) 遠隔視認システム、現地撮像システム
WO2022220306A1 (ja) 映像表示システム、情報処理装置、情報処理方法、及び、プログラム
US20230316670A1 (en) Volumetric immersion system &amp; method
Pereira et al. Hybrid Conference Experiences in the ARENA
TWM520772U (zh) 全景影像錄影及擬真觀看系統
JP2023003765A (ja) 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム
JP2024022484A (ja) 生成装置、生成方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7249755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151