JP6476414B2 - Still image extraction method and image processing apparatus for realizing the method - Google Patents

Still image extraction method and image processing apparatus for realizing the method Download PDF

Info

Publication number
JP6476414B2
JP6476414B2 JP2015082965A JP2015082965A JP6476414B2 JP 6476414 B2 JP6476414 B2 JP 6476414B2 JP 2015082965 A JP2015082965 A JP 2015082965A JP 2015082965 A JP2015082965 A JP 2015082965A JP 6476414 B2 JP6476414 B2 JP 6476414B2
Authority
JP
Japan
Prior art keywords
frames
shooting
time
photographing
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015082965A
Other languages
Japanese (ja)
Other versions
JP2016059029A (en
Inventor
康伸 小倉
康伸 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/803,960 priority Critical patent/US9843789B2/en
Priority to CN201510564421.1A priority patent/CN105407256B/en
Publication of JP2016059029A publication Critical patent/JP2016059029A/en
Application granted granted Critical
Publication of JP6476414B2 publication Critical patent/JP6476414B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本技術は、動画像ストリームから複数のフレームを静止画像として抽出する静止画像抽出方法及びその方法を実現する画像処理装置に関する。   The present technology relates to a still image extraction method for extracting a plurality of frames as a still image from a moving image stream, and an image processing apparatus that implements the method.

物体の全周囲のデータを得るために、その物体の周辺の各位置から、カメラでその物体を被写体として撮影することが行われている。ここで、物体の全周囲の静止画像をインタラクティブに表示・閲覧するために撮影が行われるカメラの位置(以下、撮影位置という)のそれぞれは、距離が等間隔に離れていることが望ましい。   In order to obtain data around the entire object, the object is photographed as a subject from each position around the object. Here, it is desirable that the positions of the cameras (hereinafter referred to as shooting positions) where shooting is performed in order to interactively display and browse still images around the entire object are equally spaced.

従来、上述の各撮影位置における静止画像を得るために、各撮影位置での静止画像の撮影を順に行う(特許文献1参照)。つまり、カメラを撮影位置に固定して、その撮影位置でカメラが撮影する処理動作を、カメラを移動させながらそれぞれの撮影位置で繰り返し行う。   Conventionally, in order to obtain a still image at each shooting position described above, a still image is shot at each shooting position in order (see Patent Document 1). That is, the processing operation in which the camera is fixed at the shooting position and the camera shoots at the shooting position is repeatedly performed at each shooting position while moving the camera.

特開2007−72537号公報JP 2007-72537 A

本技術は、距離が等間隔に離れた適切な撮影位置における静止画像を短時間で抽出することができる静止画像抽出方法及び画像処理装置を提供する。   The present technology provides a still image extraction method and an image processing apparatus that can extract a still image at an appropriate shooting position at an equal distance from each other in a short time.

本技術の静止画像抽出方法は、カメラを、被写体を中心とした円周または直線上一方向に相対的に移動させ、時間的に連続して撮影した動画像ストリームから、撮影時刻が等間隔になるように複数の第1のフレームを抽出する動作と、複数の第1のフレームそれぞれの撮影時刻における撮影位置を複数の第1のフレームから特定する動作と、複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づき、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作と、推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として動画像ストリームから抽出する動作とを行うことを特徴とする静止画像抽出方法。 The still image extraction method of the present technology moves the camera relatively in one direction on the circumference or straight line centered on the subject, and captures the shooting time at equal intervals from a moving image stream that is continuously captured in time. An operation for extracting a plurality of first frames, an operation for specifying a shooting position at each shooting time of each of the plurality of first frames, and a shooting for each of the plurality of first frames. Based on the time and the shooting position, an operation for estimating the shooting time of each of a plurality of frames obtained by shooting at a plurality of shooting positions at equal distances, and a plurality of first times corresponding to each of the estimated plurality of shooting times A still image extraction method comprising: extracting each of the two frames as a still image from a moving image stream.

本技術によれば、距離が等間隔に離れた適切な撮影位置における静止画像を短時間で抽出することができる。   According to the present technology, it is possible to extract a still image at an appropriate shooting position at an equal interval in a short time.

本技術の実施の形態における画像処理システムを示す構成図である。It is a lineblock diagram showing an image processing system in an embodiment of this art. 実施の形態による撮影部において、被写体の撮影方法を説明するための説明図である。FIG. 5 is an explanatory diagram for describing a method for photographing a subject in a photographing unit according to an embodiment. 実施の形態における画像処理システム1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing system 1 in embodiment. 実施の形態における静止画像抽出方法の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the still image extraction method in embodiment. 実施の形態におけるカメラ21の撮影位置の特定方法を示すフローチャートである。It is a flowchart which shows the identification method of the imaging position of the camera 21 in embodiment. 実施の形態における初期サンプリング点を示す説明図である。It is explanatory drawing which shows the initial sampling point in embodiment. 実施の形態における再サンプリング点のタイムスタンプを推定する方法の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the method of estimating the time stamp of the resampling point in embodiment. 実施の形態における初期サンプリング点のタイムスタンプと基準点からの角度との関係を示す説明図ある。It is explanatory drawing which shows the relationship between the time stamp of the initial sampling point and the angle from a reference point in embodiment. 実施の形態における再サンプリング点を示す説明図である。It is explanatory drawing which shows the resampling point in embodiment. 再サンプリング点での撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定する方法を示す説明図である。It is explanatory drawing which shows the method of estimating each time stamp of the some flame | frame obtained by imaging | photography at a resampling point. 本技術による他の実施の形態による静止画像抽出方法の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the still image extraction method by other embodiment by this technique. 本技術の他の実施の形態による被写体の撮影方法を示す説明図である。It is explanatory drawing which shows the imaging | photography method of the to-be-photographed object by other embodiment of this technique.

以下、本技術の実施の形態による画像処理装置について、図面を参照しながら説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, an image processing apparatus according to an embodiment of the present technology will be described with reference to the drawings. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、発明者は、当業者が本技術を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。   The inventor provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present technology, and is not intended to limit the subject matter described in the claims. Absent.

[1−1.構成]
図1は、本技術の実施の形態における画像処理システムを示す構成図である。
[1-1. Constitution]
FIG. 1 is a configuration diagram illustrating an image processing system according to an embodiment of the present technology.

本実施の形態における画像処理システム1は、カメラを被写体に対して相対的に移動させながら、被写体を連続して撮影することにより動画像ストリームを取得し、前記動画像ストリームから複数のフレームをそれぞれ静止画像として抽出するシステムである。画像処理システム1は、画像処理装置10、撮影部20、制御部30、撮影画像記憶部40及び多視点画像データベース(DB)50を備える。   The image processing system 1 according to the present embodiment acquires a moving image stream by continuously shooting a subject while moving the camera relative to the subject, and each of a plurality of frames from the moving image stream. It is a system that extracts as a still image. The image processing system 1 includes an image processing device 10, a photographing unit 20, a control unit 30, a photographed image storage unit 40, and a multi-viewpoint image database (DB) 50.

本実施の形態における画像処理システム1では、動画像ストリームは、例えば60fps(frame per second)のフレームレートの撮影によって生成されたもので、時間的に等間隔の撮影、つまり1/60秒ごとの撮影によって得られた複数のフレームを含んでいる。また、フレームそれぞれには、撮影により生成されるごとに、「1」が加算されるタイムスタンプが付されている。タイムスタンプは、タイムスタンプが付されたフレームの撮影時刻を示すこととなる。例えば、動画像ストリームのフレームレートが60fpsの場合、動画撮影の開始から1秒後のタイムスタンプは、動画撮影開始時のタイムスタンプに、「60」を加算した値を示す。動画撮影開始時のタイムスタンプが「10」だった場合に、動画撮影の開始から1秒後のタイムスタンプは「70」となる。   In the image processing system 1 according to the present embodiment, the moving image stream is generated by shooting at a frame rate of, for example, 60 fps (frame per second), and is shot at regular intervals, that is, every 1/60 seconds. It includes a plurality of frames obtained by shooting. Each frame has a time stamp to which “1” is added every time it is generated by photographing. The time stamp indicates the shooting time of the frame to which the time stamp is attached. For example, when the frame rate of the moving image stream is 60 fps, the time stamp one second after the start of moving image shooting indicates a value obtained by adding “60” to the time stamp at the start of moving image shooting. When the time stamp at the start of moving image shooting is “10”, the time stamp one second after the start of moving image shooting is “70”.

なお、本実施の形態では、動画像ストリームは、等時間間隔で撮影されたフレームから生成される動画であるが、これに限らない。例えば、等時間間隔で連写された静止画像の集まりであってもよい。等時間間隔で連写された静止画像には、例えば画像IDが対応付けられ、画像IDは、タイムスタンプと同じように扱うことができる。従って、本実施の形態では、タイムスタンプが静止画像抽出方法に用いられるが、動画像ストリームが等時間間隔で連写された静止画像の集まりの場合は、画像IDが静止画像抽出方法に用いられる。   In the present embodiment, the moving image stream is a moving image generated from frames shot at equal time intervals, but is not limited thereto. For example, it may be a collection of still images taken continuously at equal time intervals. For example, an image ID is associated with still images continuously shot at equal time intervals, and the image ID can be handled in the same manner as a time stamp. Therefore, in this embodiment, the time stamp is used in the still image extraction method, but in the case of a collection of still images in which the moving image stream is continuously shot at equal time intervals, the image ID is used in the still image extraction method. .

画像処理装置10は、撮影画像記憶部40に記憶された動画像ストリームから、複数のフレームをそれぞれ静止画像として抽出する動作を行う。複数のフレームの静止画像は、等間隔に離れた距離の複数の撮影位置で撮影された画像となる。動画像ストリームは、カメラを被写体に対して相対的に移動させながら、前記被写体を時間的に連続して撮影することにより得られる。例えば、画像処理装置10は、被写体を中心とした円周上を移動しているカメラで撮影することによって得られた動画像ストリームから、10度毎の等間隔な角度を形成する36個の撮影位置で撮影された静止画像を抽出する。   The image processing apparatus 10 performs an operation of extracting a plurality of frames as still images from the moving image stream stored in the captured image storage unit 40. The still images of a plurality of frames are images shot at a plurality of shooting positions that are separated at equal intervals. The moving image stream is obtained by shooting the subject continuously in time while moving the camera relative to the subject. For example, the image processing apparatus 10 captures 36 images that form angles at equal intervals of 10 degrees from a moving image stream obtained by shooting with a camera moving on a circle around a subject. Extract still images taken at the location.

画像処理装置10は、画像抽出部11及び撮影位置算出部12を備える。   The image processing apparatus 10 includes an image extraction unit 11 and a shooting position calculation unit 12.

画像抽出部11は、動画像ストリームに含まれる複数の第1のフレームを抽出し、抽出した複数の第1のフレームそれぞれの撮影時刻を取得する。また、画像抽出部11は、初期サンプリング動作と再サンプリング動作とを行う。   The image extraction unit 11 extracts a plurality of first frames included in the moving image stream, and acquires shooting times of the extracted plurality of first frames. In addition, the image extraction unit 11 performs an initial sampling operation and a resampling operation.

撮影位置算出部12は、複数の第1のフレームそれぞれで取得された撮影時刻におけるカメラの撮影位置に関する情報を複数の第1のフレームから特定する。撮影位置算出部12は、第1のフレームそれぞれで取得された撮影時刻と、第1のフレームそれぞれで特定された撮影位置に関する情報とに基づき、距離が等間隔に離れた複数の撮影位置におけるカメラによる撮影によって得られる複数のフレームそれぞれの撮影時刻を推定する動作を行う。   The shooting position calculation unit 12 specifies information regarding the shooting position of the camera at the shooting time acquired in each of the plurality of first frames from the plurality of first frames. The shooting position calculation unit 12 is a camera at a plurality of shooting positions at equal intervals based on the shooting time acquired in each of the first frames and information on the shooting position specified in each of the first frames. The operation of estimating the photographing time of each of a plurality of frames obtained by photographing with the above is performed.

前記画像抽出部11は、初期サンプリングにおいて、動画像ストリームに含まれる複数の第1のフレームを抽出し、抽出した複数の第1のフレームそれぞれの撮影時刻を示すタイムスタンプを取得する。初期サンプリングによって抽出される第1のフレームを初期サンプリングフレームという。このとき、画像抽出部11は、取得するタイムスタンプが等間隔になるように複数の初期サンプリングフレームを抽出する。   In the initial sampling, the image extraction unit 11 extracts a plurality of first frames included in the moving image stream, and obtains time stamps indicating the photographing times of the extracted plurality of first frames. The first frame extracted by the initial sampling is called an initial sampling frame. At this time, the image extraction unit 11 extracts a plurality of initial sampling frames so that the acquired time stamps are equally spaced.

前記画像抽出部11は、再サンプリングにおいて、撮影位置算出部12により推定されたそれぞれの撮影時刻(タイムスタンプ)に対応する第2のフレームを動画像ストリームから抽出する。動画像ストリームから抽出する第2のフレームは、距離が等間隔に離れた複数の撮影位置で撮影することによって得られる複数のフレームとして抽出される。以下、画像抽出部11で再サンプリングによって抽出される第2のフレームを再サンプリングフレームという。例えば、画像抽出部11は、10度毎の等間隔な角度にある撮影位置でのカメラによる撮影によって得られるフレームとして、36個の再サンプリングフレームを抽出する。   In the re-sampling, the image extraction unit 11 extracts a second frame corresponding to each shooting time (time stamp) estimated by the shooting position calculation unit 12 from the moving image stream. The second frame extracted from the moving image stream is extracted as a plurality of frames obtained by shooting at a plurality of shooting positions that are spaced at equal intervals. Hereinafter, the second frame extracted by resampling by the image extraction unit 11 is referred to as a resampling frame. For example, the image extraction unit 11 extracts 36 resampling frames as frames obtained by shooting with a camera at shooting positions at equal intervals of 10 degrees.

撮影位置算出部12は、カメラの撮影位置を、初期サンプリングフレームそれぞれのタイムスタンプから特定する。つまり、撮影位置算出部12は、被写体が撮影された時の被写体に対する相対的なカメラの位置を特定することができる。以下、初期サンプリングフレームそれぞれが特定した撮影位置を初期サンプリング点という。   The shooting position calculation unit 12 specifies the shooting position of the camera from the time stamp of each initial sampling frame. That is, the shooting position calculation unit 12 can specify the position of the camera relative to the subject when the subject is shot. Hereinafter, the shooting position specified by each initial sampling frame is referred to as an initial sampling point.

撮影位置算出部12は、さらに、初期サンプリング点と、初期サンプリングによって取得されたタイムスタンプとに基づいて、複数の撮影位置で撮影することによって得られる複数のフレームそれぞれのタイムスタンプを推定する。以下、再サンプリングフレームそれぞれが特定した撮影位置を再サンプリング点という。   The shooting position calculation unit 12 further estimates time stamps of a plurality of frames obtained by shooting at a plurality of shooting positions based on the initial sampling points and the time stamps acquired by the initial sampling. Hereinafter, the imaging position specified by each resampling frame is referred to as a resampling point.

図2は、実施の形態による撮影部において、被写体の撮影方法を説明するための説明図である。   FIG. 2 is an explanatory diagram for explaining a method of photographing a subject in the photographing unit according to the embodiment.

図2に示すように、撮影部20は、カメラ21、ロボットアーム22及びターンテーブル23を備える。ターンテーブル23は、被写体24が載せられて回転するテーブルであり、ターンテーブル23の回転軸(図2のZ軸)を回転中心として回転する。なお、ターンテーブル23の回転速度は、ターンテーブル23に載せられる被写体24の重心位置、又はターンテーブル23の機械的な構造の精度等の影響により、一定の速度になるとは限らない。カメラ21は、ターンテーブル23上に載っている被写体24を撮影することにより、回転している被写体24の動画像ストリームを生成する。つまり、カメラ21は、被写体24を中心とした円周上を被写体24に対して相対的に移動しながら、被写体24を撮影することにより動画像ストリームを生成する。ロボットアーム22は、カメラ21が取り付けられ、被写体24を中心とした図2のXZ平面上の円周方向にカメラ21を移動可能にする。   As shown in FIG. 2, the photographing unit 20 includes a camera 21, a robot arm 22, and a turntable 23. The turntable 23 is a table on which the subject 24 is placed and rotates, and rotates about the rotation axis of the turntable 23 (Z axis in FIG. 2) as the rotation center. Note that the rotation speed of the turntable 23 is not necessarily a constant speed due to the influence of the position of the center of gravity of the subject 24 placed on the turntable 23 or the accuracy of the mechanical structure of the turntable 23. The camera 21 generates a moving image stream of the rotating subject 24 by photographing the subject 24 placed on the turntable 23. That is, the camera 21 generates a moving image stream by shooting the subject 24 while moving relative to the subject 24 on the circumference around the subject 24. The robot arm 22 is attached with a camera 21 and enables the camera 21 to move in the circumferential direction on the XZ plane of FIG.

被写体24は、ターンテーブル23の回転中心上に載せられて、カメラ21で撮影される物体である。被写体24は、画像処理装置10で抽出されるとともに、距離が等間隔に離れた(つまり、等間隔の角度にある)複数の撮影位置でのカメラ21による撮影によって得られる被写体24の静止画像により、例えば、3次元のコンピュータグラフィック(CG)で表現される。   The subject 24 is an object that is placed on the rotation center of the turntable 23 and photographed by the camera 21. The subject 24 is extracted by the image processing apparatus 10 and is a still image of the subject 24 obtained by photographing with the camera 21 at a plurality of photographing positions whose distances are equally spaced (that is, at equally spaced angles). For example, it is expressed by three-dimensional computer graphics (CG).

なお、本実施の形態では、ターンテーブル23が回転することにより、カメラ21は被写体24に対して相対的に移動しながら被写体24を撮影しているが、これに限定されない。例えば、カメラ21が被写体24を中心とした円周上を実際に移動しながら、被写体24を撮影してもよい。   In this embodiment, the turntable 23 rotates to cause the camera 21 to photograph the subject 24 while moving relative to the subject 24. However, the present invention is not limited to this. For example, the subject 24 may be photographed while the camera 21 actually moves on the circumference around the subject 24.

また、本実施の形態では、カメラ21は被写体24を中心とした円周上を被写体24に対して相対的に移動しながら被写体24を撮影したが、これに限定されない。例えば、カメラ21が直線上に沿って移動しながら被写体24を撮影してもよい。これにより、等間隔の距離にある複数の撮影位置でのカメラ21による撮影によって得られる複数のフレームとして、再サンプリングフレームのそれぞれが抽出されてもよい。   In the present embodiment, the camera 21 captures the subject 24 while moving relative to the subject 24 on the circumference around the subject 24. However, the present invention is not limited to this. For example, the subject 24 may be photographed while the camera 21 moves along a straight line. Thereby, each of the re-sampling frames may be extracted as a plurality of frames obtained by photographing with the camera 21 at a plurality of photographing positions at equal intervals.

制御部30は、撮影部20による撮影の制御を行う。具体的には、制御部30は、カメラ21による動画撮影の開始及び終了、ターンテーブル23の回転、及び、ロボットアーム22によるカメラ21の移動の制御を行う。これにより、制御部30は、ターンテーブル23を回転させることで、ターンテーブル23のテーブル面と平行な面にあり被写体24を中心とした円周上の位置からカメラ21に被写体24を撮影させる。さらに、制御部30はロボットアーム22の制御を行い、被写体24を中心とした図2のXZ平面上の円周方向にカメラ21を移動させる。つまり、制御部30は、ターンテーブル23の回転、及び、ロボットアーム22によるカメラ21の移動の制御を繰り返し行うことで、被写体24を中心とした球面上の位置からカメラ21に被写体24を撮影させる。   The control unit 30 controls photographing by the photographing unit 20. Specifically, the control unit 30 controls the start and end of moving image shooting by the camera 21, the rotation of the turntable 23, and the movement of the camera 21 by the robot arm 22. As a result, the control unit 30 rotates the turntable 23 to cause the camera 21 to photograph the subject 24 from a position on the circumference centered on the subject 24 that is parallel to the table surface of the turntable 23. Further, the control unit 30 controls the robot arm 22 to move the camera 21 in the circumferential direction on the XZ plane of FIG. That is, the control unit 30 repeatedly controls the rotation of the turntable 23 and the movement of the camera 21 by the robot arm 22 to cause the camera 21 to photograph the subject 24 from a position on the spherical surface centering on the subject 24. .

撮影画像記憶部40は、撮影部20により生成された動画像ストリームを記憶する、例えば不揮発性メモリである。また、撮影画像記憶部40は、動画像ストリームに含まれるフレームのそれぞれの撮影時刻を示すタイムスタンプを記憶する。   The captured image storage unit 40 is, for example, a nonvolatile memory that stores the moving image stream generated by the imaging unit 20. In addition, the captured image storage unit 40 stores a time stamp indicating the shooting time of each frame included in the moving image stream.

多視点画像DB50は、例えば不揮発性メモリなどにより構成され、画像処理装置10で抽出されるとともに、距離が等間隔と推定された複数の撮影位置において、カメラ21で撮影することによって得られる、複数の再サンプリングフレームを静止画像として保存する。   The multi-viewpoint image DB 50 is configured by, for example, a non-volatile memory, and is extracted by the image processing apparatus 10 and obtained by shooting with the camera 21 at a plurality of shooting positions whose distances are estimated at equal intervals. Are stored as still images.

[1−2.動作]
以上のように構成された本実施の形態における画像処理システム1について、動作を説明する。
[1-2. Operation]
An operation of the image processing system 1 in the present embodiment configured as described above will be described.

図3は、実施の形態における画像処理システム1の動作を示すフローチャートである。   FIG. 3 is a flowchart showing the operation of the image processing system 1 in the embodiment.

まず、図3に示すように、撮影部20は、制御部30の制御に応じて被写体24を撮影する(ステップS201)。具体的には、制御部30がターンテーブル23の回転の制御を行うことで、カメラ21はターンテーブル23に載せられた被写体24を、被写体24の360度周囲から撮影する。さらに制御部30がロボットアーム22によるカメラ21の移動の制御を行うことで、カメラ21は、ターンテーブル23のテーブル面と垂直な面において、被写体24を中心とした円周方向に移動する。カメラ21は、移動した位置から再度、被写体24を被写体24の360度周囲から撮影する。制御部30がターンテーブル23の回転及びロボットアーム22によるカメラ21の移動の制御を繰り返し行うことで、カメラ21は被写体24を中心とした球面上の位置から被写体24を撮影した動画像ストリームを生成する。生成された動画像ストリームは撮影画像記憶部40に記憶される。この時、動画像ストリームに含まれるフレームのそれぞれの撮影時刻を示すタイムスタンプも記憶される。つまり、動画像ストリームに含まれる複数のフレームと当該複数のフレームのそれぞれに対応するタイムスタンプとが撮影画像記憶部40に記憶される。   First, as illustrated in FIG. 3, the photographing unit 20 photographs the subject 24 under the control of the control unit 30 (step S201). Specifically, the control unit 30 controls the rotation of the turntable 23, so that the camera 21 captures the subject 24 placed on the turntable 23 from around 360 degrees of the subject 24. Further, when the control unit 30 controls the movement of the camera 21 by the robot arm 22, the camera 21 moves in a circumferential direction around the subject 24 on a plane perpendicular to the table surface of the turntable 23. The camera 21 again captures the subject 24 from around 360 degrees around the subject 24 from the moved position. The control unit 30 repeatedly controls the rotation of the turntable 23 and the movement of the camera 21 by the robot arm 22, so that the camera 21 generates a moving image stream in which the subject 24 is captured from a position on the spherical surface centered on the subject 24. To do. The generated moving image stream is stored in the captured image storage unit 40. At this time, a time stamp indicating the shooting time of each frame included in the moving image stream is also stored. That is, a plurality of frames included in the moving image stream and time stamps corresponding to the plurality of frames are stored in the captured image storage unit 40.

次に、画像処理装置10は、距離が等間隔と推定された複数の撮影位置(再サンプリング点)において、カメラ21で撮影することによって得られる複数のフレーム(再サンプリングフレーム)を、撮影画像記憶部40に記憶された動画像ストリームから抽出する(ステップS202)。   Next, the image processing apparatus 10 stores a plurality of frames (resampling frames) obtained by photographing with the camera 21 at a plurality of photographing positions (resampling points) whose distances are estimated to be equal intervals. Extracted from the moving image stream stored in the unit 40 (step S202).

最後に、画像処理装置10は、抽出された複数の再サンプリングフレームを静止画像として多視点画像DB50に保存する(ステップS203)。   Finally, the image processing apparatus 10 stores the extracted plurality of resampled frames as still images in the multi-viewpoint image DB 50 (step S203).

図4は、実施の形態における静止画像抽出方法の動作を示すフローチャートである。図4は、図3のステップステップS202の処理を詳細に示すフローチャートである。   FIG. 4 is a flowchart illustrating the operation of the still image extraction method according to the embodiment. FIG. 4 is a flowchart showing in detail the process of step S202 of FIG.

まず、画像抽出部11は、撮影画像記憶部40に記憶された動画像ストリームから、複数の初期サンプリングフレームを抽出し、抽出した複数の初期サンプリングフレームのそれぞれに対応するタイムスタンプを取得する初期サンプリングを行う(ステップS301)。例えば、画像抽出部11は、8個の初期サンプリングフレームを抽出し、抽出した8個の初期サンプリングフレームのそれぞれに対応する8個のタイムスタンプを取得する。ここで、抽出された8個の初期サンプリングフレームは、初期サンプリングフレームそれぞれに対応する8個のタイムスタンプが等間隔なフレームとする。つまり、画像抽出部11は、一定の時間間隔で初期サンプリングフレームを抽出する。なお、初期サンプリングフレームは8個に限らず、2〜7個でもよく、また、9個以上でもよい。初期サンプリングフレームの数が増えることにより、後述する再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプの推定の精度が高くなる。   First, the image extraction unit 11 extracts a plurality of initial sampling frames from the moving image stream stored in the captured image storage unit 40, and obtains a time stamp corresponding to each of the extracted plurality of initial sampling frames. Is performed (step S301). For example, the image extraction unit 11 extracts eight initial sampling frames, and acquires eight time stamps corresponding to the extracted eight initial sampling frames. Here, the extracted eight initial sampling frames are frames in which eight time stamps corresponding to the initial sampling frames are equally spaced. That is, the image extraction unit 11 extracts initial sampling frames at regular time intervals. Note that the number of initial sampling frames is not limited to eight, but may be two to seven, or nine or more. By increasing the number of initial sampling frames, the accuracy of estimation of time stamps of a plurality of frames obtained by photographing by the camera 21 at a re-sampling point described later is increased.

次に、撮影位置算出部12は、画像抽出部11で8個の初期サンプリングフレームそれぞれのタイムスタンプにおけるカメラ21の撮影位置(初期サンプリング点)を特定する(ステップS302)。   Next, the shooting position calculation unit 12 specifies the shooting position (initial sampling point) of the camera 21 at the time stamp of each of the eight initial sampling frames by the image extraction unit 11 (step S302).

さらに、撮影位置算出部12は、特定した8個の初期サンプリング点と、画像抽出部11で取得した8個の初期サンプリングフレームのそれぞれのタイムスタンプとに基づいて、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定する(ステップS303)。   Further, the photographing position calculation unit 12 uses the camera 21 at the re-sampling point based on the identified eight initial sampling points and the time stamps of the eight initial sampling frames acquired by the image extraction unit 11. Time stamps of a plurality of frames obtained by photographing are estimated (step S303).

最後に、画像抽出部11は、撮影画像記憶部40に記憶された動画像ストリームから、再サンプリングフレームを、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれとして抽出する再サンプリングを行う(ステップS304)。   Finally, the image extracting unit 11 extracts a resampled frame from the moving image stream stored in the photographed image storage unit 40 as each of a plurality of frames obtained by photographing by the camera 21 at the resampling point. Is performed (step S304).

図5は、実施の形態におけるカメラ21の撮影位置の特定方法を示すフローチャートである。図5は、図4のステップS302の処理を詳細に示すフローチャートである。   FIG. 5 is a flowchart showing a method for specifying the shooting position of the camera 21 in the embodiment. FIG. 5 is a flowchart showing in detail the process in step S302 of FIG.

まず、撮影位置算出部12は、8個の初期サンプリングフレームそれぞれの特徴点(特徴量)を抽出する(ステップS401)。特徴点は、SIFT又はHarrisのコーナー検出等で抽出される。なお、特徴点の抽出方法はこれらの方法に限定されない。   First, the shooting position calculation unit 12 extracts feature points (feature amounts) of the eight initial sampling frames (step S401). The feature points are extracted by SIFT or Harris corner detection or the like. Note that the feature point extraction method is not limited to these methods.

次に、撮影位置算出部12は、抽出した8個の初期サンプリングフレームそれぞれの特徴点のマッチングにより、フレーム間の対応する点を算出する(ステップS402)。   Next, the shooting position calculation unit 12 calculates corresponding points between the frames by matching the feature points of the extracted eight initial sampling frames (step S402).

最後に、撮影位置算出部12は、算出したフレーム間の対応する点のそれぞれからSFM(Structure From Motion)アルゴリズムを用いて撮影位置を特定する(ステップS403)。   Finally, the shooting position calculation unit 12 specifies a shooting position from each of the corresponding points between the calculated frames by using an SFM (Structure From Motion) algorithm (step S403).

このように、8個の初期サンプリングフレームそれぞれのタイムスタンプにおけるカメラ21の撮影位置である初期サンプリング点が特定される。初期サンプリング点は、例えば原点を任意とした座標(X,Y,Z)で表される。本実施の形態では、8個の初期サンプリングフレームが初期サンプリングによって抽出されたので、i=0〜7となる。 In this way, the initial sampling point that is the shooting position of the camera 21 at the time stamp of each of the eight initial sampling frames is specified. The initial sampling point is represented by coordinates (X i , Y i , Z i ) where the origin is arbitrary, for example. In the present embodiment, since eight initial sampling frames are extracted by the initial sampling, i = 0 to 7.

図6は、実施の形態における初期サンプリング点を示す説明図である。図6に示されるS(X,Y,Z)〜S(X,Y,Z)は、各初期サンプリング点及びその座標である。本実施の形態では、画像抽出部11は、一定の時間間隔で8個の初期サンプリングフレームを抽出する。図6に示すように、各初期サンプリング点は距離が等間隔な位置に存在しない。つまり、画像抽出部11は、初期サンプリングによって取得するタイムスタンプが等間隔になるように8個の初期サンプリングフレームを抽出するが、抽出した8個の初期サンプリングフレームの初期サンプリング点は、距離が等間隔な位置とはならない。これは、ターンテーブル23が一定の速度で回転していないためである。従って、画像抽出部11が、初期サンプリングによって取得するタイムスタンプが等間隔になるように複数の初期サンプリングフレームを抽出する場合でも、初期サンプリング点は、位置決めが不完全な撮影位置となる。 FIG. 6 is an explanatory diagram showing initial sampling points in the embodiment. S 0 (X 0 , Y 0 , Z 0 ) to S 7 (X 7 , Y 7 , Z 7 ) shown in FIG. 6 are each initial sampling point and its coordinates. In the present embodiment, the image extraction unit 11 extracts eight initial sampling frames at regular time intervals. As shown in FIG. 6, the initial sampling points do not exist at positions at equal distances. That is, the image extraction unit 11 extracts eight initial sampling frames so that the time stamps acquired by the initial sampling are equally spaced, but the initial sampling points of the extracted eight initial sampling frames have the same distance. There will be no gaps. This is because the turntable 23 does not rotate at a constant speed. Therefore, even when the image extraction unit 11 extracts a plurality of initial sampling frames so that the time stamps acquired by the initial sampling are equally spaced, the initial sampling point is a photographing position with incomplete positioning.

図7は、実施の形態における再サンプリング点のタイムスタンプを推定する方法の動作を示すフローチャートである。図7は、図4のステップS303の処理を詳細に示すフローチャートである。   FIG. 7 is a flowchart showing the operation of the method for estimating the time stamp of the re-sampling point in the embodiment. FIG. 7 is a flowchart showing in detail the processing in step S303 in FIG.

まず、撮影位置算出部12は、被写体24が載っているターンテーブル23の回転中心の位置を算出する(ステップS501)。具体的には、ターンテーブル23の回転中心の位置は、次式1〜7を用いた最小二乗法により算出される。   First, the photographing position calculation unit 12 calculates the position of the rotation center of the turntable 23 on which the subject 24 is placed (step S501). Specifically, the position of the rotation center of the turntable 23 is calculated by the least square method using the following equations 1-7.

次式1は球の中心点と半径との関係を示す式である。   The following expression 1 is an expression showing the relationship between the center point of the sphere and the radius.

Figure 0006476414
Figure 0006476414

式1に示されるX,Y,Zは初期サンプリング点の座標のそれぞれx成分、y成分、z成分である。X,Y,Zはターンテーブル23の回転中心の座標のそれぞれx成分、y成分、z成分である。また、rはターンテーブル23の回転中心と初期サンプリング点との距離である。つまり、rはターンテーブル23の回転中心を中心とした球の半径である。 X i , Y i , and Z i shown in Equation 1 are the x component, y component, and z component of the coordinates of the initial sampling point, respectively. X, Y, and Z are the x component, y component, and z component of the coordinates of the rotation center of the turntable 23, respectively. R is the distance between the rotation center of the turntable 23 and the initial sampling point. That is, r is a radius of a sphere with the rotation center of the turntable 23 as the center.

次式2及び3は、式1の左辺と右辺との差の累積二乗誤差を示す式である。   The following formulas 2 and 3 are formulas showing the accumulated square error of the difference between the left side and the right side of formula 1.

Figure 0006476414
Figure 0006476414

ここでA=−2X、B=−2Y、C=−2Z、D=X+Y+Z−rとすると、式2は次式3のようにまとめられる。 Here, assuming that A = −2X, B = −2Y, C = −2Z, and D = X 2 + Y 2 + Z 2 −r 2 , Expression 2 can be summarized as the following Expression 3.

Figure 0006476414
Figure 0006476414

次式4〜7は、式3を変数A〜Dで偏微分した値が0になるときの方程式である。式3を変数A〜Dで偏微分した値が0になるとき、式3で示される累積二乗誤差が最小となる球の中心点及び半径が算出される。具体的には、初期サンプリング点の座標(X,Y,Z)〜(X,Y,Z)を次式4〜7の(X,Y,Z)に代入して解くことで、ターンテーブル23の回転中心の座標は算出される。 The following equations 4 to 7 are equations when the value obtained by partial differentiation of equation 3 with variables A to D becomes zero. When the value obtained by partial differentiation of Equation 3 with variables A to D is 0, the center point and radius of the sphere that minimizes the cumulative square error shown in Equation 3 are calculated. Specifically, the coordinates (X 0 , Y 0 , Z 0 ) to (X 7 , Y 7 , Z 7 ) of the initial sampling point are substituted into (X i , Y i , Z i ) in the following expressions 4 to 7: Thus, the coordinates of the rotation center of the turntable 23 are calculated.

Figure 0006476414
Figure 0006476414

Figure 0006476414
Figure 0006476414

Figure 0006476414
Figure 0006476414

Figure 0006476414
Figure 0006476414

このようにして、ターンテーブル23の回転中心の位置は算出される。   In this way, the position of the rotation center of the turntable 23 is calculated.

なお、ターンテーブル23の回転中心の座標は式1〜7に示されるように最小二乗法を用いて算出されたが、これに限らない。例えば、RANSAC(RANdom SAmple Consensus)アルゴリズムを適応したロバスト推定法が用いられてもよい。   In addition, although the coordinate of the rotation center of the turntable 23 was calculated using the least square method as shown in Formulas 1-7, it is not restricted to this. For example, a robust estimation method adapted to a RANSAC (RANdom Sample Consensus) algorithm may be used.

次に、撮影位置算出部12は、初期サンプリング点のうちの1つを基準点として、ターンテーブル23の回転中心から基準点へのベクトルと、ターンテーブル23の回転中心から基準点を除く初期サンプリング点へのベクトルとの間のなす角を算出する(ステップS502)。例えば、図6に示される点Sを基準点として点Sとする。また、ターンテーブル23の回転中心を原点Oとした場合に、点Sの座標を(x,y,z)とし、他の7個の初期サンプリング点の座標を(x,y,z)とする(i=1〜7)。ターンテーブル23の回転中心Oから基準点Sへのベクトルと、ターンテーブル23の回転中心Oから他の7個の初期サンプリング点Sそれぞれへのベクトルとの間のなす角θを算出する式を次式8及び9に示す。 Next, the imaging position calculation unit 12 uses one of the initial sampling points as a reference point, a vector from the rotation center of the turntable 23 to the reference point, and initial sampling that excludes the reference point from the rotation center of the turntable 23. The angle between the point and the vector is calculated (step S502). For example, the point S b a S 0 points indicated in Figure 6 as a reference point. Further, when the rotation center of the turntable 23 is the origin O, the coordinates of the point S b are (x b , y b , z b ), and the coordinates of the other seven initial sampling points are (x i , y i , z i ) (i = 1 to 7). It calculates a vector from the rotation center O of the turn table 23 to the reference point S b, the angle theta i between the vector from the rotation center O of the turntable 23 to the other seven initial sampling points S i, respectively The equations are shown in the following equations 8 and 9.

Figure 0006476414
Figure 0006476414

Figure 0006476414
Figure 0006476414

このようにして、初期サンプリング点の位置は、基準点からの角度として算出される。また、画像抽出部11は8個の初期サンプリングフレームそれぞれのタイムスタンプを取得している(ステップS301)。従って、8個の初期サンプリング点の基準点からの角度は、8個の初期サンプリングフレームそれぞれのタイムスタンプと対応している。   In this way, the position of the initial sampling point is calculated as an angle from the reference point. In addition, the image extraction unit 11 acquires time stamps for each of the eight initial sampling frames (step S301). Therefore, the angle of the eight initial sampling points from the reference point corresponds to the time stamp of each of the eight initial sampling frames.

次に、撮影位置算出部12は、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定する。(ステップS503)。   Next, the shooting position calculation unit 12 estimates time stamps of a plurality of frames obtained by shooting with the camera 21 at the re-sampling point. (Step S503).

図8は、実施の形態における初期サンプリング点のタイムスタンプと基準点からの角度との関係を示す説明図ある。各初期サンプリング点のタイムスタンプsと基準点からの角度θとが対応している。 FIG. 8 is an explanatory diagram showing the relationship between the time stamp of the initial sampling point and the angle from the reference point in the embodiment. The time stamp s i of each initial sampling point corresponds to the angle θ i from the reference point.

図8において、基準点からの角度θは、ステップS502で撮影位置算出部12により算出された角度の例である。本実施の形態では、画像抽出部11は、1秒間隔で初期サンプリングフレームを抽出しており、動画像ストリームのフレームレートを60fpsとしているので、タイムスタンプsは、60(1秒)毎の等間隔なタイムスタンプである。一方、基準点からの角度θは等間隔な角度となっていない。これは、前述したようにターンテーブル23が一定の速度で回転していないためである。従って、画像抽出部11が、タイムスタンプが等間隔になるように複数の初期サンプリングフレームを抽出する場合でも、初期サンプリング点は、位置決めが不完全な撮影位置となる。 In FIG. 8, the angle θ i from the reference point is an example of the angle calculated by the imaging position calculation unit 12 in step S502. In the present embodiment, the image extraction unit 11 extracts initial sampling frames at intervals of 1 second, and the frame rate of the moving image stream is set to 60 fps. Therefore, the time stamp s i is set every 60 (1 second). The time stamps are equally spaced. On the other hand, the angles θ i from the reference point are not equally spaced. This is because the turntable 23 does not rotate at a constant speed as described above. Therefore, even when the image extraction unit 11 extracts a plurality of initial sampling frames so that the time stamps are equally spaced, the initial sampling point is a photographing position with incomplete positioning.

なお、動画像ストリームのフレームレートは60fpsとしたが、これに限らない。動画像ストリームのフレームレートは、60fpsよりも小さい、例えば30fpsでもよく、60fpsよりも大きい、例えば120fpsでもよい。   Although the frame rate of the moving image stream is 60 fps, the present invention is not limited to this. The frame rate of the moving image stream may be smaller than 60 fps, for example, 30 fps, or larger than 60 fps, for example, 120 fps.

図9は、実施の形態における再サンプリング点を示す説明図である。図9に示すように、撮影位置算出部12は、例えば、22.5度毎の等間隔な角度にある再サンプリング点でのカメラ21による撮影によって得られる16個のフレームのそれぞれのタイムスタンプを推定する。図9において、点Tは(x=0〜15)、再サンプリング点である。 FIG. 9 is an explanatory diagram showing re-sampling points in the embodiment. As shown in FIG. 9, the shooting position calculation unit 12 obtains time stamps of 16 frames obtained by shooting with the camera 21 at re-sampling points at equal intervals of 22.5 degrees, for example. presume. 9, the point T x is (x = 0 to 15), a re-sampling point.

なお、本実施の形態では、再サンプリング点は16個であるが、これに限らない。再サンプリング点は16個よりも少なくてもよく、例えば45度毎の等間隔な角度にある再サンプリング点は8個になる。また、再サンプリング点は16個よりも多くてもよく、例えば10度毎の等間隔な角度にある再サンプリング点は36個になる。   In the present embodiment, there are 16 re-sampling points, but the present invention is not limited to this. There may be fewer than 16 re-sampling points, for example, there will be 8 re-sampling points at equally spaced angles every 45 degrees. Further, the number of re-sampling points may be larger than 16, and for example, there are 36 re-sampling points at equal intervals of every 10 degrees.

撮影位置算出部12は、再サンプリング点Tでのカメラ21による撮影によって得られるフレームのタイムスタンプtを推定する。具体的には、再サンプリング点Tの近傍の初期サンプリング点S及びSm−1の基準点からの角度θ及びθm−1と、対応するタイムスタンプs及びsm−1とから、再サンプリング点Tでのカメラ21による撮影によって得られるフレームのタイムスタンプtは推定される。つまり、初期サンプリング点S及びSm−1の基準点からの角度θ及びθm−1と、タイムスタンプs及びsm−1とに基づく線形補完により、再サンプリング点Tでのカメラ21による撮影によって得られるフレームのタイムスタンプtは推定される。本実施の形態では、再サンプリング点は16個としているので、x=0〜15となる。また、初期サンプリング点は8個としているので、m=1〜7となる。再サンプリング点Tでのカメラ21による撮影によって得られるフレームのタイムスタンプtの算出式は次式10となる。 The shooting position calculation unit 12 estimates a time stamp t x of a frame obtained by shooting with the camera 21 at the re-sampling point T x . Specifically, the angle theta m and theta m-1 from the initial sampling point reference point S m and S m-1 in the vicinity of the re-sampling point T x, associated with the time stamp s m and s m-1 from the time stamp t x of frames obtained by photographing by the camera 21 at the resampling point T x it is estimated. That is, the linear sampling based on the angles θ m and θ m−1 from the reference points of the initial sampling points S m and S m−1 and the time stamps s m and s m−1 can be performed at the re-sampling point T x . The time stamp t x of the frame obtained by photographing with the camera 21 is estimated. In the present embodiment, since there are 16 re-sampling points, x = 0 to 15. Since the initial sampling points are 8, m = 1 to 7. The following expression 10 is used to calculate the frame time stamp t x obtained by photographing with the camera 21 at the re-sampling point T x .

Figure 0006476414
Figure 0006476414

式10において、θは距離が等間隔に離れた再サンプリング点の間の角度を示す。つまり、図9に示すように、本実施の形態では、22.5度毎の等間隔な角度にある再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定するので、θ=22.5となる。   In Equation 10, θ represents the angle between re-sampling points that are equally spaced apart. That is, as shown in FIG. 9, in this embodiment, the time stamps of a plurality of frames obtained by photographing with the camera 21 at re-sampling points at equal intervals of 22.5 degrees are estimated. Therefore, θ = 22.5.

図10は、再サンプリング点での撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定する方法を示す説明図である。図10に示すように、再サンプリング点T(x=2)の近傍の初期サンプリング点S及びS(m=2)の基準点からの角度θ及びθと、タイムスタンプs及びsとに基づく線形補完により、再サンプリング点Tでのカメラ21による撮影によって得られるフレームのタイムスタンプtが推定される。図8に示す初期サンプリング点S及びSに対応するタイムスタンプと基準点からの角度とを式10に代入することで、タイムスタンプtを推定できる。本実施の形態では、θ=75、θ=30、s=180及びs=120からタイムスタンプtは140と推定される。 FIG. 10 is an explanatory diagram showing a method of estimating time stamps of a plurality of frames obtained by photographing at a re-sampling point. As shown in FIG. 10, the angles θ 2 and θ 1 from the reference points of the initial sampling points S 2 and S 1 (m = 2) in the vicinity of the re-sampling point T 2 (x = 2) and the time stamp s 2 and by linear interpolation based on the s 1, timestamp t 2 of the frame obtained by the photographing by the camera 21 at the resampling point T 2 it is estimated. The time stamp t 2 can be estimated by substituting the time stamp corresponding to the initial sampling points S 2 and S 1 and the angle from the reference point shown in FIG. In the present embodiment, the time stamp t 2 is estimated to be 140 from θ 2 = 75, θ 1 = 30, s 2 = 180, and s 1 = 120.

図8に示すように、8個の初期サンプリング点でのカメラ21による撮影によって得られた8個の初期サンプリングフレームは、60(1秒)毎のような等間隔なタイムスタンプのフレームである。こうすることで、図6に示されるように、初期サンプリング点は円周上に広く分散して位置することができる。従って、再サンプリング点Tでのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプtの推定の精度が高くなる。一方、例えば、初期サンプリング点が円周上の1部に偏った場合、再サンプリング点でのカメラ21による撮影によって得られるフレームのタイムスタンプの推定の精度は、円周上の1部に偏った初期サンプリング点群から再サンプリング点が離れるほど低くなる。 As shown in FIG. 8, the eight initial sampling frames obtained by photographing by the camera 21 at the eight initial sampling points are frames of time stamps at equal intervals such as every 60 (1 second). By doing so, as shown in FIG. 6, the initial sampling points can be widely dispersed on the circumference. Therefore, the accuracy of estimation of each time stamp t x of a plurality of frames obtained by photographing by the camera 21 at the re-sampling point T x is increased. On the other hand, for example, when the initial sampling point is biased to a part on the circumference, the accuracy of the estimation of the time stamp of the frame obtained by photographing by the camera 21 at the resampling point is biased to a part on the circumference. The lower the re-sampling point from the initial sampling point group, the lower the value.

なお、本実施の形態では、複数の初期サンプリングフレームは、それぞれ時間的に等間隔なタイムスタンプのフレームであるが、これに限らない。例えば、複数の初期サンプリングフレームは、それぞれ等間隔なタイムスタンプのフレームでなくてもよい。   In the present embodiment, the plurality of initial sampling frames are time-stamp frames that are equally spaced in time. However, the present invention is not limited to this. For example, the plurality of initial sampling frames do not have to be time-stamped frames at equal intervals.

次に、140と推定されたタイムスタンプtと同様に、他の再サンプリング点でのカメラ21による撮影によって得られるフレームのタイムスタンプは推定される。これにより、複数の再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれのタイムスタンプが推定される。 Next, as with the time stamp t 2 estimated to be 140, the time stamp of the frame obtained by imaging by the camera 21 at another re-sampling point is estimated. Thereby, time stamps of a plurality of frames obtained by photographing by the camera 21 at a plurality of re-sampling points are estimated.

最後に、画像抽出部11は、撮影画像記憶部40に記憶された動画像ストリームから、撮影位置算出部12で推定されたそれぞれのタイムスタンプの再サンプリングフレームを、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれとして、再サンプリングによって抽出する。そして、画像抽出部11は、抽出した再サンプリングフレームを静止画像として多視点画像DB50に保存する。   Finally, the image extraction unit 11 uses the camera 21 at the re-sampling point to resample the time-stamp resampling frames estimated by the shooting position calculation unit 12 from the moving image stream stored in the shot image storage unit 40. Each of a plurality of frames obtained by photographing is extracted by resampling. Then, the image extraction unit 11 stores the extracted resampling frame in the multi-viewpoint image DB 50 as a still image.

[1−3.効果等]
以上のように、本技術は、カメラを被写体に対して相対的に移動させながら時間的に連続して撮影した動画像ストリームから複数のフレームをそれぞれ静止画像として抽出する静止画像抽出方法である。前記動画像ストリームに含まれる複数の第1のフレームを抽出するとともに、抽出した複数の第1のフレームそれぞれの撮影時刻を取得する動作と、複数の第1のフレームそれぞれの前記撮影時刻におけるカメラの撮影位置を複数の第1のフレームから特定する動作と、複数の第1のフレームそれぞれで特定された前記カメラの撮影位置と、取得された前記撮影時刻とに基づいて、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作と、推定されたそれぞれの前記撮影時刻の第2のフレームを、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれとして前記動画像ストリームから抽出する動作とを行う。
[1-3. Effect]
As described above, the present technology is a still image extraction method in which a plurality of frames are extracted as still images from a moving image stream captured continuously in time while moving the camera relative to a subject. An operation of extracting a plurality of first frames included in the moving image stream, obtaining an imaging time of each of the extracted plurality of first frames, and a camera at the imaging time of each of the plurality of first frames Based on the operation of specifying the shooting position from the plurality of first frames, the shooting position of the camera specified by each of the plurality of first frames, and the acquired shooting time, a plurality of distances are equally spaced. The operation of estimating the shooting time of each of the plurality of frames obtained by shooting at the shooting position and the second frame at each of the estimated shooting times are shot at a plurality of shooting positions at equal intervals. The operation of extracting from the moving image stream as each of a plurality of frames obtained by this is performed.

これによれば、距離が等間隔に離れた適切な撮影位置における静止画像を短時間の撮影で抽出することができる。   According to this, it is possible to extract a still image at an appropriate shooting position whose distance is equally spaced by shooting in a short time.

すなわち、本実施の形態において、初期サンプリングによって動画像ストリームに含まれる複数の初期サンプリングフレームを抽出し、当該複数の初期サンプリングフレームに対応するタイムスタンプを取得する。そして、抽出した複数の初期サンプリングフレームのそれぞれの初期サンプリング点を特定し、特定した初期サンプリング点と、当該複数の初期サンプリングフレームに対応するタイムスタンプとに基づいて、再サンプリング点でのカメラによる撮影によって得られる複数のフレームのそれぞれのタイムスタンプを推定する。最後に、推定したそれぞれのタイムスタンプに対応する再サンプリングフレームを、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれとして、前記動画像ストリームから抽出する。   That is, in the present embodiment, a plurality of initial sampling frames included in the moving image stream are extracted by initial sampling, and time stamps corresponding to the plurality of initial sampling frames are acquired. Then, the initial sampling points of each of the plurality of extracted initial sampling frames are identified, and the image is taken by the camera at the re-sampling points based on the identified initial sampling points and the time stamps corresponding to the plurality of initial sampling frames. The time stamp of each of the plurality of frames obtained by is estimated. Finally, a re-sampling frame corresponding to each estimated time stamp is extracted from the moving image stream as each of a plurality of frames obtained by photographing by the camera 21 at the re-sampling point.

これにより、カメラを被写体に対して移動させながら被写体を撮影した場合、時間的に等間隔であっても距離は等間隔でない撮影位置での撮影によって得られる画像群から、距離が等間隔に離れた複数の撮影位置での撮影によって得られる静止画像を抽出することができる。そのため、距離が等間隔に離れた適切な撮影位置における静止画像を短時間の撮影で抽出することができる。   As a result, when the subject is photographed while moving the camera relative to the subject, the distance is evenly spaced from the image group obtained by photographing at the photographing position where the distance is not evenly spaced even if the distance is regular. It is possible to extract still images obtained by shooting at a plurality of shooting positions. Therefore, it is possible to extract a still image at an appropriate shooting position that is spaced at equal intervals by shooting in a short time.

また、前記動画像ストリームから抽出された第2のフレームの撮影位置を当該第2のフレームに基づいて特定し、前記第2のフレームの撮影位置と、前記距離が等間隔に離れた複数の撮影位置のうちの1つの等間隔位置との間の位置ずれが所定の範囲内であるか否かを判定する。前記位置ずれが所定の範囲内でない場合には、抽出された前記第2のフレームの撮影位置及び前記撮影時刻を用いて、前記等間隔位置でのカメラによる撮影によって得られるフレームの撮影時刻を再度推定し、再度推定された前記撮影時刻の第2のフレームを、距離が等間隔に離れた複数の撮影位置での前記カメラによる撮影によって得られるフレームとして、前記動画像ストリームから抽出する動作を行う。   In addition, the shooting position of the second frame extracted from the moving image stream is specified based on the second frame, and the shooting position of the second frame and a plurality of shootings at the same distance are separated. It is determined whether or not the positional deviation between one of the positions and the equally spaced position is within a predetermined range. If the positional deviation is not within a predetermined range, using the extracted shooting position and the shooting time of the second frame, the shooting time of the frame obtained by shooting with the camera at the equally spaced position is again set. The second frame at the shooting time estimated and re-estimated is extracted from the moving image stream as frames obtained by shooting with the camera at a plurality of shooting positions that are spaced at equal intervals. .

これによれば、距離が等間隔に離れた撮影位置における静止画像を高精度に抽出することができる。   According to this, it is possible to extract with high accuracy still images at shooting positions that are spaced at equal intervals.

また、前記撮影時刻を推定する際は、複数の第1のフレームそれぞれの特定された撮影位置及び取得された撮影時刻に基づく線形補完により、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームのそれぞれの撮影時刻を推定する。   In addition, when estimating the shooting time, by performing linear interpolation based on the specified shooting position of each of the plurality of first frames and the acquired shooting time, by shooting at a plurality of shooting positions at equal intervals. The imaging time of each of a plurality of obtained frames is estimated.

これによれば、距離が等間隔に離れた複数の撮影位置でのカメラによる撮影によって得られる複数のフレームについて、それぞれの撮影時刻を推定することができる。   According to this, it is possible to estimate the respective shooting times for a plurality of frames obtained by shooting with a camera at a plurality of shooting positions that are spaced at equal intervals.

また、前記複数の第1のフレームのそれぞれの撮影位置を特定する際は、前記複数の第1のフレームのそれぞれから抽出された複数の特徴点のマッチングにより、フレーム間の対応する点を算出し、算出したフレーム間の対応する点のそれぞれからSFM(Structure From Motion)アルゴリズムを用いて前記撮影位置を特定する。   Further, when specifying the shooting positions of each of the plurality of first frames, the corresponding points between the frames are calculated by matching a plurality of feature points extracted from each of the plurality of first frames. Then, the photographing position is specified from each of the corresponding points between the calculated frames by using an SFM (Structure From Motion) algorithm.

これによれば、動画像ストリームに含まれる複数のフレームのそれぞれの取得された撮影時刻におけるカメラの撮影位置を特定することができる。   According to this, it is possible to specify the shooting position of the camera at the acquired shooting time of each of the plurality of frames included in the moving image stream.

また、推定されたそれぞれの前記撮影時刻の第2のフレームを抽出する際は、被写体を中心とした円周上でカメラを移動させながら撮影することにより得られる動画像ストリームから、等間隔の角度にある複数の撮影位置でのカメラによる撮影によって得られる複数のフレームとして、第2のフレームそれぞれを抽出する。   In addition, when extracting the second frames at the respective estimated shooting times, angles of equal intervals are obtained from a moving image stream obtained by shooting while moving the camera on the circumference around the subject. Each of the second frames is extracted as a plurality of frames obtained by photographing with a camera at a plurality of photographing positions.

これによれば、被写体を中心とした円周上の位置における撮影によって得られる動画像ストリームから等間隔に配置された撮影位置からの全周囲画像を抽出することができる。   According to this, it is possible to extract all-around images from shooting positions arranged at equal intervals from a moving image stream obtained by shooting at a position on the circumference around the subject.

さらに、推定されたそれぞれの前記撮影時刻の第2のフレームを抽出する際は、被写体を中心とした円周の接線方向にカメラを移動させて撮影することにより得られる動画像ストリームから、視差のある3次元画像を生成するための複数の第2のフレームを抽出する。   Further, when extracting the estimated second frames at the respective shooting times, the parallax of the parallax is obtained from the moving image stream obtained by moving the camera in the tangential direction of the circumference around the subject. A plurality of second frames for generating a certain three-dimensional image are extracted.

これによれば、奥行き方向からの撮影によって得られる動画像ストリームから視差のある3次元画像を生成することができる。   According to this, it is possible to generate a three-dimensional image with parallax from a moving image stream obtained by photographing from the depth direction.

また、推定されたそれぞれの前記撮影時刻の第2のフレームを抽出する際は、直線上にカメラを移動させながら撮影することにより得られる動画像ストリームから、等間隔の距離にある複数の撮影位置でのカメラによる撮影によって得られる複数のフレームとして、第2のフレームそれぞれを抽出する。   Further, when extracting the second frames at the respective estimated shooting times, a plurality of shooting positions that are equidistant from a moving image stream obtained by shooting while moving the camera on a straight line Each of the second frames is extracted as a plurality of frames obtained by shooting with the camera.

また、本技術の画像処理装置は、カメラを被写体に対して相対的に移動させながら時間的に連続して撮影した動画像ストリームから複数のフレームをそれぞれ静止画像として抽出する。前記画像処理装置は、画像抽出部と撮影位置算出部とを備える。前記画像抽出部は、動画像ストリームに含まれる複数の第1のフレームを抽出し、抽出した複数の第1のフレームそれぞれの撮影時刻を取得する動作を行う。前記撮影位置算出部は、複数の第1のフレームそれぞれで取得された撮影時刻におけるカメラの撮影位置に関する情報を複数の第1のフレームから特定し、第1のフレームそれぞれで取得された撮影時刻と、第1のフレームそれぞれで特定された撮影位置に関する情報とに基づき、距離が等間隔に離れた複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作を行う。さらに、前記画像抽出部は、撮影位置算出部により推定されたそれぞれの撮影時刻に対応する第2のフレームを、距離が等間隔に離れた複数の撮影位置で撮影することによって得られる複数のフレームそれぞれとして動画像ストリームから抽出する動作を行うものである。   In addition, the image processing apparatus of the present technology extracts a plurality of frames as still images from a moving image stream continuously captured in time while moving the camera relative to the subject. The image processing apparatus includes an image extraction unit and a shooting position calculation unit. The image extraction unit performs an operation of extracting a plurality of first frames included in the moving image stream and acquiring a shooting time of each of the extracted first frames. The shooting position calculation unit identifies information on the shooting position of the camera at the shooting time acquired in each of the plurality of first frames from the plurality of first frames, and the shooting time acquired in each of the first frames; Then, based on the information regarding the shooting position specified in each of the first frames, an operation of estimating the shooting time of each of a plurality of frames obtained by shooting at a plurality of shooting positions that are spaced at equal intervals is performed. Further, the image extracting unit captures a plurality of frames obtained by capturing the second frame corresponding to each capturing time estimated by the capturing position calculating unit at a plurality of capturing positions that are equally spaced from each other. Each of them extracts the moving image stream.

これによれば、距離が等間隔に離れた適切な撮影位置における静止画像を短時間の撮影で抽出することができる。   According to this, it is possible to extract a still image at an appropriate shooting position whose distance is equally spaced by shooting in a short time.

図11は、本技術による他の実施の形態による静止画像抽出方法の動作を示すフローチャートである。   FIG. 11 is a flowchart illustrating an operation of a still image extraction method according to another embodiment of the present technology.

本実施の形態の画像処理システムの画像処理装置10は、再サンプリングによって抽出された再サンプリングフレームの撮影位置を検証し、その撮影位置が再サンプリング点から外れていれば、再サンプリングをもう一度行う。   The image processing apparatus 10 of the image processing system according to the present embodiment verifies the imaging position of the resampling frame extracted by resampling, and if the imaging position is out of the resampling point, performs resampling again.

図11に示すように、図4に示す処理と同様、ステップS301〜S304の処理を行う。ステップS304において、画像抽出部11は、再サンプリングフレームを、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームのそれぞれとして、動画像ストリームから再サンプリングによって抽出する。ステップS303で推定されたそれぞれのタイムスタンプに対応する再サンプリングフレームは、再サンプリング点でのカメラ21による撮影によって得られる複数のフレームとは限らない。具体的には、再サンプリング点近傍の2つの初期サンプリング点の間で、タイムスタンプと基準点からの角度との関係が比例関係になっていないと、ステップS303での推定は間違ってしまう。   As shown in FIG. 11, the processes in steps S301 to S304 are performed in the same manner as the process shown in FIG. In step S304, the image extraction unit 11 extracts the re-sampling frame from the moving image stream by re-sampling as each of a plurality of frames obtained by photographing by the camera 21 at the re-sampling point. The re-sampling frame corresponding to each time stamp estimated in step S303 is not necessarily a plurality of frames obtained by photographing with the camera 21 at the re-sampling point. Specifically, if the relationship between the time stamp and the angle from the reference point is not proportional between the two initial sampling points in the vicinity of the re-sampling point, the estimation in step S303 is incorrect.

ターンテーブル23の回転速度が一定でない場合、初期サンプリング点の間のタイムスタンプと基準点からの角度との関係が比例関係にならない。これにより、比例関係でないタイムスタンプと基準点からの角度とに基づく線形補完により推定されたタイムスタンプは、再サンプリング点に対応するタイムスタンプとならない。   When the rotation speed of the turntable 23 is not constant, the relationship between the time stamp between the initial sampling points and the angle from the reference point is not proportional. Thereby, the time stamp estimated by the linear interpolation based on the time stamp which is not proportional and the angle from the reference point does not become the time stamp corresponding to the re-sampling point.

本実施の形態では、ステップS304において再サンプリングによって抽出した複数の再サンプリングフレームを静止画像として多視点画像DB50に直接保存せず、画像抽出部11は、ステップS304において動画像ストリームから再サンプリングによって抽出した複数の再サンプリングフレームの撮影位置を、当該フレーム及び初期サンプリングフレームから特定する(ステップS305)。つまり、再サンプリングによって抽出された複数の再サンプリングフレームに対して、ステップS302での動作が行われる。これにより、ステップS303での推定が正しいか否かがわかる。   In the present embodiment, the plurality of re-sampling frames extracted by re-sampling in step S304 are not directly stored in the multi-viewpoint image DB 50 as still images, and the image extraction unit 11 extracts by re-sampling from the moving image stream in step S304. The shooting positions of the plurality of re-sampling frames are specified from the frame and the initial sampling frame (step S305). That is, the operation in step S302 is performed on a plurality of resampling frames extracted by resampling. Thereby, it can be determined whether or not the estimation in step S303 is correct.

次に、画像抽出部11は、再サンプリングによって抽出した再サンプリングフレームのステップS305で特定した撮影位置と、距離が等間隔に離れた複数の撮影位置のうちの1つの撮影位置である等間隔位置、つまり再サンプリング点との間の位置ずれが所定の範囲内であるか否かを判定する(ステップS306)。例えば、画像抽出部11は、再サンプリングによって抽出した再サンプリングフレームのステップS305で特定した撮影位置と、22.5度毎の等間隔な角度にある複数の撮影位置のうちの1つの撮影位置である45度の再サンプリング点との間の位置ずれが、所定の範囲内であるか否かを判定する。   Next, the image extraction unit 11 is an equidistant position that is one of the photographing positions identified in step S305 of the resampled frame extracted by resampling and a plurality of photographing positions whose distances are equally spaced. That is, it is determined whether or not the positional deviation from the re-sampling point is within a predetermined range (step S306). For example, the image extraction unit 11 uses one of the shooting positions specified in step S305 of the resampled frame extracted by resampling and a plurality of shooting positions at equal intervals of 22.5 degrees. It is determined whether or not a positional deviation from a certain 45-degree re-sampling point is within a predetermined range.

画像抽出部11は、再サンプリングによって抽出した複数の再サンプリングフレームすべての位置ずれが所定の範囲内である場合には(ステップS306でYes)、再サンプリングによって抽出した複数の再サンプリングフレームを静止画像として多視点画像DB50に保存する。   When the positional deviations of all the plurality of resampling frames extracted by resampling are within a predetermined range (Yes in step S306), the image extraction unit 11 selects the plurality of resampling frames extracted by resampling as a still image. And stored in the multi-viewpoint image DB 50.

画像抽出部11は、再サンプリングによって抽出した複数の再サンプリングフレームの位置ずれが所定の範囲内でない場合には(ステップS306でNo)、再サンプリングによって抽出した再サンプリングフレームの撮影位置及びタイムスタンプを用いて、再度、再サンプリング点でのカメラ21による撮影によって得られるフレームのタイムスタンプを推定する。つまり、再サンプリングによって抽出された複数の再サンプリングフレームの撮影位置及びタイムスタンプが、複数の初期サンプリングフレームの撮影位置に加えられて、推定の精度が高くなったステップS303での動作が行われる。そして、画像抽出部11は、推定されたタイムスタンプのフレームを、再サンプリング点でのカメラ21による撮影によって得られるフレームとして、動画像ストリームから抽出する。つまり、画像抽出部11は、抽出した複数の再サンプリングフレームの位置ずれが所定の範囲内になるまで、直前の再サンプリングによって抽出された再サンプリングフレームを用いて再サンプリングを繰り返し実行する。これにより、確実に所定の範囲内に位置ずれが収まるフレームを抽出することができる。言い換えれば、再サンプリング点でのフレームを高い精度で抽出することができる。   When the positional deviation of the plurality of resampling frames extracted by resampling is not within the predetermined range (No in step S306), the image extraction unit 11 uses the imaging position and time stamp of the resampling frame extracted by resampling. Then, again, the time stamp of the frame obtained by photographing with the camera 21 at the re-sampling point is estimated. In other words, the shooting positions and time stamps of the plurality of re-sampling frames extracted by resampling are added to the shooting positions of the plurality of initial sampling frames, and the operation in step S303 in which the estimation accuracy is increased is performed. Then, the image extracting unit 11 extracts the estimated time stamp frame from the moving image stream as a frame obtained by photographing by the camera 21 at the re-sampling point. That is, the image extraction unit 11 repeatedly performs resampling using the resampling frame extracted by the immediately preceding resampling until the positional deviation of the extracted resampling frames falls within a predetermined range. As a result, it is possible to reliably extract a frame in which the positional deviation falls within a predetermined range. In other words, the frame at the resampling point can be extracted with high accuracy.

以上のように、動画像ストリームから再サンプリングによって抽出した複数の再サンプリングフレームの撮影位置を、当該再サンプリングフレームに基づいて特定する。そして、再サンプリングによって抽出した再サンプリングフレームの撮影位置と、再サンプリング点との間の位置ずれが所定の範囲内であるか否かを判定する。再サンプリングによって抽出した複数の再サンプリングフレームの位置ずれが所定の範囲内でない場合には、再サンプリングによって抽出した再サンプリングフレームの撮影位置及びタイムスタンプを用いて、再サンプリング点でのカメラ21による撮影によって得られるフレームのタイムスタンプを推定する。そして、推定したタイムスタンプにより抽出した複数の再サンプリングフレームの位置ずれが所定の範囲内になるまで、直前の再サンプリングによって抽出した再サンプリングフレームを用いて再サンプリングを繰り返し実行する。   As described above, the shooting positions of a plurality of resampling frames extracted from the moving image stream by resampling are specified based on the resampling frames. Then, it is determined whether or not the positional deviation between the imaging position of the re-sampling frame extracted by re-sampling and the re-sampling point is within a predetermined range. When the positional deviation of a plurality of re-sampling frames extracted by resampling is not within a predetermined range, shooting by the camera 21 at the re-sampling point is performed using the shooting position and time stamp of the re-sampling frame extracted by re-sampling. Estimate the time stamp of the frame obtained by Then, re-sampling is repeatedly performed using the re-sampling frame extracted by the previous re-sampling until the positional deviation of the plurality of re-sampling frames extracted by the estimated time stamp falls within a predetermined range.

これにより、再サンプリングによって抽出した複数の再サンプリングフレームの位置ずれが所定の範囲内に収まるまで再サンプリングが行われるので、距離が等間隔に離れた適切な撮影位置における静止画像を抽出することができる。   As a result, re-sampling is performed until the positional deviation of the plurality of re-sampling frames extracted by re-sampling falls within a predetermined range, so that it is possible to extract a still image at an appropriate shooting position that is spaced at regular intervals. it can.

図12は、本技術の他の実施の形態による被写体の撮影方法を示す説明図である。図12に示すように、撮影部20は、ロボットアーム22とは別に、スライダー25を備え、スライダー25にカメラ21が取り付けられる。   FIG. 12 is an explanatory diagram illustrating a method for photographing a subject according to another embodiment of the present technology. As illustrated in FIG. 12, the photographing unit 20 includes a slider 25 separately from the robot arm 22, and the camera 21 is attached to the slider 25.

図12の一点鎖線で囲んだように(矢印Aで示す部分)、ロボットアーム22は、被写体24を中心とした図12のXZ平面上の円周方向にスライダー25及びスライダー25に取り付けられたカメラ21を移動可能に保持している。スライダー25は、図12の矢印Aに示すように、スライダー25に取り付けられたカメラ21を図12のy軸方向に移動可能に保持している。図12の一点鎖線で囲んだ部分は、カメラ21を正面から見たときのスライダー25によりカメラ21がy軸方向へ移動する様子を示した図である。   As surrounded by a one-dot chain line in FIG. 12 (part indicated by an arrow A), the robot arm 22 includes a slider 25 and a camera attached to the slider 25 in the circumferential direction on the XZ plane of FIG. 21 is held movably. As indicated by an arrow A in FIG. 12, the slider 25 holds the camera 21 attached to the slider 25 so as to be movable in the y-axis direction in FIG. A portion surrounded by a one-dot chain line in FIG. 12 is a diagram illustrating a state in which the camera 21 is moved in the y-axis direction by the slider 25 when the camera 21 is viewed from the front.

上記実施の形態では、カメラ21は、被写体24を中心とした円周上を被写体24に対して相対的に移動しながら、被写体24を撮影することにより動画像ストリームを生成した。一方、本実施の形態では、カメラ21はさらに、被写体24を中心とした円周の接線方向(y軸方向)にも移動し、移動後に再度、被写体24を中心とした円周上を被写体24に対して相対的に移動しながら、被写体24を撮影する。具体的には制御部30は以下の制御を行う。   In the embodiment described above, the camera 21 generates a moving image stream by shooting the subject 24 while moving relative to the subject 24 on the circumference around the subject 24. On the other hand, in the present embodiment, the camera 21 further moves in the tangential direction (y-axis direction) of the circumference around the subject 24, and after the movement, the subject 24 moves on the circumference around the subject 24 again. The subject 24 is photographed while moving relative to the image. Specifically, the control unit 30 performs the following control.

制御部30は、上記実施の形態と同様に、ターンテーブル23の回転、及び、ロボットアーム22によるカメラ21の移動の制御を繰り返し行うことで、被写体24を中心とした球面上の位置からカメラ21に被写体24を撮影させる。そして、制御部30は、スライダー25によるカメラ21の移動の制御を行い、被写体24を図12のy軸方向にカメラ21を移動させる。制御部30は、カメラ21をy軸方向に移動させた後に、再度、カメラ21に被写体24を中心とした球面上の位置からカメラ21に被写体24を撮影させる。これにより、被写体24の奥行き方向についても撮影されるので、被写体24を中心とした球面上の位置から被写体24を撮影した視差のある3次元画像を生成するための動画像ストリームが得られる。   The control unit 30 repeatedly controls the rotation of the turntable 23 and the movement of the camera 21 by the robot arm 22 in the same manner as in the above embodiment, so that the camera 21 is positioned from the position on the spherical surface with the subject 24 as the center. The subject 24 is photographed. Then, the control unit 30 controls the movement of the camera 21 by the slider 25 and moves the camera 21 in the y-axis direction of FIG. After moving the camera 21 in the y-axis direction, the control unit 30 causes the camera 21 to image the subject 24 again from a position on the spherical surface centered on the subject 24. Thereby, since the subject 24 is also photographed in the depth direction, a moving image stream for generating a parallax three-dimensional image obtained by photographing the subject 24 from a position on the spherical surface centering on the subject 24 is obtained.

以上のように、本変形例において、被写体24を中心とした円周の接線方向にカメラ21を移動させて撮影する。   As described above, in this modified example, the camera 21 is moved in the tangential direction of the circumference with the subject 24 as the center for shooting.

これにより、視差のある3次元画像を生成するためのフレームを含む動画像ストリームが得られる。そのため、視差のある3次元画像を生成するための複数のフレームを抽出することができる。   Thereby, a moving image stream including a frame for generating a three-dimensional image with parallax is obtained. Therefore, it is possible to extract a plurality of frames for generating a three-dimensional image with parallax.

以上のように、本技術における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present technology. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, the constituent elements described in the accompanying drawings and the detailed description may include not only constituent elements essential for solving the problem but also constituent elements not essential for solving the problem. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本技術における技術を例示するためのものであるから、特許請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this technique, a various change, replacement, addition, omission, etc. can be performed in a claim or its equivalent range.

本技術は、例えばインタラクティブに物体の全周囲画像を表示するための静止画像を抽出する画像処理装置に適用可能である。   The present technology can be applied to, for example, an image processing apparatus that extracts a still image for interactively displaying an entire surrounding image of an object.

1 画像処理システム
10 画像処理装置
11 画像抽出部
12 撮影位置算出部
20 撮影部
21 カメラ
22 ロボットアーム
23 ターンテーブル
24 被写体
25 スライダー
30 制御部
40 撮影画像記憶部
50 多視点画像DB
DESCRIPTION OF SYMBOLS 1 Image processing system 10 Image processing apparatus 11 Image extraction part 12 Shooting position calculation part 20 Shooting part 21 Camera 22 Robot arm 23 Turntable 24 Subject 25 Slider 30 Control part 40 Photographed image memory | storage part 50 Multiview image DB

Claims (8)

カメラを、被写体を中心とした円周または直線上一方向に相対的に移動させ、時間的に連続して撮影した動画像ストリームから、撮影時刻が等間隔になるように複数の第1のフレームを抽出する動作と、
前記複数の第1のフレームそれぞれの撮影時刻における撮影位置を前記複数の第1のフレームから特定する動作と、
前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づき、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作と、
推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として前記動画像ストリームから抽出する動作とを行うことを特徴とする静止画像抽出方法。
A plurality of first frames are set such that shooting times are equidistant from a moving image stream which is taken continuously in time by moving the camera relatively in one direction on the circumference or straight line centering on the subject. The action of extracting
An act of identifying a put that shooting positions on the plurality of first frames each shooting time from the plurality of first frame,
Operation and to estimate the respective imaging times plurality of frames obtained by the basis of the plurality of first frames each photographing time and photographing location, distance is taken at a plurality of photographing positions equally spaced,
A still image extraction method comprising: performing an operation of extracting each of a plurality of second frames corresponding to each of a plurality of estimated shooting times as a still image from the moving image stream.
前記複数の第1のフレームの数は、前記動画像ストリームに含まれるフレームの数よりも少ないことを特徴とする請求項1に記載の静止画像抽出方法。 The still image extraction method according to claim 1 , wherein the number of the plurality of first frames is smaller than the number of frames included in the moving image stream . 前記動画像ストリームは、前記カメラを、前記被写体を中心として相対的に略一定の速さで移動させ、時間的に連続して撮影された動画像ストリームであることを特徴とする請求項1に記載の静止画像抽出方法。 2. The moving image stream according to claim 1, wherein the moving image stream is a moving image stream that is taken continuously in time by moving the camera at a relatively constant speed around the subject. The still image extraction method described. 像抽出部と撮影位置算出部とを備えた画像処理装置であって、
前記画像抽出部は、カメラを、被写体を中心とした円周または直線上一方向に相対的に移動させ、時間的に連続して撮影した動画像ストリームから、撮影時刻が等間隔になるように複数の第1のフレームを抽出する動作を行い、
前記撮影位置算出部は、前記複数の第1のフレームそれぞれの撮影時刻における撮影位置を前記複数の第1のフレームから特定し、前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づき、距離が等間隔複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作を行い、
記画像抽出部は、前記撮影位置算出部により推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として前記動画像ストリームから抽出する動作を行うことを特徴とする画像処理装置。
An image processing apparatus and a photographing position calculation unit images extractor,
The image extraction unit moves the camera relatively in one direction on a circumference or a straight line with the subject as the center so that shooting times are equidistant from a moving image stream that is taken continuously in time. An operation of extracting a plurality of first frames is performed,
The photographing position calculating unit, the imaging position location was identified from the plurality of first frame, the shooting time of each of the plurality of first frame and the imaging position in the plurality of first frames each shooting time based distance performs an operation for estimating the respective imaging times plurality of frames obtained by photographing a plurality of photographing positions equally spaced,
Before Symbol image extracting unit includes a feature to perform an operation of extracting a plurality of second frame corresponding to each of the photographing positions plurality of imaging times estimated by the calculation unit, from the moving image stream as a still image An image processing apparatus.
カメラを、被写体に対して相対的に移動させ、時間的に連続して撮影した動画像ストリームから、複数の第1のフレームを抽出する動作と、
前記複数の第1のフレームそれぞれの撮影時刻を取得する動作と、
前記複数の第1のフレームそれぞれの撮影位置を前記複数の第1のフレームから特定する動作と、
前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づき、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作と、
推定された複数の撮影時刻それぞれに対応する複数の第2のフレームを抽出する動作と、
前記複数の第2のフレームそれぞれの撮影位置を前記複数の第2のフレームに基づいて特定する動作と
前記複数の第2のフレームそれぞれの撮影位置と、距離が等間隔の撮影位置との位置ずれが所定の範囲内であるか否かを判定する動作と
前記位置ずれが前記所定の範囲内でない場合には、前複数の第2のフレームそれぞれの撮影位置および撮影時刻を用いて、距離が等間隔の撮影位置となる撮影時刻を再度推定する動作と
再度推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として前記動画像ストリームから抽出する動作とを行うことを特徴とする静止画像抽出方法。
An operation of moving a camera relative to a subject and extracting a plurality of first frames from a moving image stream captured continuously in time;
An operation of acquiring a photographing time of each of the plurality of first frames;
An operation of specifying the shooting position of each of the plurality of first frames from the plurality of first frames;
An operation of estimating the shooting time of each of a plurality of frames obtained by shooting at a plurality of shooting positions at equal intervals based on the shooting time and shooting position of each of the plurality of first frames;
An operation of extracting a plurality of second frames corresponding to each of a plurality of estimated shooting times;
An act of identifying on the basis of the shooting position of each of the plurality of second frame to the plurality of second frames,
And imaging position of each of the plurality of second frames, the operation of positional deviation of the distance is equidistant photographing position to determine whether it is within a predetermined range,
When the positional deviation is not within the predetermined of the previous SL by using a plurality of second frames each photographing position and photographing time, distance and the operation of estimating the shooting time having equal intervals photographing position again ,
A still image extraction method, comprising: extracting a plurality of second frames corresponding to a plurality of re-estimated shooting times as still images from the moving image stream.
画像抽出部と撮影位置算出部とを備えた画像処理装置であって、An image processing apparatus including an image extraction unit and a shooting position calculation unit,
前記画像抽出部は、カメラを被写体に対して相対的に移動させ、時間的に連続して撮影した動画像ストリームから、複数の第1のフレームを抽出し、前記複数の第1のフレームそれぞれの撮影時刻を取得する動作を行い、The image extraction unit moves a camera relative to a subject, extracts a plurality of first frames from a moving image stream captured continuously in time, and extracts each of the plurality of first frames. Take action to get the shooting time,
前記撮影位置算出部は、前記複数の第1のフレームそれぞれの撮影時刻における撮影位置を前記複数の第1のフレームから特定し、前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づき、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作を行い、The shooting position calculation unit specifies a shooting position at each shooting time of the plurality of first frames from the plurality of first frames, and based on the shooting time and the shooting position of each of the plurality of first frames, Performing an operation to estimate the shooting time of each of a plurality of frames obtained by shooting at a plurality of shooting positions at equal distances,
前記画像抽出部は、前記撮影位置算出部により推定された複数の撮影時刻それぞれに対応する複数の第2のフレームを抽出する動作を行い、The image extraction unit performs an operation of extracting a plurality of second frames corresponding to a plurality of shooting times estimated by the shooting position calculation unit,
前記撮影位置算出部は、前記複数の第2のフレームそれぞれの撮影時刻における撮影位置を前記複数の第2のフレームから特定し、前記複数の第2のフレームそれぞれの撮影位置と、距離が等間隔の撮影位置との位置ずれが所定の範囲内であるか否かを判定し、前記位置ずれが前記所定の範囲内でない場合には、前記複数の第2のフレームそれぞれの撮影位置および撮影時刻を用いて、距離が等間隔の撮影位置となる撮影時刻の再度推定を行い、The shooting position calculation unit specifies a shooting position at a shooting time of each of the plurality of second frames from the plurality of second frames, and the shooting positions of the plurality of second frames are equally spaced from each other. It is determined whether or not the positional deviation with respect to the photographing position is within a predetermined range. If the positional deviation is not within the predetermined range, the photographing position and photographing time of each of the plurality of second frames are determined. Use it to re-estimate the shooting time at which the shooting positions are equally spaced,
前記画像抽出部は、再度推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として前記動画像ストリームから抽出する動作を行うことを特徴とする画像処理装置。The image processing apparatus, wherein the image extraction unit performs an operation of extracting each of a plurality of second frames corresponding to a plurality of re-estimated shooting times from the moving image stream as a still image.
カメラを、被写体に対して相対的に移動させ、時間的に連続して撮影した動画像ストリームから、複数の第1のフレームを抽出する動作と、
前記複数の第1のフレームそれぞれの撮影時刻を取得する動作と、
前記複数の第1のフレームそれぞれの撮影位置を前記複数の第1のフレームから特定する動作と、
前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づく線形補完により、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作と、
推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを静止画像として前記動画像ストリームから抽出する動作とを行うことを特徴とする静止画像抽出方法。
An operation of moving a camera relative to a subject and extracting a plurality of first frames from a moving image stream captured continuously in time;
An operation of acquiring a photographing time of each of the plurality of first frames;
An operation of specifying the shooting position of each of the plurality of first frames from the plurality of first frames;
By linear interpolation based on the photographing time and photographing location of each of the plurality of first frame, operation for estimating a plurality of frames each imaging time obtained by the distance to shoot at a plurality of photographing positions equally spaced,
A still image extraction method comprising: performing an operation of extracting each of a plurality of second frames corresponding to each of a plurality of estimated shooting times as a still image from the moving image stream.
画像抽出部と撮影位置算出部とを備えた画像処理装置であって、An image processing apparatus including an image extraction unit and a shooting position calculation unit,
前記画像抽出部は、カメラを被写体に対して相対的に移動させ、時間的に連続して撮影した動画像ストリームから、複数の第1のフレームを抽出し、前記複数の第1のフレームそれぞれの撮影時刻を取得する動作を行い、The image extraction unit moves a camera relative to a subject, extracts a plurality of first frames from a moving image stream captured continuously in time, and extracts each of the plurality of first frames. Take action to get the shooting time,
前記撮影位置算出部は、前記複数の第1のフレームそれぞれの撮影時刻における撮影位置を前記複数の第1のフレームから特定し、前記複数の第1のフレームそれぞれの撮影時刻および撮影位置に基づく線形補完により、距離が等間隔の複数の撮影位置で撮影することによって得られる複数のフレームそれぞれの撮影時刻を推定する動作を行い、The shooting position calculation unit specifies shooting positions at the shooting times of the plurality of first frames from the plurality of first frames, and is linear based on the shooting times and shooting positions of the plurality of first frames. By complementing, perform the operation to estimate the shooting time of each of multiple frames obtained by shooting at multiple shooting positions with equal distances,
前記画像抽出部は、前記撮影位置算出部により推定された複数の撮影時刻それぞれに対応する複数の第2のフレームそれぞれを、静止画像として前記動画像ストリームから抽出する動作を行うことを特徴とする画像処理装置。The image extraction unit performs an operation of extracting each of a plurality of second frames corresponding to each of a plurality of shooting times estimated by the shooting position calculation unit as a still image from the moving image stream. Image processing device.
JP2015082965A 2014-09-08 2015-04-15 Still image extraction method and image processing apparatus for realizing the method Active JP6476414B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/803,960 US9843789B2 (en) 2014-09-08 2015-07-20 Still-image extracting method and image processing device for implementing the same
CN201510564421.1A CN105407256B (en) 2014-09-08 2015-09-07 Static image extracting method and the image processing apparatus for realizing this method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014182721 2014-09-08
JP2014182721 2014-09-08

Publications (2)

Publication Number Publication Date
JP2016059029A JP2016059029A (en) 2016-04-21
JP6476414B2 true JP6476414B2 (en) 2019-03-06

Family

ID=55759203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015082965A Active JP6476414B2 (en) 2014-09-08 2015-04-15 Still image extraction method and image processing apparatus for realizing the method

Country Status (1)

Country Link
JP (1) JP6476414B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106969722B (en) * 2017-02-24 2019-05-31 深圳全息信息科技发展有限公司 A kind of 3D scan method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002176630A (en) * 2000-12-07 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> Time/space information giving/detecting method and device, and time/space information giving/detecting program recording medium
JP3888192B2 (en) * 2002-03-12 2007-02-28 ソニー株式会社 Product order receiving system and product order receiving method
JP4164696B2 (en) * 2003-03-25 2008-10-15 ソニー株式会社 Imaging apparatus and imaging method
US20130215239A1 (en) * 2012-02-21 2013-08-22 Sen Wang 3d scene model from video
JP5868816B2 (en) * 2012-09-26 2016-02-24 楽天株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2016059029A (en) 2016-04-21

Similar Documents

Publication Publication Date Title
EP3252715B1 (en) Two-camera relative position calculation system, device and apparatus
CN106503671B (en) The method and apparatus for determining human face posture
WO2013111229A1 (en) Camera calibration device, camera calibration method, and camera calibration program
JP2017528731A5 (en)
CN105407256B (en) Static image extracting method and the image processing apparatus for realizing this method
JP2015079444A5 (en)
JP2021106025A5 (en)
JP2019032218A (en) Location information recording method and device
TWI669683B (en) Three dimensional reconstruction method, apparatus and non-transitory computer readable storage medium
EP2960859A1 (en) Constructing a 3d structure
JP2016218815A (en) Calibration device and method for line sensor camera
JP6347610B2 (en) Image processing apparatus and three-dimensional spatial information acquisition method
JP6476414B2 (en) Still image extraction method and image processing apparatus for realizing the method
US20200285831A1 (en) Three-dimensional dataset and two-dimensional image localisation
JP2010184300A (en) Attitude changing device and attitude changing method
JP7230722B2 (en) Image processing device and image processing method
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
WO2023181212A1 (en) Display data generation program, display data generation device, and display data generation method
JP2008241609A (en) Distance measuring system and distance measuring method
US20140307053A1 (en) Method of prompting proper rotation angle for image depth establishing
KR101837269B1 (en) Coordination guide method and system based on multiple marker
JP6625654B2 (en) Projection device, projection method, and program
KR20160098543A (en) Device and method for multiview image calibration
Garro et al. Fast Metric Acquisition with Mobile Devices.
JP2013104660A (en) Momentum estimation method based on stereo vision using monocular camera image and momentum estimation device using the same

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R151 Written notification of patent or utility model registration

Ref document number: 6476414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151