JP2015130546A - Image processing system, method, program, and data format - Google Patents

Image processing system, method, program, and data format Download PDF

Info

Publication number
JP2015130546A
JP2015130546A JP2014000004A JP2014000004A JP2015130546A JP 2015130546 A JP2015130546 A JP 2015130546A JP 2014000004 A JP2014000004 A JP 2014000004A JP 2014000004 A JP2014000004 A JP 2014000004A JP 2015130546 A JP2015130546 A JP 2015130546A
Authority
JP
Japan
Prior art keywords
image
image data
display
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014000004A
Other languages
Japanese (ja)
Other versions
JP6276995B2 (en
Inventor
大木 光晴
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2014000004A priority Critical patent/JP6276995B2/en
Publication of JP2015130546A publication Critical patent/JP2015130546A/en
Application granted granted Critical
Publication of JP6276995B2 publication Critical patent/JP6276995B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate image data which expresses a series of time flow from plural images, or to reproduce image data which expresses a series of time flow.SOLUTION: An image processing system receives (11) plural images, acquires (12) images related with the images from an image data base (14) according to need, sequences (12) the images, determines (16) whether or not the images can smoothly be interconnected, selects (19) only the images which are important and can smoothly be interconnected in order, and stores (23) information on "a series of images" interconnected smoothly and a reproduction sequence. Then, the system reproduces (25) "a series of images" in accordance with the reproduction sequence.

Description

本技術は、複数の画像データをひと続きの画像として表示できるようにする画像処理方法、装置、プログラム、及び、フォーマットに関する。 The present technology relates to an image processing method, apparatus, program, and format that enable a plurality of image data to be displayed as a series of images.

最近、デジタルカメラの普及により、例えば、1回の旅行で、多量の枚数の静止画を撮影して、あるいは、動画を撮影して記録に残す事が一般的になってきた。しかし、簡単に撮影できる反面、いつでも再生できるという気持ちから、結局、1度も見返すことがないのが現状である。これは、膨大な枚数があり、見るのが面倒になるためである。 Recently, with the widespread use of digital cameras, for example, it has become common to shoot a large number of still images or shoot a moving image and record it on a single trip. However, while it is easy to shoot, the situation is that it can never be replayed because it can be played back at any time. This is because there are an enormous number of sheets and it is troublesome to see.

そこで、本願出願人は、膨大な枚数の画像を1つの画像としてまとめることを提案する。1つにまとまっているので、その1つのデータを見るだけで済み、膨大な枚数を見るという面倒なことがなくなる。従って、例えば旅行などの記録を気楽に見返すことが出来るようになる。 Therefore, the applicant of the present application proposes to collect a huge number of images as one image. Since they are grouped together, it is only necessary to see that one data, and there is no trouble of seeing a huge number of sheets. Therefore, for example, it becomes possible to look back on travel records easily.

さて、従来から、複数の画像を1つにまとめあげる方法あるいは装置として、以下のものがあった。すなわち、複数の画像を表示部(矩形領域)に表示させて、撮影者が、それら画像の位置を移動させることで、ひとつの矩形領域内に複数の画像を挿入させた画像を作成する方法が開示されている(特許文献1)。また、複数の画像から、ある規則に則り、フォトコラージュを作成していく手法も開示されている(特許文献2)。そして、複数の静止画について、接続のしやすいものを接続していき、1つの巨大な画像を生成するという方法もある(非特許文献1参照)。 Conventionally, there have been the following methods or apparatuses for collecting a plurality of images into one. That is, there is a method in which a plurality of images are displayed on a display unit (rectangular region), and a photographer moves an image position to create an image in which a plurality of images are inserted into one rectangular region. (Patent Document 1). In addition, a method of creating a photo collage from a plurality of images according to a certain rule is also disclosed (Patent Document 2). There is also a method in which a plurality of still images that are easy to connect are connected to generate one huge image (see Non-Patent Document 1).

特開2007−104336号公報JP 2007-104336 A

特開2000−215212号公報JP 2000-215212 A

Josef Sivic, Biliana Kaneva,Antonio Torralba, Shai Avidan, William Freeman, “Creatingand Exploring a Large Photorealistic Virtual Space,”First IEEE Workshop on Internet Vision, CVPR 2008Josef Sivic, Biliana Kaneva, Antonio Torralba, Shai Avidan, William Freeman, “Creating and Exploring a Large Photorealistic Virtual Space,” First IEEE Workshop on Internet Vision, CVPR 2008

ところで、特許文献1では、1つの画像データにまとめあげる際に、人手を介して編集しなくてはいけないため、面倒であった。 By the way, in Patent Document 1, it is troublesome because it is necessary to manually edit when collecting the image data.

また、特許文献1および特許文献2では、画像データを接続(融合)する概念がなく、単に、複数の画像を配置していくだけであり、最終的に得られる1つのまとめられた画像データは、時間とともに流れていく連続性を感じることが出来ない。つまり、単なる1つずつの写真が重なって見えるだけであり、1つの連続した時間の流れを表現することは出来なかった。 Further, in Patent Document 1 and Patent Document 2, there is no concept of connecting (merging) image data, and a plurality of images are simply arranged, and one finally obtained image data is: I cannot feel the continuity that flows with time. In other words, only one photo at a time seemed to overlap, and one continuous flow of time could not be expressed.

非特許文献1では、画像データを接続(融合)し、ひとつの画像にまとめ上げる手法が示されているが、撮影された時間あるいは位置の概念がまったく考慮されていない。例えば、非特許文献1の手法により、旅行中に撮影した複数の画像から、1枚の連続した画像を作成することを考える。この作成された画像を、鑑賞者が鑑賞しても、観光地をどのような順番で巡ったかは分からない。時間とともに推移していく画像を提示していないからである。なお、画像どうしはスムーズに接続されており、画像どうしの連続性を感じることができるが、隣接する画像は時間的に連続して撮影された画像とは限らないので、画像どうしの連続性は、時間の連続性を表現しているわけではない。 Non-Patent Document 1 shows a method of connecting (merging) image data and combining them into one image, but does not take into account the concept of time or position of shooting. For example, consider creating one continuous image from a plurality of images taken during a trip by the method of Non-Patent Document 1. Even if the viewer appreciates the created image, it is not known in what order the tourists have visited the sightseeing spot. This is because images that change with time are not presented. Note that the images are connected smoothly and you can feel the continuity between images, but the adjacent images are not necessarily images taken continuously in time, so the continuity between images is It does not represent the continuity of time.

また、特許文献1、特許文献2、および、非特許文献1のいずれにおいても、静止画が前提の処理であり、動画に対しては、どのような処理をすべきか開示されていない。 In any of Patent Document 1, Patent Document 2, and Non-Patent Document 1, a still image is a premise process, and what kind of processing should be performed on a moving image is not disclosed.

また、特許文献1、特許文献2、および、非特許文献1のいずれにおいても、まとめあげられた画像を、どのような順番で表示していくと良いかが、考慮されていない。 In any of Patent Document 1, Patent Document 2, and Non-Patent Document 1, it is not considered in what order the collected images should be displayed.

重要な点を再度述べると、従来技術では、複数の画像から、1つの連続した時間の流れを表現する画像データを生成することは出来なかった。また、「1つの連続した時間の流れを表現する画像データ」の再生に必要なデータフォーマットも存在しなかった。 To reiterate, the prior art cannot generate image data expressing one continuous time flow from a plurality of images. In addition, there is no data format necessary for reproduction of “image data expressing one continuous flow of time”.

本技術は、このような状況に鑑みてなされたものであり、時間とともに流れていく連続性を感じることの出来る表示用の画像データを作成し、あるいは、再生できるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to create or reproduce image data for display that allows the user to feel the continuity that flows with time.

本技術の一側面の画像処理装置は、入力画像データ群を処理し、表示用画像データを出力する画像処理装置であって、第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力部と、上記入力画像データ群内の各画像データをソートする画像整列部と、上記入力画像データ群内の各画像データの重要度を決定する重要度判断部と、上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断部と、上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断部で接続可能であると判断された、上記重要度判断部で重要であると判断された画像データどうしを、上記画像整列部でソートされた順番に接続していくことで、上記表示用画像データを作成する接続部と、上記接続部で作成された上記表示用画像データを出力する出力部とを備える。 An image processing apparatus according to an aspect of the present technology is an image processing apparatus that processes an input image data group and outputs display image data. The first image data group is input to the first image data group. A first input unit having the input image data group as an input image, an image alignment unit for sorting the image data in the input image data group, and an importance for determining the importance of each image data in the input image data group The degree determination unit, the connection possibility determination unit for determining the connection possibility between the image data in the input image data group, and the image data in the input image data group are selected and connected by the connection determination unit The display image data is created by connecting the image data determined to be important by the importance determination unit in the order sorted by the image alignment unit. Connection and the above connection And an output unit for outputting the display image data created in parts.

画像処理装置には、複数の画像データが含まれるデータベース部と、上記第1の入力部において入力した上記第1の画像データ群と関連のある画像データを、上記データベース部から取り出し、上記入力画像データ群に追加する第2の入力部とをさらに設けることが出来る。 In the image processing apparatus, a database unit including a plurality of image data and image data related to the first image data group input in the first input unit are extracted from the database unit, and the input image A second input unit to be added to the data group can be further provided.

画像処理装置には、上記接続部で接続される2つの画像データのうち、上記画像整列部でソートされた順番において若い順位の画像データを第1の画像データと呼ぶこととし、他方を、すなわち、若くない順位の画像データを第2の画像データと呼ぶこととした場合、上記接続部での上記入力画像データ群の画像データどうしの接続は、
(場合1)上記第1の画像データが静止画であり、かつ、上記第2の画像データが動画である場合、静止画である上記第1の画像データと、動画である上記第2の画像データの最初のフレームとの接続を行うようにし、
(場合2)上記第1の画像データが動画であり、かつ、上記第2の画像データが静止画である場合、動画である上記第1の画像データの最後のフレームと、静止画である上記第2の画像データとの接続を行うようにし、
(場合3)上記第1の画像データが動画であり、かつ、上記第2の画像データが動画である場合、動画である上記第1の画像データの最後のフレームと、動画である上記第2の画像データの最初のフレームとの接続を行うようにすることが出来る。
In the image processing apparatus, among the two pieces of image data connected by the connection unit, image data having a lower rank in the order sorted by the image alignment unit is referred to as first image data, and the other, that is, If the image data of the order that is not young is called the second image data, the connection between the image data of the input image data group in the connection unit is
(Case 1) When the first image data is a still image and the second image data is a moving image, the first image data that is a still image and the second image that is a moving image. Make a connection to the first frame of data,
(Case 2) When the first image data is a moving image and the second image data is a still image, the last frame of the first image data that is a moving image and the above-mentioned image that is a still image Make a connection with the second image data,
(Case 3) When the first image data is a moving image and the second image data is a moving image, the last frame of the first image data that is a moving image and the second image that is a moving image. It is possible to connect to the first frame of the image data.

上記表示用画像データは、時間とともに上記接続部で接続された順番に、すなわち、上記画像整列部でソートされた順番において昇順に、表示をしていくという再生順番の情報を作成する再生順番指示生成部をさらに設け、上記出力部では、上記表示用画像データとともに上記再生順番の情報も出力することが出来る。 The display image data is generated in the order in which the display image data is displayed over time in the order connected by the connection unit, that is, in ascending order in the order sorted by the image alignment unit. A generation unit is further provided, and the output unit can output the reproduction order information together with the display image data.

本技術の一側面のデータフォーマットは、複数の画像データと、該画像データ間の位置関係と、表示すべき順番を示すデータを有している。 A data format according to an aspect of the present technology includes a plurality of image data, a positional relationship between the image data, and data indicating an order to be displayed.

本技術の一側面の画像処理方法またはプログラムは、入力画像データ群を処理し、表示用画像データを出力する画像処理方法またはプログラムであって、第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力ステップと、上記入力画像データ群内の各画像データをソートする画像整列ステップと、上記入力画像データ群内の各画像データの重要度を決定する重要度判断ステップと、上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断ステップと、上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断ステップで接続可能であると判断された、上記重要度判断ステップで重要であると判断された画像データどうしを、上記画像整列ステップでソートされた順番に接続していくことで、上記表示用画像データを作成する接続ステップと、上記接続ステップで作成された上記表示用画像データを出力する出力ステップとを含む。 An image processing method or program according to an aspect of the present technology is an image processing method or program that processes an input image data group and outputs display image data. The first image data group is input and the first image data group is input. A first input step in which the input image data group is the input image data group, an image alignment step of sorting the image data in the input image data group, and the importance of the image data in the input image data group An importance level determining step, a connection possibility determination step for determining the connection possibility between the image data in the input image data group, and image data in the input image data group are selected and the connection possibility determination is performed. Image data determined to be connectable in the step and determined to be important in the importance determination step are sorted in the image alignment step. By going to connect in turn, comprises a connecting step of generating image data for the display, and an output step of outputting the display image data created in the connection step.

本技術の一側面においては、入力画像データ群を処理し、表示用画像データを出力する画像処理において、第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とし、上記入力画像データ群内の各画像データをソートし、上記入力画像データ群内の各画像データの重要度を決定し、上記入力画像データ群内の画像データ同士の接続可能性を判断し、上記入力画像データ群内の画像データを取捨選択し、接続可能であると判断され、かつ、重要であると判断された画像データどうしを、ソートされた順番に接続していくことで、上記表示用画像データを作成し、作成された上記表示用画像データを出力する。 In one aspect of the present technology, in image processing for processing an input image data group and outputting display image data, the first image data group is input, and the first image data group is input to the input image data group. And sorting the image data in the input image data group, determining the importance of the image data in the input image data group, and determining the possibility of connection between the image data in the input image data group. The image data in the input image data group is selected, the image data determined to be connectable and the image data determined to be important are connected in the sorted order, Display image data is created, and the created display image data is output.

本技術の一側面の画像処理装置は、第1の静止画と第1の動画を表示する画像処理装置であって、上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、あるいは、上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、のいずれか一方を少なくとも行う表示部を備える。 An image processing apparatus according to an aspect of the present technology is an image processing apparatus that displays a first still image and a first moving image, and the first still image and the first frame of the first moving image intersect. After the first still image is mainly displayed, the display area is moved with time to display the first frame of the first moving image, and after the next time. The second and subsequent frames of the first moving image are sequentially displayed or arranged so that the last frame of the first moving image and the first still image intersect each other. Display sequentially from the first frame of the first video to the last frame of the first video, and at the next time, mainly display the last frame of the first video, Move the display area over time So it comprises mainly or going to display the first still image, at least it performs display either a.

本技術の一側面の画像処理方法またはプログラムは、第1の静止画と第1の動画を表示する画像処理方法またはプログラムであって、上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、あるいは、上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、のいずれか一方を少なくとも行う表示処理ステップを含む。 An image processing method or program according to one aspect of the present technology is an image processing method or program for displaying a first still image and a first moving image, wherein the first still image and the first moving image of the first moving image are displayed. Arrange the frames so that they intersect with each other, display the first still image mainly, then move the display area over time to display the first frame of the first moving image mainly, and then After that time, the second and subsequent frames of the first moving image are sequentially displayed, or the last frame of the first moving image and the first still image intersect. And sequentially displaying from the first frame of the first moving image to the second frame from the end of the first moving image, and at the next time, mainly the last frame of the first moving image. To display To, by moving the display area with time, mainly including the first or will display the still image, at least it performs display processing step either in the.

本技術の一側面においては、第1の静止画と第1の動画を表示する画像処理において、上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、あるいは、上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、のいずれか一方を少なくとも行う表示処理を行う。 In one aspect of the present technology, in the image processing for displaying the first still image and the first moving image, the first still image and the first frame of the first moving image are arranged so as to intersect each other. After displaying the first still image mainly, the display area is moved with time to display mainly the first frame of the first moving image, and after the next time, the first moving image is displayed. The second and subsequent frames are sequentially displayed, or arranged so that the last frame of the first moving image and the first still image intersect each other, and the first moving image From the last frame to the second frame from the end of the first moving image sequentially, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is also displayed with time. Move the main To perform the first or will display the still image, at least it performs display processing either of.

本技術の一側面によれば、時間とともに流れていく連続性を感じることの出来る表示用の画像データを作成でき、そして、再生できる。 According to one aspect of the present technology, it is possible to create and reproduce image data for display that can feel continuity flowing with time.

デジタルカメラで撮影された画像の一般的な例を示す図である。It is a figure which shows the general example of the image image | photographed with the digital camera. 本発明における画像間のスムーズな接続に関する説明図である。It is explanatory drawing regarding the smooth connection between the images in this invention. 本発明における画像間のスムーズな接続に関する説明図である。It is explanatory drawing regarding the smooth connection between the images in this invention. 本発明における画像間のスムーズな接続に関する説明図である。It is explanatory drawing regarding the smooth connection between the images in this invention. 本発明における画像間のスムーズな接続に関する説明図である。It is explanatory drawing regarding the smooth connection between the images in this invention. 本発明により作成される「ひと続きの画像」の例を示す図である。It is a figure which shows the example of the "continuous image" produced by this invention. 本発明により作成される「ひと続きの画像」を再生する場合の説明図である。It is explanatory drawing at the time of reproducing | regenerating the "continuous image" produced by this invention. 本発明により作成される「ひと続きの画像」、および、その再生に関する説明図である。It is explanatory drawing regarding the "continuous image" created by this invention, and its reproduction | regeneration. 本発明により作成される「ひと続きの画像」、および、その再生に関する説明図である。It is explanatory drawing regarding the "continuous image" created by this invention, and its reproduction | regeneration. 本発明により作成される「ひと続きの画像」、および、その再生に関する説明図である。It is explanatory drawing regarding the "continuous image" created by this invention, and its reproduction | regeneration. 本発明により作成される「ひと続きの画像」を再生する場合の説明図である。It is explanatory drawing at the time of reproducing | regenerating the "continuous image" produced by this invention. 本発明により作成される「ひと続きの画像」を再生する場合の説明図である。It is explanatory drawing at the time of reproducing | regenerating the "continuous image" produced by this invention. 本発明におけるスムーズな接続による画像間の位置関係の説明図である。It is explanatory drawing of the positional relationship between the images by the smooth connection in this invention. 本発明における2つの静止画のスムーズな接続を行うための処理を説明するフローチャートである。It is a flowchart explaining the process for performing the smooth connection of two still images in this invention. 本発明の第1の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st Example of this invention. 本発明の第1の実施例における接続可能性判断部にて行われる、接続の可能性の可否を判断する処理を説明するフローチャートである。It is a flowchart explaining the process performed in the connection possibility judgment part in 1st Example of this invention which judges the possibility of a connection possibility. 本発明の第1の実施例における有向グラフ作成部、経路探索部、および、画像選別部にて行われる、「ひと続きの画像」の構成用の素材(画像)選別を行う処理を説明するフローチャートである。5 is a flowchart for explaining processing for selecting a material (image) for constituting “continuous images”, which is performed by the directed graph creation unit, the route search unit, and the image selection unit according to the first embodiment of the present invention. is there. 本発明の第1の実施例における有向グラフ作成部にて作成される有向グラフの一例を示す図である。It is a figure which shows an example of the directed graph created in the directed graph creation part in 1st Example of this invention. 本発明の第1の実施例における画像接続部にて行われる、隣接画像間の位置関係を求める処理と、マスクを作成する処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the positional relationship between adjacent images, and the process which produces a mask performed in the image connection part in 1st Example of this invention. 本発明の第1の実施例におけるレンダリング情報作成部にて行われる、各画像のレンダリング位置を確定する処理を説明するフローチャートである。It is a flowchart explaining the process which determines the rendering position of each image performed in the rendering information preparation part in 1st Example of this invention. 本発明の第1の実施例におけるレンダリング情報作成部にて行われる、各画像のレンダリング位置を確定する処理を説明するフローチャートである。It is a flowchart explaining the process which determines the rendering position of each image performed in the rendering information preparation part in 1st Example of this invention. 本発明の第1の実施例における表示情報作成部にて行われる、再生時に表示する位置を確定する処理を説明するフローチャートである。It is a flowchart explaining the process which determines the position displayed at the time of reproduction | regeneration performed by the display information preparation part in 1st Example of this invention. 本発明の第1の実施例における表示情報作成部にて行われる、再生時に表示する位置を確定する処理を説明するフローチャートである。It is a flowchart explaining the process which determines the position displayed at the time of reproduction | regeneration performed by the display information preparation part in 1st Example of this invention. 本発明の第1の実施例における再生時に表示する位置の説明図である。It is explanatory drawing of the position displayed at the time of reproduction | regeneration in 1st Example of this invention. 本発明の第1の実施例における再生時に表示する位置の説明図である。It is explanatory drawing of the position displayed at the time of reproduction | regeneration in 1st Example of this invention. 本発明の第1の実施例における再生部にて行われる、再生の処理を説明するフローチャートである。It is a flowchart explaining the process of reproduction | regeneration performed in the reproducing | regenerating part in 1st Example of this invention. デジタルカメラで撮影された画像の一般的な例を示す図である。It is a figure which shows the general example of the image image | photographed with the digital camera. 本発明の第2の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the 2nd Example of this invention. 本発明の第2の実施例における左トリミング部および右トリミング部にて行われるトリミングについての説明図である。It is explanatory drawing about the trimming performed in the left trimming part in the 2nd Example of this invention, and the right trimming part. 本発明の第2の実施例により作成される「ひと続きの画像」、および、その再生に関する説明図である。It is explanatory drawing regarding the "continuous image" produced by the 2nd Example of this invention, and its reproduction | regeneration. 「ひと続きの画像」を生成し、そして、再生するために使用されるコンピュータ装置の構成例を示すブロック図A block diagram illustrating an example of the configuration of a computer device used to generate and play a "continuous image"

本発明を適用した典型的な例をまず示す。撮影者は、旅行に出かけ、デジタルカメラによる写真撮影やビデオ撮影をしながら、観光地を複数まわって、帰宅する。帰宅後に、デジタルカメラ内のメモリに記録された画像(静止画、動画およびシネマグラフ)を、PC(パーソナルコンピュータ)に取り込む。そして、PC上で、本発明を具現化したプログラムを実行することで、時間とともに流れていく「ひと続きの画像(絵巻物)」を作成する。なお、シネマグラフについては、後述する。また、本発明において、画像とは、静止画、動画、あるいは、シネマグラフのことを指している。そして、この「ひと続きの画像(絵巻物)」をPC上に表示することで、旅の思い出にふけることが出来る。なお、「ひと続きの画像(絵巻物)」とは、一般用語ではなく、本発明における生成物の1つであり、詳細は後述する。 First, a typical example to which the present invention is applied will be described. The photographer goes on a trip, travels around a plurality of sightseeing spots while taking photographs and videos with a digital camera, and returns home. After returning home, images (still images, moving images, and cinema graphs) recorded in the memory in the digital camera are taken into a PC (personal computer). Then, by executing a program embodying the present invention on a PC, a “continuous image (picture scroll)” that flows with time is created. The cinema graph will be described later. In the present invention, an image refers to a still image, a moving image, or a cinema graph. By displaying this “continuous image (picture scroll)” on the PC, you can indulge in memories of your trip. The “continuous image (picture scroll)” is not a general term but one product in the present invention, and will be described in detail later.

また、シネマグラフとは、複数枚のフレーム(静止画)から成る動画の1種であるが、以下の特徴を有している。すなわち、シネマグラフは、最後のフレームまで再生した後に、最初のフレームに戻り再生(ループ再生)しても、違和感のない動画である。たとえば、普通に動画を撮影した後に、「Kwatra et al., "Graphcut Textures: Image
and Video Synthesis Using Graph Cuts," Proceedings
of SIGGRAPH 2003」の7章に記載されている処理を行うことで、シネマグラフは作成することが出来る。また、ソニーモバイルコミュニケーションズ株式会社が、スマートフォン用のアプリケーションとして、「Xperia(TM) Motion Snap」を配布している。このアプリケーションを使えば、撮影時に自動でシネマグラフを作成してくれる。シネマグラフにより、被写体が無限に動き続けるという表現が可能である。
A cinema graph is a kind of moving image composed of a plurality of frames (still images), and has the following characteristics. That is, the cinema graph is a moving image that does not feel uncomfortable even if the movie is played back to the last frame and then played back (loop playback). For example, after shooting a normal video, “Kwatra et al.,“ Graphcut Textures: Image
and Video Synthesis Using Graph Cuts, "Proceedings
Cinemagraphs can be created by performing the processing described in Chapter 7 of “of SIGGRAPH 2003”. Sony Mobile Communications Co., Ltd. distributes "Xperia (TM) Motion Snap" as an application for smartphones. With this application, you can automatically create a cinema graph when shooting. The cinema graph can express that the subject keeps moving indefinitely.

本発明においては、シネマグラフも素材として使用できる。本発明においては、ループ再生できる動画を、シネマグラフと称し、ループ再生できない動画(最後のフレームから最初のフレームにスムーズに移行できない動画)を、「動画」と称して区別して説明していく。 In the present invention, a cinema graph can also be used as a material. In the present invention, a moving image that can be loop-reproduced is referred to as a cinema graph, and a moving image that cannot be loop-reproduced (moving image that cannot be smoothly shifted from the last frame to the first frame) is referred to as a “moving image”.

次に、本発明の成果物である「ひと続きの画像(絵巻物)」について説明する。たとえば、図1に示す静止画A0、静止画A1、静止画A2が、旅行者(撮影者)により撮影されたとする。撮影された順番(撮影時刻の順番)は、A0、A1、A2の順とする。すなわち、旅行者(撮影者)は、旅行の最初に、自動車100を撮影し、次に、建物101を撮影し、最後に人物102を撮影したとする。旅行が終わった後に、旅行者(撮影者)は、「旅行中に、自動車100を見て、さらに、建物101を見て、人物102に会った」ということを回想したい。今までは、単に、3枚の静止画(A0、A1、A2)を順番に表示させることしか出来なかった。つまり、それぞれのシーンが移り変わって行く様子を感じることが出来ず、旅行の連続性を感じることは出来なかった。本発明は、「旅行の連続性を感じさせる」ための映像表現を提供するものである。 Next, the “continuous image (picture scroll)” which is a product of the present invention will be described. For example, it is assumed that a still image A0, a still image A1, and a still image A2 shown in FIG. The order of photographing (order of photographing time) is A0, A1, A2. That is, it is assumed that the traveler (photographer) has photographed the automobile 100 at the beginning of the trip, then photographed the building 101, and finally photographed the person 102. After the trip is over, the traveler (photographer) wants to recall that while he was traveling, he saw the car 100 and then saw the building 101 and met the person 102. Until now, it was only possible to display three still images (A0, A1, A2) in order. In other words, I couldn't feel how each scene changed and I couldn't feel the continuity of travel. The present invention provides a video expression for “feeling the continuity of travel”.

そこで、まず、A0とA1の2枚の静止画を図2のように重ね合わせ、そして、図中の太線で示してある分断線200で接続することを考える。この分断線200は、2つの静止画がスムーズに接続できる境界線である。たとえば、前記「非特許文献1」に書かれている手法により、2枚の画像をスムーズに接続すれば良い。A1において、分断線よりも右側の領域(図3において、分断線200を含む太線で囲まれている斜線で示す領域300)をA1のマスク画像とする。換言すれば、A1のマスク画像とは、分断線200によりA1が2つに分断されるが、分断されたうちの、「A1の画像中心」を含む方の領域である。 Therefore, first, consider that two still images A0 and A1 are overlapped as shown in FIG. 2 and connected by a dividing line 200 indicated by a thick line in the drawing. The dividing line 200 is a boundary line at which two still images can be smoothly connected. For example, two images may be smoothly connected by the method described in “Non-Patent Document 1”. In A1, a region on the right side of the dividing line (in FIG. 3, a region 300 indicated by a diagonal line surrounded by a thick line including the dividing line 200) is set as a mask image of A1. In other words, the mask image of A1 is a region including “the center of the image of A1” among which the A1 is divided into two by the dividing line 200.

次に、A1とA2の2枚の静止画を図4のように重ね合わせ、そして、図中の太線で示してある分断線400で接続することを考える。この分断線400は、2つの静止画がスムーズに接続できる境界線である。A2において、分断線よりも右下側の領域(図5において、分断線400を含む太線で囲まれている斜線で示す領域500)をA2のマスク画像とする。換言すれば、A2のマスク画像とは、分断線400によりA2が2つに分断されるが、分断されたうちの、「A2の画像中心」を含む方の領域である。 Next, it is considered that two still images A1 and A2 are overlapped as shown in FIG. 4 and connected by a dividing line 400 indicated by a thick line in the drawing. The dividing line 400 is a boundary line that can smoothly connect two still images. In A2, a region on the lower right side of the dividing line (in FIG. 5, a region 500 indicated by a diagonal line surrounded by a thick line including the dividing line 400) is set as a mask image of A2. In other words, the mask image of A2 is a region including “the center of the image of A2” among the divided portions, although A2 is divided into two by the dividing line 400.

マスク画像が決定された後は、A0をキャンバス(図6の600)上に書き込む。そして、A1を、A1のマスク画像の部分のみ書き込む。このとき、キャンバス600上に書き込まれたA0の一部分は、A1により上書きされる。最後に、A2を、A2のマスク画像の部分のみ書き込む。このとき、キャンバス600上に書き込まれたA1の一部分は、A2により上書きされる。このようにすることで、キャンバス600上に、601で示すような画像(本発明においては、「ひと続きの画像(絵巻物)」と称している。)が出来上がる。 After the mask image is determined, A0 is written on the canvas (600 in FIG. 6). Then, A1 is written only in the mask image portion of A1. At this time, a part of A0 written on the canvas 600 is overwritten by A1. Finally, A2 is written only in the portion of the mask image of A2. At this time, a part of A1 written on the canvas 600 is overwritten by A2. By doing so, an image as indicated by reference numeral 601 (referred to as a “continuous image (picture scroll)” in the present invention) is completed on the canvas 600.

このようにして作成されたキャンパス600上の「ひと続きの画像(絵巻物)601」を以下のようにして再生する(表示する)。すなわち、図7において、最初に700で示す表示枠の領域を表示させ、次の時刻において、701で示す表示枠の領域を表示させ、さらに、次の時刻において702で示す表示枠の領域を表示させていく。以降、703で示す表示枠の領域に到達するまで、順次、表示枠を右に移動させながら表示していく。そして、次の時刻において、704で示す表示枠の領域を表示させる。さらに、次の時刻において、705で示す表示枠の領域を表示させる。以降、706で示す表示枠の領域に到達するまで、順次、表示枠を右下に移動させながら表示していく。最後に、706で示す表示枠の領域を表示させて、一連の表示を終了する。 The “continuous image (picture scroll) 601” on the campus 600 created in this way is reproduced (displayed) as follows. That is, in FIG. 7, the display frame area indicated by 700 is displayed first, the display frame area indicated by 701 is displayed at the next time, and the display frame area indicated by 702 is displayed at the next time. I will let you. Thereafter, the display frame is sequentially moved to the right until the display frame area 703 is reached. Then, at the next time, the display frame area indicated by 704 is displayed. Further, at the next time, a display frame area indicated by 705 is displayed. Thereafter, the display frame is sequentially displayed while moving to the lower right until the display frame area indicated by 706 is reached. Finally, the display frame area indicated by 706 is displayed, and a series of displays is completed.

このように表示させることで、旅行者(撮影者)は、表示順から「旅行中に、自動車100を見て、さらに、建物101を見て、人物102に会った」ということを順番に回想するとともに、各静止画がスムーズにつながっているので「旅行の連続性を感じる」ことが出来る。 By displaying in this way, the traveler (photographer) recalls in order, from the display order, “I saw the car 100 and then saw the building 101 and met the person 102 during the trip”. In addition, each still image is connected smoothly, so you can “feel the continuity of travel”.

なお、上記では、「分断線」という単語を使用した。図3や図5に示したように、この線は、静止画(A1やA2)を表示する部分と表示させない部分の2つに分断するための線を意味しているので、「分断線」という単語を使用した。この線を境界として静止画同士を接続しているので、「接続線」と表現しても良いであろう。 In the above, the word “partition line” is used. As shown in FIG. 3 and FIG. 5, this line means a line for dividing a still image (A1 or A2) into a part for displaying and a part for not displaying the still image (A1 or A2). The word was used. Since still images are connected with this line as a boundary, they may be expressed as “connection lines”.

また、ここでは3枚の静止画(A0、A1、A2)を例にして説明したが、通常、数十〜百枚程度の画像を接続することを想定している。 Further, although three still images (A0, A1, A2) have been described as an example here, it is assumed that usually several tens to hundreds of images are connected.

さて、「ひと続きの画像(絵巻物)」を作成するのに、上述の例では、常に右あるいは右下方向に接続していくように説明した。しかし、本発明においては、他の方向についても適用可能である。その例について、図8を用いて説明する。後述するように重なり部分があり2次元で図示すると煩雑になるため、画像を3次元空間上に配置して、俯瞰した図で示している。つまり、X軸とY軸で、静止画の2次元データを表現し、Z軸の位置を変えることで重なり部分を排除するように図示してある。 Now, in order to create a “continuous image (picture scroll)”, in the above example, it has been described that the connection is always made in the right or lower right direction. However, the present invention can be applied to other directions. An example thereof will be described with reference to FIG. As will be described later, since there are overlapping portions and it becomes complicated to illustrate in two dimensions, the images are arranged in a three-dimensional space and shown in an overhead view. That is, the X-axis and the Y-axis represent two-dimensional data of a still image, and the overlapping portion is illustrated by changing the position of the Z-axis.

静止画B0、静止画B1、静止画B2、静止画B3、静止画B4、静止画B5が、旅行者(撮影者)により撮影されたとする。撮影された順番(撮影時刻の順番)は、B0、B1、B2、B3、B4、B5の順とする。 It is assumed that a still image B0, a still image B1, a still image B2, a still image B3, a still image B4, and a still image B5 are taken by a traveler (photographer). The order of photographing (order of photographing time) is B0, B1, B2, B3, B4, and B5.

図8に示すように、B0に対して、B1は下側に接続されている。分断線800において、B0とB1はスムーズに接続されている。 As shown in FIG. 8, B1 is connected to the lower side with respect to B0. In the dividing line 800, B0 and B1 are smoothly connected.

B1に対して、B2は右側に接続されている。分断線801において、B1とB2はスムーズに接続されている。 B2 is connected to the right side with respect to B1. In the dividing line 801, B1 and B2 are smoothly connected.

B2に対して、B3は右下側に接続されている。分断線802において、B2とB3はスムーズに接続されている。 B3 is connected to the lower right side with respect to B2. In the dividing line 802, B2 and B3 are smoothly connected.

B3に対して、B4は左側に接続されている。分断線803において、B3とB4はスムーズに接続されている。なお、図中において、「B3の左上にあるB2」と「B3の左にあるB4」とが、2次元平面(XY平面)で図示すると重なって煩雑になるので、Z軸の値をずらして図示している。図中にB3は2つ示されているが、これは全く同じものである。また、後述する表示枠823も2つ示されているが、これも全く同じものである。 B4 is connected to the left side with respect to B3. In the dividing line 803, B3 and B4 are smoothly connected. In the figure, “B2 on the upper left of B3” and “B4 on the left of B3” overlap each other when illustrated in a two-dimensional plane (XY plane), so the Z-axis value is shifted. It is shown. Although two B3 are shown in the figure, they are exactly the same. Also, two display frames 823, which will be described later, are shown, which are exactly the same.

B4に対して、B5は左側に接続されている。分断線804において、B4とB5はスムーズに接続されている。 B5 is connected to the left side with respect to B4. In the dividing line 804, B4 and B5 are smoothly connected.

このようにして各分断線で接続された「ひと続きの画像(絵巻物)810」を以下のようにして再生する(表示する)。 The “continuous images (picture scrolls) 810” connected by the dividing lines in this way are reproduced (displayed) as follows.

すなわち、図8において、最初に820で示す表示枠の領域を表示させ、そして、時刻が進むにつれて、矢印830の方向に、表示枠を移動させながら、表示させていく。 That is, in FIG. 8, the display frame area 820 is displayed first, and the display frame is displayed while moving the display frame in the direction of the arrow 830 as the time advances.

そして、821で示す表示枠の領域に到達した後、次に、矢印831の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the area of the display frame indicated by 821, next, the display frame is displayed while moving in the direction of the arrow 831.

そして、822で示す表示枠の領域に到達した後、次に、矢印832の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the area of the display frame indicated by 822, next, the display frame is displayed while being moved in the direction of the arrow 832.

そして、823で示す表示枠の領域に到達した後、次に、矢印833の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the area of the display frame indicated by 823, next, the display frame is displayed while moving in the direction of the arrow 833.

そして、824で示す表示枠の領域に到達した後、次に、矢印834の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the area of the display frame indicated by 824, next, the display frame is displayed while moving in the direction of the arrow 834.

そして、最後に、825で示す表示枠の領域を表示させて、一連の表示を終了する。 Finally, the display frame area indicated by 825 is displayed, and the series of displays is terminated.

さて、上記では、「ひと続きの画像(絵巻物)」を作成する素材として、静止画のみを用いる場合について説明したが、動画やシネマグラフを用いても良い。 In the above description, the case where only a still image is used as a material for creating a “continuous image (picture scroll)” has been described, but a moving image or a cinema graph may be used.

動画の例を、図9を用いて説明する。静止画C0、静止画C1、動画C2、動画C3、静止画C4、静止画C5が、旅行者(撮影者)により撮影されたとする。撮影された順番(撮影時刻の順番)は、C0、C1、C2、C3、C4、C5の順とする。動画C2は、4枚のフレーム(C20、C21、C22、C23)より成る。動画C3は、3枚のフレーム(C30、C31、C32)より成る。一般に、動画は数十秒から1分程度あるので、動画を構成するフレームの数は、数百から数千である。ここでは、説明を簡単にするため、4枚および3枚のフレームより動画が構成されているとしている。 An example of a moving image will be described with reference to FIG. It is assumed that a still image C0, a still image C1, a moving image C2, a moving image C3, a still image C4, and a still image C5 are photographed by a traveler (photographer). The order of photographing (order of photographing time) is C0, C1, C2, C3, C4, and C5. The moving image C2 includes four frames (C20, C21, C22, and C23). The moving picture C3 is composed of three frames (C30, C31, C32). In general, since a moving image has several tens of seconds to one minute, the number of frames constituting the moving image is several hundred to several thousand. Here, in order to simplify the explanation, it is assumed that a moving image is composed of four and three frames.

図9に示すようにC0に対して、C1は右上側に接続されている。分断線900において、C0とC1はスムーズに接続されている。 As shown in FIG. 9, C1 is connected to the upper right side with respect to C0. In the dividing line 900, C0 and C1 are smoothly connected.

C1に対して、C20(動画C2の最初のフレーム)は右側に接続されている。分断線901において、C1とC20はスムーズに接続されている。 For C1, C20 (the first frame of the moving image C2) is connected to the right side. In the dividing line 901, C1 and C20 are smoothly connected.

C23(動画C2の最後のフレーム)に対して、C30(動画C3の最初のフレーム)は右下側に接続されている。分断線902において、C23とC30はスムーズに接続されている。 C30 (first frame of moving image C3) is connected to the lower right side with respect to C23 (last frame of moving image C2). In the dividing line 902, C23 and C30 are smoothly connected.

C32(動画C3の最後のフレーム)に対して、C4は左側に接続されている。分断線903において、C32とC4はスムーズに接続されている。 For C32 (the last frame of the moving picture C3), C4 is connected to the left side. In the dividing line 903, C32 and C4 are smoothly connected.

C4に対して、C5は左側に接続されている。分断線904において、C4とC5はスムーズに接続されている。 C5 is connected to the left side with respect to C4. In the dividing line 904, C4 and C5 are smoothly connected.

このようにして各分断線で接続された「ひと続きの画像(絵巻物)910」を以下のようにして再生する(表示する)。 The “continuous images (picture scrolls) 910” connected by the respective dividing lines in this way are reproduced (displayed) as follows.

すなわち、図9において、最初に920で示す表示枠の領域を表示させ、そして、時刻が進むにつれて、矢印940の方向に、表示枠を移動させながら、表示させていく。 That is, in FIG. 9, the display frame area indicated by 920 is displayed first, and the display frame is displayed while moving the display frame in the direction of the arrow 940 as the time advances.

そして、921で示す表示枠の領域に到達した後、次に、矢印941の方向に、表示枠を移動させながら、表示させていく。そして、922で示す表示枠の領域を表示させる。 Then, after reaching the display frame area 921, the display frame is displayed while moving the display frame in the direction of the arrow 941. Then, a display frame area indicated by 922 is displayed.

ここまでで使用する静止画は、C0、C1、および、C20である。なお、C20は、動画の中の1フレームのデータであり、静止画と言える。同様に、動画の各フレームは、それぞれ静止画と言える。 The still images used so far are C0, C1, and C20. C20 is data of one frame in the moving image and can be said to be a still image. Similarly, each frame of the moving image can be said to be a still image.

その次の時刻では、923で示す表示枠の領域を表示させる。ここで表示されるデータは、静止画C21の一部である。 At the next time, the display frame area indicated by 923 is displayed. The data displayed here is a part of the still image C21.

その次の時刻では、924で示す表示枠の領域を表示させる。ここで表示されるデータは、静止画C22の一部である。 At the next time, the display frame area indicated by 924 is displayed. The data displayed here is a part of the still image C22.

その次の時刻では、925で示す表示枠の領域を表示させる。ここで表示されるデータは、静止画C23の一部である。 At the next time, the display frame area indicated by 925 is displayed. The data displayed here is a part of the still image C23.

925で示す表示枠の領域を表示させた後は、時刻が進むにつれて、矢印942の方向に、表示枠を移動させながら、表示させていく。そして、926で示す表示枠の領域を表示させる。ここで使用する静止画は、C23およびC30である。 After the display frame area indicated by 925 is displayed, the display frame is displayed while moving the display frame in the direction of the arrow 942 as the time advances. Then, a display frame area indicated by 926 is displayed. The still images used here are C23 and C30.

その次の時刻では、927で示す表示枠の領域を表示させる。ここで表示されるデータは、静止画C31の一部である。 At the next time, the display frame area indicated by 927 is displayed. The data displayed here is a part of the still image C31.

その次の時刻では、928で示す表示枠の領域を表示させる。ここで表示されるデータは、静止画C32の一部である。 At the next time, the display frame area 928 is displayed. The data displayed here is a part of the still image C32.

928で示す表示枠の領域を表示させた後は、時刻が進むにつれて、矢印943の方向に、表示枠を移動させながら、表示させていく。ここで使用する静止画は、C32およびC4である。 After the display frame area indicated by 928 is displayed, the display frame is displayed while moving the display frame in the direction of the arrow 943 as the time advances. The still images used here are C32 and C4.

そして、929で示す表示枠の領域に到達した後、次に、矢印944の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the area of the display frame indicated by 929, next, the display frame is displayed while moving in the direction of the arrow 944.

そして、最後に、930で示す表示枠の領域を表示させて、一連の表示を終了する。 Finally, the display frame area indicated by 930 is displayed, and the series of displays is terminated.

このような一連の表示を鑑賞した旅行者(撮影者)は、一連の出来事を回想するとともに、各静止画がスムーズにつながっているので出来事の連続性を感じることが出来る。さらに、この一連の表示の中では、動画C2および動画C3は、動画として再生されている。すなわち、C20、C21、C22、C23が連続的に表示され、C30、C31、C32も連続的に表示される。厳密に言うならば、動画において、表示枠内の領域(動画の一部分)のみが再生される。 A traveler (photographer) who appreciates such a series of displays recalls a series of events and can feel the continuity of events because the still images are smoothly connected. Furthermore, in this series of displays, the moving image C2 and the moving image C3 are reproduced as moving images. That is, C20, C21, C22, and C23 are continuously displayed, and C30, C31, and C32 are also continuously displayed. Strictly speaking, only the area within the display frame (a part of the moving image) is reproduced in the moving image.

また、矢印941の方向に、表示枠を移動させながら、表示させていく過程で、静止画C1から連続的に動画C2(正確には、動画の最初のフレームC20)へと移行できる。同様に、矢印943の方向に、表示枠を移動させながら、表示させていく過程で、動画C3(正確には、動画の最後のフレームC32)から連続的に静止画C4へと移行できる。このように、静止画と動画が混在していても、出来事の連続性を感じさせるような表示が可能である。 Further, in the process of displaying while moving the display frame in the direction of the arrow 941, it is possible to continuously shift from the still image C1 to the moving image C2 (more precisely, the first frame C20 of the moving image). Similarly, in the process of displaying while moving the display frame in the direction of the arrow 943, the moving image C3 (more precisely, the last frame C32 of the moving image) can be continuously transferred to the still image C4. In this way, even if still images and moving images are mixed, it is possible to display such that the continuity of events is felt.

シネマグラフの例を、図10を用いて説明する。静止画D0、静止画D1、シネマグラフD2、静止画D3、静止画D4が、旅行者(撮影者)により撮影されたとする。撮影された順番(撮影時刻の順番)は、D0、D1、D2、D3、D4の順とする。シネマグラフD2は、4枚のフレーム(D20、D21、D22、D23)より成る。一般に、シネマグラフは数秒程度あるので、シネマグラフを構成するフレームの数は、数十から数百である。ここでは、説明を簡単にするため、4枚のフレームよりシネマグラフが構成されているとしている。 An example of a cinema graph will be described with reference to FIG. It is assumed that a still image D0, a still image D1, a cinema graph D2, a still image D3, and a still image D4 are taken by a traveler (photographer). The order of photographing (order of photographing time) is D0, D1, D2, D3, and D4. The cinema graph D2 includes four frames (D20, D21, D22, D23). In general, since a cinema graph has several seconds, the number of frames constituting the cinema graph is several tens to several hundreds. Here, for simplicity of explanation, it is assumed that a cinema graph is composed of four frames.

なお、D2は、シネマグラフであるから、D20、D21、D22、D23、D20、D21、D22、D23、D20、…とエンドレスにループ再生し続けても、違和感のない動画である。 Since D2 is a cinema graph, it is a moving image that does not feel uncomfortable even if loop playback is continued endlessly as D20, D21, D22, D23, D20, D21, D22, D23, D20,.

図10に示すようにD0に対して、D1は右側に接続されている。分断線1000において、D0とD1はスムーズに接続されている。 As shown in FIG. 10, D1 is connected to the right side with respect to D0. In the dividing line 1000, D0 and D1 are smoothly connected.

D1に対して、D20(シネマグラフD2の最初のフレーム)は右下側に接続されている。分断線1001において、D1とD20はスムーズに接続されている。 D20 (first frame of cinema graph D2) is connected to the lower right side with respect to D1. In the dividing line 1001, D1 and D20 are smoothly connected.

D20(シネマグラフD2の最初のフレーム)に対して、D3は右上側に接続されている。分断線1002において、D20とD3はスムーズに接続されている。 D3 is connected to the upper right side with respect to D20 (first frame of the cinema graph D2). In the dividing line 1002, D20 and D3 are smoothly connected.

なお、図中には、分断線1001と分断線1002の位置は、D20上以外にも、D21、D22、D23上にも記してある。 In the figure, the positions of the dividing line 1001 and the dividing line 1002 are indicated on D21, D22, and D23 as well as on D20.

D3に対して、D4は右下側に接続されている。分断線1003において、D3とD4はスムーズに接続されている。 D4 is connected to the lower right side with respect to D3. In the dividing line 1003, D3 and D4 are smoothly connected.

このようにして各分断線で接続された「ひと続きの画像(絵巻物)1010」を以下のようにして再生する(表示する)。 The “continuous image (picture scroll) 1010” connected at each dividing line in this way is reproduced (displayed) as follows.

なお、シネマグラフを含む「ひと続きの画像(絵巻物)」の場合、再生する(表示する)際に、2つの時間の概念を導入する。ひとつは、絶対時刻であり、他方は、再生時刻である。後述するように、鑑賞者は、再生中に、再生し続ける(一般的に、プレイモードと呼ぶ)か、あるいは、一時停止する(一般的に、ポーズモードと呼ぶ)かのどちらかを選ぶことが出来る。プレイモードでもポーズモードでも、絶対時刻は、進んでいく。一方、再生時刻は、プレイモードの時のみ進んでいき、ポーズモードの時は、その時刻の値を保持し続け、進まない。 In the case of a “continuous image (picture scroll)” including a cinema graph, the concept of two times is introduced when reproducing (displaying). One is the absolute time and the other is the playback time. As will be described later, during playback, the viewer chooses to continue playback (generally called play mode) or pause (generally called pause mode). I can do it. Absolute time advances in both play mode and pause mode. On the other hand, the playback time advances only in the play mode, and in the pause mode, the value of the time continues to be held and does not advance.

さて、図10において、最初に1020で示す表示枠の領域を表示させ、そして、プレイモードである場合は、再生時刻が進むにつれて、矢印1030の方向に、表示枠を移動させながら、表示させていく。 In FIG. 10, first, the display frame area indicated by 1020 is displayed. In the play mode, as the playback time advances, the display frame is moved in the direction of the arrow 1030 and displayed. Go.

そして、1021で示す表示枠の領域に到達した後、プレイモードである場合は、再生時刻が進むにつれて、矢印1031の方向に、表示枠を移動させながら、表示させていく。つまり、1022で示す表示枠や、1023で示す表示枠の領域を順次表示させていく。 Then, after reaching the display frame area indicated by 1021, in the play mode, the display frame is moved and displayed in the direction of the arrow 1031 as the playback time advances. That is, the display frame indicated by 1022 and the display frame indicated by 1023 are sequentially displayed.

そして、1023で示す表示枠の領域に到達した後、プレイモードである場合は、再生時刻が進むにつれて、矢印1032の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the display frame area indicated by 1023, in the play mode, the display frame is displayed while moving in the direction of the arrow 1032 as the playback time advances.

そして、1024で示す表示枠の領域に到達した後、プレイモードである場合は、再生時刻が進むにつれて、矢印1033の方向に、表示枠を移動させながら、表示させていく。 Then, after reaching the display frame area indicated by 1024, in the play mode, as the playback time advances, the display frame is moved in the direction of the arrow 1033 and displayed.

そして、最後に、1025で示す表示枠の領域を表示させて、一連の表示を終了する。 Finally, the display frame area indicated by 1025 is displayed, and the series of displays is terminated.

なお、ポーズモードのときは、その直前に表示していた表示枠の領域を表示させ続ける。ポーズモードからプレイモードに移行したときは、その地点から矢印の方向に表示枠を移動させながら表示させていく。 In the pause mode, the area of the display frame displayed immediately before is kept displayed. When the mode is changed from the pause mode to the play mode, the display frame is moved from the point in the direction of the arrow and displayed.

さて、表示の際に使用するシネマグラフD2は、具体的には、静止画D20、静止画D21、静止画D22、あるいは、静止画D23のいずれか1つである。そして、D20、D21、D22、あるいは、D23のいずれを使用するかは、絶対時刻に依存する。なお、D20、D21、D22、D23は、それぞれ、シネマグラフの中の1フレームのデータであり、静止画と言える。さて、具体的には、絶対時刻をシネマグラフのフレーム数(この例では「4」)で割った余りに対応するフレームを使用する。つまり、絶対時刻が4の倍数であるときはD20を使用し、絶対時刻を4で割ったときの余りが1であるときはD21を使用し、絶対時刻を4で割ったときの余りが2であるときはD22を使用し、そして、絶対時刻を4で割ったときの余りが3であるときはD23を使用する。 Now, the cinema graph D2 used for display is specifically one of the still image D20, the still image D21, the still image D22, or the still image D23. Which of D20, D21, D22, and D23 to use depends on the absolute time. Each of D20, D21, D22, and D23 is one frame of data in the cinema graph, and can be said to be a still image. Specifically, a frame corresponding to the remainder obtained by dividing the absolute time by the number of frames of the cinema graph (in this example, “4”) is used. That is, when the absolute time is a multiple of 4, D20 is used, when the remainder when the absolute time is divided by 4, D21 is used, and when the absolute time is divided by 4, the remainder is 2 D22 is used when it is, and D23 is used when the remainder when the absolute time is divided by 4 is 3.

例えば、図10の1022で示す表示枠の領域を表示させていて、鑑賞者がポーズモードを選択した場合を考える。ポーズモードが選択されているので、再生時刻は現在の値を維持し、1022で示す表示枠の領域を表示し続ける。つまり、1022で示す表示枠の中で、分断線1001よりも左上の部分については、静止画D1の対応部分(図11(ア)の1100で示す斜線部分)を表示し続ける。一方、1022で示す表示枠の中で、分断線1001よりも右下の部分については、ポーズモードであったとしても、絶対時刻は常に進んでいくので、絶対時刻に対応して、静止画D20の対応部分(図11(イ)の1101で示す斜線部分)、静止画D21の対応部分(図11(ウ)の1102で示す斜線部分)、静止画D22の対応部分(図11(エ)の1103で示す斜線部分)、あるいは、静止画D23の対応部分(図11(オ)の1104で示す斜線部分)が、交代で表示される。つまり、絶対時刻を4で割った時の余りの値が0、1、2、3に対応して、それぞれ、図11(カ)、(キ)、(ク)、(ケ)が表示されることになる。 For example, let us consider a case where the display frame area 1022 in FIG. 10 is displayed and the viewer selects the pause mode. Since the pause mode is selected, the reproduction time is maintained at the current value, and the display frame area indicated by 1022 is continuously displayed. That is, in the display frame indicated by 1022, for the upper left part of the dividing line 1001, the corresponding part of the still image D1 (the hatched part indicated by 1100 in FIG. 11A) is continuously displayed. On the other hand, in the display frame indicated by 1022, the absolute time always advances in the lower right part of the dividing line 1001, even in the pause mode, so that the still image D20 corresponds to the absolute time. Corresponding portion (shaded portion indicated by 1101 in FIG. 11 (a)), corresponding portion of still image D21 (shaded portion indicated by 1102 in FIG. 11 (c)), and corresponding portion of still image D22 (of FIG. 11 (d)). The hatched portion indicated by 1103) or the corresponding portion of the still image D23 (the shaded portion indicated by 1104 in FIG. 11 (o)) is displayed alternately. That is, FIG. 11 (f), (ki), (ku), and (g) are displayed corresponding to the remainder values 0, 1, 2, 3 when the absolute time is divided by 4, respectively. It will be.

同様に、例えば、図10の1023で示す表示枠の領域を表示させている場合は、絶対時刻に対応して、静止画D20の対応部分(図12(ア)の1200で示す斜線部分)、静止画D21の対応部分(図12(イ)の1201で示す斜線部分)、静止画D22の対応部分(図12(ウ)の1202で示す斜線部分)、あるいは、静止画D23の対応部分(図12(エ)の1203で示す斜線部分)が、交代で表示される。つまり、絶対時刻を4で割った時の余りの値が0、1、2、3に対応して、それぞれ、図12(オ)、(カ)、(キ)、(ク)が表示されることになる。 Similarly, for example, when the area of the display frame indicated by 1023 in FIG. 10 is displayed, the corresponding portion of the still image D20 (the hatched portion indicated by 1200 in FIG. 12A) corresponding to the absolute time, Corresponding portion of the still image D21 (shaded portion indicated by 1201 in FIG. 12 (a)), corresponding portion of the still image D22 (shaded portion indicated by 1202 in FIG. 12 (c)), or corresponding portion of the still image D23 (FIG. 12 (d), the hatched portion indicated by 1203) is displayed alternately. That is, when the absolute time is divided by 4, the remainder values 0, 1, 2, and 3 are displayed as shown in FIGS. 12 (o), (f), (ki), and (ku), respectively. It will be.

このような一連の表示を鑑賞した旅行者(撮影者)は、一連の出来事を回想するとともに、各静止画がスムーズにつながっているので出来事の連続性を感じることが出来る。さらに、この一連の表示の中では、シネマグラフD2は、ポーズモードであったとしてもループ再生されている。すなわち、D20、D21、D22、D23が連続的にエンドレスで表示される。厳密に言うならば、シネマグラフにおいて、表示枠内の領域(シネマグラフの一部分)のみがループ再生される。 A traveler (photographer) who appreciates such a series of displays recalls a series of events and can feel the continuity of events because the still images are smoothly connected. Further, in this series of displays, the cinema graph D2 is loop-reproduced even if it is in the pause mode. That is, D20, D21, D22, and D23 are continuously displayed in an endless manner. Strictly speaking, in the cinema graph, only a region within the display frame (a part of the cinema graph) is loop-reproduced.

また、プレイモードのときに、矢印1031の方向に、表示枠を移動させながら、表示させていく過程で、静止画D1から連続的にシネマグラフD2へと移行できる。同様に、矢印1032の方向に、表示枠を移動させながら、表示させていく過程で、シネマグラフD2から連続的に静止画D3へと移行できる。このように、静止画とシネマグラフが混在していても、出来事の連続性を感じさせるような表示が可能である。そして、ポーズモードであったとしても、シネマグラフ特有の被写体が無限に動き続けるという表現を損なうこともない。 In the play mode, the still image D1 can be continuously transferred to the cinema graph D2 in the process of displaying while moving the display frame in the direction of the arrow 1031. Similarly, in the process of displaying while moving the display frame in the direction of the arrow 1032, it is possible to continuously shift from the cinema graph D 2 to the still image D 3. Thus, even if a still image and a cinema graph are mixed, a display that makes the continuity of the event feel is possible. Even in the pause mode, the expression that the cinemagraph-specific subject continues to move indefinitely is not impaired.

さて、上述の例から分かるように、画像間を接続する分断線を決定するために使用する静止画は、表1に示したとおりとなる。 As can be seen from the above example, the still images used to determine the dividing line connecting the images are as shown in Table 1.

Figure 2015130546
Figure 2015130546

表1において、順位の若い方の画像とは、撮影時刻の早い方の画像を意味し、順位の若くない方の画像とは、撮影時刻の遅い方の画像を意味する。例えば、静止画、動画の順番に撮影した場合は、表から分かるように、静止画と、「動画の最初のフレーム(1つのフレームなので静止画とみなせる)」との接続を考えれば良い。これは、図9の静止画C1と、動画C2との接続と合致する。また、例えば、動画、シネマグラフの順番に撮影した場合は、表から分かるように、「動画の最後のフレーム(1つのフレームなので静止画とみなせる)」と「シネマグラフの最初のフレーム(1つのフレームなので静止画とみなせる)」の接続を考えれば良い。他の組み合わせも、表に示したとおりである。 In Table 1, the image with the younger order means the image with the earlier shooting time, and the image with the lower order means the image with the later shooting time. For example, when still images and moving images are taken in order, as can be seen from the table, connection between a still image and “the first frame of a moving image (which can be regarded as a still image because it is one frame)” may be considered. This coincides with the connection between the still image C1 and the moving image C2 in FIG. Also, for example, when shooting in the order of moving image and cinema graph, as can be seen from the table, “the last frame of the moving image (which can be regarded as a still image because it is one frame)” and “the first frame of the cinema graph (one It can be considered as a still image because it is a frame). Other combinations are as shown in the table.

次に、2つの静止画が与えられたとき、スムーズに接続するための、分断線の決定手順について、説明する。 Next, a procedure for determining a dividing line for smooth connection when two still images are given will be described.

まず、2つの静止画の重なり部分は、小さくもなく、かつ、大きくもない必要があるという事について、図13を用いて説明する。図13は、静止画A0と静止画A1の接続を説明するための図である。重なり部分が分かりやすいように、A0を太線で、A1を細線で記してある。 First, the fact that the overlapping portion of two still images need not be small and not large will be described with reference to FIG. FIG. 13 is a diagram for explaining the connection between the still image A0 and the still image A1. A0 is indicated by a thick line and A1 is indicated by a thin line so that the overlapping portion can be easily understood.

図13の(ア)に示すように、A0とA1の重なり部分が大きい場合を考える。重なり部分については、A0あるいはA1のどちらか一方はマスク処理で削除されてしまう。したがって、「ひと続きの画像(絵巻物)」を再生したときに、せっかく撮影したにも関わらずA0あるいはA1のどちらか一方は、ほとんどの領域が表示されないことになる。これは、よろしくない。 As shown in FIG. 13A, consider a case where the overlapping portion of A0 and A1 is large. For the overlapped portion, either A0 or A1 is deleted by the mask process. Therefore, when a “continuous image (picture scroll)” is reproduced, even though it has been taken, much of the area of either A0 or A1 is not displayed. This is not good.

図13の(イ)に示すように、A0とA1の重なり部分が小さい場合を考える。表示する領域が、1300から始まり、1301へと移動する。途中の1302を表示しているときは、1310や1311で示す部分のデータがないので、この部分は黒色を表示することになる。鑑賞している最中に、黒色が多く表示されるのは、よろしくない。もちろん、移動しながら表示枠の大きさを変えていくことも可能である。つまり、表示枠の移動の途中では、黒色部分が少なくなるように、表示枠を小さくすることも可能である。この場合、表示装置(鑑賞するための表示装置)に表示する大きさを一定にするために、拡大処理が行われ、解像度が粗くなってしまい、やはり、よろしくない。 As shown in FIG. 13A, consider a case where the overlapping portion of A0 and A1 is small. The display area starts at 1300 and moves to 1301. When 1302 is displayed on the way, there is no data in the portion indicated by 1310 or 1311, and this portion is displayed in black. It is not good that a lot of black is displayed during appreciation. Of course, it is also possible to change the size of the display frame while moving. That is, during the movement of the display frame, the display frame can be reduced so that the black portion is reduced. In this case, enlargement processing is performed in order to make the display size on the display device (display device for viewing) constant, and the resolution becomes coarse.

従って、2つの静止画の重なり部分は適度な大きさである必要がある。 Therefore, the overlapping portion of the two still images needs to be an appropriate size.

この事を加味すると、分断線の決定手順は、図14となる。図14には、2つの静止画S1とS2(S1、S2の順番に撮影されたとする)が既に与えられたときに、この2つの静止画をスムーズに接続するための、分断線の決定に関する処理フローを示している。この処理を行う前に、既に、静止画S1と静止画S2が与えられているとする。 Taking this into account, the procedure for determining the dividing line is as shown in FIG. In FIG. 14, when two still images S1 and S2 (assumed to have been photographed in the order of S1 and S2) are already given, determination of a dividing line for smoothly connecting the two still images is performed. The processing flow is shown. It is assumed that the still image S1 and the still image S2 have already been given before this processing is performed.

まず、ステップS101で、AV0に大きな値をセットする。そして、ステップS102に進む。 First, in step S101, a large value is set to AV0. Then, the process proceeds to step S102.

ステップS102で、「重なり条件」を満たすS1とS2の位置関係をすべて処理したかを判断する。ここで、「重なり条件」とは、S1とS2の重なり部分は適度な大きさであり、図13の(ア)や(イ)のような位置関係でないという事である。具体的には、例えば、「S1とS2の重なり部分(矩形領域)について、横方向の画素数が100画素以上あり、かつ、縦方向の画素数が100画素以上あり、かつ、横方向の画素数と縦方向の画素数のどちらか一方は200画素以下である」という条件である。「重なり条件」を満たすS1とS2の位置関係をすべて処理した場合は、ステップS107に進み、そうでなければ、ステップS103に進む。 In step S102, it is determined whether all the positional relationships between S1 and S2 that satisfy the “overlap condition” have been processed. Here, the “overlapping condition” means that the overlapping portion of S1 and S2 has an appropriate size and is not in the positional relationship as shown in (a) and (b) of FIG. Specifically, for example, “the overlapping portion (rectangular region) of S1 and S2 has 100 or more pixels in the horizontal direction, has 100 or more pixels in the vertical direction, and has pixels in the horizontal direction. One of the number and the number of pixels in the vertical direction is 200 pixels or less ”. If all the positional relationships between S1 and S2 satisfying the “overlap condition” have been processed, the process proceeds to step S107, and if not, the process proceeds to step S103.

ステップS103に処理が進む場合は、「重なり条件」を満たすS1とS2の位置関係で、まだ処理を行っていないものがあるという事である。そこで、ステップS103で、「重なり条件」を満たすS1とS2の位置関係で、まだ処理していない位置関係になるようにS1とS2をセットする。そして、ステップS104に進む。 When the process proceeds to step S103, there is a positional relationship between S1 and S2 that satisfies the “overlap condition” that has not been processed yet. Therefore, in step S103, S1 and S2 are set so that the positional relationship between S1 and S2 satisfying the “overlap condition” has not yet been processed. Then, the process proceeds to step S104.

ステップS104で、重なり部分を分断する最適な線(分断線)を決定する。すなわち、S1のエッジ(画像の縁)とS2のエッジ(画像の縁)の交点(2つある)を始点および終点とする線の中で、差分平均値が最小となる線を求める。求まった分断線をL1
、そのときの差分平均値をAV1とする。なお、差分平均値とは、以下により定義される値である。すなわち、S1の各画素とS2の各画素の差分絶対値を、線が通過する画素位置について合計する。この合計値を線の長さ(通過する画素の数)で割った値が、差分平均値である。
In step S104, an optimum line (breaking line) for dividing the overlapping portion is determined. That is, the line having the smallest difference average value is obtained from the lines having the start point and the end point of the intersection (there are two) of the edge of S1 (the edge of the image) and the edge of S2 (the edge of the image). L1 for the determined breaking line
The average difference value at that time is AV1. The difference average value is a value defined by the following. That is, the absolute difference value between each pixel of S1 and each pixel of S2 is summed up for the pixel position where the line passes. A value obtained by dividing the total value by the length of the line (the number of passing pixels) is the difference average value.

なお、ステップS104での分断線の決定は、S1のエッジ(画像の縁)とS2のエッジ(画像の縁)の交点(2つある)を始点および終点とするグラフを作成して、動的計画法やグラフカットにより解くことが出来る。この決定手法(動的計画法、あるいは、グラフカット)は、既知の手法であり、その説明を省略する。 The dividing line in step S104 is determined by creating a graph with the start point and the end point of the intersection (there are two edges) of the edge of S1 (the edge of the image) and the edge of S2 (the edge of the image). It can be solved by planning methods and graph cuts. This determination method (dynamic programming or graph cut) is a known method, and its description is omitted.

ステップS104の後、ステップS105に進む。 After step S104, the process proceeds to step S105.

ステップS105で、AV1がAV0よりも小さいか判断する。小さいと判断された場合は、ステップS106に進み、そうでなければ、ステップS102に進む。 In step S105, it is determined whether AV1 is smaller than AV0. If it is determined that the value is smaller, the process proceeds to step S106, and if not, the process proceeds to step S102.

ステップS106に処理が進む場合は、現在のS1とS2の位置関係において、S1とS2の静止画を分断線L1により接続すると、今まで探索したS1とS2の位置関係よりも良好な接続ができるという事である。そこで、ステップS106で、AV0にAV1の値をセットする。そして、L0にL1の分断線の情報をセットする。MV0
に「S1の中心位置を始点とし、S2の中心位置を終点とするベクトル」をセットする。そして、S102に進む。
When the process proceeds to step S106, if the still images of S1 and S2 are connected by the dividing line L1 in the current positional relationship between S1 and S2, a better connection than the positional relationship between S1 and S2 searched so far can be achieved. That is. Therefore, in step S106, the value AV1 is set to AV0. Then, information on the dividing line of L1 is set in L0. MV0
Is set to “a vector having the center position of S1 as the start point and the center position of S2 as the end point”. Then, the process proceeds to S102.

ステップS107に処理が進む場合は、「重なり条件」を満たすS1とS2のすべての位置関係の中で、最適な接続ができる関係が求まっているという事である。そこで、ステップS107で、AV0の逆数を、接続度合として出力する。接続度合とは、値が大きければ大きいほど、2つの静止画がスムーズに接続されていることを意味する。これは、AV0の値が、分断線上の画素どうしの差分絶対値の平均値であることから明らかである。そして、ステップS108に進む。 When the process proceeds to step S107, it means that a relationship capable of optimal connection is obtained among all the positional relationships of S1 and S2 that satisfy the “overlap condition”. Therefore, in step S107, the inverse of AV0 is output as the degree of connection. The degree of connection means that the larger the value is, the more smoothly two still images are connected. This is apparent from the fact that the value of AV0 is the average value of the absolute differences between the pixels on the dividing line. Then, the process proceeds to step S108.

ステップS108で、MV0を2枚の画像の位置関係として出力する。そして、ステップS109に進む。 In step S108, MV0 is output as the positional relationship between the two images. Then, the process proceeds to step S109.

ステップS109で、S2のエッジ(画像の縁)とL0とで囲まれる領域で、かつ、S2の中心を含む領域を求める。この領域をマスクとするマスク画像を出力する。そして、一連の処理を終える。 In step S109, an area surrounded by the edge of S2 (the edge of the image) and L0 and including the center of S2 is obtained. A mask image using this region as a mask is output. Then, a series of processing is finished.

このようにして、S1とS2のすべての位置関係について探索して、可能な限りスムーズにつなげたときの位置関係(S108での出力)、可能な限りスムーズにつなげたときの接続度合(スムーズに接続できるかどうか)(S107の出力)、可能な限りスムーズにつなげたときに採用されるS2の領域(マスク)(S109での出力)を求めることが出来る。 In this way, all the positional relationships between S1 and S2 are searched and the positional relationship when connected as smoothly as possible (output in S108), the degree of connection when connected as smoothly as possible (smoothly (Whether or not connection is possible) (output of S107), it is possible to obtain the region (mask) of S2 (output in S109) that is adopted when connecting as smoothly as possible.

〈第1の実施の形態〉
それでは、本発明の第1の実施例について説明する。図15は、本発明の第1の実施例の画像処理装置10の構成例を示している。なお、これ以降において、画像を表す記号として、D1およびD2を用いるが、図10のD1およびD2とは違うものである。
<First Embodiment>
Now, the first embodiment of the present invention will be described. FIG. 15 shows a configuration example of the image processing apparatus 10 according to the first embodiment of the present invention. In the following, D1 and D2 are used as symbols representing images, which are different from D1 and D2 in FIG.

画像処理装置10内には、入力部11、画像収集部12、データベース管理部13、入力画像データ記憶部15、接続可能性判断部16、有向グラフ作成部17、経路探索部18、画像選別部19、画像接続部20、レンダリング情報作成部21、表示情報作成部22、「ひと続きの画像(絵巻物)のデータ保存部23」、ユーザインターフェース部24、再生部25、および、画像表示部26があり、さらに、データベース管理部13内には、汎用画像データベース14がある。 In the image processing apparatus 10, an input unit 11, an image collection unit 12, a database management unit 13, an input image data storage unit 15, a connectability determination unit 16, a directed graph creation unit 17, a route search unit 18, and an image selection unit 19 , An image connection unit 20, a rendering information creation unit 21, a display information creation unit 22, a "continuous image (picture scroll) data storage unit 23", a user interface unit 24, a playback unit 25, and an image display unit 26 Further, the database management unit 13 includes a general-purpose image database 14.

入力部11からは、旅行者(撮影者)が撮影した画像が複数入力される。ここで言う「画像」とは、静止画、動画、あるいは、シネマグラフのいずれかを示す。これら画像には、撮影時刻と、撮影位置が、付随情報として与えられているとする。さらに、必要に応じて、旅行者(撮影者)により、重要な画像には、重要である旨が、付随情報として与えられているとする。 A plurality of images taken by a traveler (photographer) are input from the input unit 11. The “image” referred to here indicates either a still image, a moving image, or a cinema graph. Assume that these images are given shooting time and shooting position as accompanying information. Furthermore, it is assumed that an important image is given as accompanying information to an important image by a traveler (photographer) as necessary.

入力部11から入力された画像は、画像収集部12へと送られる。画像収集部12では、入力された画像の中で、不要な画像を破棄し、有用な画像のみを後段の入力画像データ記憶部15に保存する処理を行う。さらに、入力された画像と同じ位置で撮影された画像を、汎用画像データベース14から取り出し、この画像も、後段の入力画像データ記憶部15に保存する処理も行う。なお、データベース管理部13は、画像収集部12とは物理的には離れた位置に設置して、インターネットを介してデータのやりとりを行う構成としても良い。 The image input from the input unit 11 is sent to the image collection unit 12. The image collection unit 12 performs a process of discarding unnecessary images from the input images and storing only useful images in the subsequent input image data storage unit 15. Further, an image taken at the same position as the input image is taken out from the general-purpose image database 14 and this image is also stored in the input image data storage unit 15 at the subsequent stage. Note that the database management unit 13 may be installed at a position physically separated from the image collection unit 12 and exchange data via the Internet.

さて、従来から、画像の中に顔が写っているかを自動で判別する顔認識技術や、注目すべき物体が撮影されているかを自動で判別する Visual Attention 技術が知られている。これら技術は既知の技術であり、その説明を省略する。 Conventionally, there are known a face recognition technique for automatically determining whether a face is included in an image and a Visual Attention technique for automatically determining whether a noticeable object has been photographed. These techniques are known techniques, and a description thereof is omitted.

画像収集部12は、入力部11から入力された画像のそれぞれに対して、既存の顔認識技術やVisual Attention 技術を用いて、顔が撮影されている、あるいは、注目すべき物体が撮影されているかを判断し、そのような画像のみを、有用な画像として後段の入力画像データ記憶部15に保存する。なお、一般的に、顔が写っている画像は、記念撮影された重要な画像であるので、顔認識技術により顔が写っているかを判断することは有用である。この時、既存の顔認識技術やVisual Attention 技術を用いて判断した結果が「有用な画像でない」となった場合でも、付随情報として旅行者(撮影者)により重要である旨が与えられている画像は、保存する。既存技術を用いると陳腐な画像であるという結果が出る場合でも、旅行者(撮影者)にとっては、思い入れのある画像もありうる。そのような画像には、旅行者(撮影者)が明示的に付随情報として、重要である旨を与えることで、破棄されることがなくなる。 For each of the images input from the input unit 11, the image collecting unit 12 uses the existing face recognition technology or Visual Attention technology to capture a face or to capture an object to be noticed. Only such an image is stored as a useful image in the subsequent input image data storage unit 15. In general, since an image showing a face is an important image taken as a commemorative photo, it is useful to determine whether the face is shown using face recognition technology. At this time, even if the result of judgment using existing face recognition technology or Visual Attention technology is “not a useful image”, it is given to the traveler (photographer) that it is important as accompanying information. Save the image. Even if the result is that the image is obsolete using the existing technology, there may be an image that the traveler (photographer) has a passion for. Such an image can be prevented from being discarded by giving the traveler (photographer) explicitly important information as accompanying information.

また、入力部11から入力された画像において、ほぼ同時刻において撮影された複数の画像は、その中の任意の1つを有用な画像として後段の入力画像データ記憶部15に保存し、残りの画像は破棄するという処理をしても良い。この処理は、入力された画像の付随情報である撮影時刻の情報を用いて行われる。なお、破棄する理由は、一般的に、旅行者(撮影者)は同じ場所で同じ構図の画像を複数枚撮影することがあるので、そのような画像は、1つだけ保存すれば良いからである。 In addition, in the image input from the input unit 11, a plurality of images taken at substantially the same time are stored in the subsequent input image data storage unit 15 as any one of them as useful images, and the remaining images are stored. The image may be discarded. This process is performed using information on the photographing time that is accompanying information of the input image. The reason for discarding is that a traveler (photographer) generally takes a plurality of images of the same composition at the same location, so only one such image needs to be saved. is there.

なお、画像を入力画像データ記憶部15に保存する際に、既存の Visual Attention 技術で判定された「注目すべき物体が撮影されている」という度合も、この画像の重要度として、入力画像データ記憶部に保存する。「重要度」とは、大きければ大きいほど、重要な画像であることを意味する。付随情報として旅行者(撮影者)により重要である旨が与えられている画像については、Visual Attention 技術で判定された「注目すべき物体が撮影されている」という度合にかかわらず、常に、重要度として、とても大きな値を、設定する。 Note that when the image is stored in the input image data storage unit 15, the degree of “an object to be noticed” determined by the existing Visual Attention technique is also used as the importance of this image. Save to storage. “Importance” means that the larger the image, the more important the image. Regardless of the degree of “noticeable object being photographed” as judged by Visual Attention technology, images that are given importance by the traveler (photographer) as accompanying information are always important. Set a very large value for the degree.

また、画像収集部12では、入力部11から入力された画像(画像Aとする。)の(撮影した時の)位置情報(付随情報の一種)を、データベース管理部13に伝える。 In addition, the image collection unit 12 notifies the database management unit 13 of position information (a type of accompanying information) (when captured) of an image (image A) input from the input unit 11.

データベース管理部13内には、汎用画像データベース14がある。汎用画像データベース14には、あらかじめ、膨大な鑑賞用の綺麗な画像が保存されているとする。そして、これら画像には、位置情報が付随されているとする。データベース管理部13では、画像Aの位置情報と同じ位置の画像(画像Bとする。)を、汎用画像データベース14から取り出し、画像収集部12へ送る。 Within the database management unit 13 is a general-purpose image database 14. It is assumed that a large number of beautiful images for viewing are stored in the general-purpose image database 14 in advance. Then, it is assumed that position information is attached to these images. The database management unit 13 extracts an image (image B) at the same position as the position information of the image A from the general-purpose image database 14 and sends it to the image collection unit 12.

画像収集部12では、「画像Aの撮影時刻と同じ時刻(あるいは、画像Aの撮影時刻の直後の時刻)を、画像Bの撮影時刻とする」ように、画像Bの付随情報(撮影時刻)の追記を行う。これは、あたかも、旅行者(撮影者)が、画像Aを撮影した時刻と同じ時刻に、鑑賞用の綺麗な画像(画像B)も撮影したかのようにするためである。そして、画像Bを入力画像データ記憶部15に保存する。また、画像Bの重要度は大きくしておく。 In the image collection unit 12, the accompanying information (shooting time) of the image B is set such that “the same time as the shooting time of the image A (or the time immediately after the shooting time of the image A) is set as the shooting time of the image B”. Add a note. This is because it seems as if the traveler (photographer) has also photographed a beautiful image for viewing (image B) at the same time as when the image A was photographed. Then, the image B is stored in the input image data storage unit 15. Also, the importance of the image B is increased.

後述するように、これ以降の処理では、画像Aも画像Bも、それぞれ、付随情報に記されている時刻に撮影したとして処理が行われる。 As will be described later, in the subsequent processing, both the image A and the image B are processed on the assumption that the images are taken at the time indicated in the accompanying information.

なお、これ以降では、入力画像データ記憶部15に記憶されている画像の数をN個とする。そして、撮影時刻の順番に、0番目からN−1番目まで番号が付けられているとし、話を進める。番号が大きいほど、時間的に後で撮影された画像である。つまり、画像収集部12から入力画像データ記憶部15に、各画像を保存する際に、画像収集部12にて、撮影時刻をチェックして、適切な番号を付加して、入力画像データ記憶部15に、各画像を保存する。 In the following, it is assumed that the number of images stored in the input image data storage unit 15 is N. Then, it is assumed that numbers are assigned from the 0th to the (N-1) th in the order of shooting times, and the story is advanced. The larger the number, the later the image was taken. That is, when storing each image from the image collection unit 12 to the input image data storage unit 15, the image collection unit 12 checks the shooting time, adds an appropriate number, and inputs the input image data storage unit. 15 stores each image.

また、上述のとおり、入力画像データ記憶部15に記憶されている画像には、それぞれ、重要度が付随情報として与えられている。 Further, as described above, importance is given as accompanying information to each image stored in the input image data storage unit 15.

次に、入力画像データ記憶部15に記憶されているN個の画像の中から、実際に、「ひと続きの画像(絵巻物)」に使用する画像を選ぶ。この処理は、接続可能性判断部16、有向グラフ作成部17、経路探索部18、画像選別部19にて行われる。実際に、「ひと続きの画像(絵巻物)」に使用する画像をM個とすると、N個の画像からM個の画像を選び、(N−M)個の画像を破棄する処理である。重要度の高い画像は、なるべく選出され、重要度の低い画像は、破棄される。また、画像間でスムーズに接続できる画像のペアは、なるべく選出され、スムーズに接続できない画像のペアは、破棄される。さらに、例えば、1週間の旅行に行ったときに撮影した画像群を入力した場合、それぞれの日に撮影された画像のうちの数枚は、必ず採用されるように選出される。逆に言えば、ある日に撮影された画像は1つも採用されない、あるいは、重要度の高い画像が採用されないような、間違えた取捨選択は行わない。処理の詳細は後述する。 Next, an image to be actually used for a “continuous image (picture scroll)” is selected from the N images stored in the input image data storage unit 15. This process is performed by the connectability determination unit 16, the directed graph creation unit 17, the route search unit 18, and the image selection unit 19. Actually, assuming that M images are used for a “continuous image (picture scroll)”, M images are selected from N images, and (N−M) images are discarded. Images with high importance are selected as much as possible, and images with low importance are discarded. In addition, image pairs that can be smoothly connected between images are selected as much as possible, and image pairs that cannot be smoothly connected are discarded. Furthermore, for example, when an image group photographed when going on a trip for one week is input, several of the images photographed on each day are selected to be adopted. In other words, no wrong selection is performed so that no image taken on a certain day is adopted, or an image with high importance is not adopted. Details of the processing will be described later.

このようにして、選ばれたM個の画像は、実際に、スムーズに接続するための位置関係や、適切なマスク画像を、画像接続部20およびレンダリング情報作成部21にて求めて、その結果を「ひと続きの画像(絵巻物)のデータ保存部23」に保存する。また、表示する際に、時刻が進むにつれて、どの位置を表示するかという情報(前述の「表示枠」の推移に関する情報)を、表示情報作成部22にて作成し、その結果を「ひと続きの画像(絵巻物)のデータ保存部23」に保存する。処理の詳細は後述する。 In this way, the selected M images are actually obtained by obtaining the positional relationship for smooth connection and an appropriate mask image by the image connecting unit 20 and the rendering information creating unit 21. Are stored in the “continuous image (picture scroll) data storage unit 23”. In addition, when displaying, as the time advances, information indicating which position is displayed (information relating to the transition of the “display frame” described above) is created by the display information creating unit 22, and the result is “continue” Are stored in the data storage unit 23 ”of the image (picture scroll). Details of the processing will be described later.

以上の処理により、「ひと続きの画像(絵巻物)」が作成され、「ひと続きの画像(絵巻物)のデータ保存部23」に保存される。 Through the above processing, a “continuous image (picture scroll)” is created and stored in the “continuous image (picture scroll) data storage unit 23”.

次に、これを再生(表示)する処理について説明する。「ひと続きの画像(絵巻物)のデータ保存部23」に保存されている「ひと続きの画像(絵巻物)」が、再生部25に入力される。ユーザインターフェース部24から、鑑賞者が、プレイモードかポーズモードかを指定する。このモードの指定を受けて、再生部25では、「ひと続きの画像(絵巻物)」から、時刻ごとに適切な画像を切り出し、画像表示部26へ送る。画像表示部26では、送られてきた画像を表示する。処理の詳細は後述する。 Next, a process of reproducing (displaying) this will be described. The “continuous image (picture scroll)” stored in the “continuous image (picture scroll) data storage unit 23” is input to the reproduction unit 25. From the user interface unit 24, the viewer designates the play mode or the pause mode. In response to the designation of this mode, the playback unit 25 cuts out an appropriate image for each time from the “continuous image (picture scroll)” and sends it to the image display unit 26. The image display unit 26 displays the sent image. Details of the processing will be described later.

以上の処理により「ひと続きの画像(絵巻物)」の作成および再生が行われる。 With the above processing, “continuous images (picture scrolls)” are created and reproduced.

なお、当然のことであるが、「ひと続きの画像(絵巻物)」を作成するだけであれば、24、25および26の部位は不要である。逆に、既に作成されている「ひと続きの画像(絵巻物)」を再生(表示)するだけであれば、11乃至22の部位は不要である。 As a matter of course, the portions 24, 25, and 26 are unnecessary if only a “continuous image (picture scroll)” is created. On the other hand, if the “continuous image (picture scroll)” that has already been created is to be reproduced (displayed), the parts 11 to 22 are unnecessary.

次に、入力画像データ記憶部15に記憶されているN個の画像の中から、実際に、「ひと続きの画像(絵巻物)」に使用する画像を選ぶという処理の詳細について、説明する。 Next, details of the process of actually selecting an image to be used for a “continuous image (picture scroll)” from the N images stored in the input image data storage unit 15 will be described.

この処理は、有向グラフを作成して、該有向グラフ上でエネルギ最小となる経路(パス)を探索することで行われる。 This process is performed by creating a directed graph and searching for a path (path) that minimizes energy on the directed graph.

なお、N枚の画像とは、既に番号が付けられている「0番目からN−1番目の画像」であり、「1番目からN番目」でないことに留意して、以下を読んで欲しい。 Note that the N images are “0th to (N−1) th images” that have already been numbered, and are not “1st to Nth images”.

まず、以下のようにして、有向グラフの作成に必要なエネルギ(正確には、エッジのエネルギ)を求める処理(図16参照)を行う。この処理は、接続可能性判断部16にて行われる。 First, processing (see FIG. 16) for obtaining energy (more precisely, edge energy) required for creating a directed graph is performed as follows. This process is performed by the connection possibility determination unit 16.

最初に、図16のステップS201で、変数iに0をセットする。そして、ステップS202に進む。 First, in step S201 in FIG. 16, 0 is set to the variable i. Then, the process proceeds to step S202.

ステップS202で、iの値がN−1であるか判断する。N−1であれば、すべての画像のペアについて処理が終了したので、一連の処理を終える。そうでなければ、ステップS203に進む。 In step S202, it is determined whether the value of i is N-1. If it is N-1, since the processing has been completed for all image pairs, a series of processing ends. Otherwise, the process proceeds to step S203.

ステップS203で、変数jにi+1をセットする。そして、ステップS204に進む。 In step S203, i + 1 is set to the variable j. Then, the process proceeds to step S204.

ステップS204で、jの値がNであるか判断する。Nであれば、現在設定されているiの値に対しては、すべての画像のペアについて処理が終了したので、ステップS207に進む。そうでなければ、ステップS205に進む。 In step S204, it is determined whether the value of j is N. If it is N, processing for all image pairs has been completed for the currently set value of i, and the process proceeds to step S207. Otherwise, the process proceeds to step S205.

ステップS205で、i 番目の画像をD1とする。 j 番目の画像をD2とする。そして、表2に従って、静止画S1を決定する。表3に従って、静止画S2を決定する。そして、図14の処理を行う。図14の処理で得られる接続度合を、「i番目の画像とj番目の画像の接続度合」として出力する。なお、この出力は、有向グラフ作成部17へ入力される。 In step S205, the i-th image is set to D1. Let the jth image be D2. Then, according to Table 2, the still image S1 is determined. According to Table 3, the still image S2 is determined. Then, the process of FIG. 14 is performed. The connection degree obtained by the processing of FIG. 14 is output as “connection degree between the i-th image and the j-th image”. This output is input to the directed graph creation unit 17.

Figure 2015130546
Figure 2015130546

Figure 2015130546
Figure 2015130546

ステップS205の処理を行っている時、i<jである。従って、画像D1は、画像D2よりも撮影時刻が早い。故に、D1、D2に対して、それぞれ、表2、表3に従って、静止画S1および静止画S2を決定すれば、表1(既出)と同じルールで静止画を選んだことになる。例えば、i枚目の画像が静止画であり、j枚目の画像がシネマグラフであったとすると、表2および表3から、S1としてi枚目の画像(静止画)が、S2としてj枚目の画像であるシネマグラフの最初のフレーム(1つのフレームなので静止画とみなせる)が選ばれる。また、例えば、i枚目の画像が動画であり、j枚目の画像が静止画であったとすると、表2および表3から、S1としてi枚目の画像である動画の最後のフレーム(1つのフレームなので静止画とみなせる)が、S2としてj枚目の画像(静止画)が選ばれる。そして、図14の処理フローが行われることで、可能な限りスムーズにつなげたときの位置関係、可能な限りスムーズにつなげたときの接続度合(スムーズに接続できるかどうか)、可能な限りスムーズにつなげたときに採用されるS2の領域(マスク)を求めることが出来る。なお、ここでは、接続度合のみが必要であり、位置関係およびS2の領域(マスク)は図14の処理で求まるが破棄する。 When the process of step S205 is performed, i <j. Therefore, the image D1 has a shooting time earlier than the image D2. Therefore, if the still image S1 and the still image S2 are determined for D1 and D2 according to Tables 2 and 3, respectively, the still image is selected according to the same rule as in Table 1 (already described). For example, if the i-th image is a still image and the j-th image is a cinema graph, from Table 2 and Table 3, the i-th image (still image) is S1 and j is S2. The first frame of the cinema graph that is the image of the eye is selected (since it is a single frame, it can be regarded as a still image). Also, for example, if the i-th image is a moving image and the j-th image is a still image, from Table 2 and Table 3, the last frame (1 Since it is one frame, it can be regarded as a still image), but the j-th image (still image) is selected as S2. 14 is performed, the positional relationship when connecting as smoothly as possible, the connection degree when connecting as smoothly as possible (whether it can be connected smoothly), and as smoothly as possible It is possible to obtain the region (mask) of S2 that is adopted when connecting. Here, only the degree of connection is necessary, and the positional relationship and the region (mask) of S2 are determined by the processing of FIG.

ステップS205の後、ステップS206に進む。 After step S205, the process proceeds to step S206.

ステップS206で、次の画像のペアを選ぶために、jの値を1だけ増やす。そして、ステップS204に進む。 In step S206, the value of j is increased by 1 to select the next image pair. Then, the process proceeds to step S204.

ステップS207で、次の画像のペアを選ぶために、iの値を1だけ増やす。そして、ステップS202に進む。 In step S207, the value of i is increased by 1 to select the next image pair. Then, the process proceeds to step S202.

後述するように、S205で出力される「i番目の画像とj番目の画像の接続度合」は、有向グラフの各エッジのエネルギとして使われる。 As will be described later, the “degree of connection between the i-th image and the j-th image” output in S205 is used as the energy of each edge of the directed graph.

以上で、有向グラフの作成に必要なエネルギ(正確には、エッジのエネルギ)を求める処理の説明を終える。次に、有向グラフの作成について説明する。 This is the end of the description of the process for obtaining the energy required to create the directed graph (more precisely, the edge energy). Next, creation of a directed graph will be described.

最初に、図17のステップS301で、N+2個の順序付けされたノードを作成する。すなわち、0番目のノード、1番目のノード、2番目のノード、…、N+1番目のノードのN+2個のノードである。0番目のノードを、ソースノードと呼ぶ。そして、最後のノードであるN+1番目のノードを、シンクノードと呼ぶ。各ノードは、エネルギを有する。そして、ステップS302に進む。 First, in step S301 of FIG. 17, N + 2 ordered nodes are created. That is, N + 2 nodes of the 0th node, 1st node, 2nd node,..., N + 1th node. The 0th node is called a source node. The N + 1th node that is the last node is called a sink node. Each node has energy. Then, the process proceeds to step S302.

ステップS302で、0番目のノード(ソースノード)と、N+1番目のノード(シンクノード)のエネルギとして0をセットする。そして、ステップS303に進む。 In step S302, 0 is set as the energy of the 0th node (source node) and the N + 1th node (sink node). Then, the process proceeds to step S303.

ステップ303で、入力画像データ記憶部15に保存されているN枚の画像において、i−1番目(iは1乃至Nの整数)の画像に着目する。この画像の重要度の逆数を、i番目のノードのエネルギとしてセットする。そして、ステップS304に進む。 In step 303, attention is focused on the i-1th image (i is an integer from 1 to N) in the N images stored in the input image data storage unit 15. The inverse of the importance of this image is set as the energy of the i-th node. Then, the process proceeds to step S304.

ステップS304で、i番目(iは0乃至Nの整数)のノードを始点として、i番目よりも順位の劣るノード(j番目のノードとする。ここで、jは、i+1乃至N+1の整数)を終点とするエッジ(向きのあるエッジ)を作成する。ただし、0番目のノード(ソースノード)を始点とし、N+1番目のノード(シンクノード)を終点とするエッジのみ作成しない。なお、各エッジは、エネルギを有する。そして、ステップS305に進む。 In step S304, an i-th node (i is an integer from 0 to N) is used as a starting point, and a node lower in rank than the i-th node (j-th node, where j is an integer from i + 1 to N + 1). Create an edge (a directional edge) as the end point. However, only the edge starting from the 0th node (source node) and ending at the (N + 1) th node (sink node) is not created. Each edge has energy. Then, the process proceeds to step S305.

ステップS305で、0番目のノード(ソースノード)からi番目(iは1乃至Nの整数)のノードへ向かうエッジのエネルギとして、iの値に対して単調増加な値をセットする。すなわち、0番目のノード(ソースノード)からi番目のノードへ向かうエッジのエネルギは、iの値が大きくなればなるほど、大きな値とする。例えば、0番目のノード(ソースノード)からi番目のノードへ向かうエッジのエネルギは、「iの二乗」という値を設定する。そして、ステップS306に進む。 In step S305, a monotonically increasing value is set as the energy of the edge from the 0th node (source node) to the i-th node (i is an integer from 1 to N). That is, the energy of the edge from the 0th node (source node) to the i-th node is set to a larger value as the value of i increases. For example, the energy of the edge from the 0th node (source node) to the i th node is set to a value of “i squared”. Then, the process proceeds to step S306.

ステップS306で、i番目(iは1乃至Nの整数)のノードからN+1番目のノード(シンクノード)へ向かうエッジのエネルギとして、iの値に対して単調減少な値をセットする。すなわち、i番目のノードからN+1番目のノード(シンクノード)へ向かうエッジのエネルギは、iの値が大きくなればなるほど、小さな値とする。例えば、i番目のノードからN+1番目のノード(シンクノード)へ向かうエッジのエネルギは、「(N+1−i)の二乗」という値を設定する。そして、ステップS307に進む。 In step S306, a value monotonously decreasing with respect to the value of i is set as the energy of the edge from the i-th node (i is an integer from 1 to N) to the N + 1-th node (sink node). That is, the energy of the edge from the i-th node toward the (N + 1) -th node (sink node) is set to a smaller value as the value of i increases. For example, the energy of the edge from the i-th node toward the (N + 1) -th node (sink node) is set to a value of “(N + 1−i) square”. Then, the process proceeds to step S307.

ステップS307で、i番目(iは1乃至N−1の整数)のノードからj番目(jは、i+1乃至Nの整数)のノードへ向かうエッジのエネルギの設定を行う。すなわち、N枚の画像において、i−1番目の画像とj−1番目の画像に着目する。この2枚の画像の接続度合(図16の処理で得られる値)の逆数に対して、「(j−i)の二乗」倍した値を、i番目のノードからj番目のノードへ向かうエッジのエネルギとしてセットする。 In step S307, the energy of the edge from the i-th node (i is an integer from 1 to N-1) to the j-th node (j is an integer from i + 1 to N) is set. In other words, in the N images, attention is paid to the i−1th image and the j−1th image. An edge directed from the i-th node to the j-th node by a value obtained by multiplying the reciprocal of the connection degree of these two images (value obtained by the processing of FIG. 16) by the square of (ji). Set as energy.

さて、このようにノードとエッジを作成することで、N+2個のノードと、それらノードを結ぶエッジ(向きのあるエッジ)により、有向グラフが作成できる。各ノードおよび各エッジには、エネルギが与えられている。 Now, by creating nodes and edges in this way, a directed graph can be created by N + 2 nodes and edges (directional edges) connecting these nodes. Each node and each edge is given energy.

図18には、N=7の場合の有向グラフを示している。図中のSで示した丸印が0番目のノード(ソースノード)であり、Tで示した丸印がN+1番目のノード(シンクノード)である。図中の0から6で示した丸印が、それぞれ、1番目から7番目のノードである。また、図中の矢印が、エッジ(向きのあるエッジ)である。 FIG. 18 shows a directed graph when N = 7. A circle indicated by S in the figure is the 0th node (source node), and a circle indicated by T is the N + 1th node (sink node). Circles indicated by 0 to 6 in the figure are the first to seventh nodes, respectively. In addition, an arrow in the figure is an edge (an edge having a direction).

ステップS307の後、ステップS308に進む。 After step S307, the process proceeds to step S308.

ステップS308で、0番目のノード(ソースノード)から出発し、N+1番目のノード(シンクノード)へ到着する最小エネルギとなる経路(パス)を求める。すなわち、この有向グラフにおいて、あるノードから出発して、1つまたは複数のエッジおよびノードを通過して、別のノードへ到着する経路(パス)について考える。エッジは、指定された向きの方向にのみ進むことができ、逆行は出来ない。任意の経路(パス)において、通過したノードおよびエッジのエネルギを合計した(加算した)値を、その経路(パス)におけるエネルギと定義する。このように「経路(パス)のエネルギ」を定義することで、動的計画法(ダイナミックプログラミング)により、0番目のノード(ソースノード)から出発し、N+1番目のノード(シンクノード)へ到着するすべての経路(パス)の中で、最小エネルギとなる経路(パス)を求めることが出来る。動的計画法とは、既知の手法であり、その説明を省略する。再度述べると、ステップS308で、動的計画法により、0番目のノード(ソースノード)から出発し、N+1番目のノード(シンクノード)へ到着するすべての経路(パス)の中で、最小エネルギとなる経路(パス)を求める。そして、ステップS309に進む。 In step S308, a path (path) that starts from the 0th node (source node) and reaches the N + 1th node (sink node) is the minimum energy. That is, in this directed graph, consider a path (path) that starts from one node, passes through one or more edges and nodes, and arrives at another node. Edges can only advance in the direction of the specified orientation, not backwards. A value obtained by summing (adding) energy of nodes and edges that have passed in an arbitrary route (path) is defined as energy in the route (path). By defining “the energy of the path (path)” in this way, it starts from the 0th node (source node) and arrives at the (N + 1) th node (sink node) by dynamic programming (dynamic programming). Among all the paths (paths), the path (path) having the minimum energy can be obtained. The dynamic programming method is a known method, and its description is omitted. To restate, in step S308, the minimum energy and the minimum energy in all paths (paths) starting from the 0th node (source node) and arriving at the N + 1th node (sink node) are determined by dynamic programming. Find a route. Then, the process proceeds to step S309.

ステップS309で、この最小エネルギとなる経路(パス)に対応させて、N枚の画像の中から、最適な画像のみを選び出す。すなわち、この最小エネルギとなる経路(パス)に、i番目(iは1乃至Nの整数)のノードが含まれるのであれば、i−1番目の画像を保持する。一方、この最小エネルギとなる経路(パス)に、i番目(iは1乃至Nの整数)のノードが含まれていないのであれば、i−1番目の画像を破棄する。そして、一連の処理を終える。 In step S309, only the optimum image is selected from the N images in correspondence with the path (path) having the minimum energy. That is, if the i-th (i is an integer from 1 to N) node is included in the path (path) having the minimum energy, the i-1th image is held. On the other hand, if the i-th (i is an integer from 1 to N) node is not included in the path having the minimum energy, the i-1th image is discarded. Then, a series of processing is finished.

以上の一連の処理(図17に示す処理)により、画像の選出が行われる。 Image selection is performed by the above-described series of processing (the processing shown in FIG. 17).

図17に示す処理にて、破棄されずに、残った画像(選出された画像)は、「ひと続きの画像(絵巻物)」を作成するための素材として最適な画像となっている。最適である理由は以下のとおりである。 In the processing shown in FIG. 17, the remaining image (selected image) without being discarded is an optimal image as a material for creating a “continuous image (picture scroll)”. The reason for being optimal is as follows.

理由1:0番目のノード(ソースノード)からi番目(iは1乃至Nの整数)のノードへ向かうエッジのエネルギは、iの値に対して単調増加なエネルギが設定されている。従って、iの値が大きい場合、0番目のノード(ソースノード)からi番目のノードへ向かうエッジのエネルギは大きな値となり、このようなエッジは、最小エネルギとなる経路(パス)に含まれにくくなる。つまり、最小エネルギとなる経路(パス)に含まれる、0番目のノード(ソースノード)からi番目のノードへ向かうエッジに着目すると、このiの値は、小さな値である。すなわち、N枚の画像において、最初の方の画像が少なくとも1枚は保持されることになる。 Reason 1: The energy of the edge from the 0th node (source node) to the i-th node (i is an integer of 1 to N) is set to a monotonically increasing energy with respect to the value of i. Therefore, when the value of i is large, the energy of the edge from the 0th node (source node) to the i-th node becomes a large value, and such an edge is not easily included in the path (path) having the minimum energy. Become. That is, when attention is paid to the edge from the 0th node (source node) to the i-th node included in the path (path) having the minimum energy, the value of i is a small value. That is, of the N images, at least one of the first images is held.

理由2:、最小エネルギとなる経路(パス)に含まれる、i番目のノードからN+1番目のノード(シンクノード)へ向かうエッジに着目すると、このiの値は、大きな値である。このことは、理由1と同様に考えれば明白である。従って、N枚の画像において、最後の方の画像も少なくとも1枚は保持されることになる。 Reason 2: Focusing on the edge from the i-th node to the (N + 1) -th node (sink node) included in the path (path) having the minimum energy, the value of i is a large value. This is clear when considered in the same manner as in Reason 1. Therefore, at least one of the last images is held in N images.

理由3:最小エネルギとなる経路(パス)に含まれる、i番目(iは1乃至N−1の整数)のノードからj番目(jはi+1乃至Nの整数)のノードへ向かうエッジに着目する。この場合、i−1番目とj−1番目の画像は保持され、i番目からj−2番目の画像は破棄されることになる。i番目のノードからj番目のノードへ向かうエッジのエネルギは小さいということであるから、i−1番目とj−1番目の画像の接続度合は良好であることを意味する。また、定義より明らかに、iとjの差が大きくなるにつれ対応するエッジのエネルギが大きくなることを考えると、最小エネルギとなる経路(パス)に含まれる各エッジの始点と終点を示す添え字のiとjの差は小さくなるはずである。つまり、保持されたi−1番目とj−1番目の画像は、N枚の順番付けされた画像の順において近傍の画像となる。 Reason 3: Focus on the edge from the i-th node (i is an integer from 1 to N-1) to the j-th node (j is an integer from i + 1 to N) included in the path having the minimum energy. . In this case, the (i-1) th and (j-1) th images are retained, and the i-th to j-2th images are discarded. Since the energy of the edge from the i-th node to the j-th node is small, it means that the connection degree between the (i−1) -th image and the j−1-th image is good. Further, clearly from the definition, considering that the energy of the corresponding edge increases as the difference between i and j increases, a subscript indicating the start point and end point of each edge included in the path (path) having the minimum energy. The difference between i and j should be small. That is, the held i−1th and j−1th images are neighboring images in the order of N ordered images.

理由4:最小エネルギとなる経路(パス)に含まれるi番目(iは1乃至Nの整数)のノードに着目する。このノードのエネルギは小さい値である。つまり、保持されたi−1番目の画像の重要度は大きな値である。逆に、重要度の小さい画像は、最小エネルギとなる経路(パス)に含まれずに、破棄される。 Reason 4: Pay attention to the i-th node (i is an integer from 1 to N) included in the path having the minimum energy. The energy of this node is a small value. That is, the importance of the held (i−1) -th image is a large value. Conversely, an image with a low importance is not included in a path (path) having the minimum energy and is discarded.

以上、理由1から理由4をまとめると、N枚の画像において、最初の方の画像の少なくとも1枚は保持される(理由1)。例えば、1週間の旅行に行ったときに撮影した画像群を入力した場合、初日に撮影した画像が1枚も採用されないということはなくなる。N枚の画像において、ソートされた順で最後の方の画像の少なくとも1枚は保持される(理由2)。例えば、1週間の旅行に行ったときに撮影した画像群を入力した場合、最後の日に撮影した画像が1枚も採用されないということはなくなる。N枚の画像において、あるひと続きの画像群がすべて採用されないということはなくなる(理由3)。例えば、1週間の旅行に行ったときに撮影した画像群を入力した場合、中間の日に撮影した画像がすべて採用されないということはなくなる。また、重要な画像が採用されることになる(理由4)。また、各画像間での接続もスムーズな接続が可能である(理由3)。以上の理由により、「ひと続きの画像(絵巻物)」を作成するための素材として最適な画像が保持されて、不要な画像が破棄されることになる。 As described above, when reason 1 to reason 4 are put together, at least one of the first images is retained in N images (reason 1). For example, when inputting a group of images taken when traveling for a week, no image taken on the first day is used. Among the N images, at least one of the last images in the sorted order is retained (reason 2). For example, when inputting a group of images taken when traveling for a week, there is no possibility that no image taken on the last day is adopted. In N images, a series of images is not completely adopted (reason 3). For example, when inputting a group of images taken when traveling for a week, not all images taken on an intermediate day are adopted. Also, an important image is adopted (reason 4). In addition, a smooth connection is possible between the images (reason 3). For the above reasons, an optimal image is held as a material for creating a “continuous image (picture scroll)”, and an unnecessary image is discarded.

また、付随情報として旅行者(撮影者)により重要である旨が与えられている画像については、とても大きな値が重要度として設定されているので、ほぼ確実に採用されることになる。 In addition, for an image given importance by a traveler (photographer) as accompanying information, a very large value is set as the importance, so that it is almost certainly adopted.

なお、上述のステップS301からステップS307までは、図15の有向グラフ作成部17により処理が行われる。有向グラフ作成部17からの有向グラフの情報が、経路探索部18に伝達されるので、ステップS308は、経路探索部18により、処理が行われる。そして、経路探索部18からの最小エネルギとなる経路(パス)の情報が、画像選別部19に伝達されるので、ステップS309は、画像選別部19により、処理が行われる。すなわち、画像選別部19では、入力画像データ記憶部15にある画像(N個)が入力されるので、選択された画像のみを、後段の画像接続部20に送る。 Note that the directed graph creation unit 17 in FIG. 15 performs processing from step S301 to step S307 described above. Since the information of the directed graph from the directed graph creation unit 17 is transmitted to the route search unit 18, step S 308 is processed by the route search unit 18. Then, since the information on the path (path) that is the minimum energy from the path search unit 18 is transmitted to the image selection unit 19, the image selection unit 19 performs processing in step S309. That is, since the image selection unit 19 receives the images (N) in the input image data storage unit 15, only the selected image is sent to the subsequent image connection unit 20.

また、入力画像データ記憶部15から、各画像の重要度の情報が有向グラフ作成部17に伝達されるので、ステップS303では、この情報を使って処理が行われる。接続可能性判断部16から、各画像間の接続度合の情報が有向グラフ作成部17に伝達されるので、ステップS307では、この情報を使って処理が行われる。 Further, since the importance level information of each image is transmitted from the input image data storage unit 15 to the directed graph creation unit 17, processing is performed using this information in step S303. Since the information on the degree of connection between the images is transmitted from the connectability determination unit 16 to the directed graph creation unit 17, in step S307, processing is performed using this information.

なお、図17の処理において、ステップS308を行う前に、各ノードおよび各エッジに対して、微小な乱数を加えても良い。これにより、最小エネルギとなる経路(パス)が微妙に異なることになる。つまり、画像処理装置10に、同じ画像群を入力しても、毎回、処理するたびに採用される画像が微妙に異なることになる。処理するたびに、微妙に違う「ひと続きの画像(絵巻物)」を作ることができるので、もう1回、画像処理装置10で処理すると、どんな「ひと続きの画像(絵巻物)」が生成されるであろうかと、ユーザは楽しむことが出来る。 In the process of FIG. 17, a small random number may be added to each node and each edge before performing step S308. Thereby, the path | route (path) used as the minimum energy will differ slightly. That is, even if the same image group is input to the image processing apparatus 10, the image adopted every time it is processed is slightly different. Every time it is processed, a slightly different “continuous image (picture scroll)” can be created, so if it is processed once again by the image processing apparatus 10, any “continuous image (picture scroll)” is generated. The user can enjoy it.

次に、画像選別部19で選別された画像を用いて、「ひと続きの画像(絵巻物)」を作成する処理について、説明する。 Next, a process of creating a “continuous image (picture scroll)” using the images selected by the image selection unit 19 will be described.

上述したとおり、画像選別部19では、N個の画像(0番目からN−1番目の画像)からの選別を行う。ここで、選別された(破棄されずに残った)画像の個数をM個とする。このM個の画像は、番号の若い順に、0番目からM−1番目まで、番号を付し直し、後段の画像接続部20に送られる。従って、画像接続部20は、0番目からM−1番目まで番号が付してある画像が入力される。M個の順番付けされた画像は、撮影時刻の順番になっている。 As described above, the image selection unit 19 performs selection from N images (0th to (N-1) th images). Here, the number of selected images (remaining without being discarded) is M. The M images are renumbered from the 0th to the M−1th, in ascending order of the numbers, and sent to the image connection unit 20 at the subsequent stage. Accordingly, the image connection unit 20 receives images numbered from 0th to M−1th. The M ordered images are in order of shooting time.

画像接続部20で行われる処理について、図19を用いて、以下で説明する。 Processing performed in the image connection unit 20 will be described below with reference to FIG.

最初に、図19のステップS401で、現在処理しようとしている画像を表す変数としてkに0をセットする。そして、ステップS402に進む。 First, in step S401 in FIG. 19, 0 is set to k as a variable representing an image to be processed at present. Then, the process proceeds to step S402.

ステップS402で、k番目の画像を、D2とする。そして、Mask(k)は、k番目の画像と同じ大きさのマスクとする。ここで、kは0なので、「0番目の画像を、D2とする。そして、Mask(0)は、0番目の画像と同じ大きさのマスクとする。」という処理と同等である。 In step S402, the k-th image is set as D2. Mask (k) is a mask having the same size as that of the kth image. Here, since k is 0, it is equivalent to the processing of “0th image is D2. And Mask (0) is a mask having the same size as the 0th image”.

なお、マスクという言葉の定義について述べておく。すなわち、マスク(あるいはマスク画像)で指定された領域については、対応する画像の画素を表示し、マスク(あるいはマスク画像)で指定されていない領域については、対応する画像の画素は表示しない。 The definition of the word mask will be described. That is, the pixels of the corresponding image are displayed for the area specified by the mask (or mask image), and the pixels of the corresponding image are not displayed for the area not specified by the mask (or mask image).

ステップS402の後、ステップS403に進む。 After step S402, the process proceeds to step S403.

ステップS403で、k番目の画像に、マスクを付けて、「ひと続きの画像(絵巻物)のデータ保存部23」へ、保存する(表4参照)。このとき、表4に示すように、k番目の画像が動画のときは、fを引数とする連番静止画像となり、シネマグラフのときも、fを引数とする連番静止画像となる。すなわち、「ひと続きの画像(絵巻物)のデータ保存部23」に保存される画像データは、すべてマスク付きの静止画となる。 In step S403, a mask is attached to the k-th image, and the k-th image is stored in the “continuous image (picture scroll) data storage unit 23” (see Table 4). At this time, as shown in Table 4, when the kth image is a moving image, it becomes a serial still image with f as an argument, and when it is a cinema graph, it becomes a serial still image with f as an argument. That is, all the image data stored in the “continuous image (picture scroll) data storage unit 23” is a still image with a mask.

Figure 2015130546
Figure 2015130546

再度、ステップS403で「ひと続きの画像(絵巻物)のデータ保存部23」に保存されるデータについて、説明する。 The data stored in the “continuous image (picture scroll) data storage unit 23” in step S403 will be described again.

すなわち、表4に示すように、画像D2が静止画である場合は、D2は静止画1枚より成るので、D2(1枚の静止画)に、Mask(k)をマスクとして付け加えたデータを
image(k,0)という名前で保存する。
That is, as shown in Table 4, when the image D2 is a still image, since D2 is composed of one still image, the data obtained by adding Mask (k) as a mask to D2 (one still image) is used. Save as image (k, 0).

画像D2が動画である場合は、フレーム数をFとすると、D2の最初のフレーム(すなわち、0枚目のフレーム)に、Mask(k)をマスクとして付け加えたデータをimage(k,0)という名前で保存する。さらに、D2のf枚目(fは1乃至F−1の整数)のフレームに、画像と同じ大きさのマスクを付け加えたデータをimage(k,f)という名前で保存する。従って、画像D2が動画である場合は、保存する静止画の数は、動画のフレーム数と同じ数(F)である。なお、最初のフレーム(すなわち、0枚目のフレーム)のみMask(k)を付け、他のフレームには、画像と同じ大きさのマスクを付け加えている。これは、例えば、図9において、C20は、C1と分断線901でスムーズに接続するために、分断線901よりも右側のみを採用していることと合致する。そして、C21、C22、C23は、画像のすべての領域を採用していることと合致する。なお、余談であるが、C23について、画像のすべての領域を採用していると述べたが、実際には、分断線902よりも右下部分のC30を採用する際に、C23の右下部分は上書きされる。 When the image D2 is a moving image, assuming that the number of frames is F, data obtained by adding Mask (k) as a mask to the first frame of D2 (that is, the 0th frame) is called image (k, 0). Save with a name. Further, data obtained by adding a mask having the same size as the image to the f-th frame of D2 (f is an integer from 1 to F-1) is stored as image (k, f). Therefore, when the image D2 is a moving image, the number of still images to be stored is the same number (F) as the number of frames of the moving image. Note that Mask (k) is added only to the first frame (that is, the 0th frame), and a mask having the same size as the image is added to the other frames. For example, in FIG. 9, C20 is in agreement with the fact that only the right side of the dividing line 901 is adopted in order to connect C20 smoothly with the dividing line 901. C21, C22, and C23 coincide with the fact that all areas of the image are adopted. Although it is an aside, it has been described that all areas of the image are adopted for C23, but in reality, when C30 in the lower right part of the dividing line 902 is adopted, the lower right part of C23 is used. Is overwritten.

画像D2がシネマグラフである場合は、フレーム数をFとすると、D2のf枚目(fは0乃至F−1の整数)のフレームのそれぞれに、Mask(k)をマスクとして付け加えたデータをimage(k,f)という名前で保存する。従って、画像D2がシネマグラフである場合は、保存する静止画の数は、シネマグラフのフレーム数と同じ数(F)である。動画の場合と違い、すべてのフレームにおいて、Mask(k)を付け加えているのは、図11を用いて説明した事と合致する。 When the image D2 is a cinema graph, assuming that the number of frames is F, data obtained by adding Mask (k) as a mask to each of the f-th frames (f is an integer from 0 to F-1) of D2. Save as image (k, f). Therefore, when the image D2 is a cinema graph, the number of still images to be stored is the same number (F) as the number of frames of the cinema graph. Unlike the case of moving images, the addition of Mask (k) in all frames is consistent with what has been described with reference to FIG.

ステップS403の後、ステップS404に進む。 After step S403, the process proceeds to step S404.

ステップS404で、kの値がM−1であるか判断する。M−1であれば、すべての画像について処理が終了したので、一連の処理を終える。そうでなければ、ステップS405に進む。 In step S404, it is determined whether the value of k is M-1. If it is M-1, since the processing has been completed for all the images, a series of processing is completed. Otherwise, the process proceeds to step S405.

ステップS405で、次の画像を処理するために、kの値を1だけ増やす。そして、ステップS406に進む。 In step S405, the value of k is increased by 1 to process the next image. Then, the process proceeds to step S406.

ステップS406で、(k−1)番目の画像を、D1とする。k番目の画像を、D2とする。そして、表2(既出)に従って、静止画S1を決定する。表3(既出)に従って、静止画S2を決定する。そして、図14の処理フローを行う。図14の処理で得られる2枚の画像の位置関係(2次元ベクトル)をMV(k−1,k)として出力する。(なお、この出力MV(k−1,k)は、レンダリング情報作成部21へ入力される。)また、図14の処理で得られるマスク画像をMask(k)する。 In step S406, the (k−1) -th image is set as D1. Let the kth image be D2. Then, the still image S1 is determined according to Table 2 (existing). The still image S2 is determined according to Table 3 (existing). Then, the processing flow of FIG. 14 is performed. The positional relationship (two-dimensional vector) of the two images obtained by the processing of FIG. 14 is output as MV (k−1, k). (The output MV (k−1, k) is input to the rendering information creating unit 21.) Further, the mask image obtained by the process of FIG. 14 is masked (k).

なお、ステップS406により、k−1枚目の画像とk枚目の画像をスムーズにつなげた時の位置関係と、S2のマスクが求まる。理由は、図16のステップS205のところで説明したことと同じである。なお、ここでは、位置関係およびS2の領域(マスク)のみが必要であり、接続度合は図14の処理で求まるが破棄する。 In step S406, the positional relationship when the k-1th image and the kth image are smoothly connected and the mask of S2 are obtained. The reason is the same as that described in step S205 in FIG. Here, only the positional relationship and the region (mask) of S2 are necessary, and the degree of connection is obtained by the processing of FIG.

ステップS406の後、ステップS403に進む。 After step S406, the process proceeds to step S403.

以上の一連の処理により、0番目からM−1番目までの各画像は、画像の種類に応じて必要であれば連番静止画像にして、適切なマスク(隣接間でスムーズに接続できるマスク)をつけ、「ひと続きの画像(絵巻物)のデータ保存部23」に保存される。換言すれば、「ひと続きの画像(絵巻物)のデータ保存部23」には、マスク付き静止画image(k,f)が保存される。ここで、kは、0乃至M−1の整数である。k番目の画像が静止画であれば、fは0のみである。そして、k番目の画像が動画あるいはシネマグラフであれば、fは、0乃至F−1の整数である。ここで、Fは、k番目の画像に含まれるフレーム数である。 Through the series of processes described above, each of the 0th to M−1th images is converted into a still image if necessary according to the type of image, and an appropriate mask (a mask that can be smoothly connected between adjacent images). And stored in the “continuous image (picture scroll) data storage unit 23”. In other words, the masked still image image (k, f) is stored in the “continuous image (picture scroll) data storage unit 23”. Here, k is an integer from 0 to M-1. If the kth image is a still image, f is only 0. If the kth image is a moving image or a cinema graph, f is an integer from 0 to F-1. Here, F is the number of frames included in the kth image.

次に、レンダリング情報作成部21で行われる処理について、図20および図21を用いて説明する。この処理を実行することで、image(k,f)をどのような位置にレンダリングすればよいかという位置情報(レンダリング情報ファイル:sを変数とする複数のrenderingTextFile(s)というファイル)を作成できる。 Next, processing performed by the rendering information creation unit 21 will be described with reference to FIGS. By executing this processing, position information (rendering information file: a plurality of renderingTextFile (s) files with s as a variable) indicating what position image (k, f) should be rendered in can be created. .

図20および図21に示す処理フローの説明をする前に、注意点を述べておく。 Before explaining the processing flow shown in FIG. 20 and FIG.

図8を用いて説明したように、表示させる領域(表示枠)が820乃至823である時刻においては、静止画B0、B1、B2、および、B3のみを適切な位置にレンダリングさせる。この際、静止画B4をレンダリングしてはいけない。先に述べたように、B4をレンダリングしてしまうと、同じ位置にあるB2が上書きされて消えてしまうからである。そして、表示させる領域(表示枠)が823乃至825である時刻においては、静止画B3、B4、および、B5のみを適切な位置にレンダリングさせる。つまり、レンダリングの情報として、「静止画B0、B1、B2、および、B3のみを適切な位置にレンダリングさせる」という事と、「静止画B3、B4、および、B5のみを適切な位置にレンダリングさせる」という事の2つに分ける必要がある。端的に述べると、重なってしまうような位置関係のときは、レンダリングの情報を分けて考える必要がある。 As described with reference to FIG. 8, at the time when the display area (display frame) is 820 to 823, only the still images B0, B1, B2, and B3 are rendered at appropriate positions. At this time, the still image B4 should not be rendered. As described above, if B4 is rendered, B2 at the same position is overwritten and disappears. Then, at the time when the display area (display frame) is 823 to 825, only the still images B3, B4, and B5 are rendered at appropriate positions. That is, as rendering information, “to render only the still images B0, B1, B2, and B3 at appropriate positions” and “to render only the still images B3, B4, and B5 at appropriate positions. It is necessary to divide into two things. In short, when the positional relationship overlaps, it is necessary to consider the rendering information separately.

また、図9を用いて説明したように、表示させる領域(表示枠)が920乃至922である時刻においては、静止画C0、C1、および、C20のみを適切な位置にレンダリングさせる。この際、静止画C21をレンダリングしてはいけない。先に述べたように、C21をレンダリングしてしまうと、C20が上書きされて消えてしまうからである。図9において、表示させる領域(表示枠)が923以降である時刻についても同様に考えると、以下のことが言える。つまり、レンダリングの情報として、「静止画C0、C1、および、C20のみを適切な位置にレンダリングさせる」という事と、「静止画C21のみを適切な位置にレンダリングさせる」という事と、「静止画C22のみを適切な位置にレンダリングさせる」という事と、「静止画C23およびC30のみを適切な位置にレンダリングさせる」という事と、「静止画C31のみを適切な位置にレンダリングさせる」という事と、「静止画C32、C4、および、C5のみを適切な位置にレンダリングさせる」という事に分ける必要がある。端的に述べると、素材が動画のときは、レンダリングの情報を分けて考える必要がある。 Further, as described with reference to FIG. 9, only the still images C0, C1, and C20 are rendered at appropriate positions at the time when the display area (display frame) is 920 to 922. At this time, the still image C21 must not be rendered. This is because, as described above, if C21 is rendered, C20 is overwritten and disappears. In FIG. 9, the same can be said for the time when the area (display frame) to be displayed is 923 or later. That is, as rendering information, “only the still images C0, C1, and C20 are rendered at an appropriate position”, “only the still image C21 is rendered at an appropriate position”, and “still image "Render only C22 at an appropriate position", "Render only still images C23 and C30 at an appropriate position", "Render only still image C31 at an appropriate position", It is necessary to divide it into “only the still images C32, C4, and C5 are rendered at appropriate positions”. In short, when the material is a moving image, it is necessary to consider rendering information separately.

また、図10を用いて説明したように、素材がシネマグラフのときは、「絶対時刻により、レンダリングする静止画として、D20、D21、D22、あるいは、D23のいずれか1つを選択する」という情報を、レンダリングの情報に含む必要がある。 As described with reference to FIG. 10, when the material is a cinema graph, “D20, D21, D22, or D23 is selected as a still image to be rendered according to the absolute time”. Information needs to be included in the rendering information.

それでは、図20および図21について説明する。 Now, FIG. 20 and FIG. 21 will be described.

最初に、図20のステップS501で、中身が空の文字入力用のバッファを用意する。そして、レンダリング情報を記したファイルの番号を示す変数sに0をセットする。処理対象の画像の番号を示す変数kに0をセットする。画像の位置を示す2次元ベクトルmvに(0,0)をセットする。 First, in step S501 in FIG. 20, a buffer for character input having an empty content is prepared. Then, 0 is set to the variable s indicating the file number in which the rendering information is described. 0 is set to the variable k indicating the number of the image to be processed. (0, 0) is set to the two-dimensional vector mv indicating the position of the image.

なお、バッファ内には、後述するように、一行ごとに「画像のレンダリングすべき位置を表す2次元ベクトル」と「静止画の数」と「保存されている静止画の名前(1つ、または、複数)」を記していく。 In the buffer, as will be described later, “two-dimensional vector representing the position to render the image”, “number of still images”, and “name of stored still image (one or , Multiple) ”.

ステップS501の後、ステップS502に進む。 After step S501, the process proceeds to step S502.

ステップS502で、k番目の画像をmvの位置に配置すると、バッファ内にある画像(最後の行に書かれている画像は除く)のいずれかと交わりがあるかを判断し、交わりがある場合には、ステップS503に進む。そうでない場合には、ステップS504に進む。 In step S502, when the kth image is arranged at the position of mv, it is determined whether there is an intersection with any of the images in the buffer (excluding the image written in the last line). Advances to step S503. Otherwise, the process proceeds to step S504.

ここで、上記「交わり」について説明を追加しておく。バッファ内に何も書かれていない場合は、判定すべき対象がないので、交わりはない。バッファ内に1行しか書かれていない場合は、最後の行を除いて判断するので、実質判定すべき対象がないので、交わりはない。バッファ内に2行以上が書かれている場合は、最後の行を除いた画像との「交わり」の判定を行う。具体的には、バッファ内に書かれている任意の行(最後の行は除く)には、「画像のレンダリングすべき位置を表す2次元ベクトル(mv0とする。)」と「静止画の数」と「保存されている静止画の名前(1つ、または、複数)(image0とする。)」が書かれている。そこで、「ひと続きの画像(絵巻物)のデータ保存部23」に保存されているデータの中で、image0を読み出し、このimage0の大きさ(縦の画素数をimage0H、横の画素数をimage0Wとする)を調べる。そして、2次元平面上にmv0を中心として、縦image0H、横image0Wの矩形領域RECT0を考える。さらに、k番目の画像を、画像選別部19より読み出し、この画像の大きさ(縦の画素数をKH、横の画素数をKWとする)を調べる。そして、上記2次元平面上にmvを中心として、縦KH、横KWの矩形領域RECT1を考える。これら2つの矩形領域RECT0とRECT1に交わりがある場合は、「交わりがある」と判定する。バッファ内に書かれているすべての行(最後の行は除く)に対して、RECT0を求め、RECT1との交わりを判定し、1つでも交わりがあれば「交わりがある」と判定し、1つも交わりがなければ「交わりがない」と判定する。 Here, a description of the “intersection” is added. If nothing is written in the buffer, there is no object to be determined, so there is no interaction. When only one line is written in the buffer, since the determination is made except for the last line, there is no target for substantial determination, so there is no intersection. When two or more lines are written in the buffer, the “intersection” with the image excluding the last line is determined. Specifically, an arbitrary line (excluding the last line) written in the buffer includes “a two-dimensional vector (mv0) representing a position where an image is to be rendered” and “the number of still images”. ”And“ name of saved still image (one or plural) (image0) ”. Therefore, image0 is read out from the data stored in the “continuous image (picture scroll) data storage unit 23”, and the size of image0 (the number of vertical pixels is image0H and the number of horizontal pixels is image0W) Investigate). Consider a rectangular area RECT0 having a vertical image0H and a horizontal image0W centered on mv0 on a two-dimensional plane. Further, the k-th image is read out from the image selection unit 19 and the size of the image (the number of vertical pixels is KH and the number of horizontal pixels is KW) is examined. Then, a rectangular area RECT1 having vertical KH and horizontal KW around mv on the two-dimensional plane is considered. If there is an intersection between these two rectangular areas RECT0 and RECT1, it is determined that there is an intersection. For all lines written in the buffer (excluding the last line), RECT0 is obtained, and the intersection with RECT1 is determined. If there is even one intersection, it is determined that there is an intersection. If there is no interaction, it is determined that there is no interaction.

ステップS503で、バッファの内容をrenderingTextFile(s)という名前で、「ひと続きの画像(絵巻物)のデータ保存部23」に、ファイル出力する。そして、バッファの最後の1行を残して、他の行をすべて消去する。なお、この削除により、最後の行が、先頭行となる。そして、sの値を1だけ増やす。そして、ステップS504に進む。 In step S503, the contents of the buffer are output as a file to the "data storage unit 23 for a series of images (picture scrolls)" with the name renderingTextFile (s). All the other lines are erased, leaving the last line in the buffer. By this deletion, the last line becomes the first line. Then, the value of s is increased by 1. Then, the process proceeds to step S504.

例えば、図8で示す状況では、B4がk番目の画像とすると、B2との交わりがあるので、ステップS502で「交わりがある」と判定でき、ステップS503で、「静止画B0、B1、B2、および、B3のみを適切な位置にレンダリングさせる」という情報を持ったレンダリング情報ファイルを作成することが出来る。そして、この後、処理を進めていくことで、「静止画B3、B4、および、B5のみを適切な位置にレンダリングさせる」という情報を作成するために、B3に関する情報をバッファ内に維持させる。つまり、ステップS503では、バッファの最後の行(この場合B3に関する情報)は残しておく、という処理が必要である。 For example, in the situation shown in FIG. 8, if B4 is the kth image, there is an intersection with B2, so it can be determined that there is an intersection in step S502, and in step S503, “still images B0, B1, B2”. And a rendering information file having information that “only B3 is rendered at an appropriate position” can be created. Thereafter, by proceeding with the processing, information related to B3 is maintained in the buffer in order to create information that “only the still images B3, B4, and B5 are rendered at appropriate positions”. That is, in step S503, the process of leaving the last line of the buffer (in this case, information regarding B3) is necessary.

ステップS504で、k番目の画像を、画像選別部19より読み出し、この画像の種類を調べる。そして、k番目の画像が静止画の場合には、ステップS505に進む。シネマグラフの場合には、ステップS506に進む。動画の場合には、ステップS507(図21)に進む。 In step S504, the k-th image is read from the image selection unit 19 and the type of this image is examined. If the kth image is a still image, the process proceeds to step S505. In the case of a cinema graph, the process proceeds to step S506. In the case of a moving image, the process proceeds to step S507 (FIG. 21).

ステップS505で、「mv,1,{image(k,0)}」という一行テキストをバッファの最後に追加する。ここで、mvは「画像のレンダリングすべき位置を表す2次元ベクトル」を表しており、次の数値「1」は「静止画の数」を表しており、最後の{と}とで囲まれた中にある名前は、「保存されている静止画の名前(1つ、または、複数)」を表している。k番目の画像(1つの静止画)は、画像接続部20での処理により、「ひと続きの画像(絵巻物)のデータ保存部23」内には、image(k,0)という名前で保存されている。つまり、ステップS505で、k番目の画像(1つの静止画)を、mvの位置に配置するというレンダリング情報を、バッファに書き込んだことになる。 In step S505, the one-line text “mv, 1, {image (k, 0)}” is added to the end of the buffer. Here, mv represents “a two-dimensional vector representing a position where an image is to be rendered”, and the next numerical value “1” represents “the number of still images”, which is surrounded by {and} at the end. The name in the box represents “name of one or more stored still images”. The k-th image (one still image) is stored as “image (k, 0)” in the “continuous image (picture scroll) data storage unit 23” by the processing in the image connection unit 20. ing. That is, in step S505, rendering information that the kth image (one still image) is arranged at the position of mv is written in the buffer.

ステップS505の後、ステップS513に進む。 After step S505, the process proceeds to step S513.

ステップS506で、「mv,F,{image(k,0),image(k,1),image(k,2),…,image(k,F−1)}」という一行テキストをバッファの最後に追加する。ここで、Fは、k番目の画像(シネマグラフ)のフレーム数である。Fの値は、k番目の画像を画像選別部19より読み出し、この画像(シネマグラフ)のフレーム数を調べることで決定できる。ここで、mvは「画像のレンダリングすべき位置を表す2次元ベクトル」を表しており、次の数値「F」は「静止画の数」を表しており、最後の{と}とで囲まれた中にある名前は、「保存されている静止画の名前(1つ、または、複数)」を表している。k番目の画像(F枚の静止画より成るシネマグラフ)は、画像接続部20での処理により、「ひと続きの画像(絵巻物)のデータ保存部23」内には、image(k,0),image(k,1),image(k,2),…,image(k,F−1)という名前で保存されている。つまり、ステップS505で、k番目の画像(F枚の静止画)を、mvの位置に配置するというレンダリング情報を、バッファに書き込んだことになる。 In step S506, the single-line text “mv, F, {image (k, 0), image (k, 1), image (k, 2),..., Image (k, F−1)}” is added to the end of the buffer. Add to Here, F is the number of frames of the kth image (cinema graph). The value of F can be determined by reading the kth image from the image selection unit 19 and examining the number of frames of this image (cinema graph). Here, mv represents “a two-dimensional vector representing a position where an image is to be rendered”, and the next numerical value “F” represents “the number of still images”, which is surrounded by {and} at the end. The name in the box represents “name of one or more stored still images”. The k-th image (cinema graph composed of F still images) is processed by the image connection unit 20, and image (k, 0) is stored in the “continuous image (picture scroll) data storage unit 23”. , Image (k, 1), image (k, 2),..., Image (k, F-1). That is, in step S505, rendering information that the kth image (F still images) is arranged at the position of mv is written in the buffer.

ステップS506の後、ステップS513に進む。 After step S506, the process proceeds to step S513.

図21のステップS507で、F0に、k番目の画像(動画)のフレーム数をセットする。そして、ステップS508に進む。 In step S507 in FIG. 21, the number of frames of the kth image (moving image) is set in F0. Then, the process proceeds to step S508.

ステップS508で、動画の中で処理する対象フレームを表す変数fに0をセットする。そして、ステップS509に進む。 In step S508, 0 is set to the variable f representing the target frame to be processed in the moving image. Then, the process proceeds to step S509.

ステップS509で、「mv,1,{image(k,f)}」という一行テキストをバッファの最後に追加する。そして、バッファの内容をrenderingTextFile(s)という名前で、「ひと続きの画像(絵巻物)のデータ保存部23」に、ファイル出力する。そして、バッファの内容をすべてクリアする。そして、sの値を1だけ増やす。そして、ステップS510に進む。 In step S509, the one-line text “mv, 1, {image (k, f)}” is added to the end of the buffer. Then, the contents of the buffer are output as a file to the “data storage unit 23 of a series of images (picture scrolls)” with the name renderingTextFile (s). Then, all the contents of the buffer are cleared. Then, the value of s is increased by 1. Then, the process proceeds to step S510.

ステップS510で、fの値を1だけ増やす。そして、ステップS511に進む。 In step S510, the value of f is increased by 1. Then, the process proceeds to step S511.

ステップS511で、fの値がF0−1であるか判断する。F0−1であれば、動画を構成するすべての静止画(最後のフレームである静止画は除く)について処理が終了したので、ステップS512へ進む。そうでなければ、ステップS509に進む。 In step S511, it is determined whether the value of f is F0-1. If it is F0-1, processing has been completed for all the still images constituting the moving image (except for the still image that is the last frame), and the process proceeds to step S512. Otherwise, the process proceeds to step S509.

ステップS512で、「mv,1,{image(k,f)}」という一行テキストをバッファの最後に追加する。そして、ステップS513に進む。 In step S512, the one-line text “mv, 1, {image (k, f)}” is added to the end of the buffer. Then, the process proceeds to step S513.

例えば、図9で示す状況で、C2がk番目の画像(C20、C21、C22、C23の4枚より成る)とする。この場合、F0=4である。そして、f=0とすると、ステップS509で、「静止画C0、C1、および、C20のみを適切な位置にレンダリングさせる」という情報を持ったレンダリング情報ファイルを作成することが出来る。そして、f=1とすると、ステップS509で、「静止画C21のみを適切な位置にレンダリングさせる」という情報を持ったレンダリング情報ファイルを作成することが出来る。そして、f=2とすると、ステップS509で、「静止画C22のみを適切な位置にレンダリングさせる」という情報を持ったレンダリング情報ファイルを作成することが出来る。そして、f=3(つまり、F0−1)とすると、この後、処理を進めていくことで、「静止画C23およびC30のみを適切な位置にレンダリングさせる」という情報を作成するために、C23に関する情報をバッファに書き込む(ステップS512)という処理が、行われる。 For example, in the situation shown in FIG. 9, C2 is the k-th image (consisting of four images C20, C21, C22, and C23). In this case, F0 = 4. If f = 0, a rendering information file having information “Render only still images C0, C1, and C20 to appropriate positions” can be created in step S509. If f = 1, a rendering information file having information “Render only the still image C21 to an appropriate position” can be created in step S509. If f = 2, then in step S509, a rendering information file having information “Render only the still image C22 to an appropriate position” can be created. Then, if f = 3 (that is, F0-1), by proceeding with the processing thereafter, in order to create information that “only the still images C23 and C30 are rendered at appropriate positions”, C23 A process of writing information on the buffer into the buffer (step S512) is performed.

ステップS513で、kの値がM−1であるか判断する。M−1であれば、M個のすべての画像について処理が終了したので、ステップS516へ進む。そうでなければ、ステップS514に進む。 In step S513, it is determined whether the value of k is M-1. If it is M−1, since processing has been completed for all M images, the process proceeds to step S516. Otherwise, the process proceeds to step S514.

ステップS514で、次の画像を処理するために、kの値を1だけ増やす。そして、ステップS515に進む。 In step S514, the value of k is increased by 1 to process the next image. Then, the process proceeds to step S515.

ステップS515で、k番目の画像をレンダリングするための位置をmvにセットする。具体的には、k−1番目の画像の位置に対して、k−1番目とk番目の位置関係を示すベクトルMV(k−1,k)を加算すれば良い。すなわち、mv+MV(k−1,k)を、新たにmvとする。なお、MV(k−1,k)は、画像接続部20から与えられる。そして、ステップS502に進む。 In step S515, the position for rendering the kth image is set to mv. Specifically, a vector MV (k−1, k) indicating the k−1 and kth positional relationship may be added to the position of the k−1th image. That is, mv + MV (k-1, k) is newly set as mv. Note that MV (k−1, k) is given from the image connection unit 20. Then, the process proceeds to step S502.

ステップS516で、最後にバッファ内に残ったデータを、出力する。すなわち、バッファの内容をrenderingTextFile(s)という名前で、「ひと続きの画像(絵巻物)のデータ保存部23」に、ファイル出力する。そして、一連の処理を終える。 In step S516, the data remaining in the buffer last is output. That is, the contents of the buffer are output as a file to the “data storage unit 23 for a series of images (picture scrolls)” with the name renderingTextFile (s). Then, a series of processing is finished.

このようにして、レンダリング情報作成部21にて、「ひと続きの画像(絵巻物)のデータ保存部23」に格納されているマスク付き静止画を、どのような位置にレンダリングすれば良いかという情報を作成することが出来る。 Thus, in the rendering information creation unit 21, information on what position the still image with mask stored in the "data storage unit 23 of the continuous image (picture scroll)" should be rendered. Can be created.

次に、表示情報作成部22で行われる処理について、図22および図23を用いて説明する。この処理を実行することで、再生時に時刻が進むにつれてどの位置を表示するかという情報(前述の「表示枠」の推移に関する情報)を作成できる。 Next, processing performed by the display information creation unit 22 will be described with reference to FIGS. By executing this process, it is possible to create information indicating which position is displayed as the time advances during reproduction (information relating to the transition of the “display frame” described above).

最初に、図22のステップS601で、中身が空の文字入力用のバッファを用意する。そして、ステップS602に進む。 First, in step S601 of FIG. 22, a buffer for character input having an empty content is prepared. Then, the process proceeds to step S602.

なお、バッファ内には、後述するように、一行ごとに「レンダリング情報ファイルを特定するための番号」と「表示する際にどの位置を表示するかという位置情報(前述の「表示枠」の位置)」と「表示する際の大きさの情報(前述の「表示枠」の大きさ)」を記していく。 In the buffer, as will be described later, “number for specifying the rendering information file” and “position information indicating which position to display when displaying (position of the aforementioned“ display frame ”) ) ”And“ Information of size when displaying (size of the above-mentioned “display frame”) ”.

ステップS602で、レンダリング情報ファイルの番号を示す変数sに0をセットする。そして、ステップS603に進む。 In step S602, 0 is set to a variable s indicating a rendering information file number. Then, the process proceeds to step S603.

ステップS603で、「ひと続きの画像(絵巻物)のデータ保存部23」にrenderingTextFile(s)というファイルがあるかを判断し、ファイルが存在する場合には、ステップS604に進む。そうでない場合には、ステップS618に進む。 In step S603, it is determined whether there is a file called renderingTextFile (s) in the “continuous image (picture scroll) data storage unit 23”. If a file exists, the process advances to step S604. Otherwise, the process proceeds to step S618.

ステップS604で、renderingTextFile(s)というファイル内の着目する行数を示す変数kに0をセットする。なお、最初の行は1行目でなく、0行目とする。そして、ステップS605に進む。 In step S604, 0 is set to a variable k indicating the number of lines of interest in the file called renderingTextFile (s). The first line is not the first line but the 0th line. Then, the process proceeds to step S605.

ステップS605で、renderingTextFile(s)のk行目(すなわち0行目)に着目する。この行に書かれている位置情報(2次元ベクトル)mvのX座標の値をX2に、Y座標の値をY2にセットする。この行に書かれている静止画を
「ひと続きの画像(絵巻物)のデータ保存部23」から読み出し、その静止画の幅方向の画素数に0.6をかけた値をW2に、高さ方向の画素数に0.6をかけた値をH2にセットする。そして、ステップS606に進む。
In step S605, attention is paid to the k-th row (ie, the 0th row) of renderingTextFile (s). The X coordinate value of the position information (two-dimensional vector) mv written in this line is set to X2, and the Y coordinate value is set to Y2. The still image written in this line is read out from the “continuous image (picture scroll) data storage unit 23”, and the value obtained by multiplying the number of pixels in the width direction of the still image by 0.6 is W2. A value obtained by multiplying the number of pixels in the direction by 0.6 is set to H2. Then, the process proceeds to step S606.

後述するように、W2およびH2は、表示枠の大きさである。W2およびH2を求める際に、静止画の大きさに対して縦横それぞれ0.6倍しているのは、静止画全体でなく中央の60%部分を表示させるようにしているためである。60%程度にすることで、表示枠を移動していく過程で、画像データが存在しない部分が起きにくくなる。もちろん、本発明は、60%に限定するわけではなく、他の倍率でも良い。 As will be described later, W2 and H2 are the sizes of the display frames. When obtaining W2 and H2, the reason why the horizontal and vertical sizes are multiplied by 0.6 is because the central 60% portion is displayed instead of the entire still image. By setting the ratio to about 60%, it is difficult to cause a portion where no image data exists in the process of moving the display frame. Of course, the present invention is not limited to 60%, and other magnifications may be used.

ステップS606で、次の行を読むために、kの値を1だけ増やす。そして、ステップS607に進む。 In step S606, the value of k is incremented by 1 to read the next line. Then, the process proceeds to step S607.

ステップS607で、renderingTextFile(s)にはk行目があるかを判断し、ある場合には、ステップS608(図23)に進む。そうでない場合には、ステップS616に進む。 In step S607, it is determined whether or not the renderingTextFile (s) has the k-th row. If there is, the process proceeds to step S608 (FIG. 23). Otherwise, the process proceeds to step S616.

図23のステップS608で、X1にX2の値を代入し、Y1にY2の値を代入し、W1にW2の値を代入し、H1にH2の値を代入する。そして、ステップS609に進む。 In step S608 of FIG. 23, the value of X2 is substituted for X1, the value of Y2 is substituted for Y1, the value of W2 is substituted for W1, and the value of H2 is substituted for H1. Then, the process proceeds to step S609.

ステップS609で、renderingTextFile(s)のk行目に着目する。この行に書かれている位置情報(2次元ベクトル)mvのX座標の値をX2に、Y座標の値をY2にセットする。この行に書かれている静止画を
「ひと続きの画像(絵巻物)のデータ保存部23」から読み出し、その静止画の幅方向の画素数に0.6をかけた値をW2に、高さ方向の画素数に0.6をかけた値をH2にセットする。そして、ステップS610に進む。
In step S609, attention is focused on the kth row of renderingTextFile (s). The X coordinate value of the position information (two-dimensional vector) mv written in this line is set to X2, and the Y coordinate value is set to Y2. The still image written in this line is read out from the “continuous image (picture scroll) data storage unit 23”, and the value obtained by multiplying the number of pixels in the width direction of the still image by 0.6 is W2. A value obtained by multiplying the number of pixels in the direction by 0.6 is set to H2. Then, the process proceeds to step S610.

ステップS610で、2次元平面上の位置(X1,Y1)と(X2,Y2)との距離を、Lengthとする。そして、ステップS611に進む。 In step S610, the distance between the position (X1, Y1) on the two-dimensional plane and (X2, Y2) is set as Length. Then, the process proceeds to step S611.

ステップS611で、現在の位置を示す変数currentPositionに0をセットする。そして、ステップS612に進む。 In step S611, 0 is set to a variable currentPosition indicating the current position. Then, the process proceeds to step S612.

ステップS612で、currentPositionの値が、Lengthよりも小さいか判断し、そうであればステップS613に進み。そうでなければ、ステップS606に進む。 In step S612, it is determined whether the value of currentPosition is smaller than Length. If so, the process proceeds to step S613. Otherwise, the process proceeds to step S606.

ステップS613で、重み付き平均をするための重みweight2として、「currentPosition÷Length」の値をセットする。そして、もう1つの重みであるweight1に、「1−weight2」の値をセットする。さらに、この2つの重みを使って、以下のように示す4つの重み付き平均を求める。すなわち、X=weight1×X1+weight2×X2,Y=weight1×Y1+weight2×Y2,W=weight1×W1+weight2×W2,H=weight1×H1+weight2×H2を計算する。そして、ステップS614に進む。 In step S613, a value of “currentPosition / Length” is set as the weight weight2 for performing the weighted average. Then, a value of “1-weight2” is set to weight1, which is another weight. Furthermore, using these two weights, four weighted averages as follows are obtained. That is, X = weight1 * X1 + weight2 * X2, Y = weight1 * Y1 + weight2 * Y2, W = weight1 * W1 + weight2 * W2, H = weight1 * H1 + weight2 * H2. Then, the process proceeds to step S614.

ステップS614で、「s,(X,Y),(W,H) 」という一行テキストをバッファの最後に追加する。ここで、sは、表示に使用するレンダリング情報ファイルを特定するための番号であり、(X,Y)は「表示枠」の位置(正確には「表示枠」の中心位置)であり、(W,H)は「表示枠」の大きさである。 In step S614, the one-line text “s, (X, Y), (W, H)” is added to the end of the buffer. Here, s is a number for specifying the rendering information file used for display, (X, Y) is the position of “display frame” (more precisely, the center position of “display frame”), ( W, H) is the size of the “display frame”.

ステップS614の後、ステップS615に進む。 After step S614, the process proceeds to step S615.

ステップS615で、表示する位置を進めるために、currentPositionの値を10だけ増やす。ここでは、時刻とともに、表示する位置をずらしていくが、ずらす量として、画素数換算で10としている。もちろん、本発明は、10に限定するわけではなく、他の量でも良い。そして、ステップS612に進む。 In step S615, the value of currentPosition is increased by 10 to advance the display position. Here, the display position is shifted with time, but the shift amount is 10 in terms of the number of pixels. Of course, the present invention is not limited to 10, and other amounts may be used. Then, the process proceeds to step S612.

ここまででバッファに書き込まれた情報について図24を用いて説明する。 The information written in the buffer so far will be described with reference to FIG.

図24内に、ステップS605で着目したrenderingTextFile(s)のk−1行目に書かれている静止画と、その位置(静止画の中心位置)である(X1,Y1)と、静止画の60%の大きさである表示枠(W1,H1)を図示している。なお、ステップS606でkの値が1だけ増えているので、それ以前に読み込んだ行数はkではなく、k−1行目となる。また、ステップS608により、添え字が2である変数の値は、添え字が1である変数へ代入されている。 In FIG. 24, the still image written in the k−1 line of the renderingTextFile (s) focused in step S605 and its position (still image center position) (X1, Y1) A display frame (W1, H1) having a size of 60% is illustrated. Note that since the value of k is increased by 1 in step S606, the number of lines read before that time is not k, but is the (k-1) th line. In step S608, the value of the variable whose subscript is 2 is assigned to the variable whose subscript is 1.

さらに、図24内に、ステップS609で着目したrenderingTextFile(s)のk行目に書かれている静止画と、その位置(静止画の中心位置)である(X2,Y2)と、静止画の60%の大きさである表示枠(W2,H2)を図示している。 Further, in FIG. 24, the still image written in the kth line of the renderingTextFile (s) focused in step S609 and its position (still image center position) (X2, Y2) A display frame (W2, H2) having a size of 60% is illustrated.

ステップS613での計算により、図中の(X1,Y1)を始点とし、(X2,Y2)を終点とする矢印上を、(X,Y)は10画素刻みで進むことになる。また、(W,H)は、currentPositionの値が増えるにつれて、(W1,H1)から(W2,H2)へと変化していく。つまり、バッファには、「k−1行目に書かれている静止画の位置である(X1,Y1)に、k−1行目に書かれている静止画の60%の大きさ(W1,H1)である表示枠を表示させる」という記述が保存され、さらに、表示枠の位置をk行目に書かれている静止画の位置である(X2,Y2)へ10画素ずつずらしながら、表示枠の大きさもk行目に書かれている静止画の60%の大きさである(W2,H2)へ近づけていくという記述が保存されることになる。 According to the calculation in step S613, (X, Y) advances in increments of 10 pixels on the arrow starting from (X1, Y1) and ending at (X2, Y2) in the figure. Also, (W, H) changes from (W1, H1) to (W2, H2) as the value of currentPosition increases. That is, in the buffer, “the position of the still image written in the (k−1) -th line (X1, Y1) is 60% of the size of the still image written in the (k−1) -th line (W1 , H1) to display the display frame ", and further, shifting the display frame position by 10 pixels to (X2, Y2) which is the position of the still image written in the k-th line, The description that the size of the display frame is close to (W2, H2), which is 60% of the still image written in the k-th line, is saved.

さて、図22の説明に戻る。 Now, the description returns to FIG.

ステップS616に到達したときは、renderingTextFile(s)の最後の行まで処理が進んだときである。そこで、ステップS616で、renderingTextFile(s)に関連する最後の表示枠を表示させるための記述をバッファに追加する。具体的には、「s,(X2,Y2),(W2,H2)
」という一行テキストをバッファの最後に追加する。これにより、「図25に示したrenderingTextFile(s)の最後の行に書かれている静止画の位置(静止画の中心位置)である(X2,Y2)を表示枠の位置とし、そして、その静止画の60%の大きさである(W2,H2)を表示枠の大きさとして表示させる」という記述がバッファ内に保存される。
The process reaches step S616 when the process proceeds to the last line of renderingTextFile (s). In step S616, a description for displaying the last display frame related to renderingTextFile (s) is added to the buffer. Specifically, “s, (X2, Y2), (W2, H2)
Is added to the end of the buffer. As a result, “(X2, Y2) which is the position of the still image (the center position of the still image) written in the last line of the renderingTextFile (s) shown in FIG. 25 is set as the position of the display frame. A description “display (W2, H2) as the size of the display frame, which is 60% of the size of the still image” is stored in the buffer.

ステップS616の後、ステップS617に進む。 After step S616, the process proceeds to step S617.

ステップS617で、renderingTextFile(s)に関連する表示情報は終了したので、次のファイルに関連する処理を実行するために、sの値を1だけ増やす。なお、当然であるが、これ以降では、バッファに書かれる一行テキストの先頭の数値(s)は、1だけ増やされた値である。そして、ステップS603に進む。 In step S617, since the display information related to renderingTextFile (s) has ended, the value of s is incremented by 1 in order to execute processing related to the next file. Of course, after this, the numerical value (s) at the beginning of the one-line text written in the buffer is a value increased by one. Then, the process proceeds to step S603.

ステップS618で、すべての表示情報に関してバッファ内に書き込んだので、バッファの内容を
playListFileという名前で、「ひと続きの画像(絵巻物)のデータ保存部23」に、ファイル出力する。そして、一連の処理を終える。
In step S618, all the display information has been written in the buffer, so the contents of the buffer are output as a file to the "data storage unit 23 for a series of images (picture scrolls)" with the name playListFile. Then, a series of processing is finished.

さて、ここまで説明した処理を、図15の画像処理装置10の各部が行うことで、「ひと続きの画像(絵巻物)のデータ保存部23」には、「ひと続きの画像(絵巻物)」に関するデータが保存されることになる。すなわち、一続きの画像(絵巻物)の素材として選ばれたマスク付き静止画が、kおよびfを変数としたimage(k,f)というファイル名で保存される。また、各静止画をどの位置に配置すれば良いかという情報が、sを変数としたrenderingTextFile(s)というファイル名で保存される。各renderingTextFile(s)内には、1行あるいは複数行のテキストが書かれており、各行には、「画像のレンダリングすべき位置を表す2次元ベクトル」と「静止画の数」と「保存されている静止画の名前(1つ、または、複数)」が記されている。さらに、表示する際に、時刻が進むにつれて、どの位置を表示するかという情報(前述の「表示枠」の推移に関する情報)がplayListFileという名前(1つのファイル)で保存される。playListFileの各行には、「レンダリング情報を記したファイルの番号、すなわち、renderingTextFile(s)を特定するための情報」と「表示する際にどの位置を表示するかという位置情報(前述の「表示枠」の位置)」と「表示する際の大きさの情報(前述の「表示枠」の大きさ)」が記されている。これらファイルがまとめられて、「ひと続きの画像(絵巻物)のデータ保存部23」に保存される。 Now, the processing described so far is performed by each unit of the image processing apparatus 10 in FIG. 15, so that the “continuous image (picture scroll) data storage unit 23” is related to “continuous image (picture scroll)”. Data will be saved. That is, a still image with a mask selected as a material for a series of images (picture scrolls) is stored with a file name of image (k, f) with k and f as variables. Also, information indicating where to place each still image is stored as a file name renderingTextFile (s) with s as a variable. In each renderingTextFile (s), one or more lines of text are written. In each line, “a two-dimensional vector representing the position where the image is to be rendered”, “the number of still images”, and “saved” are stored. The name of the still image (one or more) ”is written. Further, when displaying, as time advances, information indicating which position is to be displayed (information regarding the transition of the “display frame” described above) is stored under the name playListFile (one file). Each line of playListFile includes “the number of a file in which rendering information is written, that is, information for specifying renderingTextFile (s)” and “position information indicating which position is to be displayed (the above-described“ display frame ”). "Position)" and "size information for display (size of the above-mentioned" display frame ")". These files are collected and stored in the “continuous image (picture scroll) data storage unit 23”.

なお、表示情報作成部22によるplayListFileは、後述する再生の直前までに行っていれば良い。そこで、image(k,f)とrenderingTextFile(s)のみ作成して、「ひと続きの画像(絵巻物)のデータ保存部23」に保存しておき、一旦処理を終了させる。そして、再生する直前で、「ひと続きの画像(絵巻物)のデータ保存部23」に保存されているimage(k,f)とrenderingTextFile(s)を使って、playListFileを作成しても良い。 It should be noted that the playListFile by the display information creation unit 22 only needs to be performed immediately before the reproduction described later. Therefore, only image (k, f) and renderingTextFile (s) are created and stored in the “continuous image (picture scroll) data storage unit 23”, and the process is temporarily terminated. Then, just before playback, a playListFile may be created using image (k, f) and renderingTextFile (s) stored in the “continuous image (picture scroll) data storage unit 23”.

さて、次に、「ひと続きの画像(絵巻物)のデータ保存部23」に保存されている「ひと続きの画像(絵巻物)」の再生に関して説明を行う。 Next, the reproduction of the “continuous image (picture scroll)” stored in the “continuous image (picture scroll) data storage unit 23” will be described.

図15の画像処理装置10内にあるユーザインターフェース部24では、鑑賞者からの指示が入力される。具体的には、プレイモードかポーズモードかの指示が入力される。このモード情報は、再生部25に送られる。 In the user interface unit 24 in the image processing apparatus 10 of FIG. 15, an instruction from the viewer is input. Specifically, an instruction for play mode or pause mode is input. This mode information is sent to the playback unit 25.

再生部25では、プレイモードの指示があると、図26の処理フローを実行する。 When there is an instruction for the play mode, the playback unit 25 executes the processing flow of FIG.

再生部25にて、各時刻において、適切な静止画が切り出されるので、その切り出された静止画を、画像表示部26が表示させて、鑑賞者は、これを鑑賞することが出来る。 Since an appropriate still image is cut out at each time by the playback unit 25, the image display unit 26 displays the cut out still image so that the viewer can appreciate it.

それでは、再生部25で、プレイモードの指示があったときの処理を説明する。 Now, processing when the playback unit 25 is instructed to play mode will be described.

プレイモードの指示があると、最初に、図26のステップS701で、playListFile内の着目する行数を示すLAに0をセットする。なお、最初の行は1行目でなく、0行目とする。LAは、図10を用いてシネマグラフの再生を説明した際の「再生時刻」と同じものである。そして、ステップS702に進む。 When there is a play mode instruction, first, in step S701 in FIG. 26, 0 is set to LA indicating the number of lines of interest in the playListFile. The first line is not the first line but the 0th line. LA is the same as the “reproduction time” when the reproduction of the cinema graph is described with reference to FIG. Then, the process proceeds to step S702.

ステップS702で絶対時刻を示す変数Tに0をセットする。なお、この絶対時刻Tは、図10を用いてシネマグラフの再生を説明した際の「絶対時刻」と同じものである。そして、ステップS703に進む。 In step S702, 0 is set to a variable T indicating the absolute time. The absolute time T is the same as the “absolute time” when the reproduction of the cinema graph is described with reference to FIG. Then, the process proceeds to step S703.

ステップS703で、「ひと続きの画像(絵巻物)のデータ保存部23」に保存されているplayListFileのLA行目に書かれているレンダリングリストファイルを読み込む。具体的には、LA行目の先頭の数値(s)に対応するrenderingTextFile(s)を、「ひと続きの画像(絵巻物)のデータ保存部23」から読み込む。このファイルをレンダリングリストファイルとする。そして、ステップS704に進む。 In step S703, the rendering list file written in the LA line of the playListFile stored in the “continuous image (picture scroll) data storage unit 23” is read. Specifically, the renderingTextFile (s) corresponding to the numerical value (s) at the beginning of the LA line is read from the “continuous image (picture scroll) data storage unit 23”. This file is a rendering list file. Then, the process proceeds to step S704.

ステップS704で、各静止画をレンダリングする前にキャンパス内のデータをクリアする。そして、ステップS705に進む。 In step S704, the campus data is cleared before each still image is rendered. Then, the process proceeds to step S705.

ステップS705で、現在読み込んでいるレンダリングリストファイル内の着目する行数を示すLBに0をセットする。なお、最初の行は1行目でなく、0行目とする。そして、ステップS706に進む。 In step S705, 0 is set to LB indicating the number of lines of interest in the rendering list file currently being read. The first line is not the first line but the 0th line. Then, the process proceeds to step S706.

ステップS706で、読み込んだレンダリングリストファイルのLB行目に着目する。この行には、先頭に2次元ベクトル(mvとする)が、2番目に静止画の数(Fとする)が、最後にF枚の静止画のファイル名が書かれている。そこで、F個の静止画の中で、「T mod F(すなわちTをFで割った余り)」番目の静止画を、「ひと続きの画像(絵巻物)のデータ保存部23」から読み出す。そして、この静止画を、キャンバスのmvの位置に上書きする。この時、この静止画に付随しているマスクにより指定された領域のみ上書きする。 In step S706, attention is focused on the LB line of the read rendering list file. In this line, the two-dimensional vector (mv) is written at the top, the number of still images (F) is written second, and the file names of F still images are written last. Therefore, among the F still images, the “T mod F (that is, the remainder when T is divided by F)” still image is read from the “continuous image (picture scroll) data storage unit 23”. Then, this still image is overwritten at the position of mv on the canvas. At this time, only the area designated by the mask attached to the still image is overwritten.

なお、F=1のときは、Tの値によらず、常に、LB行目の最後に書かれている1枚の静止画が選ばれる。Fが2以上のときは、素材がシネマグラフであることと同値であり、絶対時間Tにより選ばれる静止画が異なる。 When F = 1, one still image written at the end of the LB line is always selected regardless of the value of T. When F is 2 or more, it is equivalent to the material being a cinema graph, and the selected still image is different depending on the absolute time T.

ステップS706の後、ステップS707に進む。 After step S706, the process proceeds to step S707.

ステップS707で、レンダリングリストファイル内に次の行があるか判断し、ある場合には、ステップS708に進む。ない場合には、ステップS709に進む。 In step S707, it is determined whether there is a next line in the rendering list file. If there is, the process proceeds to step S708. If not, the process proceeds to step S709.

ステップS708で、レンダリングリストファイル内の次の行について、レンダリングするために、LBの値を1だけ増やす。そして、ステップS706に進む。 In step S708, the value of LB is increased by 1 in order to render the next line in the rendering list file. Then, the process proceeds to step S706.

ステップS709に処理が移行する時は、現在読み込んでいるレンダリングリストファイル内に書かれている静止画が、すべて、キャンパス上の適切な位置にレンダリングされている。そこで、ステップS709で、playListFileのLA行目の2番目に書かれている(X,Y)の位置を中心とした、3番目に書かれている(W,H)の大きさの矩形領域をキャンバス上から取り出し、画像表示部26に表示する。そして、ステップS710に進む。 When the process moves to step S709, all still images written in the rendering list file currently read are rendered at appropriate positions on the campus. Therefore, in step S709, a rectangular area having a size of (W, H) written in the third centered on the position of (X, Y) written in the second line of the LA line of playListFile is set. The image is taken out from the canvas and displayed on the image display unit 26. Then, the process proceeds to step S710.

ステップS710で、次の時刻での表示をする前に、1/30秒間だけ、処理を中断する。1/30秒ごとに、表示していくためである。そして、1/30秒たったら、ステップS711に進む。 In step S710, the process is interrupted for 1/30 second before displaying at the next time. This is because the information is displayed every 1/30 seconds. Then, after 1/30 second, the process proceeds to step S711.

ステップS711で、playListFileに次の行があるか判断し、ある場合には、ステップS712に進む。ない場合には、playListFile内のすべての表示指示に従って表示し終わったので、一連の処理を終える。 In step S711, it is determined whether there is a next line in the playListFile. If there is, the process proceeds to step S712. If not, display has been completed according to all display instructions in the playListFile, and the series of processing ends.

ステップS712で、現在のモードを調べる。再生途中でも、鑑賞者は、ユーザインターフェース部24を介して、モードを変更できる。そこで、各時刻において、その時刻におけるモードに合った適切な処理を行う必要がある。すなわち、現在のモードがプレイモードのときは、ステップS713に進む。ポーズモードのときは、ステップS714に進む。 In step S712, the current mode is checked. Even during playback, the viewer can change the mode via the user interface unit 24. Therefore, at each time, it is necessary to perform appropriate processing according to the mode at that time. That is, when the current mode is the play mode, the process proceeds to step S713. In the pause mode, the process proceeds to step S714.

ステップS713に処理が進むときは、プレイモードであるので、次の表示枠を表示させる必要がある。そこで、ステップS713で、LAの値を1だけ増やす。そして、ステップS714に進む。 When the process proceeds to step S713, since it is the play mode, it is necessary to display the next display frame. Therefore, in step S713, the value of LA is increased by 1. Then, the process proceeds to step S714.

ステップS714で、Tの値を1だけ増やす。これは、モードの種類によらず常に絶対時間を進めるためである。理由は、図10を用いて既に説明した。そして、ステップS703に進む。 In step S714, the value of T is increased by 1. This is because the absolute time is always advanced regardless of the type of mode. The reason has already been described with reference to FIG. Then, the process proceeds to step S703.

本発明の第1の実施例についての説明を終える前に、重要な処理およびデータについて、以下で述べる。 Before finishing the description of the first embodiment of the present invention, important processing and data will be described below.

旅行者(撮影者)が撮影した画像を入力する。請求項に対応させて述べるならば、第1の入力部に対応する。 Input an image taken by a traveler (photographer). If described in correspondence with the claims, it corresponds to the first input unit.

必要に応じて、汎用画像データベースから該画像と関連のある画像も入力する。これは、請求項に対応させて述べるならば、第2の入力部に対応する。 If necessary, an image related to the image is also input from the general-purpose image database. This will correspond to the second input section if described in correspondence with the claims.

これら画像を、ある規則に則り(ここでは、撮影時刻により)、順序付けを行う。これは、請求項に対応させて述べるならば、画像整列部に対応する。 These images are ordered according to a certain rule (in this case, depending on the shooting time). This will correspond to the image aligning section if described in correspondence with the claims.

各画像の重要度を決定する。これは、既知の技術により決定しても良いし、あるいは、旅行者(撮影者)が明示的に決定しても良い。これは、請求項に対応させて述べるならば、重要度判断部に対応する。 Determine the importance of each image. This may be determined by a known technique, or may be explicitly determined by a traveler (photographer). If this is described in correspondence with the claims, it corresponds to the importance determination section.

そして、画像どうしの接続度合(スムーズな接続が可能であるかという度合)を求める。これは、請求項に対応させて述べるならば、接続可否判断部に対応する。 Then, the degree of connection between the images (degree of whether smooth connection is possible) is obtained. If this is described in correspondence with the claims, it corresponds to the connection determination unit.

この接続度合と、各画像の重要度から、「ひと続きの画像(絵巻物)」を作成する素材として必要な画像を選別する。選別された画像を、スムーズに接続していくことで、「ひと続きの画像(絵巻物)」を作成する。これは、請求項に対応させて述べるならば、接続部に対応する。 Based on the degree of connection and the importance of each image, an image necessary as a material for creating a “continuous image (picture scroll)” is selected. Create a "continuous image (picture scroll)" by smoothly connecting the selected images. This corresponds to the connecting portion if described in correspondence with the claims.

さらに、「ひと続きの画像(絵巻物)」を再生する順番を決定する。これは、請求項に対応させて述べるならば、再生順番指示生成部に対応する。 Furthermore, the order in which “continuous images (picture scrolls)” are reproduced is determined. If this is described in correspondence with the claims, it corresponds to the reproduction order instruction generating unit.

以上により、kとfを引数とするimage(k,f)という静止画が、作成される。これら静止画は、請求項に対応させて述べるならば、請求項5の「複数の画像データ」に対応する。 As described above, a still image called image (k, f) having k and f as arguments is created. These still images correspond to the “plurality of image data” in claim 5 if described in correspondence with the claims.

sを引数とするrenderingTextFile(s)という各画像の位置関係を示すファイルが作成される。これらファイルは、請求項に対応させて述べるならば、請求項5の「該画像データ間の位置関係」に対応する。 A file indicating the positional relationship of each image, called renderingTextFile (s) with s as an argument, is created. These files correspond to the “positional relationship between the image data” in claim 5 if described in correspondence with the claims.

playListFileという表示する位置を示すファイルが作成される。このファイルは、請求項に対応させて述べるならば、請求項5の「表示すべき順番」に対応する。 A file indicating a display position called “playListFile” is created. This file corresponds to “order to be displayed” in claim 5 if described in correspondence with the claims.

image(k,f)とrenderingTextFile(s)とplayListFileが1つにまとめられて、保存される。これは、請求項に対応させて述べるならば、請求項5の「複数の画像データと、該画像データ間の位置関係と、表示すべき順番を示すデータを有するデータフォーマット」に対応する。 image (k, f), renderingTextFile (s), and playListFile are combined into one and stored. If this is described in correspondence with claims, it corresponds to “a data format having a plurality of image data, a positional relationship between the image data, and data indicating an order to be displayed”.

保存されたimage(k,f)とrenderingTextFile(s)とplayListFileにより、再生をすることが出来る。 The stored image (k, f), rendering TextFile (s), and playListFile can be used for reproduction.

以上で、本発明の第1の実施例における処理内容の説明を終える。 This is the end of the description of the processing contents in the first embodiment of the present invention.

〈第2の実施の形態〉
次に、本発明の第2の実施例について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.

本発明の第2の実施例においては、以下のような場面を想定している。すなわち、友人である2人(P1とP2とする)が別々の旅行を行い、最後に2人が合流するような場面である。P1は、旅行中に、図27に示すA10(自動車が写っている静止画)とA11(家が写っている静止画)を順番に撮影したとする。そして、P2は、旅行中に、A20(木が写っている静止画)とA21(船が写っている静止画)を順番に撮影したとする。これら静止画は、P1とP2により別々の場所で撮影されたとする。そして、それら撮影をした後、P1とP2が待ち合わせ場所で会い、最後に、P1とP2が自分達を撮影(静止画A30)したとする。 In the second embodiment of the present invention, the following scene is assumed. That is, it is a scene in which two friends (referred to as P1 and P2) make separate trips and finally join together. Suppose that P1 has photographed A10 (still image with a car) and A11 (still image with a house) shown in FIG. 27 in order during travel. Then, P2 shoots A20 (still image with trees) and A21 (still image with ships) in order during travel. These still images are taken at different locations by P1 and P2. Then, after taking these pictures, P1 and P2 meet at the meeting place, and finally P1 and P2 take pictures of themselves (still picture A30).

P1とP2が、旅行の後、一緒に、「ひと続きの画像(絵巻物)」を鑑賞する。この時、「P1が、旅行中に、自動車を見て、さらに、家を見た」という事と、「P2が、旅行中に、木を見て、さらに、船を見た」という事と、「旅行の最後にP1とP2が会った」という事を、回想できるようにする。このような「ひと続きの画像(絵巻物)」を作成することが、本発明の第2の実施例により実現できる。 After traveling, P1 and P2 will appreciate the “continuous image (picture scroll)” together. At this time, "P1 saw a car and saw a house while traveling" and "P2 saw a tree and saw a ship while traveling" , “P1 and P2 met at the end of the trip” can be recalled. Such a “continuous image (picture scroll)” can be created by the second embodiment of the present invention.

再度、述べると、本発明の第2の実施例により、複数の出来事の流れ(上記例では、「P1が、旅行中に、自動車を見て、さらに、家を見た」という出来事の流れと、「P2が、旅行中に、木を見て、さらに、船を見た」という出来事の流れ)が、合流や分岐する(上記例では、「旅行の最後にP1とP2が会った」という)ことも表現可能となる。 Again, according to the second embodiment of the present invention, the flow of a plurality of events (in the above example, “P1 saw a car and then saw a house while traveling” , “P2 saw the tree and then saw the ship while traveling” joined and branched (in the above example, “P1 and P2 met at the end of the trip”) ) Can also be expressed.

図28は、本発明の第2の実施例の画像処理装置30の構成例を示している。 FIG. 28 shows a configuration example of the image processing apparatus 30 according to the second embodiment of the present invention.

図中の11a乃至23aおよび25aは、それぞれ、図15の11乃至23および25と同じ処理を行う。11b乃至23bおよび25bは、それぞれ、図15の11乃至23および25と同じ処理を行う。これら処理の説明は、既に述べてあるので、ここでは、省略する。 11a to 23a and 25a in the figure perform the same processing as 11 to 23 and 25 of FIG. 15, respectively. 11b to 23b and 25b perform the same processing as 11 to 23 and 25 of FIG. 15, respectively. Since description of these processes has already been described, it is omitted here.

また、図中の14aおよび14bは、単なるデータベースなので、共通で1つだけにしても良い。 In addition, 14a and 14b in the figure are simple databases, and therefore, only one may be used in common.

図28では、図15と違い、入力部11aからの画像は、直接、画像収集部12aに与えずに、左トリミング部31aを介して与えている。同様に、入力部11bからの画像は、右トリミング部31bを介して、画像収集部12bに与えている。 In FIG. 28, unlike FIG. 15, the image from the input unit 11a is not directly given to the image collection unit 12a but is given via the left trimming unit 31a. Similarly, the image from the input unit 11b is given to the image collection unit 12b via the right trimming unit 31b.

また、ユーザインターフェース24cは、図15の24と同じである。すなわち、ユーザインターフェース24cでは、鑑賞者からの指示が入力される。具体的には、プレイモードかポーズモードかの指示が入力される。このモード情報は、再生部25aと再生部25bの両方に送られる。 The user interface 24c is the same as 24 in FIG. That is, an instruction from the viewer is input on the user interface 24c. Specifically, an instruction for play mode or pause mode is input. This mode information is sent to both the playback unit 25a and the playback unit 25b.

画像表示部(左部)26aと、画像表示部(右部)26bは、いずれも図15の26と同じである。ただし、物理的に、26aと26bとは隣接した位置に配置されている。26aが左側に、26bが右側に配置されている。この構成により、鑑賞者は、「ひと続きの画像(絵巻物)のデータ保存部23a」にある「ひと続きの画像(絵巻物)」と「ひと続きの画像(絵巻物)のデータ保存部23b」にある別の「ひと続きの画像(絵巻物)」とを、同時に左右に並べて鑑賞することが出来る。 The image display part (left part) 26a and the image display part (right part) 26b are both the same as 26 in FIG. However, physically, 26a and 26b are disposed at adjacent positions. 26a is arranged on the left side and 26b is arranged on the right side. With this configuration, the viewer is in the “continuous image (picture scroll) data storage unit 23b” and the “continuous image (picture scroll) data storage unit 23b” in the “continuous image (picture scroll) data storage unit 23a”. You can view another “continuous image (picture scroll)” side by side at the same time.

本発明の第2の実施例では、本発明の第1の実施例と違い、左トリミング部31aと右トリミング部31bがある。 In the second embodiment of the present invention, unlike the first embodiment of the present invention, there are a left trimming portion 31a and a right trimming portion 31b.

入力部11aから、P1が撮影した画像A10、A11およびA30が入力される。このとき、最後の画像であるA30には、重要である旨が、付随情報として与えられているとする。 Images A10, A11, and A30 captured by P1 are input from the input unit 11a. At this time, it is assumed that A30, which is the last image, is given as accompanying information that it is important.

同様に、入力部11bから、P2が撮影した画像A20、A21およびA30が入力される。このとき、最後の画像であるA30には、重要である旨が、付随情報として与えられているとする。 Similarly, images A20, A21, and A30 captured by P2 are input from the input unit 11b. At this time, it is assumed that A30, which is the last image, is given as accompanying information that it is important.

左トリミング部31aでは、A10およびA11に対しては、何も処理せず、そのまま、後段の画像収集部12aへと送る。A30に対してのみ、左側から「5/8」の領域のみを残し、右側の「3/8」の領域を削除した後、後段の画像収集部12aへと送る。すなわち、図29の(ア)に示すように、A30に対して右側の黒色部分が削除された画像A31が作成され、後段の画像収集部12aへと送られる。 The left trimming unit 31a does not process any of A10 and A11, and sends the processed image to the subsequent image collection unit 12a. Only for A30, only the area “5/8” is left from the left side, the area “3/8” on the right side is deleted, and then the image is sent to the subsequent image collection unit 12a. That is, as shown in FIG. 29A, an image A31 in which the black portion on the right side of A30 is deleted is created and sent to the subsequent image collection unit 12a.

同様に、右トリミング部31bでは、A20およびA21に対しては、何も処理せず、そのまま、後段の画像収集部12bへと送る。A30に対してのみ、右側から「5/8」の領域のみを残し、左側の「3/8」の領域を削除した後、後段の画像収集部12bへと送る。すなわち、図29の(イ)に示すように、A30に対して左側の黒色部分が削除された画像A32が作成され、後段の画像収集部12bへと送られる。 Similarly, the right trimming unit 31b does not perform any processing on A20 and A21, and sends it to the subsequent image collecting unit 12b as it is. Only for A30, only the area “5/8” is left from the right side, and the area “3/8” on the left side is deleted, and then sent to the subsequent image collection unit 12b. That is, as shown in FIG. 29A, an image A32 in which the black part on the left side of A30 is deleted is created and sent to the subsequent image collection unit 12b.

ここで、「3/8」の領域を削除し、「5/8」の領域のみを残すことについて、説明しておく。図29の(ア)および(イ)には、点線で矩形領域2900および2901を示している。矩形領域2900は、A31に対して、縦横ともに60%の大きさとなるような領域である。さらに、2900の右辺上に、A30の画像中心がある。実は、60%の大きさの矩形領域の右辺が、A30の画像中心となるように、削除する量を決めた。この量が、「3/8」である。同様に、矩形領域2901は、A32に対して、縦横ともに60%の大きさとなるような領域である。さらに、2901の左辺上に、A30の画像中心がある。実は、60%の大きさの矩形領域の左辺が、A30の画像中心となるように、削除する量を決めた。この量が、「3/8」である。 Here, deleting the “3/8” area and leaving only the “5/8” area will be described. In (a) and (b) of FIG. 29, rectangular areas 2900 and 2901 are indicated by dotted lines. The rectangular area 2900 is an area that is 60% larger than A31 both vertically and horizontally. Further, the image center of A30 is on the right side of 2900. Actually, the amount to be deleted is determined so that the right side of the 60% rectangular area is the center of the A30 image. This amount is “3/8”. Similarly, the rectangular area 2901 is an area having a size of 60% both vertically and horizontally with respect to A32. Further, the image center of A30 is on the left side of 2901. Actually, the amount to be deleted is determined so that the left side of the 60% rectangular area is the center of the A30 image. This amount is “3/8”.

後述するように、再生(表示)した場合、画像表示部(左部)26aに最後に表示する画像データは、2900の領域内の画像データである。そして、画像表示部(右部)26bに最後に表示する画像データは、2901の領域内の画像データである。画像表示部(左部)26aと画像表示部(右部)26bは、物理的に隣接して配置されているので、鑑賞者は、最後に、図29の(ウ)に示す矩形領域2902を鑑賞することになる。ここで、矩形領域2902は、矩形領域2901と矩形領域2902を合わせた領域である。 As will be described later, when data is reproduced (displayed), the image data that is finally displayed on the image display unit (left part) 26a is image data in the region 2900. The image data finally displayed on the image display part (right part) 26b is image data in the area 2901. Since the image display part (left part) 26a and the image display part (right part) 26b are physically adjacent to each other, the viewer finally has a rectangular area 2902 shown in FIG. I will appreciate it. Here, the rectangular area 2902 is an area obtained by combining the rectangular area 2901 and the rectangular area 2902.

さて、11a、左トリミング部31a、および、12a乃至22aにより、例えば、図30の(ア)に示すような「ひと続きの画像(絵巻物)」が「ひと続きの画像(絵巻物)のデータ保存部23a」に格納されることになる。ここで、A10とA11とA31(A30のトリミングされた画像)のすべての画像が破棄されずに採用されたとする。また、A30(すなわちA31)は、重要である旨が、付随情報として与えられているので、一連の処理の中で破棄されることはない。playListFileには、「最初に3000(図30の(ア)参照)で示す表示枠の領域を表示させ、そして、時刻が進むにつれて、矢印3010の方向に、表示枠を移動させながら、表示させていく。そして、3001で示す表示枠の領域に到達した後、次に、矢印3011の方向に、表示枠を移動させながら、表示させていく。そして、最後に、3002で示す表示枠の領域を表示させて、一連の表示を終了する。」という情報が書かれることになる。なお、第1の実施例のところで説明したように、表示枠は、画像の大きさの60%としている。従って、図30の(ア)の3002の領域は、図29の(ア)の2900と一致する。 By means of 11a, the left trimming unit 31a, and 12a to 22a, for example, a “continuous image (picture scroll)” as shown in FIG. 23a ". Here, it is assumed that all images of A10, A11, and A31 (A30 trimmed image) are adopted without being discarded. Further, since A30 (that is, A31) is given as accompanying information that it is important, it is not discarded in a series of processes. In the playListFile, display the area of the display frame indicated by “3000 (see (a) in FIG. 30) first, and then move the display frame in the direction of the arrow 3010 as the time advances and display it. Then, after reaching the display frame area indicated by 3001, the display frame is displayed while moving the display frame in the direction of the arrow 3011. Finally, the display frame area indicated by 3002 is displayed. Information is displayed ", and a series of displays are finished." As described in the first embodiment, the display frame is 60% of the image size. Therefore, the area 3002 in FIG. 30A matches 2900 in FIG.

同様に、11b、右トリミング部31b、および、12b乃至22bにより、例えば、図30の(イ)に示すような「ひと続きの画像(絵巻物)」が「ひと続きの画像(絵巻物)のデータ保存部23b」に格納されることになる。ここで、A20とA21とA32(A30のトリミングされた画像)のすべての画像が破棄されずに採用されたとする。また、A30(すなわちA32)は、重要である旨が、付随情報として与えられているので、一連の処理の中で破棄されることはない。playListFileには、「最初に3020(図30の(イ)参照)で示す表示枠の領域を表示させ、そして、時刻が進むにつれて、矢印3030の方向に、表示枠を移動させながら、表示させていく。そして、3021で示す表示枠の領域に到達した後、次に、矢印3031の方向に、表示枠を移動させながら、表示させていく。そして、最後に、3022で示す表示枠の領域を表示させて、一連の表示を終了する。」という情報が書かれることになる。なお、第1の実施例のところで説明したように、表示枠は、画像の大きさの60%としている。従って、図30の(イ)の3022の領域は、図29の(イ)の2901と一致する。 Similarly, 11b, right trimming unit 31b, and 12b to 22b can store, for example, a “continuous image (picture scroll)” as shown in FIG. Stored in the section 23b ". Here, it is assumed that all images A20, A21, and A32 (A30 trimmed image) are adopted without being discarded. Further, since A30 (that is, A32) is given as accompanying information that it is important, it is not discarded in a series of processes. In the playListFile, display the area of the display frame indicated by “3020 (see (a) in FIG. 30) first”, and move the display frame in the direction of the arrow 3030 as the time advances. Then, after reaching the display frame area indicated by 3021, the display frame is displayed while moving the display frame in the direction of arrow 3031. Finally, the display frame area indicated by 3022 is displayed. Information is displayed ", and a series of displays are finished." As described in the first embodiment, the display frame is 60% of the image size. Therefore, the area 3022 in FIG. 30A corresponds to 2901 in FIG.

なお、図8、図9および図10では分断線を示していたが、図30では、煩雑になることを避けるために、分断線の図示を省略している。 Although FIG. 8, FIG. 9 and FIG. 10 show the parting lines, FIG. 30 does not show the parting lines in order to avoid complications.

次に、ユーザインターフェース24cから、プレイモードの指示が入力されると、「ひと続きの画像(絵巻物)のデータ保存部23a」にあるplayListFileに従って、再生が行われ、画像表示部(左部)26aに、適切な画像が表示される。同時に、「ひと続きの画像(絵巻物)のデータ保存部23b」にあるplayListFileに従って、再生が行われ、画像表示部(右部)26bに、適切な画像が表示される。そして、最後には、画像表示部(左部)26aに3002で示す表示枠の領域が表示され、画像表示部(右部)26bに3022で示す表示枠の領域が表示される。 Next, when an instruction for the play mode is input from the user interface 24c, playback is performed according to the playListFile in the “data storage unit 23a for a series of images (picture scrolls)”, and the image display unit (left part) 26a. An appropriate image is displayed. At the same time, playback is performed in accordance with playListFile in the “continuous image (picture scroll) data storage unit 23b”, and an appropriate image is displayed on the image display unit (right part) 26b. Finally, a display frame area 3002 is displayed on the image display section (left section) 26a, and a display frame area 3022 is displayed on the image display section (right section) 26b.

ここで、鑑賞者の身になって、上記再生の過程を考えてみよう。左側を見ることで、「旅行中に、自動車を見て、さらに、家を見て、最後にP1とP2が会った」ということを順番に回想することが出来る。そして、右側を見る事で、「旅行中に、木を見て、さらに、船を見て、最後にP1とP2が会った」ということを順番に回想することが出来る。各画像がスムーズにつながっているので「旅行の連続性を感じる」ことも出来る。さらに、最後に表示している画像は、2902(図29の(ウ)参照)で示す領域である。つまり、左側の表示部でスムーズに連続してきた一連の画像と、右側の表示部でスムーズに連続してきた一連の画像とが、1枚の静止画(2902)として提示されるので、最後に2つの旅行が融合したことも感じることが出来る。実際に最後にP1とP2は合っているので、P1とP2の旅行が最後に融合したと感じることが出来る表現手法は、とても素晴らしい。 Now, let's consider the process of reproduction as an appreciator. By looking at the left side, you can recall in turn that “I saw a car, looked at my house, and finally P1 and P2 met while traveling.” And by looking at the right side, you can recall in turn that “I saw the trees during the trip, and even the boat, and finally P1 and P2 met.” Since each image is connected smoothly, you can “feel the continuity of travel”. Further, the last displayed image is an area indicated by 2902 (see FIG. 29C). That is, since a series of images smoothly continued on the left display unit and a series of images smoothly continued on the right display unit are presented as one still image (2902), 2 You can also feel that two trips have merged. Actually, P1 and P2 match at the end, so the expression method that you can feel that P1 and P2 travel merged at the end is very wonderful.

今、2つの画像列の合流について、説明したが、もちろん、逆に、分岐することも可能である。例えば、上記説明とは逆に、P1とP2が最初に会って、P1とP2が自分達を撮影(図27の静止画A30)したとする。そして、P1とP2が分かれて、それぞれ、別の旅行をしたとする。つまり、P1は、旅行中に、A11とA10を順番に撮影したとする。P2は、旅行中に、A21とA20を順番に撮影したとする。入力部11aから、P1が撮影した画像A30、A11およびA10を入力し、入力部11bから、P2が撮影した画像A30、A21およびA20を入力することで、図30に示した矢印とは、逆の方向に、表示をしてくことが可能である。この場合、最初に、1枚の静止画(2902)が提示されて、表示部の左側には、A11やA10を使った画像が表示されていく。そして、表示部の右側には、A21やA20を使った画像が表示されていく。 Now, the merging of two image sequences has been described, but it is of course possible to branch. For example, contrary to the above description, it is assumed that P1 and P2 first meet and P1 and P2 photograph themselves (still image A30 in FIG. 27). Then, suppose that P1 and P2 are separated and have made separate trips. That is, P1 is assumed to have taken A11 and A10 in order during the trip. Assume that P2 has taken A21 and A20 in order during the trip. By inputting the images A30, A11 and A10 taken by P1 from the input unit 11a and the images A30, A21 and A20 taken by P2 from the input unit 11b, the arrows shown in FIG. 30 are reversed. It is possible to display in the direction of. In this case, first, one still image (2902) is presented, and an image using A11 or A10 is displayed on the left side of the display unit. Then, images using A21 and A20 are displayed on the right side of the display unit.

第2の実施例に示したように、本発明の第1の実施例を複数個併用することで、複数の出来事の流れを表示部の領域ごとに並列して表示させることが出来る。さらに、複数の出来事に対して、合流や分岐させるという表現も可能となる。 As shown in the second embodiment, by using a plurality of the first embodiments of the present invention in combination, a plurality of events can be displayed in parallel for each display area. Furthermore, it is also possible to express that a plurality of events are merged or branched.

以上で、本発明の第2の実施例における処理内容の説明を終える。 This is the end of the description of the processing contents in the second embodiment of the present invention.

さて、上述の説明では、画像の順番として、撮影時刻を使用していた。一般的に、鑑賞者が回想する順番は時系列だからである。しかし、本発明は、撮影時刻に限定しない。例えば、動物園内を、その動物園が規定している順路に従って歩いて、撮影したとする。撮影し損なった動物がいたので、順路に従って一巡した後、撮影し損なった動物のところに直行して、撮影したとする。この場合、撮影時刻の順番で「ひと続きの画像(絵巻物)」を作成してしまうと、最後の表示が「撮影し損なった動物」の画像となってしまう。こういう場合は、順路に従った順番で「ひと続きの画像(絵巻物)」を作成した方が良い。そこで、撮影時刻ではなくて、撮影位置により順番付けすれば良い。動物園が規定している順路とは、通常、位置的に順番になっていることが多いので、「順路による順番付け」は「撮影位置における順番付け」と同等になるからである。 In the above description, the shooting time is used as the order of images. This is because the order in which viewers generally recall is time series. However, the present invention is not limited to the shooting time. For example, assume that a zoo is photographed while walking along a route defined by the zoo. Suppose that there was an animal that failed to shoot, so after taking a round along the route, go straight to the animal that failed to shoot and shoot. In this case, if “continuous images (picture scrolls)” are created in the order of the photographing times, the last display is an image of “animals that have failed to be photographed”. In such a case, it is better to create “continuous images (picture scrolls)” in the order according to the route. Therefore, the order may be determined not by the shooting time but by the shooting position. This is because the route specified by the zoo is usually ordered in terms of position, and therefore “ordering by route” is equivalent to “ordering at the shooting position”.

また、上述の説明では、付随情報として、撮影時刻と撮影位置があるとして説明した。通常、デジタルカメラで撮影すると、画像は、自動的に昇順に番号が付いてファイルとして保存される。従って、各画像のファイル名の番号を、撮影時刻の代わりに使用しても良い。また、付随情報として、撮影位置がない場合、撮影者が撮影した位置と同じ位置から撮影した「鑑賞用の綺麗な画像」をデータベース管理部13から取得することが出来ない。この場合は、ユーザが、明示的に、手動で、汎用画像データベース14から探し出して、その画像を入力画像データ記憶部15に記憶させれば良い。 In the above description, it has been described that the incidental information includes the photographing time and the photographing position. Normally, when shooting with a digital camera, images are automatically numbered in ascending order and saved as a file. Therefore, the file name number of each image may be used instead of the shooting time. In addition, as the accompanying information, when there is no shooting position, it is not possible to obtain from the database management unit 13 a “beautiful image for viewing” shot from the same position as the position where the photographer shot. In this case, the user may explicitly search manually from the general-purpose image database 14 and store the image in the input image data storage unit 15.

また、鑑賞者は、「ひと続きの画像(絵巻物)」を表示させて鑑賞するだけでなく、もちろん、入力部に入力したオリジナルの画像(旅行者(撮影者)が撮影した編集前の画像)も、画像表示部にて表示させて鑑賞しても良い。最近のディスプレイ(画像表示装置)では、タッチパネルを有するものもあり、このようなディスプレイを、本発明の画像表示部として使用しても良い。そして、「ひと続きの画像(絵巻物)」を表示させている最中に、鑑賞者が、画面をタッチすることで、タッチされた画像(「ひと続きの画像(絵巻物)のデータ保存部23」に保存されている静止画)と撮影時刻がほぼ同じ時刻のオリジナルの画像(旅行者(撮影者)が撮影した編集前の画像)に切り替えて表示させることも可能である。つまり、鑑賞者が、興味のある場合には、画面をタッチすることで、その時刻(および、その近辺の時刻)のオリジナル画像を鑑賞することができ、その時刻における旅行者の情景をもっと詳しく鑑賞することが出来る。 In addition, the viewer not only displays a series of images (picture scrolls), but also of course the original image input to the input section (the image before editing taken by the traveler (photographer)) Alternatively, the image may be displayed on the image display unit. Some recent displays (image display devices) have a touch panel, and such a display may be used as the image display unit of the present invention. Then, while the “continuous image (picture scroll)” is being displayed, the viewer touches the screen so that the touched image (“continuous image (picture scroll) data storage unit 23”) is displayed. It is also possible to switch to and display an original image (an image before editing that was taken by a traveler (photographer)) having a shooting time substantially the same as that of the still image stored in (1). In other words, if the viewer is interested, the user can view the original image at that time (and the time in the vicinity) by touching the screen, and the traveler's scene at that time can be seen in more detail. You can appreciate it.

<本発明のその他の実施例>
なお、上述実施の形態においては、専用の画像処理装置10あるいは30にて、「ひと続きの画像(絵巻物)」を作成し、それを再生するという例を示した。しかし、この他にも、旅行者(撮影者)が撮影した複数枚の画像を、コンピュータ装置に送って、このコンピュータ装置内で生成および再生することも可能である。この場合、詳細説明は省略するが、コンピュータ装置内でも、上述した画像処理装置10あるいは30における処理と同様の処理により、「ひと続きの画像(絵巻物)」を作成し、それを再生することが出来る。
<Other Examples of the Present Invention>
In the above-described embodiment, an example in which the “continuous image (picture scroll)” is created and reproduced by the dedicated image processing apparatus 10 or 30 has been described. However, in addition to this, it is also possible to send a plurality of images taken by a traveler (photographer) to a computer device, and generate and reproduce the image in the computer device. In this case, although a detailed description is omitted, a “continuous image (picture scroll)” can be created and reproduced in the computer apparatus by the same process as that in the image processing apparatus 10 or 30 described above. I can do it.

図31は、「ひと続きの画像(絵巻物)」を作成し、それを再生するコンピュータ装置40の構成例を示している。 FIG. 31 shows a configuration example of a computer device 40 that creates a “continuous image (picture scroll)” and reproduces it.

このコンピュータ装置40は、CPU(Central Processing Unit)4011、メモリ4012、ディスプレイコントローラ4013、入力機器インターフェース4014、ネットワークインターフェース4015を有している。また、このコンピュータ装置40は、外部機器インターフェース4016およびデジタルカメラインターフェース4018を有している。これらは、バス4017に接続されている。 The computer apparatus 40 includes a CPU (Central Processing Unit) 4011, a memory 4012, a display controller 4013, an input device interface 4014, and a network interface 4015. Further, the computer device 40 includes an external device interface 4016 and a digital camera interface 4018. These are connected to the bus 4017.

ディスプレイ4019は、ディスプレイコントローラ4013を介してバス4017に接続されている。キーボード(KBD)4020およびマウス4021は、入力機器インターフェース4014を介してバス4017に接続されている。また、ハードディスクドライブ(HDD)4022およびメディアドライブ4023は、外部機器インターフェース4016を介してバス4017に接続されている。デジタルカメラは、デジタルカメラインターフェース4018を介してバス4017に接続されている。また、コンピュータ装置40は、ネットワークインターフェース4015を介して、インターネット等のネットワークに接続される。 The display 4019 is connected to the bus 4017 via the display controller 4013. A keyboard (KBD) 4020 and a mouse 4021 are connected to the bus 4017 via the input device interface 4014. Further, the hard disk drive (HDD) 4022 and the media drive 4023 are connected to the bus 4017 via the external device interface 4016. The digital camera is connected to the bus 4017 via the digital camera interface 4018. The computer device 40 is connected to a network such as the Internet via a network interface 4015.

CPU4011は、コンピュータ装置40のメイン・コントローラである。このCPU4011は、オペレーティング・システム(OS)の制御下で、各種のアプリケーションを実行する。CPU4011は、例えば、デジタルカメラから一度ハードディスクドライブ4022にダウンロードされた画像(旅行者(撮影者)が撮影した複数枚の画像)を処理するアプリケーション・プログラムを実行することができる。アプリケーション・プログラムの中には、上述した「ひと続きの画像(絵巻物)」を作成し、それを再生するという一連の処理プログラムがインプリメントされている。CPU4011は、バス4017によって他の機器類と相互接続されている。 The CPU 4011 is a main controller of the computer device 40. The CPU 4011 executes various applications under the control of an operating system (OS). For example, the CPU 4011 can execute an application program for processing images (a plurality of images taken by a traveler (photographer)) once downloaded from the digital camera to the hard disk drive 4022. In the application program, a series of processing programs for creating the above-described “continuous image (picture scroll)” and reproducing it are implemented. The CPU 4011 is interconnected with other devices by a bus 4017.

メモリ4012は、CPU4011において実行されるプログラム・コードを格納し、また実行中の作業データを一時保管するために使用される記憶装置である。メモリ4012は、例えば、ROMなどの不揮発性メモリおよびDRAMなどの揮発性メモリの双方を含む構成とされている。 A memory 4012 is a storage device used for storing program codes executed by the CPU 4011 and temporarily storing work data being executed. The memory 4012 includes, for example, a nonvolatile memory such as a ROM and a volatile memory such as a DRAM.

ディスプレイコントローラ4013は、CPU4011が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイコントローラ4013において処理された描画データは、例えばフレーム・バッファ(図示しない)に一旦書き込まれた後、ディスプレイ4019によって画面出力される。例えば、ハードディスクドライブ4022から読み出された画像はディスプレイ4019で画面表示されて、ユーザは見て楽しむことができる。 A display controller 4013 is a dedicated controller for actually processing a drawing command issued by the CPU 4011. The drawing data processed in the display controller 4013 is once written in a frame buffer (not shown), for example, and then output on the screen by the display 4019. For example, an image read from the hard disk drive 4022 is displayed on the screen of the display 4019 so that the user can see and enjoy it.

入力機器インターフェース4014は、キーボード4020やマウス4021などのユーザ入力機器をコンピュータ装置40に接続するための装置である。ユーザは、キーボード4020やマウス4021を介して、画像を再生するためのコマンドなどを入力することができる。 The input device interface 4014 is a device for connecting user input devices such as a keyboard 4020 and a mouse 4021 to the computer device 40. A user can input a command for reproducing an image or the like via the keyboard 4020 or the mouse 4021.

ネットワークインターフェース4015は、Ethernet(登録商標)などの所定の通信プロトコルに従って、コンピュータ装置40を、LAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続する。 The network interface 4015 connects the computer device 40 to a local network such as a LAN (Local Area Network) and further to a wide area network such as the Internet according to a predetermined communication protocol such as Ethernet (registered trademark).

ネットワーク上では、複数のホスト端末やサーバー(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、ソフトウェア・プログラムやデータ・コンテンツなどの配信サービスを行うことができる。例えば、他人が撮影した画像が保存されている他のサーバーから画像データを、ネットワーク経由でハードディスクドライブ4022へダウンロードすることができる。 On the network, a plurality of host terminals and servers (not shown) are connected in a transparent state, and a distributed computing environment is constructed. On the network, distribution services such as software programs and data contents can be provided. For example, image data can be downloaded to the hard disk drive 4022 via a network from another server in which images taken by others are stored.

デジタルカメラインターフェース4018は、デジタルカメラから供給される画像を取り込むための装置である。外部機器インターフェース4016は、ハードディスクドライブ4022、メディアドライブ4023などの外部装置を、コンピュータ装置40に接続するための装置である。 The digital camera interface 4018 is a device for capturing an image supplied from the digital camera. The external device interface 4016 is a device for connecting external devices such as the hard disk drive 4022 and the media drive 4023 to the computer device 40.

ハードディスクドライブ4022は、従来周知のように、記憶担体としての磁気ディスクを固定的に搭載した外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。また、このハードディスクドライブ4022は、ランダムアクセスも可能である。ソフトウェア・プログラムを実行可能な状態でハードディスクドライブ4022上に置くことをプログラムのシステムへの「インストール」と呼ぶ。通常、ハードディスクドライブ4022には、CPU4011が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納されている。例えば、上述した「ひと続きの画像(絵巻物)」を作成し、それを再生するという一連の処理を行うプログラムを、ハードディスクドライブ4022上にインストールすることができる。 As conventionally known, the hard disk drive 4022 is an external storage device in which a magnetic disk as a storage carrier is fixedly mounted, and is superior to other external storage devices in terms of storage capacity and data transfer speed. The hard disk drive 4022 can also be randomly accessed. Placing the software program on the hard disk drive 4022 in an executable state is called “installation” of the program in the system. Usually, the hard disk drive 4022 stores program codes of an operating system to be executed by the CPU 4011, application programs, device drivers, and the like in a nonvolatile manner. For example, a program for performing a series of processes of creating the above-described “continuous image (picture scroll)” and reproducing it can be installed on the hard disk drive 4022.

メディアドライブ4023は、CD(Compact Disc)、MO(Magneto-Optical disc)、DVD(Digital VersatileDisc)などの可搬型メディアを装填して、そのデータ記録面にアクセスするための装置である。可搬型メディアは、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。画像処理を行うためのアプリケーション・プログラムを、これら可搬型メディアを利用して複数の機器間で物理的に流通・配布することができる。 The media drive 4023 is a device for loading portable media such as CD (Compact Disc), MO (Magneto-Optical disc), DVD (Digital Versatile Disc) and the like and accessing the data recording surface. The portable media is mainly used for the purpose of backing up software programs, data files, and the like as data in a computer-readable format, and for moving them between systems (that is, including sales, distribution, and distribution). Application programs for performing image processing can be physically distributed and distributed among a plurality of devices by using these portable media.

以上、本発明の実施形態を詳述してきたが、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail, the concrete structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

さらに、本技術は、以下の構成とすることも可能である。 Furthermore, this technique can also be set as the following structures.

[1]
入力画像データ群を処理し、表示用画像データを出力する画像処理装置であって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力部と、
上記入力画像データ群内の各画像データをソートする画像整列部と、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断部と、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断部と、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断部で接続可能であると判断された、上記重要度判断部で重要であると判断された画像データどうしを、上記画像整列部でソートされた順番に接続していくことで、上記表示用画像データを作成する接続部と、
上記接続部で作成された上記表示用画像データを出力する出力部と
を備える画像処理装置。
[2]
複数の画像データが含まれるデータベース部と、
上記第1の入力部において入力した上記第1の画像データ群と関連のある画像データを、上記データベース部から取り出し、上記入力画像データ群に追加する第2の入力部と
をさらに備える[1]に記載の画像処理装置。
[3]
上記接続部で接続される2つの画像データのうち、上記画像整列部でソートされた順番において若い順位の画像データを第1の画像データと呼ぶこととし、他方を、すなわち、若くない順位の画像データを第2の画像データと呼ぶこととした場合、
上記接続部での上記入力画像データ群の画像データどうしの接続は、
上記第1の画像データが静止画であり、かつ、上記第2の画像データが動画である場合、静止画である上記第1の画像データと、動画である上記第2の画像データの最初のフレームとの接続を行うようにし、
上記第1の画像データが動画であり、かつ、上記第2の画像データが静止画である場合、動画である上記第1の画像データの最後のフレームと、静止画である上記第2の画像データとの接続を行うようにし、
上記第1の画像データが動画であり、かつ、上記第2の画像データが動画である場合、動画である上記第1の画像データの最後のフレームと、動画である上記第2の画像データの最初のフレームとの接続を行うようにする
[1]または[2]に記載の画像処理装置。
[4]
上記表示用画像データは、時間とともに上記接続部で接続された順番に、すなわち、上記画像整列部でソートされた順番において昇順に、表示をしていくという再生順番の情報を作成する再生順番指示生成部をさらに備え、
上記出力部では、上記表示用画像データとともに上記再生順番の情報も出力する
[1]乃至[3]に記載の画像処理装置。
[5]
複数の画像データと、該画像データ間の位置関係と、表示すべき順番を示すデータを有するデータフォーマット。
[6]
入力画像データ群を処理し、表示用画像データを出力する画像処理方法であって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力ステップと、
上記入力画像データ群内の各画像データをソートする画像整列ステップと、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断ステップと、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断ステップと、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断ステップで接続可能であると判断された、上記重要度判断ステップで重要であると判断された画像データどうしを、上記画像整列ステップでソートされた順番に接続していくことで、上記表示用画像データを作成する接続ステップと、
上記接続ステップで作成された上記表示用画像データを出力する出力ステップと
を含む画像処理方法。
[7]
入力画像データ群を処理し、表示用画像データを出力する画像処理用のプログラムであって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力ステップと、
上記入力画像データ群内の各画像データをソートする画像整列ステップと、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断ステップと、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断ステップと、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断ステップで接続可能であると判断された、上記重要度判断ステップで重要であると判断された画像データどうしを、上記画像整列ステップでソートされた順番に接続していくことで、上記表示用画像データを作成する接続ステップと、
上記接続ステップで作成された上記表示用画像データを出力する出力ステップと
を含む処理をコンピュータに実行させるプログラム。
[8]
第1の静止画と第1の動画を表示する画像処理装置であって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示部
を備える画像処理装置
[9]
第1の静止画と第1の動画を表示する画像処理方法であって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示処理ステップ
を備える画像処理方法
[10]
第1の静止画と第1の動画を表示する画像処理用のプログラムであって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示処理ステップ
を含む処理をコンピュータに実行させるプログラム。
[1]
An image processing apparatus that processes input image data groups and outputs display image data,
A first input unit that inputs a first image data group and uses the first image data group as the input image data group;
An image alignment unit for sorting the image data in the input image data group;
An importance determination unit for determining the importance of each image data in the input image data group;
A connectability determination unit that determines the connectability of image data in the input image data group;
The image data in the input image data group is selected, and the image data determined to be connectable by the connectability determining unit and determined to be important by the importance determining unit are image-aligned. A connection unit for creating the display image data by connecting in the order sorted in the unit,
An image processing apparatus comprising: an output unit that outputs the display image data generated by the connection unit.
[2]
A database part including a plurality of image data;
The image processing apparatus further includes a second input unit that extracts image data related to the first image data group input in the first input unit from the database unit and adds the image data to the input image data group [1]. An image processing apparatus according to 1.
[3]
Of the two pieces of image data connected by the connection unit, the image data having a lower rank in the order sorted by the image alignment unit is referred to as first image data, and the other, that is, an image having a lower rank. If the data is called second image data,
Connection between the image data of the input image data group at the connection unit is as follows.
When the first image data is a still image and the second image data is a moving image, the first image data that is a still image and the first of the second image data that is a moving image Make a connection with the frame,
When the first image data is a moving image and the second image data is a still image, the last frame of the first image data that is a moving image and the second image that is a still image Make a connection to the data,
When the first image data is a moving image and the second image data is a moving image, the last frame of the first image data that is a moving image and the second image data that is a moving image The image processing apparatus according to [1] or [2], wherein connection with the first frame is performed.
[4]
The display image data is generated in the order in which the display image data is displayed over time in the order connected by the connection unit, that is, in ascending order in the order sorted by the image alignment unit. A generation unit;
The image processing apparatus according to any one of [1] to [3], wherein the output unit outputs the reproduction order information together with the display image data.
[5]
A data format having a plurality of image data, a positional relationship between the image data, and data indicating an order to be displayed.
[6]
An image processing method for processing an input image data group and outputting display image data,
A first input step of inputting a first image data group and using the first image data group as the input image data group;
An image alignment step of sorting each image data in the input image data group;
An importance determination step for determining the importance of each image data in the input image data group;
A connectability determination step for determining connectability between image data in the input image data group;
The image data in the input image data group is selected and the image data determined to be connectable in the connectability determination step and the image data determined to be important in the importance determination step are arranged in the image alignment. A connection step of creating the display image data by connecting in the order sorted in the step;
And an output step of outputting the display image data created in the connection step.
[7]
An image processing program that processes an input image data group and outputs display image data,
A first input step of inputting a first image data group and using the first image data group as the input image data group;
An image alignment step of sorting each image data in the input image data group;
An importance determination step for determining the importance of each image data in the input image data group;
A connectability determination step for determining connectability between image data in the input image data group;
The image data in the input image data group is selected and the image data determined to be connectable in the connectability determination step and the image data determined to be important in the importance determination step are arranged in the image alignment. A connection step of creating the display image data by connecting in the order sorted in the step;
A program that causes a computer to execute processing including an output step of outputting the display image data created in the connection step.
[8]
An image processing apparatus for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
An image processing apparatus [9] including a display unit that performs at least one of the above [9]
An image processing method for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
An image processing method [10] comprising a display processing step for performing at least one of the above
An image processing program for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
A program for causing a computer to execute processing including at least a display processing step for performing any one of the above.

10…画像処理装置
11,11a,11b…入力部
12,12a,12b…画像収集部
13,13a,13b…データベース管理部
14,14a,14b…汎用画像データベース
15,15a,15b…入力画像データ記憶部
16,16a,16b…接続可能性判断部
17,17a,17b…有向グラフ作成部
18,18a,18b…経路探索部
19,19a,19b…画像選別部
20,20a,20b…画像接続部
21,21a,21b…レンダリング情報作成部
22,22a,22b…表示情報作成部
23,23a,23b…ひと続きの画像(絵巻物)のデータ保存部
24,24c…ユーザインターフェース部
25,25a,25b…再生部
26,26a,26b…画像表示部
30…画像処理装置
31a,31b…トリミング部
40…コンピュータ装置
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus 11, 11a, 11b ... Input part 12, 12a, 12b ... Image collection part 13, 13a, 13b ... Database management part 14, 14a, 14b ... General-purpose image database 15, 15a, 15b ... Input image data storage 16, 16 a, 16 b... Connectability determination unit 17, 17 a, 17 b... Directed graph creation unit 18, 18 a, 18 b... Route search unit 19, 19 a, 19 b. 21a, 21b ... Rendering information creation units 22, 22a, 22b ... Display information creation units 23, 23a, 23b ... Data storage units 24, 24c for continuous images (picture scrolls) ... User interface units 25, 25a, 25b ... Playback units 26, 26a, 26b ... image display unit 30 ... image processing devices 31a, 31b ... trimming unit 40 ... Computer equipment

Claims (10)

入力画像データ群を処理し、表示用画像データを出力する画像処理装置であって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力部と、
上記入力画像データ群内の各画像データをソートする画像整列部と、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断部と、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断部と、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断部で接続可能であると判断された、上記重要度判断部で重要であると判断された画像データどうしを、上記画像整列部でソートされた順番に接続していくことで、上記表示用画像データを作成する接続部と、
上記接続部で作成された上記表示用画像データを出力する出力部と
を備える画像処理装置。
An image processing apparatus that processes input image data groups and outputs display image data,
A first input unit that inputs a first image data group and uses the first image data group as the input image data group;
An image alignment unit for sorting the image data in the input image data group;
An importance determination unit for determining the importance of each image data in the input image data group;
A connectability determination unit that determines the connectability of image data in the input image data group;
The image data in the input image data group is selected, and the image data determined to be connectable by the connectability determining unit and determined to be important by the importance determining unit are image-aligned. A connection unit for creating the display image data by connecting in the order sorted in the unit,
An image processing apparatus comprising: an output unit that outputs the display image data generated by the connection unit.
複数の画像データが含まれるデータベース部と、
上記第1の入力部において入力した上記第1の画像データ群と関連のある画像データを、上記データベース部から取り出し、上記入力画像データ群に追加する第2の入力部と
をさらに備える請求項1に記載の画像処理装置。
A database part including a plurality of image data;
The image processing apparatus further comprises: a second input unit that takes out image data related to the first image data group input in the first input unit from the database unit and adds the image data to the input image data group. An image processing apparatus according to 1.
上記接続部で接続される2つの画像データのうち、上記画像整列部でソートされた順番において若い順位の画像データを第1の画像データと呼ぶこととし、他方を、すなわち、若くない順位の画像データを第2の画像データと呼ぶこととした場合、
上記接続部での上記入力画像データ群の画像データどうしの接続は、
上記第1の画像データが静止画であり、かつ、上記第2の画像データが動画である場合、静止画である上記第1の画像データと、動画である上記第2の画像データの最初のフレームとの接続を行うようにし、
上記第1の画像データが動画であり、かつ、上記第2の画像データが静止画である場合、動画である上記第1の画像データの最後のフレームと、静止画である上記第2の画像データとの接続を行うようにし、
上記第1の画像データが動画であり、かつ、上記第2の画像データが動画である場合、動画である上記第1の画像データの最後のフレームと、動画である上記第2の画像データの最初のフレームとの接続を行うようにする
請求項1に記載の画像処理装置。
Of the two pieces of image data connected by the connection unit, the image data having a lower rank in the order sorted by the image alignment unit is referred to as first image data, and the other, that is, an image having a lower rank. If the data is called second image data,
Connection between the image data of the input image data group at the connection unit is as follows.
When the first image data is a still image and the second image data is a moving image, the first image data that is a still image and the first of the second image data that is a moving image Make a connection with the frame,
When the first image data is a moving image and the second image data is a still image, the last frame of the first image data that is a moving image and the second image that is a still image Make a connection to the data,
When the first image data is a moving image and the second image data is a moving image, the last frame of the first image data that is a moving image and the second image data that is a moving image The image processing apparatus according to claim 1, wherein connection with the first frame is performed.
上記表示用画像データは、時間とともに上記接続部で接続された順番に、すなわち、上記画像整列部でソートされた順番において昇順に、表示をしていくという再生順番の情報を作成する再生順番指示生成部をさらに備え、
上記出力部では、上記表示用画像データとともに上記再生順番の情報も出力する
請求項1に記載の画像処理装置。
The display image data is generated in the order in which the display image data is displayed over time in the order connected by the connection unit, that is, in ascending order in the order sorted by the image alignment unit. A generation unit;
The image processing apparatus according to claim 1, wherein the output unit outputs the reproduction order information together with the display image data.
複数の画像データと、該画像データ間の位置関係と、表示すべき順番を示すデータを有するデータフォーマット。 A data format having a plurality of image data, a positional relationship between the image data, and data indicating an order to be displayed. 入力画像データ群を処理し、表示用画像データを出力する画像処理方法であって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力ステップと、
上記入力画像データ群内の各画像データをソートする画像整列ステップと、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断ステップと、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断ステップと、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断ステップで接続可能であると判断された、上記重要度判断ステップで重要であると判断された画像データどうしを、上記画像整列ステップでソートされた順番に接続していくことで、上記表示用画像データを作成する接続ステップと、
上記接続ステップで作成された上記表示用画像データを出力する出力ステップと
を含む画像処理方法。
An image processing method for processing an input image data group and outputting display image data,
A first input step of inputting a first image data group and using the first image data group as the input image data group;
An image alignment step of sorting each image data in the input image data group;
An importance determination step for determining the importance of each image data in the input image data group;
A connectability determination step for determining connectability between image data in the input image data group;
The image data in the input image data group is selected and the image data determined to be connectable in the connectability determination step and the image data determined to be important in the importance determination step are arranged in the image alignment. A connection step of creating the display image data by connecting in the order sorted in the step;
And an output step of outputting the display image data created in the connection step.
入力画像データ群を処理し、表示用画像データを出力する画像処理用のプログラムであって、
第1の画像データ群を入力し、上記第1の画像データ群を上記入力画像データ群とする第1の入力ステップと、
上記入力画像データ群内の各画像データをソートする画像整列ステップと、
上記入力画像データ群内の各画像データの重要度を決定する重要度判断ステップと、
上記入力画像データ群内の画像データ同士の接続可能性を判断する接続可否判断ステップと、
上記入力画像データ群内の画像データを取捨選択し、上記接続可否判断ステップで接続可能であると判断された、上記重要度判断ステップで重要であると判断された画像データどうしを、上記画像整列ステップでソートされた順番に接続していくことで、上記表示用画像データを作成する接続ステップと、
上記接続ステップで作成された上記表示用画像データを出力する出力ステップと
を含む処理をコンピュータに実行させるプログラム。
An image processing program that processes an input image data group and outputs display image data,
A first input step of inputting a first image data group and using the first image data group as the input image data group;
An image alignment step of sorting each image data in the input image data group;
An importance determination step for determining the importance of each image data in the input image data group;
A connectability determination step for determining connectability between image data in the input image data group;
The image data in the input image data group is selected and the image data determined to be connectable in the connectability determination step and the image data determined to be important in the importance determination step are arranged in the image alignment. A connection step of creating the display image data by connecting in the order sorted in the step;
A program that causes a computer to execute processing including an output step of outputting the display image data created in the connection step.
第1の静止画と第1の動画を表示する画像処理装置であって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示部
を備える画像処理装置
An image processing apparatus for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
An image processing apparatus comprising a display unit that performs at least one of the above
第1の静止画と第1の動画を表示する画像処理方法であって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示処理ステップ
を備える画像処理方法
An image processing method for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
An image processing method comprising a display processing step for performing at least one of the above
第1の静止画と第1の動画を表示する画像処理用のプログラムであって、
上記第1の静止画と上記第1の動画の最初のフレームとが交わりがあるように配置し、主として上記第1の静止画を表示させた後、時間とともに表示領域を移動させて、主として上記第1の動画の最初のフレームを表示させ、さらに、次の時刻以降で、上記第1の動画の2枚目以降のフレームを順次表示させていくか、
あるいは、
上記第1の動画の最後のフレームと上記第1の静止画とが交わりがあるように配置し、上記第1の動画の最初のフレームから上記第1の動画の最後から2番目のフレームまでを順次表示させていき、さらに、次の時刻で、主として上記第1の動画の最後のフレームを表示させ、さらに、時間とともに表示領域を移動させて、主として上記第1の静止画を表示させていくか、
のいずれか一方を少なくとも行う表示処理ステップ
を含む処理をコンピュータに実行させるプログラム。
An image processing program for displaying a first still image and a first moving image,
The first still image and the first frame of the first moving image are arranged so as to intersect with each other, and after the first still image is mainly displayed, the display area is moved with time, Display the first frame of the first video, and then display the second and subsequent frames of the first video in sequence after the next time,
Or
The last frame of the first moving image and the first still image are arranged so that there is an intersection, and from the first frame of the first moving image to the second frame from the end of the first moving image. The images are sequentially displayed, and at the next time, the last frame of the first moving image is mainly displayed, and the display area is moved with time to mainly display the first still image. Or
A program for causing a computer to execute processing including at least a display processing step for performing any one of the above.
JP2014000004A 2014-01-03 2014-01-03 Image processing apparatus, method, program, and image display apparatus Expired - Fee Related JP6276995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014000004A JP6276995B2 (en) 2014-01-03 2014-01-03 Image processing apparatus, method, program, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014000004A JP6276995B2 (en) 2014-01-03 2014-01-03 Image processing apparatus, method, program, and image display apparatus

Publications (2)

Publication Number Publication Date
JP2015130546A true JP2015130546A (en) 2015-07-16
JP6276995B2 JP6276995B2 (en) 2018-02-07

Family

ID=53760999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014000004A Expired - Fee Related JP6276995B2 (en) 2014-01-03 2014-01-03 Image processing apparatus, method, program, and image display apparatus

Country Status (1)

Country Link
JP (1) JP6276995B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171398A (en) * 2000-12-04 2002-06-14 Konica Corp Image processing method and electronic camera
JP2004088343A (en) * 2002-08-26 2004-03-18 Toshiba Corp Image display processing method and system
JP2005012399A (en) * 2003-06-18 2005-01-13 Fuji Photo Film Co Ltd Device and method for reproducing picture
JP2006140559A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Image reproducing apparatus and image reproducing method
JP2006245645A (en) * 2005-02-28 2006-09-14 Fuji Photo Film Co Ltd Photo movie creating apparatus and photo movie creating program
JP2007060330A (en) * 2005-08-25 2007-03-08 Fujifilm Corp Slide-show data-generating device and slide show generating device, and method and program for controlling the devices
JP2010033246A (en) * 2008-07-28 2010-02-12 Fujifilm Corp Device, method, and program for combining image
JP2010103876A (en) * 2008-10-27 2010-05-06 Sony Corp Image processing apparatus, image processing method, and program
WO2012137493A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Image processing device, image processing method, image processing program, and integrated circuit

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171398A (en) * 2000-12-04 2002-06-14 Konica Corp Image processing method and electronic camera
JP2004088343A (en) * 2002-08-26 2004-03-18 Toshiba Corp Image display processing method and system
JP2005012399A (en) * 2003-06-18 2005-01-13 Fuji Photo Film Co Ltd Device and method for reproducing picture
JP2006140559A (en) * 2004-11-10 2006-06-01 Matsushita Electric Ind Co Ltd Image reproducing apparatus and image reproducing method
JP2006245645A (en) * 2005-02-28 2006-09-14 Fuji Photo Film Co Ltd Photo movie creating apparatus and photo movie creating program
JP2007060330A (en) * 2005-08-25 2007-03-08 Fujifilm Corp Slide-show data-generating device and slide show generating device, and method and program for controlling the devices
JP2010033246A (en) * 2008-07-28 2010-02-12 Fujifilm Corp Device, method, and program for combining image
JP2010103876A (en) * 2008-10-27 2010-05-06 Sony Corp Image processing apparatus, image processing method, and program
WO2012137493A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Image processing device, image processing method, image processing program, and integrated circuit

Also Published As

Publication number Publication date
JP6276995B2 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
US11488355B2 (en) Virtual world generation engine
JP7187446B2 (en) augmented virtual reality
US9122368B2 (en) Analysis of images located within three-dimensional environments
CN105745938B (en) Multi-angle of view audio and video interactive playback
KR101557297B1 (en) 3d content aggregation built into devices
US7800615B2 (en) Universal timelines for coordinated productions
JP4965475B2 (en) Virtual moving display device
JP6816973B2 (en) Server control method and system
US8610713B1 (en) Reconstituting 3D scenes for retakes
Kushal et al. Photo tours
Wang et al. Hyper-lapse from multiple spatially-overlapping videos
CN112449707A (en) Computer-implemented method for creating content including composite images
JP3566530B2 (en) Spatial stroll video display method, space object search method, space object extraction method, their apparatuses, and recording media recording these methods
JP2000250942A (en) Book information retrieval space construction and retrieval device and computer readable recording medium recording book information retrieval space construction and retrieval program
JP6276995B2 (en) Image processing apparatus, method, program, and image display apparatus
JP4395082B2 (en) Video generation apparatus and program
Sugimoto et al. Urban Movie Map for Walkers: Route View Synthesis Using 360 Videos
Rao et al. Shoot360: Normal View Video Creation from City Panorama Footage
KR20230006079A (en) Method for face image transformation based on artificial intelligence learning
JP2005174024A (en) Image forming apparatus and method
US10678842B2 (en) Geostory method and apparatus
KR20170139202A (en) Method and system for generating content using panoramic image
Fujita et al. Creating animation with personal photo collections and map for storytelling
Duan et al. Meetor: A Human-Centered Automatic Video Editing System for Meeting Recordings
Szeliski et al. Navigating the worldwide community of photos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180115

R150 Certificate of patent or registration of utility model

Ref document number: 6276995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees