JP2012221005A - Image processing apparatus, photo book producing method and program for image processing apparatus - Google Patents

Image processing apparatus, photo book producing method and program for image processing apparatus Download PDF

Info

Publication number
JP2012221005A
JP2012221005A JP2011083125A JP2011083125A JP2012221005A JP 2012221005 A JP2012221005 A JP 2012221005A JP 2011083125 A JP2011083125 A JP 2011083125A JP 2011083125 A JP2011083125 A JP 2011083125A JP 2012221005 A JP2012221005 A JP 2012221005A
Authority
JP
Japan
Prior art keywords
image data
image
photobook
processing apparatus
attribute information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011083125A
Other languages
Japanese (ja)
Inventor
Kazunari Yamanakajima
和成 山中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011083125A priority Critical patent/JP2012221005A/en
Publication of JP2012221005A publication Critical patent/JP2012221005A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, a photo book producing method and a program for an image processing apparatus which can reduce man-hours by a user when producing a photo book.SOLUTION: Layout information for multiple pieces of first image data and attribute information relating to photographic parameters for each piece of the first image data in a first photo book are acquired, and attribute information relating to photographic parameters for multiple pieces of second image data is also acquired. Based on the attribute information for each piece of the first image data and the attribute information for each piece of the second image data, each piece of the first image data is associated with respective pieces of the second image data. According to the acquired layout information, associated pieces of the second image data are laid out so as to generate photo book data for producing a second photo book.

Description

本発明は、フォトブックを作成する画像処理装置、画像処理装置におけるフォトブック作成方法およびプログラムに関する。   The present invention relates to an image processing apparatus for creating a photobook, a photobook creation method in the image processing apparatus, and a program.

デジタルカメラの普及やコンピュータ技術、ネットワーク技術の発展により、フォトブックの作成がパーソナルコンピュータ上で行われ、デジタルデータで入稿することが多くなっている。フォトブックの作成では、専用のエディタなどを用いて作成されることが多く、作成する工数を低減することが求められている。特に業者が企画するツアー旅行や結婚式などのイベントでは、スケジュールやイベント内容や写真の撮影位置が決まっており、撮影される画像や作成されるフォトブックも各々の業者でパターン化されている。特許文献1では、例えば、結婚式のイベントにおいてアルバムを作成する際に、アルバム編集画面のテンプレートの画像挿入領域に、挿入される画像の構図を表す構図情報が記録されている。構図情報は、例えば、挿入すべき画像に含まれる被写体の種類、画像中の被写体の位置、被写体の色などである。特許文献1では、画像挿入領域の構図情報を参照し、挿入画像に加工を施して画像挿入領域に画像を挿入する。   With the spread of digital cameras and the development of computer technology and network technology, photo books are created on personal computers and are often submitted as digital data. Photobooks are often created using a dedicated editor or the like, and it is required to reduce the number of man-hours to create. Especially in events such as tour trips and weddings planned by traders, schedules, event contents, and photo shooting positions are determined, and images to be taken and photo books to be created are also patterned by each trader. In Patent Document 1, for example, when an album is created at a wedding event, composition information representing the composition of an image to be inserted is recorded in the image insertion area of the template on the album editing screen. The composition information includes, for example, the type of subject included in the image to be inserted, the position of the subject in the image, the color of the subject, and the like. In Patent Document 1, the composition information of the image insertion area is referred to, the inserted image is processed, and the image is inserted into the image insertion area.

特開2005−182767号公報JP 2005-182767 A

しかしながら、特許文献1では、フォトブックを作成する度に撮影シーンの選択やフォトブック全体の構成の編集を行う必要があった。   However, in Patent Document 1, it is necessary to select a shooting scene and edit the configuration of the entire photobook every time a photobook is created.

本発明の目的は、このような従来の問題点を解決することにある。本発明は、上記の点に鑑み、フォトブックの作成においてユーザの工数を低減する画像処理装置、画像処理装置におけるフォトブック作成方法およびプログラムを提供することを目的とする。   An object of the present invention is to solve such conventional problems. An object of the present invention is to provide an image processing apparatus, a photobook creation method in the image processing apparatus, and a program that reduce the man-hours of the user in creating a photobook.

上記課題を解決するため、本発明に係る画像処理装置は、第1のフォトブックにおける複数の第1の画像データのレイアウト情報と、前記各第1の画像データの撮影パラメータに関する属性情報を取得する第1の取得手段と、
複数の第2の画像データの撮影パラメータに関する属性情報を取得する第2の取得手段と、
前記第1の取得手段により取得された前記各第1の画像データの属性情報と、前記第2の取得手段により取得された前記各第2の画像データの属性情報とに基づき、前記各第1の画像データと前記各第2の画像データとを対応付ける対応付け手段と、
前記第1の取得手段により取得された前記レイアウト情報に従って、前記対応付け手段によって対応付けられた前記各第2の画像データをレイアウトして第2のフォトブックを作成するためのフォトブックデータを生成する生成手段とを備えることを特徴とする。
In order to solve the above problems, an image processing apparatus according to the present invention acquires layout information of a plurality of first image data in a first photobook and attribute information regarding shooting parameters of each of the first image data. A first acquisition means;
Second acquisition means for acquiring attribute information relating to imaging parameters of a plurality of second image data;
Based on the attribute information of each first image data acquired by the first acquisition means and the attribute information of each second image data acquired by the second acquisition means, each of the first image data Association means for associating the second image data with the second image data;
According to the layout information acquired by the first acquisition means, photobook data for generating a second photobook by laying out the second image data associated by the association means is generated. And generating means.

本発明によれば、フォトブックの作成においてユーザの工数を低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, a user's man-hour can be reduced in preparation of a photobook.

画像処理装置の構成を示す図。The figure which shows the structure of an image processing apparatus. ネットワーク構成を示す図。The figure which shows a network structure. アプリケーションプログラムの機能ブロックを示す図。The figure which shows the functional block of an application program. 観光地とその撮影スポットのイメージを示す図。The figure which shows the image of a sightseeing spot and its photography spot. フォトブックの作成を説明するための図。The figure for demonstrating creation of a photo book. 画像枠と画像とを設定するエディタの一例を示す図。The figure which shows an example of the editor which sets an image frame and an image. 以前に作成されたフォトブックと自動作成されたフォトブックを示す図。The figure which shows the photobook created before and the photobook created automatically. 位置情報に基づいた2つの画像の対応関係を示す図。The figure which shows the correspondence of two images based on positional information. スケジュール上の撮影タイミングを説明するための図。The figure for demonstrating the imaging | photography timing on a schedule. フォトブックの作成を説明するための図。The figure for demonstrating creation of a photo book. 本実施例におけるフォトブック作成の手順を説明するための図。The figure for demonstrating the procedure of the photobook creation in a present Example. 時間経過に基づく対応付けを説明するための図。The figure for demonstrating the matching based on progress of time. 複数画像がある場合の時間経過に基づく対応付けを説明するための図。The figure for demonstrating the matching based on progress of time in case there exist multiple images. 時間経過に基づいて対応付けられない一例を示す図。The figure which shows an example which is not matched based on progress of time. 画像がグループ化されている場合の時間経過に基づく対応付けを示す図。The figure which shows the matching based on time passage when the image is grouped. 本実施例におけるフォトブック作成の手順を示すフローチャート。The flowchart which shows the procedure of the photobook creation in a present Example. 時間経過に基づく対応付けの判定処理の手順を示すフローチャート。The flowchart which shows the procedure of the determination process of matching based on progress of time. 画像の対応付けの条件を設定する画面の一例を示す図。The figure which shows an example of the screen which sets the conditions of matching of an image. スケジュール変更に伴う撮影時刻の割り当てを説明するための図。The figure for demonstrating allocation of the imaging | photography time accompanying a schedule change.

以下、添付図面を参照して本発明の好適な実施例を詳しく説明する。尚、以下の実施例は特許請求の範囲に係る本発明を限定するものでなく、また本実施例で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and all combinations of features described in the present embodiments are not necessarily essential to the solution means of the present invention. . The same constituent elements are denoted by the same reference numerals, and the description thereof is omitted.

図1は、本発明に係る実施例における画像処理装置の構成を示す図である。図1において、コンピュータは、CPU102、メモリ103、記憶部104、表示制御部105、Input/Output(以下I/Oと略称)インタフェース106、通信インタフェース107を含む。各構成要素はシステムバス101に接続されている。CPU102は、システムバス101を介して各構成要素を制御したり、データの計算や加工を行ったりする中央処理装置である。メモリ103は、データやプログラムを記憶し、ランダムアクセスメモリ(RAM)やリードオンリーメモリ(ROM)等が用いられる。記憶部104は、記憶されたデータの書き込み/読み出しを行う。記憶部104として、ハードディスクドライブ111、フロッピー(登録商標)ディスクドライブ112、不揮発性のデータソースとして利用されるCD−ROMドライブ113等が用いられる。図には示されていないが、記憶部104として、磁気テープドライブ、DVD−ROM、USBメモリ等が用いられる場合もある。   FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. In FIG. 1, the computer includes a CPU 102, a memory 103, a storage unit 104, a display control unit 105, an input / output (hereinafter abbreviated as I / O) interface 106, and a communication interface 107. Each component is connected to the system bus 101. The CPU 102 is a central processing unit that controls each component via the system bus 101 and performs data calculation and processing. The memory 103 stores data and programs, and a random access memory (RAM), a read only memory (ROM), or the like is used. The storage unit 104 writes / reads stored data. As the storage unit 104, a hard disk drive 111, a floppy (registered trademark) disk drive 112, a CD-ROM drive 113 used as a nonvolatile data source, and the like are used. Although not shown in the drawing, a magnetic tape drive, DVD-ROM, USB memory, or the like may be used as the storage unit 104.

本実施例として示されるプログラムは、記憶部104から読み込まれ、メモリ103に格納されて、CPU102によって実行される。なお、本実施例ではプログラムを記憶部104から読み込む構成としているが、ROMから読み込んだり、通信インタフェース107を介して外部から読み込んだりするように構成されても良い。表示制御部105は、表示部114への表示出力を制御する。表示部114の表示方法には、CRTや液晶等がある。I/Oインタフェース106には、キーボード115やポインティングデバイス116等の入力装置が接続される。操作者は、キーボード115を操作することによりシステムに対する動作指令等を行う。ポインティングデバイス116は、表示部114上のカーソルを移動させてメニューやオブジェクトの選択や操作等を行う。通信インタフェース107は、ネットワーク117を介して外部装置との通信を行う。接続先のネットワークには、LANやWAN、インターネットのような公衆回線等がある。また、通信インタフェース107は、プリンタ118などの出力装置との通信も行う。   The program shown as the present embodiment is read from the storage unit 104, stored in the memory 103, and executed by the CPU 102. In this embodiment, the program is read from the storage unit 104. However, the program may be read from the ROM or read from the outside via the communication interface 107. The display control unit 105 controls display output to the display unit 114. A display method of the display unit 114 includes CRT, liquid crystal, and the like. Input devices such as a keyboard 115 and a pointing device 116 are connected to the I / O interface 106. The operator issues an operation command to the system by operating the keyboard 115. The pointing device 116 moves the cursor on the display unit 114 to perform selection and operation of menus and objects. The communication interface 107 communicates with an external device via the network 117. The connection destination network includes a public line such as LAN, WAN, and the Internet. The communication interface 107 also communicates with an output device such as the printer 118.

図2は、本実施例におけるネットワーク構成を示す図である。ネットワーク201には、クライアントパーソナルコンピュータ(以下、クライアントPCという)202と、サーバコンピュータ203(以下、サーバという)とが接続されている。ネットワーク201には、LAN、WAN、インターネット等がある。クライアントPC202は、ネットワーク201を介してサーバ203と通信を行う。本実施例の動作を実現するアプリケーションプログラムは、サーバ203で動作しても良く、クライアントPC202で動作しても良い。サーバ203で動作する構成の場合には、クライアントPC202上にフォトブックデータを編集するためのエディタ画面を表示する構成となる。エディタは、Webブラウザで表示されたり、クライアントアプリケーションがインストールされることによって表示される。   FIG. 2 is a diagram illustrating a network configuration in the present embodiment. A client personal computer (hereinafter referred to as a client PC) 202 and a server computer 203 (hereinafter referred to as a server) are connected to the network 201. Examples of the network 201 include a LAN, a WAN, and the Internet. The client PC 202 communicates with the server 203 via the network 201. An application program that implements the operation of the present embodiment may operate on the server 203 or the client PC 202. In the case of a configuration that operates on the server 203, an editor screen for editing photobook data is displayed on the client PC 202. The editor is displayed by a Web browser or by installing a client application.

図3は、本実施例の動作を実現するアプリケーションプログラムの機能ブロックを示す図である。本実施例の動作の流れを説明する。以前に作成されたフォトブックの画像情報と新たに撮影された画像情報とを比較し、同じ撮影シーンである画像を対応付ける。そして、新たに撮影された画像を、以前に作成されたフォトブック上の対応付けられた画像と同じレイアウトで配置したフォトブックを作成する。   FIG. 3 is a diagram illustrating functional blocks of an application program that implements the operation of the present embodiment. The operation flow of this embodiment will be described. The image information of the previously created photobook is compared with the newly captured image information, and images corresponding to the same shooting scene are associated with each other. Then, a photo book is created in which the newly photographed image is arranged in the same layout as the associated image on the previously created photo book.

フォトブックデータ解析部301は、以前に作成されたフォトブックの構成を解析する。画像属性情報取得部302は、フォトブックデータ解析部301によって解析された画像枠および画像の属性情報を取得する。属性情報比較部303は、画像属性情報取得部302で取得された画像の属性情報と新たに撮影された画像の属性情報とを比較し、同じ撮影シーンの画像を対応付ける。画像配置部304は、属性情報比較部303によって対応付けられた新たな画像を、以前に作成されたフォトブック上の対応付けられた画像のレイアウト情報に基づいてレイアウト配置する。その場合に、画像属性情報取得部302によって取得された画像枠のレイアウト情報が反映される。フォトブックデータ作成部305は、フォトブックデータ解析部301の内容に基づいて新たなフォトブックデータを作成する。そして、画像配置部304によって画像が配置された後、不要な画像枠やページの削除、フォトブックのスタイル適用等を行って、フォトブックデータを作成する。   The photobook data analysis unit 301 analyzes the configuration of a previously created photobook. The image attribute information acquisition unit 302 acquires image frame and image attribute information analyzed by the photobook data analysis unit 301. The attribute information comparison unit 303 compares the attribute information of the image acquired by the image attribute information acquisition unit 302 with the attribute information of the newly captured image, and associates images of the same shooting scene. The image arrangement unit 304 arranges a new image associated by the attribute information comparison unit 303 based on the layout information of the associated image on the previously created photobook. In this case, the image frame layout information acquired by the image attribute information acquisition unit 302 is reflected. The photo book data creation unit 305 creates new photo book data based on the contents of the photo book data analysis unit 301. Then, after the image is arranged by the image arrangement unit 304, unnecessary image frames and pages are deleted, the photobook style is applied, and the photobook data is created.

図4〜図8を参照しながら、位置情報に基づきフォトブックを作成する例を説明する。図4は、観光地の撮影スポットを表すイメージ図である。図4は一例として公園のような観光地を示しており、401、402、403、404は建物や庭園、噴水やオブジェを表している。411で示されるカメラのアイコンは、それぞれ撮影スポットを示している。カメラアイコンに付記してある番号は、図5で示される画像の番号に対応している。   An example of creating a photo book based on position information will be described with reference to FIGS. FIG. 4 is an image diagram showing a shooting spot of a sightseeing spot. FIG. 4 shows a sightseeing spot such as a park as an example, and 401, 402, 403, and 404 represent buildings, gardens, fountains, and objects. The camera icons indicated by reference numeral 411 each indicate a shooting spot. The numbers appended to the camera icons correspond to the image numbers shown in FIG.

図5は、作成されるフォトブックデータの一例を示す図である。図5(a)は作成開始時の状態であり、図5(b)は作成完了した状態を示している。図5(a)のように何も設定されていない状態から、画像トリミングやレイアウトを考慮して画像の配置が行われる。また、ページも画像数やレイアウトに応じて追加され、最終的に図5(b)のようなフォトブックデータが作成される。501は配置された画像を示しており、番号はそれぞれ図4の撮影スポットの番号に対応している。502は、見開きページを利用した画像の配置を示す。見開きページを利用する例としては、ツアー旅行での集合写真やハイライトしたいイベントの画像の場合である。506は画像の向きがポートレートで設定されている。画像の配置は、それぞれの観光地の特性を考慮して決定される。例えば、画像7〜10は同じ場所の画像を集めたものであり、1つの見開きページでまとめられている。このように、画像の配置は各画像毎の撮影シーンだけで決定されるものではなく、それぞれの観光地の特性や、撮影された複数の他画像とのバランスを考慮して決定されることが特徴である。   FIG. 5 is a diagram illustrating an example of the created photobook data. FIG. 5A shows a state at the start of creation, and FIG. 5B shows a state in which creation has been completed. From the state where nothing is set as shown in FIG. 5A, image placement is performed in consideration of image trimming and layout. Also, pages are added according to the number of images and layout, and finally photobook data as shown in FIG. 5B is created. Reference numeral 501 denotes an arranged image, and the numbers correspond to the shooting spot numbers in FIG. Reference numeral 502 denotes an image layout using a spread page. An example of using a spread page is a group photo on a tour trip or an image of an event to be highlighted. In 506, the image orientation is set as a portrait. The image layout is determined in consideration of the characteristics of each tourist spot. For example, the images 7 to 10 are a collection of images at the same place, and are grouped in one spread page. In this way, the arrangement of images is not determined only by the shooting scene for each image, but can be determined in consideration of the characteristics of each tourist spot and the balance with other captured images. It is a feature.

図6は、フォトブックデータを編集又は作成するエディタを説明するための図であり、画像枠と画像とを設定する例を示している。601は、フォトブックデータのページ、602は画像枠、点線603は画像枠602に対する画像の位置とサイズを表している。画像枠602は画像603をトリミングした後の表示イメージを表しており、実際にフォトブックで表示される領域になる。画像枠には、枠のサイズ、ページに対する配置位置、画像上のトリミング位置を示す画像からの位置といった情報が保持されている。図6では、ピクセル単位で位置情報を表す例を示しているが、撮影装置による画像解像度の違いを考慮して比率で表示する等としても良い。ここで作成されるフォトブックデータは、後にフォトブックを作成する際のテンプレートの役割を担うことになる。従って、トリミングされた画像をページに配置するのではなく、画像603と画像枠602との両方の情報を持つことで、別画像が配置された場合のトリミング位置の再調整ができるようにしている。操作者は、エディタ上で画像枠602と画像603を動かすことによって、トリミング位置の再調整を行うことができる。   FIG. 6 is a diagram for explaining an editor for editing or creating photobook data, and shows an example in which an image frame and an image are set. Reference numeral 601 denotes a photobook data page, reference numeral 602 denotes an image frame, and dotted line 603 denotes the position and size of the image with respect to the image frame 602. An image frame 602 represents a display image after the image 603 is trimmed, and is an area that is actually displayed in a photo book. The image frame holds information such as the size of the frame, the arrangement position with respect to the page, and the position from the image indicating the trimming position on the image. Although FIG. 6 shows an example in which position information is expressed in units of pixels, it may be displayed in a ratio in consideration of a difference in image resolution depending on the photographing apparatus. The photobook data created here will serve as a template for creating a photobook later. Therefore, instead of arranging the trimmed image on the page, it has information on both the image 603 and the image frame 602 so that the trimming position can be readjusted when another image is arranged. . The operator can readjust the trimming position by moving the image frame 602 and the image 603 on the editor.

図7は、以前のフォトブックデータに基づき自動作成されたフォトブックデータの一例を示す図である。図7(a)は以前に作成されたフォトブックデータ(第1のフォトブックデータ)の一例を示す図であり、ここでは、図5(b)のフォトブックデータと同じ図を示している。図7(b)は、図7(a)のフォトブックデータに基づき、新たに撮影された画像を用いて自動で作成されたフォトブックデータ(第2のフォトブックデータ)の一例を示す。   FIG. 7 is a diagram showing an example of photobook data automatically created based on previous photobook data. FIG. 7A is a diagram showing an example of photobook data (first photobook data) created before, and here, the same diagram as the photobook data of FIG. 5B is shown. FIG. 7B shows an example of photobook data (second photobook data) automatically created based on the photobook data shown in FIG. 7A using a newly taken image.

業者が企画するツアー旅行などは、内容が予め決められており、撮影される画像も、同じルート、同じ位置で同じように撮影されることが多い。図7(b)に挿入されている画像の番号は、それぞれ図4の撮影スポットの番号に対応付けられており、また、以前に撮影された図7(a)の各画像にも対応付けられる。図7の画像701と画像711は共に図4の撮影スポット411で撮影されたものである。本実施例においては、画像701(第1の画像データ)と画像711(第2の画像データ)は、画像の撮影パラメータに関する属性情報を比較することで自動的に相互に対応付ける。撮影パラメータに関する属性情報とは後述するが、例えば、撮影時刻である。   The content of tour tours planned by traders is determined in advance, and the images to be taken are often taken in the same way and at the same position. The number of the image inserted in FIG. 7B is associated with the number of the photographing spot in FIG. 4 and also associated with each image of FIG. 7A previously photographed. . Both the image 701 and the image 711 in FIG. 7 are taken at the photographing spot 411 in FIG. In the present embodiment, the image 701 (first image data) and the image 711 (second image data) are automatically associated with each other by comparing attribute information relating to image capturing parameters. The attribute information related to the shooting parameter is, for example, a shooting time, which will be described later.

図8は、画像701と画像711の属性情報と、属性情報に基づいた対応関係とを示す図である。画像701と画像711は、それぞれ緯度、経度、高度、方角といった位置情報の属性情報を有している。本実施例においては、この位置情報が一致するか否かで、両画像が同じ撮影スポットで撮影されたか否かを判定する。しかしながら、実際には位置情報に多少の誤差が出るので、誤差を含めた判定が行われる。画像711は、その対応付けられた画像701のページ位置や構図、レイアウト情報に従って、新しいフォトブックデータ上に配置される。この際、図6で示した画像枠も作成される。画像711と同様にして、図7の他の画像についても対応付けが行われ、新しいフォトブックデータ上に配置される。その結果、自動的に図7(b)に示すフォトブックデータが生成される。   FIG. 8 is a diagram illustrating the attribute information of the image 701 and the image 711 and the correspondence relationship based on the attribute information. The image 701 and the image 711 each have position information attribute information such as latitude, longitude, altitude, and direction. In this embodiment, it is determined whether or not both images have been shot at the same shooting spot based on whether or not the position information matches. However, since some errors appear in the position information in practice, the determination including the errors is performed. The image 711 is arranged on new photobook data in accordance with the page position, composition, and layout information of the associated image 701. At this time, the image frame shown in FIG. 6 is also created. Similar to the image 711, the other images in FIG. 7 are also associated and arranged on new photobook data. As a result, the photobook data shown in FIG. 7B is automatically generated.

次に、図9〜図17を参照しながら、時間経過に基づいてフォトブックを作成する例を説明する。図4〜図8で記述した位置情報について、撮影装置が対応していない場合や、GPS(GlobalPositioning System)情報が受信できない場合においては取得できないので、その場合には、時間経過に基づいて画像の対応付けを行う。   Next, an example of creating a photo book based on the passage of time will be described with reference to FIGS. The position information described in FIGS. 4 to 8 cannot be acquired if the photographing apparatus is not compatible or GPS (Global Positioning System) information cannot be received. Perform the association.

図9は、スケジュール上の撮影タイミングを説明するための図である。図9の901はスケジュールの項目を表し、S1〜S6までのスケジュールがあるということを示している。911で示されるカメラのアイコンは、それぞれスケジュールに沿って予め定められている撮影時刻を示している。各カメラアイコンに付記された番号1〜6は、図10(b)で示す画像の番号1〜6に対応している。また、時間軸は左から右に進むとし、各カメラアイコンの下に付記される時刻は、撮影時刻を示す。   FIG. 9 is a diagram for explaining the shooting timing on the schedule. 901 in FIG. 9 represents a schedule item, which indicates that there are schedules S1 to S6. A camera icon indicated by 911 indicates a predetermined shooting time according to the schedule. Numbers 1 to 6 appended to each camera icon correspond to the numbers 1 to 6 of the image shown in FIG. The time axis advances from the left to the right, and the time added below each camera icon indicates the shooting time.

図10は、作成されるフォトブックデータの一例を示す図である。図5と同様に、図10(a)は作成開始時の状態を示し、図10(b)が作成完了した状態を示している。1001は配置された画像を示しており、番号はそれぞれ、図9に示す各撮影タイミングの番号に対応している。画像の配置は、それぞれのイベントの特性を考慮して決定される。画像の配置は、各画像の撮影シーンだけで決定されるものではなく、それぞれのイベントの特性や、撮影された複数の他画像とのバランスを考慮して決められることが特徴である。   FIG. 10 is a diagram illustrating an example of the created photobook data. Similar to FIG. 5, FIG. 10A shows a state at the start of creation, and FIG. 10B shows a state where creation is completed. Reference numeral 1001 denotes an arranged image, and the numbers correspond to the numbers of the respective photographing timings shown in FIG. The image layout is determined in consideration of the characteristics of each event. The arrangement of images is not determined only by the shooting scene of each image, but is characterized in that it is determined in consideration of the characteristics of each event and the balance with a plurality of other images taken.

図11は、以前のフォトブックに基づいて自動作成されたフォトブックの一例、および、時間経過に基づいた画像の対応付けを説明するための図である。フォトブックデータ1100は、以前に作成されたフォトブックデータの一例であり、ここでは、図10(b)のフォトブックデータと同じ図を示している。1130は、1100のフォトブックデータに基づいて、新たに撮影された画像を用いて自動的に作成されたフォトブックデータの例を示す。例えば結婚式のようなイベントは、スケジュールが予め決められており、撮影される画像も、同様のタイミングで同じように撮影されることが多い。フォトブックデータ1130に挿入されている画像の番号は、それぞれ図9に示す撮影タイミングの番号に対応しており、また、以前に撮影されたフォトブックデータ1100の各画像にも対応付けられる。   FIG. 11 is a diagram for explaining an example of a photobook automatically created based on a previous photobook and image association based on the passage of time. The photo book data 1100 is an example of previously created photo book data, and here, the same diagram as the photo book data of FIG. 10B is shown. Reference numeral 1130 denotes an example of photobook data automatically created based on 1100 photobook data using a newly taken image. For example, an event such as a wedding has a predetermined schedule, and images to be taken are often taken in the same manner at the same timing. The image numbers inserted in the photobook data 1130 correspond to the shooting timing numbers shown in FIG. 9, respectively, and are also associated with the images of the photobook data 1100 previously shot.

図11で示している画像の対応付けを、図16のフローチャートに沿って説明する。図16に示すフローチャートは、例えば、CPU102により実行される。CPU102は、まず、以前のフォトブックデータ1100にレイアウトされた画像の撮影時刻を取得し、時間の経過に沿って並び換える(S1601:第1の取得の一例)。S1601において並び替えを行った画像を概念的に表したのが図11の1111〜1116である。次に、CPU102は、新たに撮影した画像を取得し(画像データ取得の一例)、それらの撮影時刻を取得し(第2の取得の一例)、時間経過に沿って並び替える(S1602)。S1602の並び替えを行った画像を概念的に表したのが図11の1121〜1126である。次に並び替えた最初の日時を開始日時として設定する(S1603)。これにより、経過時間を算出するための起点を設ける。例えば、画像1111の6月10日10:00と、画像1121の6月20日14:00をそれぞれ起点とし、起点同士の画像を対応付ける。そして、起点からそれぞれ同じ時間経過した画像を対応付けて行く。例えば、画像1112と画像1122は、それぞれ20分経過した時点の画像になるので相互に対応付けられる。対応付けの処理が図16のS1604以降の処理であり、以前のフォトブックデータに含まれる画像分ループし(S1604)、以前のフォトブックデータに含まれる各画像について、新たに撮影された画像の中から対応する画像を取得する(S1605)。   The image association shown in FIG. 11 will be described with reference to the flowchart of FIG. The flowchart shown in FIG. 16 is executed by the CPU 102, for example. The CPU 102 first acquires the shooting times of the images laid out in the previous photobook data 1100, and rearranges them with the passage of time (S1601: one example of first acquisition). 1111 to 1116 in FIG. 11 conceptually represent images rearranged in S1601. Next, the CPU 102 acquires newly captured images (an example of image data acquisition), acquires their shooting times (an example of second acquisition), and rearranges them with the passage of time (S1602). 1111 to 1126 in FIG. 11 conceptually represent images rearranged in S1602. Next, the first date and time of rearrangement is set as the start date and time (S1603). This provides a starting point for calculating the elapsed time. For example, June 10th 10:00 of the image 1111 and June 20th 14:00 of the image 1121 are set as starting points, and the images of the starting points are associated with each other. Then, images that have passed the same time from the starting point are associated with each other. For example, the image 1112 and the image 1122 are images at the time when 20 minutes have elapsed, and are associated with each other. The associating process is a process after S1604 in FIG. 16 and loops for the images included in the previous photobook data (S1604), and for each image included in the previous photobook data, a newly captured image is obtained. A corresponding image is acquired from the inside (S1605).

対応付けにおいて実際には、経過時間が完全に一致することは少ないので、時間差を考慮して対応付けが行われる。図12は、時間の許容差を考慮した対応付けを示す図である。図12に示す左右の線は時間差の許容範囲を表している。画像1201と画像1202は経過時間に2分の差があるが許容範囲内であるため、経過時間が一致したものとみなされる。図11の画像1113と1123、画像1114と1124は時間差の許容範囲内で対応付けられたことを示している。なお、許容範囲内に複数の画像があった場合には、経過時間の近いものを優先して対応付けることとする。図13では、画像1301に対応付けが可能な画像は画像1302と1303の2画像があるということを示している。その場合においては、画像1303の方が経過時間が近いので、画像1301は画像1303と対応付けが行われる。但し、経過時間が近いという判定方法だけでなく、時刻が先にあるものを選択するようにしてもよい。また、時間差の許容範囲内に画像が存在しない場合には対応付けは行われない。図14において、画像1401は、最も経過時間が近い画像として画像1402が示されているが許容範囲内ではないので相互の対応付けは行われない。この場合、図16のフローチャートにおいて、CPU102は、画像が取得されないと判定し(S1606)、対応する画像がないことを設定する(S1609)。なお、本フローチャートには示されていないが、対応付けが行われなかった画像に対して、許容範囲を変更して再度対応付けを行うようにしても良い。それにより、対応付けられない画像をより低減することができる。   In actuality, since the elapsed times rarely coincide completely, the association is performed in consideration of the time difference. FIG. 12 is a diagram illustrating the association in consideration of the time tolerance. The left and right lines shown in FIG. 12 represent the allowable range of time difference. Although the images 1201 and 1202 have a difference of two minutes in the elapsed time, but are within the allowable range, the elapsed times are considered to match. Images 1113 and 1123 and images 1114 and 1124 in FIG. 11 are associated with each other within an allowable time difference range. In addition, when there are a plurality of images within the allowable range, the ones with close elapsed time are associated with priority. FIG. 13 shows that there are two images 1302 and 1303 that can be associated with the image 1301. In that case, since the elapsed time of the image 1303 is closer, the image 1301 is associated with the image 1303. However, not only the determination method that the elapsed time is near, but also the one with the earlier time may be selected. In addition, when there is no image within the allowable range of time difference, no association is performed. In FIG. 14, an image 1401 is shown as an image having the closest elapsed time, but is not within the allowable range, and thus is not associated with each other. In this case, in the flowchart of FIG. 16, the CPU 102 determines that no image is acquired (S1606), and sets that there is no corresponding image (S1609). Although not shown in this flowchart, the association may be performed again by changing the allowable range for an image that has not been associated. Thereby, the image which cannot be matched can be reduced more.

図11の画像1115と1125はグループとして関連付けを行っていることを示している。グループ設定は、フォトブックデータ1100で行われている。グループは、日時が近寄っており、同じ撮影シーンで複数枚の画像がある場合に設定される。グループ設定が行われている場合に、グループ単位で時間差の許容範囲を設定することができ、相互のグループ間での対応付けが行われる。図15の画像1501は、グループ設定された複数の画像を示す図である。グループとしての時間差の許容範囲の中から、グループ設定された画像の枚数分、相互の対応付けが行われる。   Images 1115 and 1125 in FIG. 11 indicate that association is performed as a group. Group setting is performed in the photobook data 1100. The group is set when the date and time are approaching and there are a plurality of images in the same shooting scene. When group setting is performed, an allowable range of time difference can be set for each group, and association between the groups is performed. An image 1501 in FIG. 15 is a diagram showing a plurality of images set as a group. Mutual association is performed for the number of images set in the group within the allowable range of time difference as a group.

上記のように対応付けが行われた後、CPU102は、対応付けられて取得できた画像について(S1606)、以前のフォトブックデータの画像構成やレイアウト情報を取得し(S1607)する。その後、画像構成やレイアウト情報に基づいて画像が設定される(S1608)。S1608では、例えば、図11に示す画像1121が以前のフォトブックデータの画像構成や画像1101のレイアウト情報に基づいて画像1131として設定されレイアウトされる。他の画像1122〜1126も同様にレイアウトされ、フォトブックデータ1130が作成される(フォトブック作成の一例)。   After the association is performed as described above, the CPU 102 acquires the image configuration and layout information of the previous photobook data (S1607) for the image acquired in association (S1606). Thereafter, an image is set based on the image configuration and layout information (S1608). In S1608, for example, the image 1121 shown in FIG. 11 is set and laid out as an image 1131 based on the image configuration of the previous photobook data and the layout information of the image 1101. The other images 1122 to 1126 are similarly laid out, and photobook data 1130 is created (an example of photobook creation).

図17は、図16のS1605の処理の手順を示すフローチャートである。CPU102は、対応付ける画像を取得する際、まず、前フォトブックの画像情報の経過時間を取得し(S1701)、新たに撮影された画像で、未だ対応付けられていない画像と対応付けられるか否かを判定していく(S1702)。具体的には、CPU102は、撮影された画像の経過時間を取得し(S1703)、S1701で取得した画像の経過時間との差を算出し(S1705)、その差が許容範囲内であれば(S1705)、対応付けられる画像とみなす(S1706)。   FIG. 17 is a flowchart showing the procedure of the process in S1605 of FIG. When acquiring an image to be associated, the CPU 102 first acquires the elapsed time of the image information of the previous photobook (S1701), and whether or not the newly captured image is associated with an image that has not yet been associated. Are determined (S1702). Specifically, the CPU 102 acquires the elapsed time of the captured image (S1703), calculates the difference from the elapsed time of the image acquired in S1701 (S1705), and if the difference is within the allowable range (S1705). S1705), it is regarded as an associated image (S1706).

以上のように本実施例においては、以前に作成したフォトブックデータと別の画像で同様のフォトブックデータを作成する場合に、自動的にフォトブックデータを作成することができ、操作者の工数を低減することができる。なお、自動でフォトブックデータが作成された後、図6に示すエディタ等で調整や更新が可能である。以前のフォトブックよりも撮影シーンが増えた場合は、手動で追加することもでき、一方、撮影シーンが減った場合は、自動もしくは手動で画像枠やページの削除を行うことができる。   As described above, in this embodiment, when the same photobook data is created with a different image from the previously created photobook data, the photobook data can be created automatically, and the man-hours of the operator Can be reduced. Note that after the photobook data is automatically created, it can be adjusted and updated by an editor shown in FIG. If there are more shooting scenes than in the previous photo book, they can be added manually. On the other hand, if there are fewer shooting scenes, the image frames and pages can be deleted automatically or manually.

図18は、画像の対応付けを行う条件の設定画面の一例である。チェックボックス1811、1821、1831は、位置情報に関する条件を表し、チェックボックス1841は、時間経過に関する条件を表す。また、チェックボックス1851は、撮影装置で設定するシーン情報に関する条件を表す。また、本図以外にも画像の縦横の向きなど、様々な画像の属性情報による条件が設定できるように構成されても良い。条件は複数指定することが可能であり、位置情報に関する条件と時間経過に関する条件の両方を指定することもできる。この場合、時間経過による対応付けを行った上で、さらに位置情報による対応付けを確認する処理が図17のS1706の手前で行われることになる。   FIG. 18 is an example of a setting screen for conditions for associating images. Check boxes 1811, 1821, and 1831 represent conditions related to position information, and check box 1841 represents conditions related to the passage of time. A check box 1851 represents a condition regarding scene information set by the photographing apparatus. In addition to this figure, it may be configured such that conditions based on attribute information of various images such as the vertical and horizontal orientations of the image can be set. A plurality of conditions can be specified, and both a condition regarding position information and a condition regarding the passage of time can be specified. In this case, after associating with the passage of time, processing for confirming the association based on the position information is performed before S1706 in FIG.

イベントのスケジュールの順序は都合により変更される場合がある。図19は、スケジュールの順序が変更された場合を示す図である。図19(a)のスケジュール1905が手前に移動されたことを示す図が図19(b)である。スケジュール1905がスケジュール1925に変更された場合、スケジュール1925の長さと移動時間に基づき、撮影時刻1913、1914、1915は、それぞれ撮影時刻1933、1934、1935として各画像に新たに割当てられる。図19(a)では、例えば、S5は撮影時刻12:00に撮影する予定であったものがS2の後に変更になったので、撮影時刻は10:30として新たに割当てられる。そして、S3以降は、S4との撮影時刻との差を考慮しながら、順次、撮影時刻が新たに割り当てられていく。   The order of event schedules may be changed for convenience. FIG. 19 is a diagram illustrating a case where the schedule order is changed. FIG. 19B shows that the schedule 1905 in FIG. 19A has been moved forward. When the schedule 1905 is changed to the schedule 1925, the shooting times 1913, 1914, and 1915 are newly assigned to the images as shooting times 1933, 1934, and 1935, respectively, based on the length of the schedule 1925 and the travel time. In FIG. 19 (a), for example, what was planned to be taken at S12: 00 at S5 was changed after S2, so the shooting time is newly assigned as 10:30. Then, after S3, new shooting times are sequentially assigned in consideration of the difference from the shooting time with S4.

経過時間による対応付けを行う場合に、予め決定されていたスケジュールの順序が変更されると適切な対応付けが行われない。しかしながら、変更対象の各スケジュールの長さと移動時間とが指定されていれば、以前に作成されたフォトブックデータに設定されている各画像の撮影時刻を自動的に調整することができる。その結果、スケジュールの変更後においても、図16及び図17に示すような対応付けの処理が可能になる。図11に基づいて説明すると、変更されるスケジュールの長さと移動時間が指定されることによって、画像1111〜1116の撮影時刻を自動的に調整し、新たに撮影された画像1121〜1126との対応付けが適切に行われるようにする。また、調整が行われた際、フォトブックデータ1100の画像603と画像枠602との位置を連動して動かすことも可能である。これによって、イベントのスケジュールの順序変更があった場合にも、フォトブックデータの自動作成が可能になる。   In the case of performing association based on elapsed time, appropriate association is not performed if the predetermined schedule order is changed. However, if the length and movement time of each schedule to be changed are specified, the shooting time of each image set in the previously created photobook data can be automatically adjusted. As a result, even after the schedule is changed, the association process as shown in FIGS. 16 and 17 becomes possible. Referring to FIG. 11, by specifying the length of the schedule to be changed and the moving time, the shooting times of the images 1111 to 1116 are automatically adjusted, and the correspondence with newly taken images 1121 to 1126 Make sure that the attachment is done properly. Further, when adjustment is performed, the positions of the image 603 and the image frame 602 of the photobook data 1100 can be moved in conjunction with each other. As a result, even when the order of the event schedule is changed, photobook data can be automatically created.

以上の説明においては、画像の属性情報とフォトブックデータが保持するレイアウト情報とを分けているが、画像の属性情報をフォトブックデータ側に一括して保持させるようにしても良い。また、以前に作成したフォトブックデータをテンプレートとして取得し、フォトブックテンプレートとして再利用する構成を設けても良い。   In the above description, the image attribute information and the layout information held by the photobook data are separated. However, the image attribute information may be collectively held on the photobook data side. In addition, a configuration may be provided in which previously created photobook data is acquired as a template and reused as a photobook template.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (6)

第1のフォトブックにおける複数の第1の画像データのレイアウト情報と、前記各第1の画像データの撮影パラメータに関する属性情報を取得する第1の取得手段と、
複数の第2の画像データの撮影パラメータに関する属性情報を取得する第2の取得手段と、
前記第1の取得手段により取得された前記各第1の画像データの属性情報と、前記第2の取得手段により取得された前記各第2の画像データの属性情報とに基づき、前記各第1の画像データと前記各第2の画像データとを対応付ける対応付け手段と、
前記第1の取得手段により取得された前記レイアウト情報に従って、前記対応付け手段によって対応付けられた前記各第2の画像データをレイアウトして第2のフォトブックを作成するためのフォトブックデータを生成する生成手段と
を備えることを特徴とする画像処理装置。
First acquisition means for acquiring layout information of a plurality of first image data in the first photo book and attribute information relating to shooting parameters of each of the first image data;
Second acquisition means for acquiring attribute information relating to imaging parameters of a plurality of second image data;
Based on the attribute information of each first image data acquired by the first acquisition means and the attribute information of each second image data acquired by the second acquisition means, each of the first image data Association means for associating the second image data with the second image data;
According to the layout information acquired by the first acquisition means, photobook data for generating a second photobook by laying out the second image data associated by the association means is generated. An image processing apparatus comprising: generating means for performing
前記属性情報は、画像データの撮影時刻であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the attribute information is a shooting time of image data. 前記対応付け手段は、前記各第1の画像データの撮影時刻と前記各第2の画像データの撮影時刻との差が予め定められた許容範囲内にある第1の画像データと第2の画像データとを対応付けることを特徴とする請求項2に記載の画像処理装置。   The associating means includes a first image data and a second image in which a difference between a shooting time of each of the first image data and a shooting time of each of the second image data is within a predetermined allowable range. The image processing apparatus according to claim 2, wherein data is associated with the image processing apparatus. 前記各第1の画像データの撮影時刻に基づいた前記複数の第1の画像データの順序を変更する変更手段と、
当該変更後の順序に従って、前記各第1の画像データに撮影時刻を割り当てる割当手段とをさらに備え、
前記対応付け手段は、前記割当手段により撮影時刻が割り当てられた前記各第1の画像データと、前記各第2の画像データとを対応付けることを特徴とする請求項3に記載の画像処理装置。
Changing means for changing the order of the plurality of first image data based on the shooting time of each of the first image data;
An assigning unit that assigns a photographing time to each of the first image data according to the changed order;
The image processing apparatus according to claim 3, wherein the association unit associates the first image data to which the photographing time is assigned by the assignment unit with the second image data.
画像処理装置において実行されるフォトブック作成方法であって、
前記画像処理装置の第1の取得手段が、第1のフォトブックにおける複数の第1の画像データのレイアウト情報と、前記各第1の画像データの撮影パラメータに関する属性情報を取得する第1の取得工程と、
前記画像処理装置の第2の取得手段が、複数の第2の画像データの撮影パラメータに関する属性情報を取得する第2の取得工程と、
前記画像処理装置の対応付け手段が、前記第1の取得工程において取得された前記各第1の画像データの属性情報と、前記第2の取得手段により取得された前記各第2の画像データの属性情報とに基づき、前記各第1の画像データと前記各第2の画像データとを対応付ける対応付け工程と、
前記画像処理装置の生成手段が、前記第1の取得工程において取得された前記レイアウト情報に従って、前記対応付け工程において対応付けられた前記各第2の画像データをレイアウトして第2のフォトブックを作成するためのフォトブックデータを生成する生成工程と
を有することを特徴とするフォトブック作成方法。
A photobook creation method executed in an image processing apparatus,
First acquisition means for acquiring a plurality of pieces of first image data layout information in the first photobook and attribute information relating to shooting parameters of each of the first image data. Process,
A second acquisition step in which a second acquisition unit of the image processing apparatus acquires attribute information relating to imaging parameters of a plurality of second image data;
The association unit of the image processing apparatus includes the attribute information of each of the first image data acquired in the first acquisition step and the second image data acquired by the second acquisition unit. An association step of associating the first image data with the second image data based on the attribute information;
The generation unit of the image processing device lays out the second image data associated in the association step according to the layout information acquired in the first acquisition step, and generates a second photobook. And a generation step of generating photobook data for generation.
請求項5に記載のフォトブック作成方法の各工程をコンピュータに実行させるプログラム。   The program which makes a computer perform each process of the photobook production method of Claim 5.
JP2011083125A 2011-04-04 2011-04-04 Image processing apparatus, photo book producing method and program for image processing apparatus Withdrawn JP2012221005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011083125A JP2012221005A (en) 2011-04-04 2011-04-04 Image processing apparatus, photo book producing method and program for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011083125A JP2012221005A (en) 2011-04-04 2011-04-04 Image processing apparatus, photo book producing method and program for image processing apparatus

Publications (1)

Publication Number Publication Date
JP2012221005A true JP2012221005A (en) 2012-11-12

Family

ID=47272501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011083125A Withdrawn JP2012221005A (en) 2011-04-04 2011-04-04 Image processing apparatus, photo book producing method and program for image processing apparatus

Country Status (1)

Country Link
JP (1) JP2012221005A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079361A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Document management system, document management method and program
CN110580135A (en) * 2018-06-11 2019-12-17 富士胶片株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
JP2020144874A (en) * 2016-09-29 2020-09-10 富士フイルム株式会社 Page image display control system, page image display control method, and program thereof
US11080913B2 (en) 2016-09-29 2021-08-03 Fujifilm Corporation Page image display control system, page image display control method, and program therefor
US20210289081A1 (en) * 2020-03-13 2021-09-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7443107B2 (en) 2020-03-16 2024-03-05 キヤノン株式会社 Image processing device, image processing method, and program
JP7446876B2 (en) 2020-03-16 2024-03-11 キヤノン株式会社 Program, image processing method, and image processing device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079361A (en) * 2013-10-17 2015-04-23 キヤノン株式会社 Document management system, document management method and program
JP2020144874A (en) * 2016-09-29 2020-09-10 富士フイルム株式会社 Page image display control system, page image display control method, and program thereof
US11080913B2 (en) 2016-09-29 2021-08-03 Fujifilm Corporation Page image display control system, page image display control method, and program therefor
US11323577B2 (en) 2018-06-11 2022-05-03 Fujifilm Corporation Image processing device for creating an album
JP2019215593A (en) * 2018-06-11 2019-12-19 富士フイルム株式会社 Image processing apparatus, image processing method, image processing program and recording medium storing program thereof
CN110580135A (en) * 2018-06-11 2019-12-17 富士胶片株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
JP7128665B2 (en) 2018-06-11 2022-08-31 富士フイルム株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
CN110580135B (en) * 2018-06-11 2023-08-15 富士胶片株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
JP7442589B2 (en) 2018-06-11 2024-03-04 富士フイルム株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
US20210289081A1 (en) * 2020-03-13 2021-09-16 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
US11509777B2 (en) * 2020-03-13 2022-11-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP7443107B2 (en) 2020-03-16 2024-03-05 キヤノン株式会社 Image processing device, image processing method, and program
JP7446876B2 (en) 2020-03-16 2024-03-11 キヤノン株式会社 Program, image processing method, and image processing device

Similar Documents

Publication Publication Date Title
JP7187446B2 (en) augmented virtual reality
JP2012221005A (en) Image processing apparatus, photo book producing method and program for image processing apparatus
JP5980222B2 (en) Content processing apparatus, content processing method, and program
JP5246286B2 (en) Image recording apparatus, image recording method, and program
US8363056B2 (en) Content generation system, content generation device, and content generation program
JP5820142B2 (en) Information processing apparatus, control method therefor, and program
JP6816973B2 (en) Server control method and system
JP7391317B2 (en) Information management device, information management system, information management method, and information management program
JP6110780B2 (en) Additional information display system
JP2001344591A (en) Method for controlling and display image and device for the same and recording medium
US10489652B2 (en) Image capturing system
US10778855B2 (en) System and method for creating contents by collaborating between users
JP2012123666A (en) Photographing request system
JP6348318B2 (en) Image processing apparatus, method, and program
JP6265621B2 (en) Display control apparatus and program
JP2005063302A (en) Electronic album creation support device, its method, and computer program
KR102299506B1 (en) Real-time production management system used in the production site of video content and computer-readable recording media with programs for real time production management
KR101934799B1 (en) Method and system for generating content using panoramic image
KR20180116708A (en) Method and apparatus for providing contents for layered hologram
KR20170139202A (en) Method and system for generating content using panoramic image
JP2006120076A (en) Image processing method
AU2018203909A1 (en) A User Interface
US20210241524A1 (en) Mobile device 3-dimensional modeling
JP2022162443A (en) Structure inspection data management system
JP2007259208A (en) Print order reception system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701