JP6417511B2 - Image generation system and image generation apparatus - Google Patents

Image generation system and image generation apparatus Download PDF

Info

Publication number
JP6417511B2
JP6417511B2 JP2017032915A JP2017032915A JP6417511B2 JP 6417511 B2 JP6417511 B2 JP 6417511B2 JP 2017032915 A JP2017032915 A JP 2017032915A JP 2017032915 A JP2017032915 A JP 2017032915A JP 6417511 B2 JP6417511 B2 JP 6417511B2
Authority
JP
Japan
Prior art keywords
image
unit
data
target
related data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032915A
Other languages
Japanese (ja)
Other versions
JP2018136901A (en
Inventor
和典 ▲高▼村
和典 ▲高▼村
Original Assignee
株式会社ミヤビカクリエイティブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ミヤビカクリエイティブ filed Critical 株式会社ミヤビカクリエイティブ
Priority to JP2017032915A priority Critical patent/JP6417511B2/en
Publication of JP2018136901A publication Critical patent/JP2018136901A/en
Application granted granted Critical
Publication of JP6417511B2 publication Critical patent/JP6417511B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像生成システムおよび画像生成装置に関する。   The present invention relates to an image generation system and an image generation apparatus.

従来、予めダウンロードされた商品の3D画像の画像データを、部屋のスルー画の画像データとリアルタイムに合成する技術が、知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a technique for synthesizing image data of a 3D image of a product downloaded in advance with image data of a room through image in real time is known (for example, Patent Document 1).

特開2007−323516号公報JP 2007-323516 A

このように、特許文献1の技術では、3D画像の画像データを取り扱うため、商品の位置や姿勢を変更するときに演算コストが増大するという問題が生ずる。   As described above, since the technique of Patent Document 1 handles image data of 3D images, there is a problem in that the calculation cost increases when the position or orientation of a product is changed.

そこで、本発明では、簡便な手法によって対象物の画像を撮像画像に重ね合わせることができる画像生成システムおよび画像生成装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image generation system and an image generation apparatus that can superimpose an image of an object on a captured image by a simple method.

上記の課題を解決するため、請求項1の発明は、表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成システムであって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、画像合成装置と、画像格納装置とを備え、前記画像合成装置は、前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、前記画像格納装置との間でデータの送受信を実行する第1通信部と、前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部とを有し、前記画像格納装置は、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する第1記憶部と、前記画像合成装置との間でデータの送受信を実行する第2通信部と、前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部とを有し、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。 In order to solve the above problems, the invention of claim 1 is an image generation system that generates a composite image based on a target image displayed on each display unit on a display medium, and each display unit has a background A sample image obtained by superimposing a corresponding target image on the image is displayed, and an image composition device and an image storage device are provided. The image composition device corresponds to each display unit on the display medium. A reading unit that reads identification information associated with a corresponding target image from a storage unit provided; a first communication unit that transmits and receives data to and from the image storage device; and A first acquisition unit that causes the image storage device to transmit the identification information, and that acquires data transmitted from the image storage device to the first communication unit in response to transmission of the identification information as first related data; Shooting the target space The data associated with the image, a second acquisition unit for acquiring a second associated data, which has a function as a display device, a touch panel unit that accepts an operation from the user, according to the operation from the touch panel, the second The first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the identification information on the captured image based on the first and second related data. A composite unit that generates the composite image in which the corresponding target images are superimposed, and the image storage device includes first image data corresponding to the target image of each display unit, and targets included in the target image Data transmission / reception is performed between the first storage unit storing the database that stores the first size information that is an index of the size of the object in association with the image synthesizer The second communication unit and the first image data and the first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the first An extraction unit that transmits the first related data from the communication unit to the image synthesizer, wherein the second related data includes second image data corresponding to the captured image, and the target in the target space. Second size information serving as an index of the size of the object, and the second size information is such that a skeleton line of the object is drawn on the captured image displayed on the screen of the touch panel unit, and the skeleton line Is input as a dimension line, and the combining unit combines the second image data expanded and contracted based on the first and second size information and the first image data. To generate third image data corresponding to the composite image.

また、請求項2の発明は、第1表示媒体上の各表示部に表示された対象画像に基づいて、前記第1表示媒体の各表示部を再合成する画像生成システムであって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、画像合成装置と、画像格納装置とを備え、前記画像合成装置は、前記第1表示媒体上に設けられた格納部から、前記第1表示媒体に関連付けられた識別情報を読み取る読取部と、前記画像格納装置との間でデータの送受信を実行する第1通信部と、前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて各表示部が再合成された第2表示媒体を、生成する合成部とを有し、前記画像格納装置は、前記第1表示媒体を特定するための媒体番号と、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて1つのレコードとして格納するデータベースを、記憶する第1記憶部と、前記画像合成装置との間でデータの送受信を実行する第2通信部と、前記第2通信部で受信された前記識別情報に基づいて選択される一又は複数のレコードを、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部とを有し、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、各表示部に対応する第1サイズ情報および前記第2サイズ情報に基づいて前記第2画像データを伸縮させた上で、伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、各表示部の合成画像となる第3画像データを生成するとともに、各表示部に対応する第3画像データ従って、各表示部の標本画像から対応する合成画像に置換した第2表示媒体のデータを作成することを特徴とする。 The invention of claim 2 is an image generation system for recombining each display unit of the first display medium based on a target image displayed on each display unit on the first display medium, The unit displays a sample image obtained by superimposing a corresponding target image on a background image, and includes an image synthesis device and an image storage device, and the image synthesis device is provided on the first display medium. A reading unit that reads identification information associated with the first display medium from the storage unit, a first communication unit that transmits and receives data to and from the image storage device, and the first communication unit A first acquisition unit that causes the image storage device to transmit the identification information, and that acquires data transmitted from the image storage device to the first communication unit in response to transmission of the identification information as first related data; Related to the captured image of the target space The chromatography data, a second acquisition unit for acquiring a second associated data, which has a function as a display device, a touch panel unit that accepts an operation from the user, according to the operation from the touch panel, the first obtaining section And a second display medium in which each of the display units is recombined based on the first and second related data. The image storage device includes a medium number for specifying the first display medium, first image data corresponding to the target image of each display unit, and the target image. Data transmission / reception between the first storage unit storing the database that stores the first size information as an index of the size of the object to be stored as one record and the image composition device The second communication unit to be executed and one or more records selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the second communication And an extraction unit that transmits the first related data to the image synthesizer, wherein the second related data includes second image data corresponding to the captured image, and a size of the object in the target space. Second size information serving as an index of the image, wherein the second size information is such that a skeleton line of the object is drawn on the captured image displayed on the screen of the touch panel unit, and the skeleton line has a dimension. The composition unit is expanded and contracted after expanding and contracting the second image data based on the first size information and the second size information corresponding to each display unit. The second image data and the first image data are combined to generate third image data to be a combined image of each display unit, and the third image data corresponding to each display unit. The second display medium data is generated by replacing the sample image of the display unit with the corresponding composite image.

また、請求項3の発明は、対象物を含む対象画像に基づいて合成画像を生成する画像生成システムであって、画像合成装置と、画像格納装置とを備え、前記画像合成装置は、前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、前記画像格納装置との間でデータの送受信を実行する第1通信部と、前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部とを有し、前記画像格納装置は、前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する第1記憶部と、前記画像合成装置との間でデータの送受信を実行する第2通信部と、前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部とを有し、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。 According to a third aspect of the present invention, there is provided an image generation system for generating a composite image based on a target image including an object, comprising an image composition device and an image storage device, wherein the image composition device comprises the object From a storage unit attached to an object, a reading unit that reads identification information associated with the target image, a first communication unit that transmits and receives data to and from the image storage device, and a first communication unit A first acquisition unit that causes the image storage device to transmit the identification information, and that acquires data transmitted from the image storage device to the first communication unit in response to transmission of the identification information as first related data; , data associated with the captured image of the target space, a second acquisition unit for acquiring a second associated data, which has a function as a display device, a touch panel unit that accepts an operation from a user, Following the procedure of the serial touch panel unit, the first relevant data to the first obtaining unit, the second related data to the second acquisition unit, causes each acquisition, based on the first and second associated data A composite unit that generates the composite image obtained by superimposing the target image on the captured image, and the image storage device includes first image data corresponding to the target image and the target image A first storage unit that stores therein a database that associates and stores first size information that is an index of the size of the target object, and a second communication unit that performs transmission and reception of data between the image synthesis device and The first image data and the first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data. An extraction unit that transmits the first related data from the second communication unit to the image synthesizer, wherein the second related data includes second image data corresponding to the captured image, and in the target space. Second size information serving as an index of the size of the object, and the second size information is such that a skeleton line of the object is drawn on the captured image displayed on the screen of the touch panel unit, The skeleton line is input as a dimensional line, and the combining unit combines the second image data expanded and contracted based on the first and second size information and the first image data. By doing so, the third image data corresponding to the composite image is generated.

また、請求項4の発明は、請求項1から請求項3のいずれかに記載の画像生成システムにおいて、前記対象空間は、前記画像合成装置の撮像部により撮像可能とされており、前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。 According to a fourth aspect of the present invention, in the image generation system according to any one of the first to third aspects, the target space can be imaged by an imaging unit of the image synthesis device, and the second The acquisition unit acquires the second image data captured by the imaging unit as an element of the second related data.

また、請求項5の発明は、請求項1から請求項3のいずれかに記載の画像生成システムにおいて、前記画像合成装置は、前記第2画像データを記憶可能な第2記憶部、をさらに有し、前記第2取得部は、前記第2記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。 In addition, according to a fifth aspect of the present invention, in the image generation system according to any one of the first to third aspects, the image synthesizing apparatus further includes a second storage unit capable of storing the second image data. The second acquisition unit acquires the second image data stored in the second storage unit as an element of the second related data.

また、請求項6の発明は、表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成装置であって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する記憶部と、前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部とを備え、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。 Further, the invention of claim 6 is an image generation device that generates a composite image based on a target image displayed on each display unit on a display medium, and each display unit corresponds to a background image. A sample image overlaid with the target image to be displayed is displayed, and the first image data corresponding to the target image of each display unit is associated with the first size information serving as an index of the size of the target object included in the target image A storage unit that stores a database to be stored, a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium, and the reading unit A first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read as described above as first related data, and is related to a captured image of the target space The chromatography data, a second acquisition unit for acquiring a second associated data, which has a function as a display device, a touch panel unit that accepts an operation from the user, according to the operation from the touch panel, the first obtaining section And the second acquisition unit to acquire the second related data, and the object corresponding to the identification information on the captured image based on the first and second related data A composition unit that generates the composite image obtained by superimposing the images, and the second related data is a second image data corresponding to the captured image and an index of the size of the object in the target space. and a second size information, the second size information, skeleton line of the object is drawn on the captured image displayed on the screen of the touch panel unit, said backbone By There is a dimension line is input, the combining unit, and the second image data that has been allowed to expand and contract based on the first and second size information, by combining the first image data The third image data corresponding to the composite image is generated.

また、請求項7の発明は、第1表示媒体上の各表示部に表示された対象画像に基づいて、前記第1表示媒体の各表示部を再合成する画像生成装置であって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、前記第1表示媒体を特定するための媒体番号と、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて1つのレコードとして格納するデータベースを、記憶する記憶部と、前記第1表示媒体上に設けられた格納部から、前記第1表示媒体に関連付けられた識別情報を読み取る読取部と、前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される一又は複数のレコードを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて各表示部が再合成された第2表示媒体を、生成する合成部とを備え、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、各表示部に対応する第1サイズ情報および前記第2サイズ情報に基づいて前記第2画像データを伸縮させた上で、伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、各表示部の合成画像となる第3画像データを生成するとともに、各表示部に対応する第3画像データ従って、各表示部の標本画像から対応する合成画像に置換した第2表示媒体のデータを作成することを特徴とする。 Further, the invention of claim 7 is an image generation device for recombining each display unit of the first display medium based on a target image displayed on each display unit on the first display medium, wherein each display The unit displays a sample image obtained by superimposing a corresponding target image on a background image, a medium number for specifying the first display medium, and a first image corresponding to the target image of each display unit Provided on the first display medium is a storage unit for storing a database that stores data and first size information that is an index of the size of an object included in the target image in association with each other. A reading unit that reads identification information associated with the first display medium from the storage unit, and one or more records extracted from the database based on the identification information read by the reading unit, Data and A touch panel for accepting a first obtaining unit for obtaining the data associated with the captured image of the target space, a second acquisition unit for acquiring a second associated data, which has a function as a display device, an operation from the user Te And the first acquisition unit and the second acquisition unit acquire the second related data according to an operation from the touch panel unit and the first and second related data, respectively. And a combining unit that generates a second display medium in which each display unit is recombined based on the second image data, the second related data includes second image data corresponding to the captured image, and the target in the target space and a second size information indicative of the size of the object, the second size information, skeleton line of the object on the captured image displayed on the screen of the touch panel section drawing Is, by the backbone line is a dimension line is input, the combining unit, was stretch the second image data on the basis of the first size information and the second size information corresponding to the display unit The second image data that has been expanded and contracted and the first image data are combined to generate third image data that is a combined image of each display unit, and the second image data corresponding to each display unit. Three image data Therefore, the data of the 2nd display medium replaced with the corresponding synthesized image from the sample image of each display part is produced.

また、請求項8の発明は、対象物を含む対象画像に基づいて、合成画像を生成する画像生成装置であって、前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する記憶部と、前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部とを備え、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。 The invention according to claim 8 is an image generation device that generates a composite image based on a target image including a target object, wherein the first image data corresponding to the target image and the target image include the target image. Read the identification information associated with the target image from the storage unit that stores the database that stores the first size information that is an index of the size of the target object in association with each other, and the storage unit that is attached to the target object A first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data, and imaging of a target space the data associated with the image, a second acquisition unit for acquiring a second associated data, which has a function as a display device, a touch panel for accepting an operation from a user When, in accordance with an operation from the touch panel unit, the first relevant data to the first obtaining unit, the second related data to the second acquisition unit, causes each acquisition, the first and second associated data And a combining unit that generates the composite image obtained by superimposing the target image on the captured image, and the second related data includes second image data corresponding to the captured image, and the target space Second size information serving as an index of the size of the object in the image, and the second size information is obtained by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit. by backbone line is a dimension line is input, the combining unit, the said second image data that has been allowed to expand and contract based on the first and second size information, the first image data By combining, and generates the third image data corresponding to the composite image.

また、請求項9の発明は、請求項6から請求項8のいずれかに記載の画像生成装置において、前記対象空間は、撮像部により撮像可能とされており、前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。 The invention according to claim 9 is the image generation apparatus according to any one of claims 6 to 8 , wherein the target space can be imaged by an imaging unit, and the second acquisition unit is The second image data captured by the imaging unit is acquired as an element of the second related data.

また、請求項10の発明は、請求項6から請求項8のいずれかに記載の画像生成装置において、前記記憶部は、前記第2画像データを記憶可能とされており、前記第2取得部は、前記記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。 The invention according to claim 10 is the image generation apparatus according to any one of claims 6 to 8 , wherein the storage unit is capable of storing the second image data, and the second acquisition unit. Is characterized in that the second image data stored in the storage unit is acquired as an element of the second related data.

請求項1、請求項4、請求項5、請求項6、請求項9、および請求項10に記載の発明によれば、簡便な操作によって、対象物を仮想的に対象空間に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。 According to the invention of claim 1, claim 4 , claim 5, claim 9 , claim 9 and claim 10 , the object can be virtually arranged in the object space by a simple operation. it can. Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

また、請求項2 請求項4、請求項5、請求項7、請求項9、および請求項10に記載の発明によれば、各表示部の標本画像を対応する合成画像に置換した第2表示媒体を、簡便な操作により生成することができる。すなわち、各表示部に含まれる対象物を、仮想的に対象空間に配置することができる。そのため、現物の対象物を用意することなく、対象空間における各対象物の使用感を確認することができる。 Further, according to the invention of claim 2 , claim 5, claim 7, claim 9, and claim 10 , the second display in which the sample image of each display unit is replaced with a corresponding composite image The medium can be generated by a simple operation. That is, the object included in each display unit can be virtually arranged in the object space. Therefore, it is possible to confirm the feeling of use of each object in the object space without preparing the actual object.

また、請求項3から請求項5、および請求項8から請求項10に記載の発明によれば、簡便な操作によって、対象物を仮想的に対象空間に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。 Moreover, according to the invention of Claims 3 to 5 and Claims 8 to 10 , the object can be virtually arranged in the object space by a simple operation. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

本発明の第1および第3の実施の形態における画像生成システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation system in the 1st and 3rd embodiment of this invention. 本発明の第1および第3の実施の形態における画像合成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image composition apparatus in the 1st and 3rd embodiment of this invention. 本発明の第1から第4の実施の形態におけるカタログの構成の一例を示す図である。It is a figure which shows an example of the structure of the catalog in the 1st to 4th embodiment of this invention. 本発明の第1、第2、第5、および第6の実施の形態における識別情報の構成の一例を示す図である。It is a figure which shows an example of a structure of the identification information in 1st, 2nd, 5th, and 6th Embodiment of this invention. 本発明の第1および第5の実施の形態における画像格納装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image storage apparatus in the 1st and 5th embodiment of this invention. 本発明の第1から第6の実施の形態における第1テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the 1st table in the 1st-6th embodiment of this invention. 本発明の第1および第5の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 1st and 5th embodiment of this invention. 本発明の第1および第2の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st and 2nd embodiment of this invention. 本発明の第1から第6の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st to 6th embodiment of this invention. 本発明の第1から第6の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st to 6th embodiment of this invention. 本発明の第1から第6の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st to 6th embodiment of this invention. 本発明の第1および第6の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st and 6th embodiment of this invention. 本発明の第2の実施の形態における画像生成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation apparatus in the 2nd Embodiment of this invention. 本発明の第2および第6の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 2nd and 6th embodiment of this invention. 本発明の第3の実施の形態における画像格納装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image storage apparatus in the 3rd Embodiment of this invention. 本発明の第3および第4の実施の形態における第2テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the 2nd table in the 3rd and 4th embodiment of this invention. 本発明の第3および第4の実施の形態において第1および第2テーブルに基づいて構成される仮想テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the virtual table comprised based on the 1st and 2nd table in the 3rd and 4th embodiment of this invention. 本発明の第3および第4の実施の形態における識別情報の構成の一例を示す図である。It is a figure which shows an example of a structure of the identification information in the 3rd and 4th embodiment of this invention. 本発明の第3の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 3rd Embodiment of this invention. 本発明の第3および第4の実施の形態における第1表示媒体の表紙の一例を示す図である。It is a figure which shows an example of the cover of the 1st display medium in the 3rd and 4th embodiment of this invention. 本発明の第3および第4の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 3rd and 4th embodiment of this invention. 本発明の第3および第4の実施の形態において再合成された表示部の一例を示す図である。It is a figure which shows an example of the display part recombined in the 3rd and 4th embodiment of this invention. 本発明の第4の実施の形態における画像生成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation apparatus in the 4th Embodiment of this invention. 本発明の第4の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 4th Embodiment of this invention. 本発明の第5の実施の形態における画像生成システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation system in the 5th Embodiment of this invention. 本発明の第5および第6の実施の形態における対象物の構成の一例を示す図である。It is a figure which shows an example of a structure of the target object in the 5th and 6th embodiment of this invention. 本発明の第5の実施の形態における画像合成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image synthesizing | combining apparatus in the 5th Embodiment of this invention. 本発明の第6の実施の形態における画像生成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation apparatus in the 6th Embodiment of this invention.

以下、図面を参照しつつ本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1の実施の形態>
<1.1.画像生成システムの構成>
図1は、画像生成システム100の構成の一例を示す図である。ここで、画像生成システム100は、カタログ1上の各表示部5に表示された対象画像に基づいて合成画像を生成する。図1に示すように、画像生成システム100は、主として、画像合成装置20と、画像格納装置40と、を備える。また、画像合成装置20および画像格納装置40は、ネットワーク2を介して通信可能に接続されている。
<1. First Embodiment>
<1.1. Configuration of image generation system>
FIG. 1 is a diagram illustrating an example of the configuration of the image generation system 100. Here, the image generation system 100 generates a composite image based on the target image displayed on each display unit 5 on the catalog 1. As shown in FIG. 1, the image generation system 100 mainly includes an image composition device 20 and an image storage device 40. The image composition device 20 and the image storage device 40 are connected to be communicable via the network 2.

画像合成装置20は、合成画像の生成を指示する使用者の端末である。本実施の形態において、画像合成装置20は、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。なお、画像合成装置20の詳細な構成については後述する。   The image composition device 20 is a user terminal that instructs generation of a composite image. In the present embodiment, the image composition device 20 is configured by a mobile terminal such as a so-called smart phone or tablet terminal. The detailed configuration of the image composition device 20 will be described later.

画像格納装置40は、例えば合成画像の生成に用いられる画像データが格納されるデータサーバである。本実施の形態において、画像格納装置40は、いわゆるパーソナルコンピュータやワークステーションのような電子計算機により構成されている。なお、画像格納装置40の詳細な構成については後述する。   The image storage device 40 is a data server that stores image data used for generating a composite image, for example. In the present embodiment, the image storage device 40 is configured by an electronic computer such as a so-called personal computer or workstation. The detailed configuration of the image storage device 40 will be described later.

<1.2.画像合成装置の構成>
図2は、画像合成装置20の構成の一例を示す図である。図2に示すように、画像合成装置20は、主として、CPU21と、RAM32と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、を有している。また、CPU21、RAM32、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。
<1.2. Configuration of Image Synthesizer>
FIG. 2 is a diagram illustrating an example of the configuration of the image composition device 20. As shown in FIG. 2, the image composition device 20 mainly includes a CPU 21, a RAM 32, a ROM 33, a first communication unit 35, a touch panel unit 36, and an image input unit 37. The CPU 21, RAM 32, ROM 33, first communication unit 35, display processing unit 38, and input / output processing unit 39 are electrically connected via a bus 21a.

RAM32(第2記憶部)は、いわゆる揮発性のメモリにより構成されている。第2記憶部には、CPU21の演算で使用されるデータが格納可能とされている。ROM33は、いわゆる不揮発性メモリにより構成されている。ROM33には、例えば、プログラム33aが格納されている。なお、RAM32およびROM33としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The RAM 32 (second storage unit) is configured by a so-called volatile memory. In the second storage unit, data used in the calculation of the CPU 21 can be stored. The ROM 33 is configured by a so-called nonvolatile memory. The ROM 33 stores a program 33a, for example. As the RAM 32 and the ROM 33, a flash memory which is a readable / writable nonvolatile memory may be used.

CPU21は、ROM33のプログラム33aに従った動作制御やデータ処理を実行する。また、図2中のCPU21内に記載されているブロック(それぞれ符号22〜24が付与されている)に対応する演算機能は、CPU21により実現される。なお、各ブロック22〜24に対応する演算機能については後述する。   The CPU 21 executes operation control and data processing according to the program 33 a of the ROM 33. 2 is implemented by the CPU 21. The arithmetic functions corresponding to the blocks described in the CPU 21 in FIG. In addition, the calculation function corresponding to each block 22-24 is mentioned later.

第1通信部35は、CPU21からの指令に従い、ネットワーク2を介して接続された画像格納装置40(図1参照)等との間で、データの送受信を実行する。例えば、図1および図2に示すように、第1通信部35は、識別情報ID1を画像格納装置40に対して送信可能とされている。また、第1通信部35は、画像格納装置40から送信される第1関連データRD11を受信可能とされている。   The first communication unit 35 transmits / receives data to / from the image storage device 40 (see FIG. 1) connected via the network 2 in accordance with a command from the CPU 21. For example, as shown in FIGS. 1 and 2, the first communication unit 35 can transmit the identification information ID <b> 1 to the image storage device 40. In addition, the first communication unit 35 can receive the first related data RD11 transmitted from the image storage device 40.

タッチパネル部36は、例えば、液晶ディスプレイのような「表示機器」としての機能と、指や専用のペンで画面に触れることによって画面上の位置を指定できる「タッチパネル」としての機能と、を有している。すなわち、タッチパネル部36は、使用者からの操作を受け付ける操作部として機能する。   The touch panel unit 36 has a function as a “display device” such as a liquid crystal display, and a function as a “touch panel” that can specify a position on the screen by touching the screen with a finger or a dedicated pen. ing. That is, the touch panel unit 36 functions as an operation unit that receives an operation from the user.

図3は、カタログ1の構成の一例を示す図である。図4は、識別情報ID1の構成の一例を示す図である。画像入力部37は、いわゆるカメラに構成されており、画像データの入力に用いられる。   FIG. 3 is a diagram illustrating an example of the configuration of the catalog 1. FIG. 4 is a diagram illustrating an example of the configuration of the identification information ID1. The image input unit 37 is configured as a so-called camera and is used for inputting image data.

ここで、本実施の形態のカタログ1(表示媒体)は、商品を掲載するための印刷物(表示媒体)である。本実施の形態のカタログ1には、図3に示すように、商品(対象物)を表示する複数の表示部5(5a、5b)が設けられている。より具体的には、本実施の形態では、各表示部5に表示される対象物としてユニフォーム(制服)が、採用されている。また、各表示部5(5a、5b)は、背景画像12の上に、対応するユニフォームを着用した人物の画像(以下、「対象画像」と称する)11を重ね合わせた標本画像10を、表示する。   Here, the catalog 1 (display medium) of the present embodiment is a printed material (display medium) for placing a product. As shown in FIG. 3, the catalog 1 of the present embodiment is provided with a plurality of display units 5 (5a, 5b) for displaying products (objects). More specifically, in the present embodiment, a uniform (uniform) is adopted as an object displayed on each display unit 5. Each display unit 5 (5a, 5b) displays a sample image 10 in which an image 11 of a person wearing a corresponding uniform (hereinafter referred to as “target image”) 11 is superimposed on the background image 12. To do.

また、各表示部5(5a、5b)の付近には、それぞれ格納部6(6a、6b)が隣接して設けられている。本実施の形態では、格納部6として2次元バーコードが採用されており、格納部6は画像入力部37により読取可能とされている。   Further, storage units 6 (6a, 6b) are provided adjacent to the respective display units 5 (5a, 5b). In the present embodiment, a two-dimensional barcode is adopted as the storage unit 6, and the storage unit 6 can be read by the image input unit 37.

また、各格納部6(6a、6b)には、対象物番号TNを含む識別情報ID1(図4参照)が格納されている。対象物番号TNは、表示部5に表示された対象物を一意に特定するためのコードである。ここで、本実施の形態において、同種の対象物(例えば、型式が同一の商品)には、同一の対象物番号TNが付与されている。   Each storage unit 6 (6a, 6b) stores identification information ID1 (see FIG. 4) including the object number TN. The object number TN is a code for uniquely specifying the object displayed on the display unit 5. Here, in the present embodiment, the same object number TN is assigned to the same type of object (for example, a product having the same model).

このように、画像入力部37は、カタログ1上において各表示部5に対応して設けられた格納部6から、対応する対象画像11に関連付けられた識別情報ID1を読み取る読取部としても使用できる。   As described above, the image input unit 37 can also be used as a reading unit that reads the identification information ID1 associated with the corresponding target image 11 from the storage unit 6 provided corresponding to each display unit 5 on the catalog 1. .

表示処理部38、ビデオコントローラにより構成されており、信号線38aを介してタッチパネル部36と電気的に接続されている。したがって、表示処理部38により描画処理が実行されると、タッチパネル部36の画面には文字や図形等が表示される。   The display processing unit 38 and the video controller are configured, and are electrically connected to the touch panel unit 36 through a signal line 38a. Therefore, when a drawing process is executed by the display processing unit 38, characters, graphics, and the like are displayed on the screen of the touch panel unit 36.

入出力処理部39は、画像合成装置20と、画像合成装置20の外部機器との間のデータ授受に使用される。図2に示すように、入出力処理部39は、信号線39aを介して、タッチパネル部36および画像入力部37と電気的に接続されている。これにより、画像合成装置20のCPU21は、タッチパネル部36において使用者から指定される位置情報や、画像入力部37で撮像された画像データを取得できる。   The input / output processing unit 39 is used for data exchange between the image composition device 20 and an external device of the image composition device 20. As shown in FIG. 2, the input / output processing unit 39 is electrically connected to the touch panel unit 36 and the image input unit 37 through a signal line 39a. Thereby, the CPU 21 of the image composition device 20 can acquire position information designated by the user on the touch panel unit 36 and image data captured by the image input unit 37.

<1.3.画像格納装置の構成>
図5は、画像格納装置40の構成の一例を示す図である。図6は、第1テーブル61のデータ構造の一例を示す図である。図5に示すように、画像格納装置40は、主として、CPU41と、大容量記憶部51と、RAM52と、ROM53と、モニタ54と、第2通信部55と、入力部56と、を有している。また、CPU41、大容量記憶部51、RAM52、ROM53、第2通信部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。
<1.3. Configuration of Image Storage Device>
FIG. 5 is a diagram illustrating an example of the configuration of the image storage device 40. FIG. 6 is a diagram illustrating an example of the data structure of the first table 61. As shown in FIG. 5, the image storage device 40 mainly includes a CPU 41, a large-capacity storage unit 51, a RAM 52, a ROM 53, a monitor 54, a second communication unit 55, and an input unit 56. ing. The CPU 41, the large-capacity storage unit 51, the RAM 52, the ROM 53, the second communication unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via the bus 41a.

大容量記憶部51は、シリコンディスクドライブやハードディスクドライブ等のようにRAM52と比較して記憶容量の大きな素子により構成されており、必要に応じてRAM52との間でデータの授受を行う。   The large-capacity storage unit 51 is configured by an element having a larger storage capacity than the RAM 52, such as a silicon disk drive or a hard disk drive, and exchanges data with the RAM 52 as necessary.

RAM52(第1記憶部)は、いわゆる揮発性のメモリにより構成されている。RAM52は、CPU41の演算で使用されるデータ(例えば、データベース60)を記憶可能とされている。   The RAM 52 (first storage unit) is configured by a so-called volatile memory. The RAM 52 can store data (for example, the database 60) used in the calculation of the CPU 41.

ここで、データベース60は、図5に示すように、第1テーブル61を有している。第1テーブル61には、カタログ1の各表示部5に表示される対象画像11の情報が格納されている。図6に示すように、第1テーブル61は、主として、「対象物番号TN」、「第1サイズ情報SD1」、および「第1画像データPD1」の各フィールド(列)を有している。   Here, the database 60 has a first table 61 as shown in FIG. The first table 61 stores information on the target image 11 displayed on each display unit 5 of the catalog 1. As shown in FIG. 6, the first table 61 mainly has fields (columns) of “object number TN”, “first size information SD1”, and “first image data PD1”.

「対象物番号TN」フィールドには、各対象画像11に対して付与されたコード(例えば、英数字、および/または、記号)が、格納されている。各レコード(行)の「対象物番号TN」には、重複しない値が格納されている。したがって、第1テーブル61の各レコードは、「対象物番号TN」によって一意に識別される。   In the “object number TN” field, codes (for example, alphanumeric characters and / or symbols) assigned to the respective target images 11 are stored. A “non-overlapping value” is stored in “object number TN” of each record (row). Accordingly, each record in the first table 61 is uniquely identified by the “object number TN”.

「第1画像データPD1」フィールドには、各対象画像11に対応する第1画像データPD1の格納場所を示す文字列が、格納されている。例えば、図6に示すように、「対象物番号TN」=「10091」となるレコードに対応する対象画像11の第1画像データPD1は、「●●●/●○●.JPG」に格納されている。ここで、各第1画像データPD1の格納場所は、画像格納装置40に設けられた大容量記憶部51およびRAM52であっても良いし、ネットワーク2を介して接続された装置上であっても良い。   In the “first image data PD1” field, a character string indicating the storage location of the first image data PD1 corresponding to each target image 11 is stored. For example, as shown in FIG. 6, the first image data PD1 of the target image 11 corresponding to the record with “target number TN” = “10091” is stored in “●●● / ● ○ ● .JPG”. ing. Here, the storage location of each of the first image data PD1 may be the large-capacity storage unit 51 and the RAM 52 provided in the image storage device 40, or on a device connected via the network 2. good.

また、「第1サイズ情報SD1」フィールドには、各対象画像11に含まれる対象物のサイズの指標となる情報が、格納されている。ここで、第1サイズ情報SD1としては対象画像11の高さ(単位:ピクセル)が採用されても良い。   In the “first size information SD1” field, information serving as an index of the size of the target object included in each target image 11 is stored. Here, the height (unit: pixel) of the target image 11 may be adopted as the first size information SD1.

そして、第1テーブル61の各レコードのうち、「対象物番号TN」の値が特定の値と等しくなるレコードが選択されることによって、特定の対象画像11に対応する第1画像データPD1および第1サイズ情報SD1が、第1テーブル61から抽出される。このように、データベース60は、対象画像11に対応する第1画像データPD1と、第1サイズ情報SD1と、を関連付けて格納する。   Then, among the records in the first table 61, a record in which the value of the “object number TN” is equal to a specific value is selected, whereby the first image data PD1 and the first image data PD1 corresponding to the specific target image 11 are selected. One-size information SD1 is extracted from the first table 61. Thus, the database 60 stores the first image data PD1 corresponding to the target image 11 and the first size information SD1 in association with each other.

ROM53は、いわゆる不揮発性メモリにより構成されている。ROM53には、例えば、プログラム53aが格納されている。なお、RAM52およびROM53としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The ROM 53 is configured by a so-called nonvolatile memory. In the ROM 53, for example, a program 53a is stored. As the RAM 52 and the ROM 53, a flash memory that is a readable / writable nonvolatile memory may be used.

CPU41は、ROM53のプログラム53aに従った動作制御やデータ処理を実行する。また、図5中のCPU41内に記載されているブロック(符号42が付与されている)に対応する演算機能は、CPU41により実現される。なお、ブロック42に対応する演算機能については後述する。   The CPU 41 executes operation control and data processing according to the program 53 a of the ROM 53. In addition, the calculation function corresponding to the block (indicated by reference numeral 42) described in the CPU 41 in FIG. The calculation function corresponding to the block 42 will be described later.

第2通信部55は、CPU41からの指令に従い、ネットワーク2を介して接続された画像合成装置20(図1参照)等との間で、データの送受信を実行する。例えば、図1および図5に示すように、第2通信部55は、第1関連データRD11を画像合成装置20に対して送信可能とされている。また、第2通信部55は、画像合成装置20から送信される識別情報ID1を受信可能とされている。   The second communication unit 55 transmits / receives data to / from the image composition device 20 (see FIG. 1) connected via the network 2 in accordance with a command from the CPU 41. For example, as illustrated in FIGS. 1 and 5, the second communication unit 55 can transmit the first related data RD11 to the image composition device 20. Further, the second communication unit 55 can receive the identification information ID1 transmitted from the image composition device 20.

入力部56は、例えば、キーパッド、キーボード、またはマウスのような入力機器である。これにより、画像格納装置40では、モニタ54の表示内容に基づいた入力作業が実行できる。   The input unit 56 is an input device such as a keypad, a keyboard, or a mouse, for example. Thereby, in the image storage device 40, an input operation based on the display content of the monitor 54 can be executed.

モニタ54は、いわゆる液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electro Luminescence)ディスプレイにより構成された表示機器であり、画面に文字や画像等を表示する。   The monitor 54 is a display device configured by a so-called liquid crystal display, plasma display, or organic EL (Electro Luminescence) display, and displays characters, images, and the like on the screen.

表示処理部58は、表示処理部38と同様に、ビデオコントローラにより構成されており、信号線58aを介してモニタ54と電気的に接続されている。したがって、表示処理部58により描画処理が実行されると、モニタ54の画面には文字や図形等が表示される。   Similar to the display processing unit 38, the display processing unit 58 includes a video controller, and is electrically connected to the monitor 54 via a signal line 58a. Therefore, when the drawing processing is executed by the display processing unit 58, characters, graphics, and the like are displayed on the screen of the monitor 54.

入出力処理部59は、画像格納装置40と、画像格納装置40の外部機器との間のデータ授受に使用される。図5に示すように、入出力処理部59は、信号線59aを介して入力部56と電気的に接続されている。これにより、画像格納装置40のCPU41は、入力部56からの入力情報を、適切なタイミングで受け付けることができる。   The input / output processing unit 59 is used for data exchange between the image storage device 40 and an external device of the image storage device 40. As shown in FIG. 5, the input / output processing unit 59 is electrically connected to the input unit 56 via a signal line 59a. Accordingly, the CPU 41 of the image storage device 40 can accept input information from the input unit 56 at an appropriate timing.

<1.4.CPUにより実現される演算機能>
ここでは、画像合成装置20のCPU21および画像格納装置40のCPU41で実現される演算機能について説明する。
<1.4. Arithmetic functions realized by CPU>
Here, arithmetic functions realized by the CPU 21 of the image composition device 20 and the CPU 41 of the image storage device 40 will be described.

画像合成装置20の第1取得部22(図2参照)は、第1通信部35から画像格納装置40に識別情報ID1を送信させる。また、第1取得部22は、識別情報ID1の送信に応じて画像格納装置40から第1通信部35に送信されるデータを、第1関連データRD11として取得する。   The first acquisition unit 22 (see FIG. 2) of the image composition device 20 causes the first communication unit 35 to transmit the identification information ID1 to the image storage device 40. The first acquisition unit 22 acquires data transmitted from the image storage device 40 to the first communication unit 35 in response to transmission of the identification information ID1 as first related data RD11.

画像合成装置20の第2取得部23(図2参照)は、第2関連データRD12を取得するために用いられる。ここで、第2関連データRD12は、使用者が対象物(商品)を用いる場所(以下、「対象空間」とも称する)を撮像した撮像画像のデータ、およびこの撮像画像に関連するデータを含む。撮像画像に撮像された対象空間の具体例としては、使用者の店舗の室内空間を挙げることができる。   The second acquisition unit 23 (see FIG. 2) of the image composition device 20 is used to acquire the second related data RD12. Here, the second related data RD12 includes data of a captured image obtained by capturing a place where the user uses the object (product) (hereinafter also referred to as “target space”), and data related to the captured image. As a specific example of the target space imaged in the captured image, an indoor space of a user's store can be cited.

本実施の形態において、第2関連データRD12は、主として、第2画像データPD2と、第2サイズ情報SD2と、を有している。   In the present embodiment, the second related data RD12 mainly has second image data PD2 and second size information SD2.

第2画像データPD2は、対象空間を撮像した画像に対応するデータである。第2サイズ情報SD2は、対象空間における対象物(商品)のサイズの指標となる情報である。本実施の形態において、第2サイズ情報SD2は、タッチパネル部36からの入力動作によって入力される。   The second image data PD2 is data corresponding to an image obtained by imaging the target space. The second size information SD2 is information serving as an index of the size of the target object (product) in the target space. In the present embodiment, the second size information SD2 is input by an input operation from the touch panel unit 36.

画像合成装置20の合成部24(図2参照)は、使用者によるタッチパネル部36からの操作に従って、第1取得部22に第1関連データRD11を、第2取得部23に第2関連データRD12を、それぞれ取得させる。また、合成部24は、第1および第2関連データRD11、RD12に基づいて、撮像画像の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像を生成する。   The synthesizing unit 24 (see FIG. 2) of the image synthesizing device 20 receives the first related data RD11 in the first acquiring unit 22 and the second related data RD12 in the second acquiring unit 23 according to the operation from the touch panel unit 36 by the user. Are acquired respectively. The synthesizing unit 24 generates a synthesized image in which the target image 11 corresponding to the identification information ID1 is superimposed on the captured image based on the first and second related data RD11 and RD12.

より具合的には、合成部24は、第1および第2サイズ情報SD1、SD2のピクセル値の比率RTに基づいて第2画像データPD2を伸縮させるとともに、伸縮させられた第2画像データPD2と、第1画像データPD1と、を合成することによって、合成画像に対応する第3画像データPD3を生成する。   More specifically, the combining unit 24 expands and contracts the second image data PD2 based on the ratio RT of the pixel values of the first and second size information SD1 and SD2, and the expanded and contracted second image data PD2. The third image data PD3 corresponding to the synthesized image is generated by synthesizing the first image data PD1.

ここで、第2画像データPD2の伸縮は、第1サイズ情報SD1に対する第2サイズ情報SD2の比率RTに基づいて、第2画像データPD2の縦サイズ(高さ)および横サイズ(幅)を変更することにより実行される。   Here, the expansion / contraction of the second image data PD2 changes the vertical size (height) and horizontal size (width) of the second image data PD2 based on the ratio RT of the second size information SD2 to the first size information SD1. It is executed by doing.

画像格納装置40の抽出部42(図5参照)は、第2通信部55で識別情報ID1(より具体的には、識別情報ID1に含まれる対象物番号TN:図4参照)が受信されると、この識別情報ID1に基づいて選択される第1画像データPD1および第1サイズ情報SD1を、第1関連データRD11(図6参照)としてデータベース60から抽出する。また、抽出部42は、第2通信部55から画像合成装置20に、抽出された第1関連データRD11を送信させる。   The extraction unit 42 (see FIG. 5) of the image storage device 40 receives the identification information ID1 (more specifically, the object number TN included in the identification information ID1: see FIG. 4) by the second communication unit 55. Then, the first image data PD1 and the first size information SD1 selected based on the identification information ID1 are extracted from the database 60 as the first related data RD11 (see FIG. 6). Further, the extraction unit 42 causes the second communicator 55 to transmit the extracted first related data RD11 to the image composition device 20.

<1.5.第1の実施の形態における合成画像の生成手順>
図7は、画像生成手順を説明するためのフローチャートである。図8から図12のそれぞれは、タッチパネル部36に表示される画面の一例を示す図である。ここでは、図7から図12を参照しつつ、合成画像の生成手順を説明する。
<1.5. Synthesis Image Generation Procedure in First Embodiment>
FIG. 7 is a flowchart for explaining the image generation procedure. Each of FIG. 8 to FIG. 12 is a diagram illustrating an example of a screen displayed on the touch panel unit 36. Here, a synthetic image generation procedure will be described with reference to FIGS.

まず、画像合成装置20の画像入力部37によって、表示部5に隣接する格納部6から対象画像11に関連付けられた識別情報ID1を、読み取らせる(S101)。そして、読み取られた識別情報ID1が所望の対象物に対応するものであるときには、図8のタッチパネル部36に表示された確認ダイアログ36aの「はい」コマンドボタン36bを押すことによって、ステップS102に進ませる。   First, the identification information ID1 associated with the target image 11 is read from the storage unit 6 adjacent to the display unit 5 by the image input unit 37 of the image composition device 20 (S101). When the read identification information ID1 corresponds to the desired object, the process proceeds to step S102 by pressing the “Yes” command button 36b of the confirmation dialog 36a displayed on the touch panel unit 36 of FIG. Make it.

次に、画像合成装置20の画像入力部37によって対象空間を撮像する(S102)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image composition device 20 (S102). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

このように、対象空間は、画像合成装置20の画像入力部37により撮像可能とされており、画像入力部37は、撮像画像16の撮像部としても機能する。また、第2取得部23は、画像入力部37により撮像された第2画像データPD2を、第2関連データRD12の要素として取得する。   Thus, the target space can be imaged by the image input unit 37 of the image composition device 20, and the image input unit 37 also functions as an imaging unit for the captured image 16. The second acquisition unit 23 acquires the second image data PD2 captured by the image input unit 37 as an element of the second related data RD12.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S103)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S103).

より具体的には、図10に示すように、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS104に進ませる。   More specifically, as shown in FIG. 10, on the captured image displayed on the screen of the touch panel unit 36, a dimension line (skeleton line) 36d of the object extending in the height direction (vertical direction) is drawn. . If there is no problem with the drawn dimension line 36d, the process proceeds to step S104 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、ステップS101で入力された識別情報ID1が画像合成装置20から画像格納装置40に送信される(S104)。   After the input of the second size information SD2 by the touch panel unit 36 is completed, the identification information ID1 input in step S101 is transmitted from the image composition device 20 to the image storage device 40 (S104).

識別情報ID1が画像格納装置40で受け取られると、画像格納装置40の抽出部42は、識別情報ID1に含まれる対象物番号TNと一致するレコードを第1テーブル61から抽出する。続いて、抽出されたレコードのうち、「第1サイズ情報SD1」フィールドの値と、「第1画像データPD1」フィールドに対応する画像データと、が第1関連データRD11(図6参照)として画像格納装置40から画像合成装置20に送信される(S105)。   When the identification information ID1 is received by the image storage device 40, the extraction unit 42 of the image storage device 40 extracts a record that matches the object number TN included in the identification information ID1 from the first table 61. Subsequently, among the extracted records, the value of the “first size information SD1” field and the image data corresponding to the “first image data PD1” field are imaged as the first related data RD11 (see FIG. 6). The data is transmitted from the storage device 40 to the image composition device 20 (S105).

そして、ステップS102およびS103で取得された第2関連データRD12と、ステップS105で取得された第1関連データRD11と、に基づいて、撮像画像16の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像15が、生成される(図12:S106)。   Then, based on the second related data RD12 acquired in steps S102 and S103 and the first related data RD11 acquired in step S105, the target image 11 corresponding to the identification information ID1 is displayed on the captured image 16. The superimposed composite image 15 is generated (FIG. 12: S106).

<1.6.第1の実施の形態の画像生成システムの利点>
以上のように、第1の実施の形態の画像生成システム100によれば、簡便な操作によって、対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。
<1.6. Advantages of Image Generation System of First Embodiment>
As described above, according to the image generation system 100 of the first embodiment, an object can be virtually placed in the target space (that is, the captured image 16) by a simple operation. Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

<2.第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。第1の実施の形態の画像合成装置20と、第2の実施の形態の画像生成装置200と、は対応する第1取得部22、122およびRAM32、132の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. The image synthesizing apparatus 20 according to the first embodiment and the image generating apparatus 200 according to the second embodiment are different except that the configurations of the corresponding first acquisition units 22 and 122 and RAMs 32 and 132 are different. It has the same configuration. Therefore, in the following, this difference will be mainly described.

なお、画像合成装置20、画像生成装置200で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component by the image composition apparatus 20 and the image generation apparatus 200, and the component to which this same code | symbol was attached | subjected has been demonstrated in 1st Embodiment. Therefore, description is abbreviate | omitted in this Embodiment.

<2.1.画像生成装置の構成>
図13は、画像生成装置200の構成の一例を示す図である。画像生成装置200は、第1の実施の形態の画像合成装置20と同様に、いわゆるスマートフォンやタブレット端末のような携帯端末により構成されている。
<2.1. Configuration of Image Generation Device>
FIG. 13 is a diagram illustrating an example of the configuration of the image generation apparatus 200. Similar to the image composition device 20 of the first embodiment, the image generation device 200 is configured by a mobile terminal such as a so-called smartphone or tablet terminal.

図13に示すように、画像生成装置200は、主として、CPU121と、RAM132と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、を有している。また、CPU121、RAM132、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   As illustrated in FIG. 13, the image generation apparatus 200 mainly includes a CPU 121, a RAM 132, a ROM 33, a first communication unit 35, a touch panel unit 36, and an image input unit 37. The CPU 121, the RAM 132, the ROM 33, the first communication unit 35, the display processing unit 38, and the input / output processing unit 39 are electrically connected via the bus 21a.

RAM132(記憶部)は、いわゆる揮発性のメモリにより構成されている。RAM132は、CPU121の演算で使用されるデータ(例えば、データベース60)を記憶可能とされている。   The RAM 132 (storage unit) is configured by a so-called volatile memory. The RAM 132 can store data (for example, the database 60) used in the calculation of the CPU 121.

CPU121は、ROM33のプログラム33aに従った動作制御やデータ処理を実行する。また、図13中のCPU121内に記載されているブロック(それぞれ符号122、23、24が付与されている)に対応する演算機能は、CPU121により実現される。   The CPU 121 executes operation control and data processing according to the program 33 a of the ROM 33. In addition, the arithmetic functions corresponding to blocks (indicated by reference numerals 122, 23, and 24, respectively) described in the CPU 121 in FIG.

第1取得部122は、画像入力部37により識別情報ID1が読み取られると、この識別情報ID1に基づいてデータベース60から抽出される第1画像データPD1および第1サイズ情報SD1を、第1関連データRD11として取得する。   When the identification information ID1 is read by the image input unit 37, the first acquisition unit 122 obtains the first image data PD1 and the first size information SD1 extracted from the database 60 based on the identification information ID1 as the first related data. Obtained as RD11.

<2.2.第2の実施の形態における合成画像の生成手順>
図14は、画像生成手順を説明するためのフローチャートである。ここでは、図14、および図8から図12を参照しつつ、合成画像の生成手順を説明する。
<2.2. Synthetic Image Generation Procedure in Second Embodiment>
FIG. 14 is a flowchart for explaining an image generation procedure. Here, a procedure for generating a composite image will be described with reference to FIGS. 14 and 8 to 12.

まず、画像生成装置200の画像入力部37によって、表示部5に隣接する格納部6から対象画像11に関連付けられた識別情報ID1を、読み取らせる(S201)。そして、読み取られた識別情報ID1が所望の対象物に対応するものであるときには、図8のタッチパネル部36に表示された確認ダイアログ36aの「はい」コマンドボタン36bを押すことによって、ステップS202に進ませる。   First, the identification information ID1 associated with the target image 11 is read from the storage unit 6 adjacent to the display unit 5 by the image input unit 37 of the image generation device 200 (S201). When the read identification information ID1 corresponds to the desired object, the process proceeds to step S202 by pressing the “Yes” command button 36b of the confirmation dialog 36a displayed on the touch panel unit 36 in FIG. Make it.

次に、画像生成装置200の画像入力部37によって対象空間を撮像する(S202)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image generation device 200 (S202). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S203)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S203).

より具体的には、第1の実施の形態と同様に、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する(図10参照)。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS204に進ませる。   More specifically, as in the first embodiment, a dimension line (skeleton line) 36d of an object extending in the height direction (vertical direction) on the captured image displayed on the screen of the touch panel unit 36. Is drawn (see FIG. 10). If there is no problem with the drawn dimension line 36d, the process proceeds to step S204 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、画像生成装置200の第1取得部122は、識別情報ID1に含まれる対象物番号TNと一致するレコードを、第1テーブル61から抽出する。   After the input of the second size information SD <b> 2 by the touch panel unit 36 is completed, the first acquisition unit 122 of the image generation device 200 stores a record that matches the object number TN included in the identification information ID <b> 1 from the first table 61. Extract.

続いて、抽出されたレコードのうち、「第1サイズ情報SD1」フィールドの値と、「第1画像データPD1」フィールドに対応する画像データと、が第1関連データRD11(図6参照)とされる(S204)。   Subsequently, among the extracted records, the value of the “first size information SD1” field and the image data corresponding to the “first image data PD1” field are set as the first related data RD11 (see FIG. 6). (S204).

そして、ステップS202およびS203で取得された第2関連データRD12と、ステップS204で取得された第1関連データRD11と、に基づいて、撮像画像16の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像15が、生成される(図12:S205)。   Then, based on the second related data RD12 acquired in steps S202 and S203 and the first related data RD11 acquired in step S204, the target image 11 corresponding to the identification information ID1 is displayed on the captured image 16. The superimposed composite image 15 is generated (FIG. 12: S205).

<2.3.第2の実施の形態の画像生成装置の利点>
以上のように、第2の実施の形態の画像生成装置200は、第1の実施の形態の画像生成システム100と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。
<2.3. Advantages of Image Generating Device of Second Embodiment>
As described above, similarly to the image generation system 100 of the first embodiment, the image generation apparatus 200 of the second embodiment virtually removes an object from the target space (that is, a captured image) by a simple operation. 16). Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

<3.第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。第1および第3実施の形態の画像生成システム100、300は、対応する抽出部42、242およびRAM52、252の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. The image generation systems 100 and 300 of the first and third embodiments have the same configuration except that the configurations of the corresponding extraction units 42 and 242 and the RAMs 52 and 252 are different. Therefore, in the following, this difference will be mainly described.

なお、画像生成システム100、300で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component in the image generation systems 100 and 300, and the component to which this same code | symbol was attached | subjected has been demonstrated in 1st Embodiment. Therefore, description is abbreviate | omitted in this Embodiment.

<3.1.画像格納装置の構成>
図1は、画像生成システム300の構成の一例を示す図である。図3は、カタログの構成の一例を示す図である。図15は、画像格納装置240の構成の一例を示す図である。図16は、第2テーブル262のデータ構造の一例を示す図である。図17は、第1および第2テーブル61、262に基づいて構成される仮想テーブル263のデータ構造の一例を示す図である。図18は、識別情報ID3の構成の一例を示す図である。
<3.1. Configuration of Image Storage Device>
FIG. 1 is a diagram illustrating an example of the configuration of the image generation system 300. FIG. 3 is a diagram illustrating an example of the configuration of a catalog. FIG. 15 is a diagram illustrating an example of the configuration of the image storage device 240. FIG. 16 is a diagram illustrating an example of the data structure of the second table 262. FIG. 17 is a diagram illustrating an example of a data structure of the virtual table 263 configured based on the first and second tables 61 and 262. FIG. 18 is a diagram illustrating an example of the configuration of the identification information ID3.

ここで、画像生成システム300は、カタログ201(第1表示媒体)上の各表示部5に表示された対象画像11(図3参照)に基づいて、カタログ201の各表示部5を再合成する。図1に示すように、画像生成システム300は、主として、画像合成装置20と、画像格納装置240と、を備える。また、画像合成装置20および画像格納装置240は、ネットワーク2を介して通信可能に接続されている。   Here, the image generation system 300 re-synthesizes each display unit 5 of the catalog 201 based on the target image 11 (see FIG. 3) displayed on each display unit 5 on the catalog 201 (first display medium). . As shown in FIG. 1, the image generation system 300 mainly includes an image composition device 20 and an image storage device 240. The image composition device 20 and the image storage device 240 are connected via the network 2 so as to communicate with each other.

画像格納装置240は、画像格納装置40と同様に、合成画像の生成に用いられる画像データが格納されるデータサーバである。図15に示すように、画像格納装置240は、主として、主として、CPU241と、大容量記憶部51と、RAM252と、ROM53と、モニタ54と、第2通信部55と、入力部56と、を有している。また、CPU241、大容量記憶部51、RAM252、ROM53、第2通信部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。   Similar to the image storage device 40, the image storage device 240 is a data server that stores image data used to generate a composite image. As shown in FIG. 15, the image storage device 240 mainly includes a CPU 241, a large-capacity storage unit 51, a RAM 252, a ROM 53, a monitor 54, a second communication unit 55, and an input unit 56. Have. The CPU 241, the large capacity storage unit 51, the RAM 252, the ROM 53, the second communication unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via the bus 41a.

RAM252(第1記憶部)は、RAM52と同様に、いわゆる揮発性のメモリにより構成されている。RAM252は、CPU241の演算で使用されるデータ(例えば、データベース260)を記憶可能とされている。   The RAM 252 (first storage unit) is configured by a so-called volatile memory like the RAM 52. The RAM 252 can store data (for example, the database 260) used in the calculation of the CPU 241.

ここで、データベース260は、図15に示すように、第1テーブル61と、第2テーブル262と、を有している。第2テーブル262には、各カタログ1と、対象画像11と、の対応関係を示す情報が格納されている。図16に示すように、第2テーブル262は、主として、「媒体番号MN」および「対象物番号TN」の各フィールドを有している。   Here, the database 260 includes a first table 61 and a second table 262, as shown in FIG. The second table 262 stores information indicating the correspondence between each catalog 1 and the target image 11. As shown in FIG. 16, the second table 262 mainly has fields of “medium number MN” and “object number TN”.

「媒体番号MN」フィールドには、各カタログ201に対して付与されたコード(例えば、英数字、および/または、記号)が、格納されている。また、「対象物番号TN」フィールドには、第1テーブル61の「対象物番号TN」のいずれかに格納された値と一致する値が格納されている。   In the “medium number MN” field, codes (for example, alphanumeric characters and / or symbols) assigned to each catalog 201 are stored. In the “object number TN” field, a value that matches the value stored in any of the “object number TN” in the first table 61 is stored.

したがって、第2テーブル262の各レコードのうち、「媒体番号MN」の値が特定の値と等しくなる一又は複数のレコードが選択されることによって、特定のカタログ201に対応する「対象物番号TN」が抽出される。   Therefore, by selecting one or a plurality of records in which the value of the “medium number MN” is equal to the specific value among the records of the second table 262, the “object number TN corresponding to the specific catalog 201” is selected. Is extracted.

そして、第2テーブル262から選択された一又は複数のレコードのそれぞれに、「対象物番号TN」に対応する「第1サイズ情報SD1」および「第1画像データPD1」が付加されることによって、仮想テーブル263(図17参照)が構成される。   Then, by adding “first size information SD1” and “first image data PD1” corresponding to “object number TN” to each of one or a plurality of records selected from the second table 262, A virtual table 263 (see FIG. 17) is configured.

このように、データベース260は、媒体番号MNと、第1画像データPD1と、第1サイズ情報SD1と、を関連付けて1つのレコードとして格納可能なデータベースであるとみなすことができる。   Thus, the database 260 can be regarded as a database that can store the medium number MN, the first image data PD1, and the first size information SD1 as one record in association with each other.

CPU241は、CPU41と同様に、ROM53のプログラム53aに従った動作制御やデータ処理を実行する。また、図15中のCPU241内に記載されているブロック(符号242が付与されている)に対応する演算機能は、CPU241により実現される。   Similar to the CPU 41, the CPU 241 executes operation control and data processing according to the program 53a of the ROM 53. In addition, the calculation function corresponding to the blocks (indicated by reference numeral 242) described in the CPU 241 in FIG.

抽出部242は、識別情報ID3(図18参照)に基づいて抽出された第1関連データRD31を、画像合成装置20に送信する。すなわち、抽出部242は、識別情報ID3(より具体的には、識別情報ID3に含まれる媒体番号MN)に基づいて、第2テーブル262の各レコードのうち、「媒体番号MN」の値が識別情報ID3と等しくなるものを選択する。   The extraction unit 242 transmits the first related data RD31 extracted based on the identification information ID3 (see FIG. 18) to the image composition device 20. That is, the extraction unit 242 identifies the value of “medium number MN” in each record of the second table 262 based on the identification information ID3 (more specifically, the medium number MN included in the identification information ID3). Select one that is equal to information ID3.

続いて、抽出部242は、選択された各レコードに、「対象物番号TN」に対応する「第1サイズ情報SD1」および「第1画像データPD1」を付加した仮想テーブル263を生成する(図17参照)。   Subsequently, the extraction unit 242 generates a virtual table 263 in which “first size information SD1” and “first image data PD1” corresponding to “object number TN” are added to each selected record (FIG. 5). 17).

そして、抽出部242は、仮想テーブル263の各レコード(すなわち、一又は複数レコード)を、データベース260から抽出された第1関連データRD31として、第2通信部55から画像合成装置20に送信させる。   Then, the extraction unit 242 causes the second communicator 55 to transmit each record (that is, one or a plurality of records) of the virtual table 263 as the first related data RD31 extracted from the database 260 to the image composition device 20.

<3.2.第3の実施の形態における合成画像の生成手順>
図19は、画像生成手順を説明するためのフローチャートである。図20は、カタログ201の表紙201bの一例を示す図である。図21は、タッチパネル部36に表示される画面の一例を示す図である。図22は、再合成された表示部5の一例を示す図である。ここでは、図19から図22、および図9から図11を参照しつつ、各表示部の再合成手順を説明する。
<3.2. Generation Procedure of Composite Image in Third Embodiment>
FIG. 19 is a flowchart for explaining an image generation procedure. FIG. 20 is a diagram illustrating an example of a cover 201 b of the catalog 201. FIG. 21 is a diagram illustrating an example of a screen displayed on the touch panel unit 36. FIG. 22 is a diagram illustrating an example of the recombined display unit 5. Here, the recombination procedure of each display unit will be described with reference to FIGS. 19 to 22 and FIGS. 9 to 11.

ここで、本実施の形態のカタログ201(第1表示媒体)は、第1の実施の形態のカタログ1と同様に、商品を掲載するための印刷物である。図3に示すように、カタログ201の紙面1aには、商品(対象物)を表示する複数の表示部5(5a、5b)が設けられている。   Here, the catalog 201 (first display medium) of the present embodiment is a printed matter for placing a product, as with the catalog 1 of the first embodiment. As shown in FIG. 3, the paper surface 1a of the catalog 201 is provided with a plurality of display units 5 (5a, 5b) for displaying products (objects).

また、カタログ201の表紙201bには、このカタログ201を特定するための格納部206が設けられている。本実施の形態では、格納部206として2次元バーコードが採用されており、格納部206は画像入力部37により読取可能とされている。   Further, the cover 201b of the catalog 201 is provided with a storage unit 206 for specifying the catalog 201. In the present embodiment, a two-dimensional barcode is adopted as the storage unit 206, and the storage unit 206 can be read by the image input unit 37.

また、格納部206には、媒体番号MNを含む識別情報ID3(図18参照)が格納されている。媒体番号MNは、各カタログ201を一意に特定するためのコードである。ここで、本実施の形態において、同種のカタログ(例えば、改訂番号が同じカタログ)には、同一の媒体番号MNが付与されている。   The storage unit 206 stores identification information ID3 (see FIG. 18) including the medium number MN. The medium number MN is a code for uniquely identifying each catalog 201. Here, in the present embodiment, the same medium number MN is assigned to the same type of catalog (for example, the catalog having the same revision number).

まず、画像合成装置20の画像入力部37によって、カタログ201の表紙201bに設けられた格納部206から、このカタログ201に関連付けられた識別情報ID3を、読み取らせる(S301)。そして、読み取られた識別情報ID3が所望のカタログ201に対応するものであるときには、図21のタッチパネル部36に表示された確認ダイアログ36gの「はい」コマンドボタン36hを押すことによって、ステップS302に進ませる。   First, the image input unit 37 of the image synthesizing apparatus 20 reads the identification information ID3 associated with the catalog 201 from the storage unit 206 provided on the cover 201b of the catalog 201 (S301). When the read identification information ID3 corresponds to the desired catalog 201, the process proceeds to step S302 by pressing the “Yes” command button 36h of the confirmation dialog 36g displayed on the touch panel unit 36 of FIG. Make it.

次に、画像合成装置20の画像入力部37によって対象空間を撮像する(S302)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image composition device 20 (S302). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S303)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S303).

より具体的には、第1の実施の形態と同様に、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する(図10参照)。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS304に進ませる。   More specifically, as in the first embodiment, a dimension line (skeleton line) 36d of an object extending in the height direction (vertical direction) on the captured image displayed on the screen of the touch panel unit 36. Is drawn (see FIG. 10). If there is no problem with the drawn dimension line 36d, the process proceeds to step S304 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、ステップS301で入力された識別情報ID3が画像合成装置20から画像格納装置240に送信される(S304)。   After the input of the second size information SD2 by the touch panel unit 36 is completed, the identification information ID3 input in step S301 is transmitted from the image composition device 20 to the image storage device 240 (S304).

識別情報ID3が画像格納装置240で受け取られると、画像格納装置240の抽出部42は、識別情報ID3に基づいて仮想テーブル263を生成する。また、抽出部242は、仮想テーブル263に含まれる一又は複数のレコードを、第1関連データRD31(図17参照)として画像格納装置240から画像合成装置20に送信される(S305)。   When the identification information ID3 is received by the image storage device 240, the extraction unit 42 of the image storage device 240 generates a virtual table 263 based on the identification information ID3. Further, the extraction unit 242 transmits one or more records included in the virtual table 263 as the first related data RD31 (see FIG. 17) from the image storage device 240 to the image composition device 20 (S305).

そして、ステップS302およびS303で取得された第2関連データRD12と、ステップS305で取得された第1関連データRD31と、に基づいて、各表示部5が再合成されたカタログ202(第2表示媒体)が、生成される(図22:S306)。   Then, based on the second related data RD12 acquired in steps S302 and S303 and the first related data RD31 acquired in step S305, the catalog 202 (second display medium) in which each display unit 5 is recombined. ) Is generated (FIG. 22: S306).

具体的には、画像合成装置20の合成部24は、各表示部5に対応する第1サイズ情報SD1と、第2サイズ情報SD2と基づいて第2画像データPD2を伸縮させる。次に、合成部24は、伸縮させられた第2画像データPD2と、第1画像データPD1と、を合成することによって、各表示部5の合成画像となる第3画像データPD3を生成する。   Specifically, the composition unit 24 of the image composition device 20 expands and contracts the second image data PD2 based on the first size information SD1 and the second size information SD2 corresponding to each display unit 5. Next, the synthesizing unit 24 synthesizes the second image data PD2 that has been expanded and contracted with the first image data PD1, thereby generating third image data PD3 that is a synthesized image of each display unit 5.

続いて、合成部24は、各表示部5に対応する第3画像データPD3に従って、各表示部5の標本画像10を対応する合成画像15に置換する。これにより、紙面202aの各表示部5が再合成されたカタログ202が作成される(図22)。   Subsequently, the synthesis unit 24 replaces the sample image 10 of each display unit 5 with the corresponding composite image 15 in accordance with the third image data PD3 corresponding to each display unit 5. As a result, a catalog 202 is created by recombining the display sections 5 on the paper surface 202a (FIG. 22).

<3.3.第3の実施の形態の画像生成システムの利点>
以上のように、第3の実施の形態の画像生成システム300は、各表示部5の標本画像10を対応する合成画像15に置換したカタログ202(第2表示媒体)を、簡便な操作により生成することができる。すなわち、各表示部5に含まれる対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における各対象物の使用感を確認することができる。
<3.3. Advantages of Image Generation System of Third Embodiment>
As described above, the image generation system 300 according to the third embodiment generates the catalog 202 (second display medium) in which the sample image 10 of each display unit 5 is replaced with the corresponding composite image 15 by a simple operation. can do. That is, the objects included in each display unit 5 can be virtually arranged in the target space (that is, the captured image 16). Therefore, it is possible to confirm the feeling of use of each object in the object space without preparing the actual object.

<4.第4の実施の形態>
次に、本発明の第4の実施の形態について説明する。第3の実施の形態の画像合成装置20と、第4の実施の形態の画像生成装置400と、は対応する第1取得部22、322およびRAM32、332の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<4. Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described. Except that the image synthesizing apparatus 20 according to the third embodiment and the image generating apparatus 400 according to the fourth embodiment have different configurations of the corresponding first acquisition units 22 and 322 and RAMs 32 and 332, It has the same configuration. Therefore, in the following, this difference will be mainly described.

なお、画像合成装置20、画像生成装置400で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1および第3の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   It should be noted that the same constituent elements in the image synthesizing apparatus 20 and the image generating apparatus 400 are denoted by the same reference numerals, and the constituent elements having the same reference numerals have been described in the first and third embodiments. It is. Therefore, description is abbreviate | omitted in this Embodiment.

<4.1.画像生成装置の構成>
図23は、画像生成装置400の構成の一例を示す図である。画像生成装置200は、第1の実施の形態の画像合成装置20と同様に、いわゆるスマートフォンやタブレット端末のような携帯端末により構成されている。
<4.1. Configuration of Image Generation Device>
FIG. 23 is a diagram illustrating an example of the configuration of the image generation apparatus 400. Similar to the image composition device 20 of the first embodiment, the image generation device 200 is configured by a mobile terminal such as a so-called smartphone or tablet terminal.

図23に示すように、画像生成装置400は、主として、CPU321と、RAM332と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、を有している。また、CPU321、RAM332、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   As illustrated in FIG. 23, the image generation apparatus 400 mainly includes a CPU 321, a RAM 332, a ROM 33, a first communication unit 35, a touch panel unit 36, and an image input unit 37. Further, the CPU 321, the RAM 332, the ROM 33, the first communication unit 35, the display processing unit 38, and the input / output processing unit 39 are electrically connected via the bus 21a.

RAM332(記憶部)は、いわゆる揮発性のメモリにより構成されている。RAM332は、CPU321の演算で使用されるデータ(例えば、データベース260)を記憶可能とされている。   The RAM 332 (storage unit) is configured by a so-called volatile memory. The RAM 332 can store data (for example, the database 260) used in the calculation of the CPU 321.

CPU321は、ROM33のプログラム33aに従った動作制御やデータ処理を実行する。また、図23中のCPU321内に記載されているブロック(それぞれ符号322、23、24が付与されている)に対応する演算機能は、CPU321により実現される。   The CPU 321 executes operation control and data processing according to the program 33 a of the ROM 33. In addition, arithmetic functions corresponding to blocks (indicated by reference numerals 322, 23, and 24, respectively) described in the CPU 321 in FIG.

第1取得部322は、識別情報ID3(図18参照)に基づいて抽出された第1関連データRD31を、取得する。すなわち、第1取得部322は、識別情報ID3(より具体的には、識別情報ID3に含まれる媒体番号MN)に基づいて、第2テーブル262の各レコードのうち、「媒体番号MN」の値が識別情報ID3と等しくなるものを選択する。   The first acquisition unit 322 acquires the first related data RD31 extracted based on the identification information ID3 (see FIG. 18). That is, the first acquisition unit 322 determines the value of “medium number MN” among the records of the second table 262 based on the identification information ID3 (more specifically, the medium number MN included in the identification information ID3). Is selected to be equal to the identification information ID3.

続いて、第1取得部322は、選択された各レコードに、「対象物番号TN」に対応する「第1サイズ情報SD1」および「第1画像データPD1」を付加した仮想テーブル263を生成する(図17参照)。   Subsequently, the first acquisition unit 322 generates a virtual table 263 in which “first size information SD1” and “first image data PD1” corresponding to “object number TN” are added to each selected record. (See FIG. 17).

そして、第1取得部322は、仮想テーブル263の各レコード(すなわち、一又は複数レコード)を、データベース260から抽出された第1関連データRD31として取得する。   Then, the first acquisition unit 322 acquires each record (that is, one or a plurality of records) of the virtual table 263 as the first related data RD31 extracted from the database 260.

<4.2.第4の実施の形態における合成画像の生成手順>
図24は、画像生成手順を説明するためのフローチャートである。ここでは、図24、図9から図11、および図21を参照しつつ、各表示部の再合成手順を説明する。
<4.2. Synthetic Image Generation Procedure in Fourth Embodiment>
FIG. 24 is a flowchart for explaining the image generation procedure. Here, the recombination procedure of each display unit will be described with reference to FIGS. 24, 9 to 11, and 21.

まず、画像生成装置400の画像入力部37によって、カタログ201の表紙201bに設けられた格納部206から、このカタログ201に関連付けられた識別情報ID3を、読み取らせる(S401)。そして、読み取られた識別情報ID3が所望のカタログ201に対応するものであるときには、図21のタッチパネル部36に表示された確認ダイアログ36gの「はい」コマンドボタン36hを押すことによって、ステップS402に進ませる。   First, the image input unit 37 of the image generation apparatus 400 reads the identification information ID3 associated with the catalog 201 from the storage unit 206 provided on the cover 201b of the catalog 201 (S401). When the read identification information ID3 corresponds to the desired catalog 201, the process proceeds to step S402 by pressing the “Yes” command button 36h of the confirmation dialog 36g displayed on the touch panel unit 36 of FIG. Make it.

次に、画像生成装置400の画像入力部37によって対象空間を撮像する(S402)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image generating apparatus 400 (S402). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S403)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S403).

より具体的には、第1の実施の形態と同様に、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する(図10参照)。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS404に進ませる。   More specifically, as in the first embodiment, a dimension line (skeleton line) 36d of an object extending in the height direction (vertical direction) on the captured image displayed on the screen of the touch panel unit 36. Is drawn (see FIG. 10). If there is no problem with the drawn dimension line 36d, the process proceeds to step S404 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、画像生成装置400の第1取得部322は、識別情報ID3に基づいて仮想テーブル263を生成する。また、第1取得部322は、仮想テーブル263に含まれる一又は複数のレコードを、第1関連データRD31(図17参照)として取得する(S404)。   After the input of the second size information SD2 by the touch panel unit 36 is completed, the first acquisition unit 322 of the image generation device 400 generates the virtual table 263 based on the identification information ID3. The first acquisition unit 322 acquires one or more records included in the virtual table 263 as the first related data RD31 (see FIG. 17) (S404).

そして、ステップS402およびS403で取得された第2関連データRD12と、ステップS404で取得された第1関連データRD31と、に基づいて、各表示部5が再合成されたカタログ202(第2表示媒体)が、生成される(図22:S405)。   Then, based on the second related data RD12 acquired in steps S402 and S403 and the first related data RD31 acquired in step S404, the catalog 202 (second display medium) in which each display unit 5 is recombined. ) Is generated (FIG. 22: S405).

具体的には、画像合成装置20の合成部24は、各表示部5に対応する第1サイズ情報SD1と、第2サイズ情報SD2と基づいて第2画像データPD2を伸縮させる。次に、合成部24は、伸縮させられた第2画像データPD2と、第1画像データPD1と、を合成することによって、各表示部5の合成画像となる第3画像データPD3を生成する。   Specifically, the composition unit 24 of the image composition device 20 expands and contracts the second image data PD2 based on the first size information SD1 and the second size information SD2 corresponding to each display unit 5. Next, the synthesizing unit 24 synthesizes the second image data PD2 that has been expanded and contracted with the first image data PD1, thereby generating third image data PD3 that is a synthesized image of each display unit 5.

続いて、合成部24は、各表示部5に対応する第3画像データPD3に従って、各表示部5の標本画像10を対応する合成画像15に置換する。これにより、紙面202aの各表示部5が再合成されたカタログ202が作成される(図22)。   Subsequently, the synthesis unit 24 replaces the sample image 10 of each display unit 5 with the corresponding composite image 15 in accordance with the third image data PD3 corresponding to each display unit 5. As a result, a catalog 202 is created by recombining the display sections 5 on the paper surface 202a (FIG. 22).

<4.3.第4の実施の形態の画像生成システムの利点>
以上のように、第4の実施の形態の画像生成装置400は、第3の実施の形態の画像生成システム300と同様に、各表示部5の標本画像10を対応する合成画像15に置換したカタログ202(第2表示媒体)を、簡便な操作により生成することができる。すなわち、各表示部5に含まれる対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における各対象物の使用感を確認することができる。
<4.3. Advantages of Image Generation System of Fourth Embodiment>
As described above, the image generation apparatus 400 according to the fourth embodiment replaces the sample image 10 of each display unit 5 with the corresponding composite image 15 in the same manner as the image generation system 300 according to the third embodiment. The catalog 202 (second display medium) can be generated by a simple operation. That is, the objects included in each display unit 5 can be virtually arranged in the target space (that is, the captured image 16). Therefore, it is possible to confirm the feeling of use of each object in the object space without preparing the actual object.

<5.第5の実施の形態>
次に、本発明の第5の実施の形態について説明する。第1および第5実施の形態の画像生成システム100、500は、読取対象となる格納部6、406の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<5. Fifth embodiment>
Next, a fifth embodiment of the present invention will be described. The image generation systems 100 and 500 of the first and fifth embodiments have the same configuration except that the configurations of the storage units 6 and 406 to be read are different. Therefore, in the following, this difference will be mainly described.

なお、画像生成システム100、500で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component in the image generation systems 100 and 500, and the component to which this same code | symbol was attached | subjected has been demonstrated in 1st Embodiment. Therefore, description is abbreviate | omitted in this Embodiment.

<5.1.画像合成装置の構成>
図25は、画像生成システム500の構成の一例を示す図である。図26は、対象物の構成の一例を示す図である。図27は、画像合成装置420の構成の一例を示す図である。ここで、画像生成システム500は、予め準備された対象物の対象画像に基づいて、合成画像を生成する。図25に示すように、画像生成システム500は、主として、画像合成装置420と、画像格納装置40と、を備える。また、画像合成装置420および画像格納装置40は、ネットワーク2を介して通信可能に接続されている。
<5.1. Configuration of Image Synthesizer>
FIG. 25 is a diagram illustrating an example of the configuration of the image generation system 500. FIG. 26 is a diagram illustrating an example of the configuration of an object. FIG. 27 is a diagram illustrating an example of the configuration of the image composition device 420. Here, the image generation system 500 generates a composite image based on a target image of a target prepared in advance. As shown in FIG. 25, the image generation system 500 mainly includes an image composition device 420 and an image storage device 40. Further, the image composition device 420 and the image storage device 40 are connected to be communicable via the network 2.

ここで、本実施の形態の対象物401は、例えば取引の対象となる商品自体である。より具体的には、本実施の形態では対象物401としてユニフォーム(制服)が、採用されている。また、画像格納装置40に記憶されている第1テーブル61には、ユニフォームを着用した人物の画像(すなわち、第1の実施の形態の対象画像11)に関する情報が格納されている。   Here, the target object 401 of the present embodiment is, for example, a product itself that is a target of a transaction. More specifically, a uniform (uniform) is adopted as the object 401 in the present embodiment. Further, the first table 61 stored in the image storage device 40 stores information related to the image of the person wearing the uniform (that is, the target image 11 of the first embodiment).

また、図26に示すように、対象物401には、例えばRFID(Radio Frequency IDentification)のような電子記憶媒体の格納部406が付設されている。この格納部40には、第1の実施の形態の格納部6と同様に、識別情報ID1が格納されている。   As shown in FIG. 26, the object 401 is provided with a storage unit 406 of an electronic storage medium such as RFID (Radio Frequency IDentification). In the storage unit 40, identification information ID1 is stored in the same manner as the storage unit 6 of the first embodiment.

画像合成装置420は、第1の実施の形態の画像合成装置20と同様に、合成画像の生成を指示する使用者の端末である。図27に示すように、画像合成装置420は、主として、CPU21と、RAM32と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、読取部437と、を有している。また、CPU21、RAM32、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   The image composition device 420 is a user terminal that instructs generation of a composite image, similarly to the image composition device 20 of the first embodiment. As shown in FIG. 27, the image composition device 420 mainly includes a CPU 21, a RAM 32, a ROM 33, a first communication unit 35, a touch panel unit 36, an image input unit 37, and a reading unit 437. ing. The CPU 21, RAM 32, ROM 33, first communication unit 35, display processing unit 38, and input / output processing unit 39 are electrically connected via a bus 21a.

読取部437は、対象物401に付設された格納部406から、対象画像11に関連付けられた識別情報ID1を読み取る。本実施の形態において、読取部437としては、RFIDリーダまたはRFIDリーダ・ライタが、採用されても良い。   The reading unit 437 reads the identification information ID1 associated with the target image 11 from the storage unit 406 attached to the target object 401. In this embodiment, an RFID reader or an RFID reader / writer may be employed as the reading unit 437.

そして、本実施の形態では、第1の実施の形態と同様に、識別情報ID1に基づいて画像格納装置40で抽出された第1関連データRD11と、画像合成装置420で取得された第2関連データRD12と、に基づいて撮像画像16の上に対象画像11を重ね合わせた合成画像15が、生成される(図8から図12参照)。   In the present embodiment, as in the first embodiment, the first related data RD11 extracted by the image storage device 40 based on the identification information ID1 and the second related data acquired by the image composition device 420 are used. Based on the data RD12, a composite image 15 in which the target image 11 is superimposed on the captured image 16 is generated (see FIGS. 8 to 12).

<5.2.第5の実施の形態の画像生成システムの利点>
以上のように、第5の実施の形態の画像生成システム500によれば、第1の実施の形態の画像生成システム100と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。
<5.2. Advantages of Image Generation System of Fifth Embodiment>
As described above, according to the image generation system 500 of the fifth embodiment, similar to the image generation system 100 of the first embodiment, the object is virtually moved to the target space (that is, by a simple operation). The captured image 16) can be arranged. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

<6.第6の実施の形態>
次に、本発明の第6の実施の形態について説明する。第2および第6実施の形態の画像生成装置200、600は、読取対象となる格納部6、406の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<6. Sixth Embodiment>
Next, a sixth embodiment of the present invention will be described. The image generation apparatuses 200 and 600 of the second and sixth embodiments have the same configuration except that the configurations of the storage units 6 and 406 to be read are different. Therefore, in the following, this difference will be mainly described.

なお、画像生成装置200、600で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1、第2、および第5の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component in the image generation apparatuses 200 and 600, and the component to which this same code | symbol was attached | subjected is demonstrated in 1st, 2nd, and 5th embodiment. It is done. Therefore, description is abbreviate | omitted in this Embodiment.

<6.1.画像生成装置の構成>
図28は、画像生成装置600の構成の一例を示す図である。図26は、対象物の構成の一例を示す図である。図27は、画像合成装置420の構成の一例を示す図である。ここで、画像生成装置600は、第5の実施の形態の画像生成システム500と同様に、予め準備された対象物の対象画像に基づいて、合成画像を生成する。また、画像生成装置600は、第1の実施の形態の画像合成装置20と同様に、いわゆるスマートフォンやタブレット端末のような携帯端末により構成されている。
<6.1. Configuration of Image Generation Device>
FIG. 28 is a diagram illustrating an example of the configuration of the image generation apparatus 600. FIG. 26 is a diagram illustrating an example of the configuration of an object. FIG. 27 is a diagram illustrating an example of the configuration of the image composition device 420. Here, similarly to the image generation system 500 of the fifth embodiment, the image generation apparatus 600 generates a composite image based on a target image of a target prepared in advance. The image generation device 600 is configured by a portable terminal such as a so-called smartphone or tablet terminal, as with the image composition device 20 of the first embodiment.

図28に示すように、画像生成装置600は、主として、CPU121と、RAM132と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、読取部437と、を有している。また、CPU121、RAM132、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   As shown in FIG. 28, the image generation apparatus 600 mainly includes a CPU 121, a RAM 132, a ROM 33, a first communication unit 35, a touch panel unit 36, an image input unit 37, and a reading unit 437. ing. The CPU 121, the RAM 132, the ROM 33, the first communication unit 35, the display processing unit 38, and the input / output processing unit 39 are electrically connected via the bus 21a.

そして、本実施の形態では、第2の実施の形態と同様に、識別情報ID1に基づいて抽出された第1関連データRD11と、タッチパネル部36および画像入力部37を介して取得された第2関連データRD12と、に基づいて撮像画像16の上に対象画像11を重ね合わせた合成画像15が、生成される(図8から図12参照)。   In the present embodiment, as in the second embodiment, the first related data RD11 extracted based on the identification information ID1, the second data acquired via the touch panel unit 36 and the image input unit 37 are used. Based on the related data RD12, a composite image 15 is generated by superimposing the target image 11 on the captured image 16 (see FIGS. 8 to 12).

<6.2.第6の実施の形態の画像生成システムの利点>
以上のように、第6の実施の形態の画像生成装置600によれば、第5の実施の形態の画像生成システム500と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。
<6.2. Advantages of Image Generation System of Sixth Embodiment>
As described above, according to the image generation apparatus 600 of the sixth embodiment, as in the image generation system 500 of the fifth embodiment, the object is virtually moved to the target space (that is, by a simple operation). The captured image 16) can be arranged. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

<7.変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<7. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

(1)第1から第4の実施の形態において、格納部6、206は、2次元バーコードにより構成されているものとして説明したが、これに限定されるものでない。例えば、格納部6、206としては、一次元バーコードが採用されても良いし、RFIDのような電子記憶媒体が採用されても良い。なお、RFIDが採用される場合には、読取部としてRFIDリーダやRFIDリーダ・ライタ等を別途設けることが必要となる。   (1) In the first to fourth embodiments, the storage units 6 and 206 have been described as being configured by two-dimensional barcodes, but the present invention is not limited to this. For example, as the storage units 6 and 206, a one-dimensional barcode may be employed, or an electronic storage medium such as an RFID may be employed. Note that when RFID is employed, it is necessary to separately provide an RFID reader, an RFID reader / writer, or the like as a reading unit.

(2)また、第5および第6の実施の形態において、格納部406は、RFIDのような電子記憶媒体により構成されているものとして説明したが、これに限定されるものでない。例えば、格納部406として、1次元または2次元バーコードが採用されても良い。この場合、格納部406の読み取りは、画像入力部37により実行される。   (2) In the fifth and sixth embodiments, the storage unit 406 is described as being configured by an electronic storage medium such as RFID, but the present invention is not limited to this. For example, a one-dimensional or two-dimensional barcode may be employed as the storage unit 406. In this case, reading of the storage unit 406 is executed by the image input unit 37.

(3)また、第1から第4の実施の形態において、カタログ1は印刷物であるものとして説明したがこれに限定されるものでない。例えば、カタログ1は、パーソナルコンピュータのモニタ、または、いわゆるスマートフォンのタッチパネル部等に電磁的方法により表示されるものであっても良い。すなわち、カタログ1は、対象物を表示可能な表示媒体であれば十分である。   (3) In the first to fourth embodiments, the catalog 1 has been described as a printed material, but the present invention is not limited to this. For example, the catalog 1 may be displayed by an electromagnetic method on a personal computer monitor or a so-called smartphone touch panel. That is, the catalog 1 is sufficient if it is a display medium that can display an object.

(4)また、第1から第6の実施の形態において、第2サイズ情報SD2はタッチパネル部36からの入力動作によって入力されるものとして説明したが、これに限定されるものでない。例えば、第2サイズ情報SD2としては、識別情報ID1、ID3を読み取る前に、予め設定されているものが用いられても良い。   (4) In the first to sixth embodiments, the second size information SD2 has been described as being input by an input operation from the touch panel unit 36. However, the present invention is not limited to this. For example, as the second size information SD2, information set in advance before reading the identification information ID1 and ID3 may be used.

例えば、予め設定される第2サイズ情報SD2の値としては、「タッチパネル部36の画面縦方向のサイズ」×「0.9」(単位:ピクセル)が、採用されても良い。また、予め設定された第2サイズ情報SD2の値を用いる場合、対象画像11の中心位置と、タッチパネル部36の画面中心と、が一致するように、対象画像11がタッチパネル部36の画面上に配置されても良い。   For example, “the size of the touch panel unit 36 in the vertical direction of the screen” × “0.9” (unit: pixel) may be adopted as the value of the second size information SD2 set in advance. Further, when the preset value of the second size information SD2 is used, the target image 11 is displayed on the screen of the touch panel unit 36 so that the center position of the target image 11 matches the screen center of the touch panel unit 36. It may be arranged.

(5)また、第1から第6の実施の形態において、第2画像データPD2は、合成処理の中で、撮像されるものとして説明したが、これに限定されるものでない。   (5) In the first to sixth embodiments, the second image data PD2 has been described as being imaged during the synthesis process, but the present invention is not limited to this.

第2画像データPD2は、予め、RAM32、52、132、252、332、または大容量記憶部51などの記憶部(第2記憶部)に記憶させられるとともに、合成処理の実行時にこの予め記憶させた第2画像データPD2が、第2関連データRD12の要素として取得されても良い。 The second image data PD2 is stored in advance in a storage unit (second storage unit) such as the RAM 32, 52, 132, 252, 332, or the large-capacity storage unit 51, and is stored in advance during the execution of the synthesis process. The second image data PD2 may be acquired as an element of the second related data RD12.

この場合、第2サイズ情報SD2は、(A)第2画像データPD2に付随して記憶部に記憶させられても良いし、(B)予め記憶された第2画像データPD2をタッチパネル部36に表示させた上で、タッチパネル部36からの入力動作により入力されても良い。   In this case, the second size information SD2 may be (A) stored in the storage unit along with the second image data PD2, or (B) the second image data PD2 stored in advance in the touch panel unit 36. It may be input by an input operation from the touch panel unit 36 after being displayed.

(6)また、第1、第3、および第5の実施の形態において、識別情報ID1、ID3は、タッチパネル部36による第2サイズ情報SD2の入力が完了した後に、画像合成装置20から画像格納装置40、240に送信されるものとして説明したが、識別情報ID1、ID3の送信タイミングこれに限定されるものでない。識別情報ID1、ID3の送信は、識別情報ID1、ID3の読取時点からタッチパネル部36による第2サイズ情報SD2の入力時点の間の任意のタイミングで実行されても良い。   (6) In the first, third, and fifth embodiments, the identification information ID1 and ID3 are stored in the image synthesizing apparatus 20 after the input of the second size information SD2 by the touch panel unit 36 is completed. Although described as what is transmitted to the apparatuses 40 and 240, the transmission timing of the identification information ID1 and ID3 is not limited to this. The transmission of the identification information ID1 and ID3 may be executed at an arbitrary timing between the reading time of the identification information ID1 and ID3 and the input time of the second size information SD2 by the touch panel unit 36.

(7)さらに、第1から第6の実施の形態において、対象空間の撮像は、スマートフォンやタブレット端末のような携帯端末により実行されるものとして説明したが、これに限定されるものでなく、パーソナルコンピュータやワークステーションのような電子計算機により実行されても良い。   (7) Furthermore, in the first to sixth embodiments, the imaging of the target space has been described as being performed by a mobile terminal such as a smartphone or a tablet terminal, but is not limited thereto. It may be executed by an electronic computer such as a personal computer or a workstation.

1、201、202 カタログ(表示媒体、第1表示媒体、第2表示媒体)
5(5a、5b)、205(205a、205b) 表示部
6、206、406 格納部
10 標本画像
11 対象画像
12 背景画像
15 合成画像
16 撮像画像
20、420 画像合成装置
22、122、322 第1取得部
23 第2取得部
24 合成部
32、52、132、252、332 RAM
35 第1通信部
36 タッチパネル部(操作部)
37 画像入力部
40、240 画像格納装置
42、242 抽出部
55 第2通信部
60、260 データベース
61、262 第1および第2テーブル
100、300、500 画像生成システム
200、400、600 画像生成装置
263 仮想テーブル
401 対象物
437 読取部
ID1、ID3 識別情報
MN 媒体番号
PD1〜PD3 第1〜第3画像データ
RD11、RD31 第1関連データ
RD12 第2関連データ
SD1、SD2 第1および第2サイズ情報
TN 対象物番号
1, 201, 202 Catalog (display medium, first display medium, second display medium)
5 (5a, 5b), 205 (205a, 205b) Display unit 6, 206, 406 Storage unit 10 Sample image 11 Target image 12 Background image 15 Composite image 16 Captured image 20, 420 Image composition device 22, 122, 322 First Acquisition unit 23 Second acquisition unit 24 Combining unit 32, 52, 132, 252, 332 RAM
35 First communication unit 36 Touch panel unit (operation unit)
37 Image input unit 40, 240 Image storage device 42, 242 Extraction unit 55 Second communication unit 60, 260 Database 61, 262 First and second tables 100, 300, 500 Image generation system 200, 400, 600 Image generation device 263 Virtual table 401 Object 437 Reading unit ID1, ID3 Identification information MN Medium number PD1-PD3 First to third image data RD11, RD31 First related data RD12 Second related data SD1, SD2 First and second size information TN Target Item number

Claims (10)

表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成システムであって、
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 画像合成装置と、
(b) 画像格納装置と、
を備え、
前記画像合成装置は、
(a-1) 前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、
(a-2) 前記画像格納装置との間でデータの送受信を実行する第1通信部と、
(a-3) 前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、
(a-4) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(a-5) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(a-6) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を有し、
前記画像格納装置は、
(b-1) 各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する第1記憶部と、
(b-2) 前記画像合成装置との間でデータの送受信を実行する第2通信部と、
(b-3) 前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部と、
を有し、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像合成システム。
An image generation system that generates a composite image based on a target image displayed on each display unit on a display medium,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) an image composition device;
(b) an image storage device;
With
The image composition device includes:
(a-1) a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium;
(a-2) a first communication unit that transmits and receives data to and from the image storage device;
(a-3) The identification information is transmitted from the first communication unit to the image storage device, and data transmitted from the image storage device to the first communication unit in response to transmission of the identification information is 1st acquisition part acquired as 1 related data,
(a-4) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(a-5) A touch panel unit having a function as a display device and receiving an operation from a user;
(a-6) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second A combining unit that generates the combined image obtained by superimposing the target image corresponding to the identification information on the captured image based on related data;
Have
The image storage device includes:
(b-1) A database that stores first image data corresponding to the target image of each display unit and first size information that is an index of the size of the target object included in the target image in association with each other is stored. A first storage unit;
(b-2) a second communication unit that transmits and receives data to and from the image composition device;
(b-3) First image data and first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the second An extraction unit that causes the communication unit to transmit the first related data to the image composition device;
Have
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. Generating an image composition system.
第1表示媒体上の各表示部に表示された対象画像に基づいて、前記第1表示媒体の各表示部を再合成する画像生成システムであって、
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 画像合成装置と、
(b) 画像格納装置と、
を備え、
前記画像合成装置は、
(a-1) 前記第1表示媒体上に設けられた格納部から、前記第1表示媒体に関連付けられた識別情報を読み取る読取部と、
(a-2) 前記画像格納装置との間でデータの送受信を実行する第1通信部と、
(a-3) 前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、
(a-4) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(a-5) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(a-6) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて各表示部が再合成された第2表示媒体を、生成する合成部と、
を有し、
前記画像格納装置は、
(b-1) 前記第1表示媒体を特定するための媒体番号と、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて1つのレコードとして格納するデータベースを、記憶する第1記憶部と、
(b-2) 前記画像合成装置との間でデータの送受信を実行する第2通信部と、
(b-3) 前記第2通信部で受信された前記識別情報に基づいて選択される一又は複数のレコードを、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部と、
を有し、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、
(i) 各表示部に対応する第1サイズ情報および前記第2サイズ情報に基づいて前記第2画像データを伸縮させた上で、伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、各表示部の合成画像となる第3画像データを生成するとともに、
(ii) 各表示部に対応する第3画像データ従って、各表示部の標本画像から対応する合成画像に置換した第2表示媒体のデータを作成することを特徴とする画像合成システム。
An image generation system that re-synthesizes each display unit of the first display medium based on a target image displayed on each display unit on the first display medium,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) an image composition device;
(b) an image storage device;
With
The image composition device includes:
(a-1) a reading unit that reads identification information associated with the first display medium from a storage unit provided on the first display medium;
(a-2) a first communication unit that transmits and receives data to and from the image storage device;
(a-3) The identification information is transmitted from the first communication unit to the image storage device, and data transmitted from the image storage device to the first communication unit in response to transmission of the identification information is 1st acquisition part acquired as 1 related data,
(a-4) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(a-5) A touch panel unit having a function as a display device and receiving an operation from a user;
(a-6) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second A combining unit that generates a second display medium in which each display unit is recombined based on related data;
Have
The image storage device includes:
(b-1) A medium number for specifying the first display medium, first image data corresponding to the target image of each display unit, and a first index serving as an index of the size of the target object included in the target image A first storage unit that stores a database that stores the size information in association with each other; and
(b-2) a second communication unit that transmits and receives data to and from the image composition device;
(b-3) One or more records selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and from the second communication unit An extraction unit that causes the image composition device to transmit the first related data;
Have
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesis unit is
(i) The second image data expanded and contracted after the second image data is expanded and contracted based on the first size information and the second size information corresponding to each display unit, and the first image data And generating third image data to be a combined image of each display unit,
(ii) Third image data corresponding to each display unit. Accordingly, an image composition system is characterized in that data of a second display medium in which a sample image of each display unit is replaced with a corresponding composite image is created.
対象物を含む対象画像に基づいて合成画像を生成する画像生成システムであって、
(a) 画像合成装置と、
(b) 画像格納装置と、
を備え、
前記画像合成装置は、
(a-1) 前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、
(a-2) 前記画像格納装置との間でデータの送受信を実行する第1通信部と、
(a-3) 前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1通信部に送信されるデータを、第1関連データとして取得する第1取得部と、
(a-4) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(a-5) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(a-6) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を有し、
前記画像格納装置は、
(b-1) 前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する第1記憶部と、
(b-2) 前記画像合成装置との間でデータの送受信を実行する第2通信部と、
(b-3) 前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部と、
を有し、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像合成システム。
An image generation system that generates a composite image based on a target image including an object,
(a) an image composition device;
(b) an image storage device;
With
The image composition device includes:
(a-1) a reading unit that reads identification information associated with the target image from a storage unit attached to the target;
(a-2) a first communication unit that transmits and receives data to and from the image storage device;
(a-3) The identification information is transmitted from the first communication unit to the image storage device, and data transmitted from the image storage device to the first communication unit in response to transmission of the identification information is 1st acquisition part acquired as 1 related data,
(a-4) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(a-5) A touch panel unit having a function as a display device and receiving an operation from a user;
(a-6) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second A compositing unit that generates the composite image in which the target image is superimposed on the captured image based on related data;
Have
The image storage device includes:
(b-1) A first database that stores first image data corresponding to the target image and first size information that is an index of the size of the target object included in the target image in association with each other. A storage unit;
(b-2) a second communication unit that transmits and receives data to and from the image composition device;
(b-3) First image data and first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the second An extraction unit that causes the communication unit to transmit the first related data to the image composition device;
Have
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. Generating an image composition system.
請求項1から請求項3のいずれかに記載の画像生成システムにおいて、
前記対象空間は、前記画像合成装置の撮像部により撮像可能とされており、
前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成システム。
The image generation system according to any one of claims 1 to 3,
The target space can be imaged by an imaging unit of the image synthesis device,
The second acquisition unit, an image generating system for the second image data captured by the imaging unit, characterized that you get as an element of the second associated data.
請求項1から請求項3のいずれかに記載の画像生成システムにおいて、
前記画像合成装置は、
(a-7) 前記第2画像データを記憶可能な第2記憶部、
をさらに有し、
前記第2取得部は、前記第2記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成システム。
The image generation system according to any one of claims 1 to 3,
The image composition device includes:
(a-7) a second storage unit capable of storing the second image data;
Further comprising
The second acquisition unit, an image generation system according to the said second image data stored in the second storage unit, characterized that you get as an element of the second associated data.
表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成装置であって
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する記憶部と、
(b) 前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、
(c) 前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、
(d) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(e) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(f) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を備え、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像生成装置
An image generation device that generates a composite image based on a target image displayed on each display unit on a display medium ,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) A storage unit that stores a database that associates and stores first image data corresponding to a target image of each display unit and first size information that is an index of the size of the target object included in the target image When,
(b) a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium;
(c) a first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data;
(d) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(e) a touch panel unit having a function as a display device and receiving an operation from a user;
(f) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second related data. A composite unit that generates the composite image obtained by superimposing the target image corresponding to the identification information on the captured image based on
With
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. image generating apparatus and generating a.
第1表示媒体上の各表示部に表示された対象画像に基づいて、前記第1表示媒体の各表示部を再合成する画像生成装置であって、
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 前記第1表示媒体を特定するための媒体番号と、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて1つのレコードとして格納するデータベースを、記憶する記憶部と、
(b) 前記第1表示媒体上に設けられた格納部から、前記第1表示媒体に関連付けられた識別情報を読み取る読取部と、
(c) 前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される一又は複数のレコードを、第1関連データとして取得する第1取得部と、
(d) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(e) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(f) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて各表示部が再合成された第2表示媒体を、生成する合成部と、
を備え、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、
(i) 各表示部に対応する第1サイズ情報および前記第2サイズ情報に基づいて前記第2画像データを伸縮させた上で、伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、各表示部の合成画像となる第3画像データを生成するとともに、
(ii) 各表示部に対応する第3画像データ従って、各表示部の標本画像から対応する合成画像に置換した第2表示媒体のデータを作成することを特徴とする特徴とする画像生成装置
Based on the displayed object image on the display unit on the first display medium, an image generating apparatus for re-combining the display of the first display medium,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) Medium number for specifying the first display medium, first image data corresponding to the target image of each display unit, and first size information that serves as an index of the size of the target object included in the target image And a storage unit for storing a database that stores them as one record in association with each other,
(b) a reading unit that reads identification information associated with the first display medium from a storage unit provided on the first display medium;
(c) a first acquisition unit that acquires, as first related data, one or more records extracted from the database based on the identification information read by the reading unit;
(d) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(e) a touch panel unit having a function as a display device and receiving an operation from a user;
(f) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second related data. A combining unit for generating a second display medium in which each display unit is recombined based on:
With
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesis unit is
(i) The second image data expanded and contracted after the second image data is expanded and contracted based on the first size information and the second size information corresponding to each display unit, and the first image data And generating third image data to be a combined image of each display unit,
(ii) follow third image data corresponding to each display unit, an image generating apparatus according to claim, characterized in that to create the data of the second display medium was replaced by the corresponding composite image from a sample image of each display unit.
対象物を含む対象画像に基づいて、合成画像を生成する画像生成装置であって、
(a) 前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する記憶部と、
(b) 前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、
(c) 前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、
(d) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(e) 表示機器としての機能を有するとともに、使用者からの操作を受け付けるタッチパネル部と、
(f) 前記タッチパネル部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を備え、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記第2サイズ情報は、前記タッチパネル部の画面に表示された前記撮像画像の上に前記対象物の骨格線が描画され、該骨格線が寸法線とされることによって、入力され、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像生成装置。
An image generation device that generates a composite image based on a target image including a target object,
(a) a first image data corresponding to the target image, and the first size information indicative of the size of the object contained in the target image, a database that stores in association with, a storage unit for storing,
(b) from been stored portion attached to the object, a reading unit reads the identification information associated with the target image,
(c) a first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data;
(d) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(e) a touch panel unit having a function as a display device and receiving an operation from a user;
(f) According to an operation from the touch panel unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second related data. a synthesizing portion for the composite image by superimposing the object image on the captured image generated based on,
With
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The second size information is input by drawing a skeleton line of the object on the captured image displayed on the screen of the touch panel unit, and making the skeleton line a dimension line,
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. An image generation apparatus characterized by generating
請求項6から請求項8のいずれかに記載の画像生成装置において、
前記対象空間は、撮像部により撮像可能とされており、
前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成装置。
Claims 6 Te image generating apparatus odor according to claim 8,
The target space can be imaged by an imaging unit,
The second acquisition unit acquires the second image data captured by the imaging unit as an element of the second related data .
請求項6から請求項8のいずれかに記載の画像生成装置において、
前記記憶部は、前記第2画像データを記憶可能とされており、
前記第2取得部は、前記記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成装置。
Claims 6 Te image generating apparatus odor according to claim 8,
The storage unit can store the second image data,
The second acquisition unit acquires the second image data stored in the storage unit as an element of the second related data .
JP2017032915A 2017-02-24 2017-02-24 Image generation system and image generation apparatus Active JP6417511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032915A JP6417511B2 (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032915A JP6417511B2 (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Publications (2)

Publication Number Publication Date
JP2018136901A JP2018136901A (en) 2018-08-30
JP6417511B2 true JP6417511B2 (en) 2018-11-07

Family

ID=63366985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032915A Active JP6417511B2 (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Country Status (1)

Country Link
JP (1) JP6417511B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08115436A (en) * 1994-10-18 1996-05-07 Matsushita Electric Ind Co Ltd Illustration generation device
JP3730695B2 (en) * 1995-11-13 2006-01-05 株式会社トレンディ System for capturing live-action images in a virtual image space
JP2004206551A (en) * 2002-12-26 2004-07-22 Toppan Printing Co Ltd Three-dimensional interior space simulation system
JP4183536B2 (en) * 2003-03-26 2008-11-19 富士フイルム株式会社 Person image processing method, apparatus and system
JP2005135175A (en) * 2003-10-30 2005-05-26 Nippon Telegr & Teleph Corp <Ntt> Book sales system
JP2011215868A (en) * 2010-03-31 2011-10-27 Masumi Maeda Installation state confirmation apparatus for confirming installation state of commodity in room, and method and program for the apparatus
JP6019567B2 (en) * 2011-03-31 2016-11-02 ソニー株式会社 Image processing apparatus, image processing method, image processing program, and imaging apparatus

Also Published As

Publication number Publication date
JP2018136901A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US7966044B2 (en) Computer-readable medium storing display control program and mobile terminal
JPWO2014017393A1 (en) Information processing apparatus, data processing method thereof, and program
CN105912315A (en) Information Processing Apparatus, Information Processing System, Information Processing Method, And A Computer Program Product
JP6597259B2 (en) Program, information processing apparatus, image display method, and image processing system
US20200272850A1 (en) Information display method, information display system, and storage medium
JP2011060254A (en) Augmented reality system and device, and virtual object display method
JP5215328B2 (en) Label display device, label display method, and program thereof
JP6417511B2 (en) Image generation system and image generation apparatus
JP2017102915A (en) Information processing device, processing method therefor and program
CN111651049B (en) Interaction method, device, computer equipment and storage medium
JP3210317U (en) Image generation system and image generation apparatus
CN102782663A (en) Method of converting digital data
KR101501491B1 (en) Capacitive touch tag reconizable by capacitive touch panel, information recognition method thereof and information service method using the same
JP2019053359A (en) Data processing device
TWI647689B (en) Screen creation support device, display system, and screen creation support method
JP4870474B2 (en) Parts catalog display system and control method thereof
TWI514319B (en) Methods and systems for editing data using virtual objects, and related computer program products
JP2012174128A (en) Plant monitoring control system
JP2016026307A (en) Information processing apparatus and program
CN108446693A (en) Convenient labels method, system, equipment and the storage medium of target to be identified
US9727224B2 (en) Image processing device, image processing method, and storage medium storing image processing program
JP6355256B2 (en) Menu screen construction device, menu processing device, menu screen production method, menu processing method, and program
JP2017045276A (en) Mobile drawing display device, drawing display system
CN110431500B (en) Monitoring screen data generation device, monitoring screen data generation method, and storage medium
CN110413178A (en) Show editing device and its system and method, server unit and record media

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R150 Certificate of patent or registration of utility model

Ref document number: 6417511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150