JP3210317U - Image generation system and image generation apparatus - Google Patents

Image generation system and image generation apparatus Download PDF

Info

Publication number
JP3210317U
JP3210317U JP2017000793U JP2017000793U JP3210317U JP 3210317 U JP3210317 U JP 3210317U JP 2017000793 U JP2017000793 U JP 2017000793U JP 2017000793 U JP2017000793 U JP 2017000793U JP 3210317 U JP3210317 U JP 3210317U
Authority
JP
Japan
Prior art keywords
image
unit
data
target
related data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000793U
Other languages
Japanese (ja)
Inventor
和典 ▲高▼村
和典 ▲高▼村
Original Assignee
株式会社ミヤビカクリエイティブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ミヤビカクリエイティブ filed Critical 株式会社ミヤビカクリエイティブ
Priority to JP2017000793U priority Critical patent/JP3210317U/en
Application granted granted Critical
Publication of JP3210317U publication Critical patent/JP3210317U/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】簡便な手法によって対象物の画像を撮像画像に重ね合わせることができる画像生成システムおよび画像生成装置を提供する。【解決手段】画像生成システム100は、画像合成装置20および画像格納装置40を備える。各表示部5に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報ID1を読み取る。識別情報ID1に基づいて画像格納装置40で抽出された第1関連データRD11と、画像合成装置20で取得された第2関連データと、に基づいて撮像画像の上に対象画像を重ね合わせた合成画像を、生成する。【選択図】図1An image generation system and an image generation apparatus capable of superimposing an image of an object on a captured image by a simple method. An image generation system includes an image composition device and an image storage device. Identification information ID1 associated with the corresponding target image is read from a storage unit provided corresponding to each display unit 5. Combining the target image on the captured image based on the first related data RD11 extracted by the image storage device 40 based on the identification information ID1 and the second related data acquired by the image composition device 20 An image is generated. [Selection] Figure 1

Description

本考案は、画像生成システムおよび画像生成装置に関する。   The present invention relates to an image generation system and an image generation apparatus.

従来、予めダウンロードされた商品の3D画像の画像データを、部屋のスルー画の画像データとリアルタイムに合成する技術が、知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a technique for synthesizing image data of a 3D image of a product downloaded in advance with image data of a room through image in real time is known (for example, Patent Document 1).

特開2007−323516号公報JP 2007-323516 A

このように、特許文献1の技術では、3D画像の画像データを取り扱うため、商品の位置や姿勢を変更するときに演算コストが増大するという問題が生ずる。   As described above, since the technique of Patent Document 1 handles image data of 3D images, there is a problem in that the calculation cost increases when the position or orientation of a product is changed.

そこで、本考案では、簡便な手法によって対象物の画像を撮像画像に重ね合わせることができる画像生成システムおよび画像生成装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide an image generation system and an image generation apparatus that can superimpose an image of an object on a captured image by a simple technique.

上記の課題を解決するため、請求項1の考案は、表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成システムであって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、画像合成装置と、画像格納装置とを備え、前記画像合成装置は、前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、前記画像格納装置との間でデータの送受信を実行する第1通信部と、前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1送信部に送信されるデータを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、使用者からの操作を受け付ける操作部と、前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部とを有し、前記画像格納装置は、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する第1記憶部と、前記画像合成装置との間でデータの送受信を実行する第2通信部と、前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部とを有し、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。   In order to solve the above problems, the invention of claim 1 is an image generation system that generates a composite image based on a target image displayed on each display unit on a display medium, and each display unit has a background. A sample image obtained by superimposing a corresponding target image on the image is displayed, and an image composition device and an image storage device are provided. The image composition device corresponds to each display unit on the display medium. A reading unit that reads identification information associated with a corresponding target image from a storage unit provided; a first communication unit that transmits and receives data to and from the image storage device; and A first acquisition unit that causes the image storage device to transmit the identification information, and that acquires data transmitted from the image storage device to the first transmission unit in response to transmission of the identification information as first related data; Shooting the target space According to an operation from the second acquisition unit that acquires data related to an image as second related data, an operation unit that receives an operation from a user, and an operation from the operation unit, the first acquisition unit receives the first related data. The second acquisition unit acquires the second related data, and the target image corresponding to the identification information is superimposed on the captured image based on the first and second related data. The image storage device includes a first image data corresponding to the target image of each display unit, and a first index serving as a size index of the target object included in the target image. A database that stores size information in association with each other, a first storage unit that stores data, a second communication unit that executes transmission / reception of data between the image composition device, and the identification received by the second communication unit information An extraction unit that extracts first image data and first size information selected based on the database as the first related data and transmits the first related data from the second communication unit to the image composition device And the second related data includes second image data corresponding to the captured image and second size information serving as an index of the size of the object in the target space, Generating the third image data corresponding to the composite image by combining the second image data expanded and contracted based on the first and second size information and the first image data. Features.

また、請求項2の考案は、対象物を含む対象画像に基づいて合成画像を生成する画像生成システムであって、画像合成装置と、画像格納装置とを備え、前記画像合成装置は、前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、前記画像格納装置との間でデータの送受信を実行する第1通信部と、前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1送信部に送信されるデータを、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、使用者からの操作を受け付ける操作部と、前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部とを有し、前記画像格納装置は、前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する第1記憶部と、前記画像合成装置との間でデータの送受信を実行する第2通信部と、前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部とを有し、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。   The invention of claim 2 is an image generation system that generates a composite image based on a target image including an object, and includes an image composition device and an image storage device, and the image composition device includes the object From a storage unit attached to an object, a reading unit that reads identification information associated with the target image, a first communication unit that transmits and receives data to and from the image storage device, and a first communication unit A first acquisition unit for causing the image storage device to transmit the identification information and acquiring data transmitted from the image storage device to the first transmission unit in response to the transmission of the identification information as first related data; The second acquisition unit that acquires data related to the captured image of the target space as second related data, an operation unit that receives an operation from a user, and an operation from the operation unit, the first acquisition unit The first related data is acquired by the second acquisition unit, and the target image is superimposed on the captured image based on the first and second related data. A composite unit that generates a composite image, wherein the image storage device includes first image data corresponding to the target image, and first size information that serves as an index of the size of the target object included in the target image. A first storage unit that stores the database, a second communication unit that executes data transmission / reception with the image composition device, and the identification information received by the second communication unit First image data and first size information selected based on the first related data are extracted from the database as the first related data, and the first related data is sent from the second communication unit to the image composition device. And the second related data includes second image data corresponding to the captured image and second size information serving as an index of the size of the object in the target space. The combining unit combines the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate a third image corresponding to the combined image. It is characterized by generating data.

また、請求項3の考案は、請求項1または請求項2に記載の画像生成システムにおいて、前記第2サイズ情報は、前記読取部により前記識別情報を読み取った後、前記操作部からの入力動作によって入力されることを特徴とする。   Further, the invention of claim 3 is the image generation system according to claim 1 or 2, wherein the second size information is an input operation from the operation unit after the identification information is read by the reading unit. It is characterized by being input by.

また、請求項4の考案は、請求項1または請求項2に記載の画像生成システムにおいて、前記第2サイズ情報は、前記読取部により前記識別情報を読み取る前に、設定されていることを特徴とする。   The invention of claim 4 is the image generation system according to claim 1 or 2, wherein the second size information is set before the identification information is read by the reading unit. And

また、請求項5の考案は、請求項1から請求項4のいずれかに記載の画像生成システムにおいて、前記対象空間は、前記画像合成装置の撮像部により撮像可能とされており、前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。   Further, the invention of claim 5 is the image generation system according to any one of claims 1 to 4, wherein the target space can be imaged by an imaging unit of the image synthesizer, and the second The acquisition unit acquires the second image data captured by the imaging unit as an element of the second related data.

また、請求項6の考案は、請求項1から請求項4のいずれかに記載の画像生成システムにおいて、前記画像合成装置は、前記第2画像データを記憶可能な第2記憶部、をさらに有し、前記第2取得部は、前記第2記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。   The invention of claim 6 is the image generation system according to any one of claims 1 to 4, wherein the image composition device further includes a second storage unit capable of storing the second image data. The second acquisition unit acquires the second image data stored in the second storage unit as an element of the second related data.

また、請求項7の考案は、表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成装置であって、各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する記憶部と、前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、使用者からの操作を受け付ける操作部と、前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部とを備え、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。   The invention of claim 7 is an image generation device that generates a composite image based on a target image displayed on each display unit on a display medium, and each display unit corresponds to a background image. A sample image overlaid with the target image to be displayed is displayed, and the first image data corresponding to the target image of each display unit is associated with the first size information serving as an index of the size of the target object included in the target image A storage unit that stores a database to be stored, a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium, and the reading unit A first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read as described above as first related data, and is related to a captured image of the target space A second acquisition unit that acquires data as second related data, an operation unit that accepts an operation from a user, and the first related data in the first acquisition unit according to an operation from the operation unit, The composite image obtained by causing the second acquisition unit to acquire the second related data and superimposing the target image corresponding to the identification information on the captured image based on the first and second related data, respectively. The second related data includes second image data corresponding to the captured image, and second size information serving as an index of the size of the object in the target space, The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data, thereby obtaining third image data corresponding to the synthesized image. And generating a.

また、請求項8の考案は、対象物を含む対象画像に基づいて、合成画像を生成する画像生成装置であって、前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報とを関連付けて格納するデータベースを、記憶する記憶部と、前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、使用者からの操作を受け付ける操作部と、前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部とを備え、前記第2関連データは、前記撮像画像に対応する第2画像データと、前記対象空間における前記対象物のサイズの指標となる第2サイズ情報とを有し、前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データとを合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする。   The invention according to claim 8 is an image generation device that generates a composite image based on a target image including a target object, wherein the first image data corresponding to the target image and the target image include the target image. Read the identification information associated with the target image from the storage unit that stores the database that stores the first size information that is an index of the size of the target object in association with each other, and the storage unit that is attached to the target object A first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data, and imaging of a target space According to an operation from the second acquisition unit that acquires data related to an image as second related data, an operation unit that receives an operation from a user, and an operation from the operation unit, the first acquisition unit. The first related data is acquired by the unit, the second related data is acquired by the second acquisition unit, and the target image is superimposed on the captured image based on the first and second related data. The second related data includes second image data corresponding to the captured image and second size information serving as an index of the size of the object in the target space. And the combining unit corresponds to the combined image by combining the second image data expanded and contracted based on the first and second size information and the first image data. The third image data is generated.

また、請求項9の考案は、請求項7または請求項8に記載の画像生成装置において、前記第2サイズ情報は、前記読取部により前記識別情報を読み取った後、前記操作部からの入力動作によって入力されることを特徴とする。   The invention according to claim 9 is the image generation apparatus according to claim 7 or claim 8, wherein the second size information is input from the operation unit after the identification information is read by the reading unit. It is characterized by being input by.

また、請求項10の考案は、請求項7または請求項8に記載の画像生成装置において、前記第2サイズ情報は、前記読取部により前記識別情報を読み取る前に、設定されていることを特徴とする。   The invention of claim 10 is the image generating apparatus according to claim 7 or 8, wherein the second size information is set before the identification information is read by the reading unit. And

また、請求項11の考案は、請求項7から請求項10のいずれかに記載の画像生成装置において、前記対象空間は、撮像部により撮像可能とされており、前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。   Further, the invention of claim 11 is the image generation apparatus according to any one of claims 7 to 10, wherein the target space can be imaged by an imaging unit, and the second acquisition unit is The second image data captured by the imaging unit is acquired as an element of the second related data.

また、請求項12の考案は、請求項7から請求項10のいずれかに記載の画像生成装置において、前記記憶部は、前記第2画像データを記憶可能とされており、前記第2取得部は、前記記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする。   The invention of claim 12 is the image generation apparatus according to any one of claims 7 to 10, wherein the storage unit is capable of storing the second image data, and the second acquisition unit. Is characterized in that the second image data stored in the storage unit is acquired as an element of the second related data.

請求項1、請求項3から請求項6、請求項7、および請求項9から請求項12に記載の考案によれば、簡便な操作によって、対象物を仮想的に対象空間に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。   According to the devices described in claim 1, claim 3 to claim 6, claim 7, and claim 9 to claim 12, it is possible to virtually arrange an object in the object space by a simple operation. it can. Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

また、請求項2から請求項6、および請求項8から請求項12に記載の考案によれば、簡便な操作によって、対象物を仮想的に対象空間に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。   In addition, according to the devices of claims 2 to 6 and claims 8 to 12, the object can be virtually arranged in the object space by a simple operation. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

本考案の第1の実施の形態における画像生成システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation system in the 1st Embodiment of this invention. 本考案の第1の実施の形態における画像合成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image composition apparatus in the 1st Embodiment of this invention. 本考案の第1および第2の実施の形態におけるカタログの構成の一例を示す図である。It is a figure which shows an example of a structure of the catalog in the 1st and 2nd embodiment of this invention. 本考案の第1から第4の実施の形態における識別情報の構成の一例を示す図である。It is a figure which shows an example of a structure of the identification information in the 1st to 4th embodiment of this invention. 本考案の第1および第3の実施の形態における画像格納装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image storage apparatus in the 1st and 3rd embodiment of this invention. 本考案の第1から第4の実施の形態における第1テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the 1st table in the 1st-4th embodiment of this invention. 本考案の第1および第3の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 1st and 3rd embodiment of this invention. 本考案の第1および第2の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st and 2nd embodiment of this invention. 本考案の第1から第4の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st-4th embodiment of this invention. 本考案の第1から第4の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st-4th embodiment of this invention. 本考案の第1から第4の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st-4th embodiment of this invention. 本考案の第1および第4の実施の形態においてタッチパネル部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a touchscreen part in the 1st and 4th embodiment of this invention. 本考案の第2の実施の形態における画像生成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation apparatus in the 2nd Embodiment of this invention. 本考案の第2および第4の実施の形態における画像生成手順を説明するためのフローチャートである。It is a flowchart for demonstrating the image generation procedure in the 2nd and 4th embodiment of this invention. 本考案の第3の実施の形態における画像生成システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation system in the 3rd Embodiment of this invention. 本考案の第3および第4の実施の形態における対象物の構成の一例を示す図である。It is a figure which shows an example of a structure of the target object in the 3rd and 4th embodiment of this invention. 本考案の第3の実施の形態における画像合成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image composition apparatus in the 3rd Embodiment of this invention. 本考案の第4の実施の形態における画像生成装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the image generation apparatus in the 4th Embodiment of this invention.

以下、図面を参照しつつ本考案の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1の実施の形態>
<1.1.画像生成システムの構成>
図1は、画像生成システム100の構成の一例を示す図である。ここで、画像生成システム100は、カタログ1上の各表示部5に表示された対象画像に基づいて合成画像を生成する。図1に示すように、画像生成システム100は、主として、画像合成装置20と、画像格納装置40と、を備える。また、画像合成装置20および画像格納装置40は、ネットワーク2を介して通信可能に接続されている。
<1. First Embodiment>
<1.1. Configuration of image generation system>
FIG. 1 is a diagram illustrating an example of the configuration of the image generation system 100. Here, the image generation system 100 generates a composite image based on the target image displayed on each display unit 5 on the catalog 1. As shown in FIG. 1, the image generation system 100 mainly includes an image composition device 20 and an image storage device 40. The image composition device 20 and the image storage device 40 are connected to be communicable via the network 2.

画像合成装置20は、合成画像の生成を指示する使用者の端末である。本実施の形態において、画像合成装置20は、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。なお、画像合成装置20の詳細な構成については後述する。   The image composition device 20 is a user terminal that instructs generation of a composite image. In the present embodiment, the image composition device 20 is configured by a mobile terminal such as a so-called smart phone or tablet terminal. The detailed configuration of the image composition device 20 will be described later.

画像格納装置40は、例えば合成画像の生成に用いられる画像データが格納されるデータサーバである。本実施の形態において、画像格納装置40は、いわゆるパーソナルコンピュータやワークステーションのような電子計算機により構成されている。なお、画像格納装置40の詳細な構成については後述する。   The image storage device 40 is a data server that stores image data used for generating a composite image, for example. In the present embodiment, the image storage device 40 is configured by an electronic computer such as a so-called personal computer or workstation. The detailed configuration of the image storage device 40 will be described later.

<1.2.画像合成装置の構成>
図2は、画像合成装置20の構成の一例を示す図である。図2に示すように、画像合成装置20は、主として、CPU21と、RAM32と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、を有している。また、CPU21、RAM32、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。
<1.2. Configuration of Image Synthesizer>
FIG. 2 is a diagram illustrating an example of the configuration of the image composition device 20. As shown in FIG. 2, the image composition device 20 mainly includes a CPU 21, a RAM 32, a ROM 33, a first communication unit 35, a touch panel unit 36, and an image input unit 37. The CPU 21, RAM 32, ROM 33, first communication unit 35, display processing unit 38, and input / output processing unit 39 are electrically connected via a bus 21a.

RAM32(第2記憶部)は、いわゆる揮発性のメモリにより構成されている。第2記憶部には、CPU21の演算で使用されるデータが格納可能とされている。ROM33は、いわゆる不揮発性メモリにより構成されている。ROM33には、例えば、プログラム33aが格納されている。なお、RAM32およびROM33としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The RAM 32 (second storage unit) is configured by a so-called volatile memory. In the second storage unit, data used in the calculation of the CPU 21 can be stored. The ROM 33 is configured by a so-called nonvolatile memory. The ROM 33 stores a program 33a, for example. As the RAM 32 and the ROM 33, a flash memory which is a readable / writable nonvolatile memory may be used.

CPU21は、ROM33のプログラム33aに従った動作制御やデータ処理を実行する。また、図2中のCPU21内に記載されているブロック(それぞれ符号22〜24が付与されている)に対応する演算機能は、CPU21により実現される。なお、各ブロック22〜24に対応する演算機能については後述する。   The CPU 21 executes operation control and data processing according to the program 33 a of the ROM 33. 2 is implemented by the CPU 21. The arithmetic functions corresponding to the blocks described in the CPU 21 in FIG. In addition, the calculation function corresponding to each block 22-24 is mentioned later.

第1通信部35は、CPU21からの指令に従い、ネットワーク2を介して接続された画像格納装置40(図1参照)等との間で、データの送受信を実行する。例えば、図1および図2に示すように、第1通信部35は、識別情報ID1を画像格納装置40に対して送信可能とされている。また、第1通信部35は、画像格納装置40から送信される第1関連データRD11を受信可能とされている。   The first communication unit 35 transmits / receives data to / from the image storage device 40 (see FIG. 1) connected via the network 2 in accordance with a command from the CPU 21. For example, as shown in FIGS. 1 and 2, the first communication unit 35 can transmit the identification information ID <b> 1 to the image storage device 40. In addition, the first communication unit 35 can receive the first related data RD11 transmitted from the image storage device 40.

タッチパネル部36は、例えば、液晶ディスプレイのような「表示機器」としての機能と、指や専用のペンで画面に触れることによって画面上の位置を指定できる「タッチパネル」としての機能と、を有している。すなわち、タッチパネル部36は、使用者からの操作を受け付ける操作部として機能する。   The touch panel unit 36 has a function as a “display device” such as a liquid crystal display, and a function as a “touch panel” that can specify a position on the screen by touching the screen with a finger or a dedicated pen. ing. That is, the touch panel unit 36 functions as an operation unit that receives an operation from the user.

図3は、カタログ1の構成の一例を示す図である。図4は、識別情報ID1の構成の一例を示す図である。画像入力部37は、いわゆるカメラに構成されており、画像データの入力に用いられる。   FIG. 3 is a diagram illustrating an example of the configuration of the catalog 1. FIG. 4 is a diagram illustrating an example of the configuration of the identification information ID1. The image input unit 37 is configured as a so-called camera and is used for inputting image data.

ここで、本実施の形態のカタログ1(表示媒体)は、商品を掲載するための印刷物(表示媒体)である。本実施の形態のカタログ1には、図3に示すように、商品(対象物)を表示する複数の表示部5(5a、5b)が設けられている。より具体的には、本実施の形態では、各表示部5に表示される対象物としてユニフォーム(制服)が、採用されている。また、各表示部5(5a、5b)は、背景画像12の上に、対応するユニフォームを着用した人物の画像(以下、「対象画像」と称する)11を重ね合わせた標本画像10を、表示する。   Here, the catalog 1 (display medium) of the present embodiment is a printed material (display medium) for placing a product. As shown in FIG. 3, the catalog 1 of the present embodiment is provided with a plurality of display units 5 (5a, 5b) for displaying products (objects). More specifically, in the present embodiment, a uniform (uniform) is adopted as an object displayed on each display unit 5. Each display unit 5 (5a, 5b) displays a sample image 10 in which an image 11 of a person wearing a corresponding uniform (hereinafter referred to as “target image”) 11 is superimposed on the background image 12. To do.

また、各表示部5(5a、5b)の付近には、それぞれ格納部6(6a、6b)が隣接して設けられている。本実施の形態では、格納部6として2次元バーコードが採用されており、格納部6は画像入力部37により読取可能とされている。   Further, storage units 6 (6a, 6b) are provided adjacent to the respective display units 5 (5a, 5b). In the present embodiment, a two-dimensional barcode is adopted as the storage unit 6, and the storage unit 6 can be read by the image input unit 37.

また、各格納部6(6a、6b)には、対象物番号TNを含む識別情報ID1(図4参照)が格納されている。対象物番号TNは、表示部5に表示された対象物を一意に特定するためのコードである。ここで、本実施の形態において、同種の対象物(例えば、型式が同一の商品)には、同一の対象物番号TNが付与されている。   Each storage unit 6 (6a, 6b) stores identification information ID1 (see FIG. 4) including the object number TN. The object number TN is a code for uniquely specifying the object displayed on the display unit 5. Here, in the present embodiment, the same object number TN is assigned to the same type of object (for example, a product having the same model).

このように、画像入力部37は、カタログ1上において各表示部5に対応して設けられた格納部6から、対応する対象画像11に関連付けられた識別情報ID1を読み取る読取部としても使用できる。   As described above, the image input unit 37 can also be used as a reading unit that reads the identification information ID1 associated with the corresponding target image 11 from the storage unit 6 provided corresponding to each display unit 5 on the catalog 1. .

表示処理部38、ビデオコントローラにより構成されており、信号線38aを介してタッチパネル部36と電気的に接続されている。したがって、表示処理部38により描画処理が実行されると、タッチパネル部36の画面には文字や図形等が表示される。   The display processing unit 38 and the video controller are configured, and are electrically connected to the touch panel unit 36 through a signal line 38a. Therefore, when a drawing process is executed by the display processing unit 38, characters, graphics, and the like are displayed on the screen of the touch panel unit 36.

入出力処理部39は、画像合成装置20と、画像合成装置20の外部機器との間のデータ授受に使用される。図2に示すように、入出力処理部39は、信号線39aを介して、タッチパネル部36および画像入力部37と電気的に接続されている。これにより、画像合成装置20のCPU21は、タッチパネル部36において使用者から指定される位置情報や、画像入力部37で撮像された画像データを取得できる。   The input / output processing unit 39 is used for data exchange between the image composition device 20 and an external device of the image composition device 20. As shown in FIG. 2, the input / output processing unit 39 is electrically connected to the touch panel unit 36 and the image input unit 37 through a signal line 39a. Thereby, the CPU 21 of the image composition device 20 can acquire position information designated by the user on the touch panel unit 36 and image data captured by the image input unit 37.

<1.3.画像格納装置の構成>
図5は、画像格納装置40の構成の一例を示す図である。図6は、第1テーブル61のデータ構造の一例を示す図である。図5に示すように、画像格納装置40は、主として、CPU41と、大容量記憶部51と、RAM52と、ROM53と、モニタ54と、第2通信部55と、入力部56と、を有している。また、CPU41、大容量記憶部51、RAM52、ROM53、第2通信部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。
<1.3. Configuration of Image Storage Device>
FIG. 5 is a diagram illustrating an example of the configuration of the image storage device 40. FIG. 6 is a diagram illustrating an example of the data structure of the first table 61. As shown in FIG. 5, the image storage device 40 mainly includes a CPU 41, a large-capacity storage unit 51, a RAM 52, a ROM 53, a monitor 54, a second communication unit 55, and an input unit 56. ing. The CPU 41, the large-capacity storage unit 51, the RAM 52, the ROM 53, the second communication unit 55, the display processing unit 58, and the input / output processing unit 59 are electrically connected via the bus 41a.

大容量記憶部51は、シリコンディスクドライブやハードディスクドライブ等のようにRAM52と比較して記憶容量の大きな素子により構成されており、必要に応じてRAM52との間でデータの授受を行う。   The large-capacity storage unit 51 is configured by an element having a larger storage capacity than the RAM 52, such as a silicon disk drive or a hard disk drive, and exchanges data with the RAM 52 as necessary.

RAM52(第1記憶部)は、いわゆる揮発性のメモリにより構成されている。RAM52は、CPU41の演算で使用されるデータ(例えば、データベース60)を記憶可能とされている。   The RAM 52 (first storage unit) is configured by a so-called volatile memory. The RAM 52 can store data (for example, the database 60) used in the calculation of the CPU 41.

ここで、データベース60は、図5に示すように、第1テーブル61を有している。第1テーブル61には、カタログ1の各表示部5に表示される対象画像11の情報が格納されている。図6に示すように、第1テーブル61は、主として、「対象物番号TN」、「第1サイズ情報SD1」、および「第1画像データPD1」の各フィールド(列)を有している。   Here, the database 60 has a first table 61 as shown in FIG. The first table 61 stores information on the target image 11 displayed on each display unit 5 of the catalog 1. As shown in FIG. 6, the first table 61 mainly has fields (columns) of “object number TN”, “first size information SD1”, and “first image data PD1”.

「対象物番号TN」フィールドには、各対象画像11に対して付与されたコード(例えば、英数字、および/または、記号)が、格納されている。各レコード(行)の「対象物番号TN」には、重複しない値が格納されている。したがって、第1テーブル61の各レコードは、「対象物番号TN」によって一意に識別される。   In the “object number TN” field, codes (for example, alphanumeric characters and / or symbols) assigned to the respective target images 11 are stored. A “non-overlapping value” is stored in “object number TN” of each record (row). Accordingly, each record in the first table 61 is uniquely identified by the “object number TN”.

「第1画像データPD1」フィールドには、各対象画像11に対応する第1画像データPD1の格納場所を示す文字列が、格納されている。例えば、図6に示すように、「対象物番号TN」=「10091」となるレコードに対応する対象画像11の第1画像データPD1は、「●●●/●○●.JPG」に格納されている。ここで、各第1画像データPD1の格納場所は、画像格納装置40に設けられた大容量記憶部51およびRAM52であっても良いし、ネットワーク2を介して接続された装置上であっても良い。   In the “first image data PD1” field, a character string indicating the storage location of the first image data PD1 corresponding to each target image 11 is stored. For example, as shown in FIG. 6, the first image data PD1 of the target image 11 corresponding to the record with “target number TN” = “10091” is stored in “●●● / ● ○ ● .JPG”. ing. Here, the storage location of each of the first image data PD1 may be the large-capacity storage unit 51 and the RAM 52 provided in the image storage device 40, or on a device connected via the network 2. good.

また、「第1サイズ情報SD1」フィールドには、各対象画像11に含まれる対象物のサイズの指標となる情報が、格納されている。ここで、第1サイズ情報SD1としては対象画像11の高さ(単位:ピクセル)が採用されても良い。   In the “first size information SD1” field, information serving as an index of the size of the target object included in each target image 11 is stored. Here, the height (unit: pixel) of the target image 11 may be adopted as the first size information SD1.

そして、第1テーブル61の各レコードのうち、「対象物番号TN」の値が特定の値と等しくなるレコードが選択されることによって、特定の対象画像11に対応する第1画像データPD1および第1サイズ情報SD1が、第1テーブル61から抽出される。このように、データベース60は、対象画像11に対応する第1画像データPD1と、第1サイズ情報SD1と、を関連付けて格納する。   Then, among the records in the first table 61, a record in which the value of the “object number TN” is equal to a specific value is selected, whereby the first image data PD1 and the first image data PD1 corresponding to the specific target image 11 are selected. One-size information SD1 is extracted from the first table 61. Thus, the database 60 stores the first image data PD1 corresponding to the target image 11 and the first size information SD1 in association with each other.

ROM53は、いわゆる不揮発性メモリにより構成されている。ROM53には、例えば、プログラム53aが格納されている。なお、RAM52およびROM53としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。   The ROM 53 is configured by a so-called nonvolatile memory. In the ROM 53, for example, a program 53a is stored. As the RAM 52 and the ROM 53, a flash memory that is a readable / writable nonvolatile memory may be used.

CPU41は、ROM53のプログラム53aに従った動作制御やデータ処理を実行する。また、図5中のCPU41内に記載されているブロック(符号42が付与されている)に対応する演算機能は、CPU41により実現される。なお、ブロック42に対応する演算機能については後述する。   The CPU 41 executes operation control and data processing according to the program 53 a of the ROM 53. In addition, the calculation function corresponding to the block (indicated by reference numeral 42) described in the CPU 41 in FIG. The calculation function corresponding to the block 42 will be described later.

第2通信部55は、CPU41からの指令に従い、ネットワーク2を介して接続された画像合成装置20(図1参照)等との間で、データの送受信を実行する。例えば、図1および図5に示すように、第2通信部55は、第1関連データRD11を画像合成装置20に対して送信可能とされている。また、第2通信部55は、画像合成装置20から送信される識別情報ID1を受信可能とされている。   The second communication unit 55 transmits / receives data to / from the image composition device 20 (see FIG. 1) connected via the network 2 in accordance with a command from the CPU 41. For example, as illustrated in FIGS. 1 and 5, the second communication unit 55 can transmit the first related data RD11 to the image composition device 20. Further, the second communication unit 55 can receive the identification information ID1 transmitted from the image composition device 20.

入力部56は、例えば、キーパッド、キーボード、またはマウスのような入力機器である。これにより、画像格納装置40では、モニタ54の表示内容に基づいた入力作業が実行できる。   The input unit 56 is an input device such as a keypad, a keyboard, or a mouse, for example. Thereby, in the image storage device 40, an input operation based on the display content of the monitor 54 can be executed.

モニタ54は、いわゆる液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electro Luminescence)ディスプレイにより構成された表示機器であり、画面に文字や画像等を表示する。   The monitor 54 is a display device configured by a so-called liquid crystal display, plasma display, or organic EL (Electro Luminescence) display, and displays characters, images, and the like on the screen.

表示処理部58は、表示処理部38と同様に、ビデオコントローラにより構成されており、信号線58aを介してモニタ54と電気的に接続されている。したがって、表示処理部58により描画処理が実行されると、モニタ54の画面には文字や図形等が表示される。   Similar to the display processing unit 38, the display processing unit 58 includes a video controller, and is electrically connected to the monitor 54 via a signal line 58a. Therefore, when the drawing processing is executed by the display processing unit 58, characters, graphics, and the like are displayed on the screen of the monitor 54.

入出力処理部59は、画像格納装置40と、画像格納装置40の外部機器との間のデータ授受に使用される。図5に示すように、入出力処理部59は、信号線59aを介して入力部56と電気的に接続されている。これにより、画像格納装置40のCPU41は、入力部56からの入力情報を、適切なタイミングで受け付けることができる。   The input / output processing unit 59 is used for data exchange between the image storage device 40 and an external device of the image storage device 40. As shown in FIG. 5, the input / output processing unit 59 is electrically connected to the input unit 56 via a signal line 59a. Accordingly, the CPU 41 of the image storage device 40 can accept input information from the input unit 56 at an appropriate timing.

<1.4.CPUにより実現される演算機能>
ここでは、画像合成装置20のCPU21および画像格納装置40のCPU41で実現される演算機能について説明する。
<1.4. Arithmetic functions realized by CPU>
Here, arithmetic functions realized by the CPU 21 of the image composition device 20 and the CPU 41 of the image storage device 40 will be described.

画像合成装置20の第1取得部22(図2参照)は、第1通信部35から画像格納装置40に識別情報ID1を送信させる。また、第1取得部22は、識別情報ID1の送信に応じて画像格納装置40から第1通信部35に送信されるデータを、第1関連データRD11として取得する。   The first acquisition unit 22 (see FIG. 2) of the image composition device 20 causes the first communication unit 35 to transmit the identification information ID1 to the image storage device 40. The first acquisition unit 22 acquires data transmitted from the image storage device 40 to the first communication unit 35 in response to transmission of the identification information ID1 as first related data RD11.

画像合成装置20の第2取得部23(図2参照)は、第2関連データRD12を取得するために用いられる。ここで、第2関連データRD12は、使用者が対象物(商品)を用いる場所(以下、「対象空間」とも称する)を撮像した撮像画像のデータ、およびこの撮像画像に関連するデータを含む。撮像画像に撮像された対象空間の具体例としては、使用者の店舗の室内空間を挙げることができる。   The second acquisition unit 23 (see FIG. 2) of the image composition device 20 is used to acquire the second related data RD12. Here, the second related data RD12 includes data of a captured image obtained by capturing a place where the user uses the object (product) (hereinafter also referred to as “target space”), and data related to the captured image. As a specific example of the target space imaged in the captured image, an indoor space of a user's store can be cited.

本実施の形態において、第2関連データRD12は、主として、第2画像データPD2と、第2サイズ情報SD2と、を有している。   In the present embodiment, the second related data RD12 mainly has second image data PD2 and second size information SD2.

第2画像データPD2は、対象空間を撮像した画像に対応するデータである。第2サイズ情報SD2は、対象空間における対象物(商品)のサイズの指標となる情報である。本実施の形態において、第2サイズ情報SD2は、タッチパネル部36からの入力動作によって入力される。   The second image data PD2 is data corresponding to an image obtained by imaging the target space. The second size information SD2 is information serving as an index of the size of the target object (product) in the target space. In the present embodiment, the second size information SD2 is input by an input operation from the touch panel unit 36.

画像合成装置20の合成部24(図2参照)は、使用者によるタッチパネル部36からの操作に従って、第1取得部22に第1関連データRD11を、第2取得部23に第2関連データRD12を、それぞれ取得させる。また、合成部24は、第1および第2関連データRD11、RD12に基づいて、撮像画像の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像を生成する。   The synthesizing unit 24 (see FIG. 2) of the image synthesizing device 20 receives the first related data RD11 in the first acquiring unit 22 and the second related data RD12 in the second acquiring unit 23 according to the operation from the touch panel unit 36 by the user. Are acquired respectively. The synthesizing unit 24 generates a synthesized image in which the target image 11 corresponding to the identification information ID1 is superimposed on the captured image based on the first and second related data RD11 and RD12.

より具合的には、合成部24は、第1および第2サイズ情報SD1、SD2のピクセル値の比率RTに基づいて第2画像データPD2を伸縮させるとともに、伸縮させられた第2画像データPD2と、第1画像データPD1と、を合成することによって、合成画像に対応する第3画像データPD3を生成する。   More specifically, the combining unit 24 expands and contracts the second image data PD2 based on the ratio RT of the pixel values of the first and second size information SD1 and SD2, and the expanded and contracted second image data PD2. The third image data PD3 corresponding to the synthesized image is generated by synthesizing the first image data PD1.

ここで、第2画像データPD2の伸縮は、第1サイズ情報SD1に対する第2サイズ情報SD2の比率RTに基づいて、第2画像データPD2の縦サイズ(高さ)および横サイズ(幅)を変更することにより実行される。   Here, the expansion / contraction of the second image data PD2 changes the vertical size (height) and horizontal size (width) of the second image data PD2 based on the ratio RT of the second size information SD2 to the first size information SD1. It is executed by doing.

画像格納装置40の抽出部42(図5参照)は、第2通信部55で識別情報ID1(より具体的には、識別情報ID1に含まれる対象物番号TN:図4参照)が受信されると、この識別情報ID1に基づいて選択される第1画像データPD1および第1サイズ情報SD1を、第1関連データRD11(図6参照)としてデータベース60から抽出する。また、抽出部42は、第2通信部55から画像合成装置20に、抽出された第1関連データRD11を送信させる。   The extraction unit 42 (see FIG. 5) of the image storage device 40 receives the identification information ID1 (more specifically, the object number TN included in the identification information ID1: see FIG. 4) by the second communication unit 55. Then, the first image data PD1 and the first size information SD1 selected based on the identification information ID1 are extracted from the database 60 as the first related data RD11 (see FIG. 6). Further, the extraction unit 42 causes the second communicator 55 to transmit the extracted first related data RD11 to the image composition device 20.

<1.5.第1の実施の形態における合成画像の生成手順>
図7は、画像生成手順を説明するためのフローチャートである。図8から図12のそれぞれは、タッチパネル部36に表示される画面の一例を示す図である。ここでは、図7から図12を参照しつつ、合成画像の生成手順を説明する。
<1.5. Synthesis Image Generation Procedure in First Embodiment>
FIG. 7 is a flowchart for explaining the image generation procedure. Each of FIG. 8 to FIG. 12 is a diagram illustrating an example of a screen displayed on the touch panel unit 36. Here, a synthetic image generation procedure will be described with reference to FIGS.

まず、画像合成装置20の画像入力部37によって、表示部5に隣接する格納部6から対象画像11に関連付けられた識別情報ID1を、読み取らせる(S101)。そして、読み取られた識別情報ID1が所望の対象物に対応するものであるときには、図8のタッチパネル部36に表示された確認ダイアログ36aの「はい」コマンドボタン36bを押すことによって、ステップS102に進ませる。   First, the identification information ID1 associated with the target image 11 is read from the storage unit 6 adjacent to the display unit 5 by the image input unit 37 of the image composition device 20 (S101). When the read identification information ID1 corresponds to the desired object, the process proceeds to step S102 by pressing the “Yes” command button 36b of the confirmation dialog 36a displayed on the touch panel unit 36 of FIG. Make it.

次に、画像合成装置20の画像入力部37によって対象空間を撮像する(S102)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image composition device 20 (S102). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

このように、対象空間は、画像合成装置20の画像入力部37により撮像可能とされており、画像入力部37は、撮像画像16の撮像部としても機能する。また、第2取得部23は、画像入力部37により撮像された第2画像データPD2を、第2関連データRD12の要素として取得する。   Thus, the target space can be imaged by the image input unit 37 of the image composition device 20, and the image input unit 37 also functions as an imaging unit for the captured image 16. The second acquisition unit 23 acquires the second image data PD2 captured by the image input unit 37 as an element of the second related data RD12.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S103)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S103).

より具体的には、図10に示すように、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS104に進ませる。   More specifically, as shown in FIG. 10, on the captured image displayed on the screen of the touch panel unit 36, a dimension line (skeleton line) 36d of the object extending in the height direction (vertical direction) is drawn. . If there is no problem with the drawn dimension line 36d, the process proceeds to step S104 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、ステップS101で入力された識別情報ID1が画像合成装置20から画像格納装置40に送信される(S104)。   After the input of the second size information SD2 by the touch panel unit 36 is completed, the identification information ID1 input in step S101 is transmitted from the image composition device 20 to the image storage device 40 (S104).

識別情報ID1が画像格納装置40で受け取られると、画像格納装置40の抽出部42は、識別情報ID1に含まれる対象物番号TNと一致するレコードを第1テーブル61から抽出する。続いて、抽出されたレコードのうち、「第1サイズ情報SD1」フィールドの値と、「第1画像データPD1」フィールドに対応する画像データと、が第1関連データRD11(図6参照)として画像格納装置40から画像合成装置20に送信される(S105)。   When the identification information ID1 is received by the image storage device 40, the extraction unit 42 of the image storage device 40 extracts a record that matches the object number TN included in the identification information ID1 from the first table 61. Subsequently, among the extracted records, the value of the “first size information SD1” field and the image data corresponding to the “first image data PD1” field are imaged as the first related data RD11 (see FIG. 6). The data is transmitted from the storage device 40 to the image composition device 20 (S105).

そして、ステップS102およびS103で取得された第2関連データRD12と、ステップS105で取得された第1関連データRD11と、に基づいて、撮像画像16の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像15が、生成される(図12:S106)。   Then, based on the second related data RD12 acquired in steps S102 and S103 and the first related data RD11 acquired in step S105, the target image 11 corresponding to the identification information ID1 is displayed on the captured image 16. The superimposed composite image 15 is generated (FIG. 12: S106).

<1.6.第1の実施の形態の画像生成システムの利点>
以上のように、第1の実施の形態の画像生成システム100によれば、簡便な操作によって、対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。
<1.6. Advantages of Image Generation System of First Embodiment>
As described above, according to the image generation system 100 of the first embodiment, an object can be virtually placed in the target space (that is, the captured image 16) by a simple operation. Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

<2.第2の実施の形態>
次に、本考案の第2の実施の形態について説明する。第1の実施の形態の画像合成装置20と、第2の実施の形態の画像生成装置200と、は対応する第1取得部22、122およびRAM32、132の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. The image synthesizing apparatus 20 according to the first embodiment and the image generating apparatus 200 according to the second embodiment are different except that the configurations of the corresponding first acquisition units 22 and 122 and RAMs 32 and 132 are different. It has the same configuration. Therefore, in the following, this difference will be mainly described.

なお、画像合成装置20、画像生成装置200で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component by the image composition apparatus 20 and the image generation apparatus 200, and the component to which this same code | symbol was attached | subjected has been demonstrated in 1st Embodiment. Therefore, description is abbreviate | omitted in this Embodiment.

<2.1.画像生成装置の構成>
図13は、画像生成装置200の構成の一例を示す図である。画像生成装置200は、第1の実施の形態の画像合成装置20と同様に、いわゆるスマートフォンやタブレット端末のような携帯端末により構成されている。
<2.1. Configuration of Image Generation Device>
FIG. 13 is a diagram illustrating an example of the configuration of the image generation apparatus 200. Similar to the image composition device 20 of the first embodiment, the image generation device 200 is configured by a mobile terminal such as a so-called smartphone or tablet terminal.

図13に示すように、画像生成装置200は、主として、CPU121と、RAM132と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、を有している。また、CPU121、RAM132、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   As illustrated in FIG. 13, the image generation apparatus 200 mainly includes a CPU 121, a RAM 132, a ROM 33, a first communication unit 35, a touch panel unit 36, and an image input unit 37. The CPU 121, the RAM 132, the ROM 33, the first communication unit 35, the display processing unit 38, and the input / output processing unit 39 are electrically connected via the bus 21a.

RAM132(記憶部)は、いわゆる揮発性のメモリにより構成されている。RAM132は、CPU121の演算で使用されるデータ(例えば、データベース60)を記憶可能とされている。   The RAM 132 (storage unit) is configured by a so-called volatile memory. The RAM 132 can store data (for example, the database 60) used in the calculation of the CPU 121.

CPU121は、ROM33のプログラム33aに従った動作制御やデータ処理を実行する。また、図13中のCPU121内に記載されているブロック(それぞれ符号122、23、24が付与されている)に対応する演算機能は、CPU121により実現される。   The CPU 121 executes operation control and data processing according to the program 33 a of the ROM 33. In addition, the arithmetic functions corresponding to blocks (indicated by reference numerals 122, 23, and 24, respectively) described in the CPU 121 in FIG.

第1取得部122は、画像入力部37により識別情報ID1が読み取られると、この識別情報ID1に基づいてデータベース60から抽出される第1画像データPD1および第1サイズ情報SD1を、第1関連データRD11として取得する。   When the identification information ID1 is read by the image input unit 37, the first acquisition unit 122 obtains the first image data PD1 and the first size information SD1 extracted from the database 60 based on the identification information ID1 as the first related data. Obtained as RD11.

<2.2.第2の実施の形態における合成画像の生成手順>
図14は、画像生成手順を説明するためのフローチャートである。ここでは、図14、および図8から図12を参照しつつ、合成画像の生成手順を説明する。
<2.2. Synthetic Image Generation Procedure in Second Embodiment>
FIG. 14 is a flowchart for explaining an image generation procedure. Here, a procedure for generating a composite image will be described with reference to FIGS. 14 and 8 to 12.

まず、画像生成装置200の画像入力部37によって、表示部5に隣接する格納部6から対象画像11に関連付けられた識別情報ID1を、読み取らせる(S201)。そして、読み取られた識別情報ID1が所望の対象物に対応するものであるときには、図8のタッチパネル部36に表示された確認ダイアログ36aの「はい」コマンドボタン36bを押すことによって、ステップS202に進ませる。   First, the identification information ID1 associated with the target image 11 is read from the storage unit 6 adjacent to the display unit 5 by the image input unit 37 of the image generation device 200 (S201). When the read identification information ID1 corresponds to the desired object, the process proceeds to step S202 by pressing the “Yes” command button 36b of the confirmation dialog 36a displayed on the touch panel unit 36 in FIG. Make it.

次に、画像生成装置200の画像入力部37によって対象空間を撮像する(S202)。すなわち、所望の画像がタッチパネル部36に表示されたら、図9のタッチパネル部36に描画されたボタン36cを押す。これにより、対象空間が撮像され、第2画像データPD2が取得される。   Next, the target space is imaged by the image input unit 37 of the image generation device 200 (S202). That is, when a desired image is displayed on the touch panel unit 36, the button 36c drawn on the touch panel unit 36 of FIG. Thereby, the target space is imaged and the second image data PD2 is acquired.

続いて、画像入力部37による第2画像データPD2の読み取りが完了した後において、タッチパネル部36からの入力動作によって第2サイズ情報SD2を入力する(S203)。   Subsequently, after the reading of the second image data PD2 by the image input unit 37 is completed, the second size information SD2 is input by an input operation from the touch panel unit 36 (S203).

より具体的には、第1の実施の形態と同様に、タッチパネル部36の画面に表示された撮像画像の上に、高さ方向(上下方向)に延びる対象物の寸法線(骨格線)36dを描画する(図10参照)。そして、描画された寸法線36dで問題ない場合には、タッチパネル部36に表示された確認ダイアログ36eの「はい」コマンドボタン36fを押すことによって、ステップS204に進ませる。   More specifically, as in the first embodiment, a dimension line (skeleton line) 36d of an object extending in the height direction (vertical direction) on the captured image displayed on the screen of the touch panel unit 36. Is drawn (see FIG. 10). If there is no problem with the drawn dimension line 36d, the process proceeds to step S204 by pressing the “Yes” command button 36f of the confirmation dialog 36e displayed on the touch panel unit 36.

タッチパネル部36による第2サイズ情報SD2の入力が完了した後において、画像生成装置200の第1取得部122は、識別情報ID1に含まれる対象物番号TNと一致するレコードを、第1テーブル61から抽出する。   After the input of the second size information SD <b> 2 by the touch panel unit 36 is completed, the first acquisition unit 122 of the image generation device 200 stores a record that matches the object number TN included in the identification information ID <b> 1 from the first table 61. Extract.

続いて、抽出されたレコードのうち、「第1サイズ情報SD1」フィールドの値と、「第1画像データPD1」フィールドに対応する画像データと、が第1関連データRD11(図6参照)とされる(S204)。   Subsequently, among the extracted records, the value of the “first size information SD1” field and the image data corresponding to the “first image data PD1” field are set as the first related data RD11 (see FIG. 6). (S204).

そして、ステップS202およびS203で取得された第2関連データRD12と、ステップS204で取得された第1関連データRD11と、に基づいて、撮像画像16の上に識別情報ID1に対応する対象画像11を重ね合わせた合成画像15が、生成される(図12:S205)。   Then, based on the second related data RD12 acquired in steps S202 and S203 and the first related data RD11 acquired in step S204, the target image 11 corresponding to the identification information ID1 is displayed on the captured image 16. The superimposed composite image 15 is generated (FIG. 12: S205).

<2.3.第2の実施の形態の画像生成装置の利点>
以上のように、第2の実施の形態の画像生成装置200は、第1の実施の形態の画像生成システム100と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、現物の対象物を用意することなく、対象空間における対象物の使用感を確認することができる。
<2.3. Advantages of Image Generating Device of Second Embodiment>
As described above, similarly to the image generation system 100 of the first embodiment, the image generation apparatus 200 of the second embodiment virtually removes an object from the target space (that is, a captured image) by a simple operation. 16). Therefore, it is possible to confirm the feeling of use of the object in the object space without preparing an actual object.

<3.第3の実施の形態>
次に、本考案の第3の実施の形態について説明する。第1および第3実施の形態の画像生成システム100、500は、読取対象となる格納部6、406の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. The image generation systems 100 and 500 of the first and third embodiments have the same configuration except that the configurations of the storage units 6 and 406 to be read are different. Therefore, in the following, this difference will be mainly described.

なお、画像生成システム100、500で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component in the image generation systems 100 and 500, and the component to which this same code | symbol was attached | subjected has been demonstrated in 1st Embodiment. Therefore, description is abbreviate | omitted in this Embodiment.

<3.1.画像合成装置の構成>
図15は、画像生成システム500の構成の一例を示す図である。図16は、対象物の構成の一例を示す図である。図17は、画像合成装置420の構成の一例を示す図である。ここで、画像生成システム500は、予め準備された対象物の対象画像に基づいて、合成画像を生成する。図15に示すように、画像生成システム500は、主として、画像合成装置420と、画像格納装置40と、を備える。また、画像合成装置420および画像格納装置40は、ネットワーク2を介して通信可能に接続されている。
<3.1. Configuration of Image Synthesizer>
FIG. 15 is a diagram illustrating an example of the configuration of the image generation system 500. FIG. 16 is a diagram illustrating an example of a configuration of an object. FIG. 17 is a diagram illustrating an example of the configuration of the image composition device 420. Here, the image generation system 500 generates a composite image based on a target image of a target prepared in advance. As shown in FIG. 15, the image generation system 500 mainly includes an image composition device 420 and an image storage device 40. Further, the image composition device 420 and the image storage device 40 are connected to be communicable via the network 2.

ここで、本実施の形態の対象物401は、例えば取引の対象となる商品自体である。より具体的には、本実施の形態では対象物401としてユニフォーム(制服)が、採用されている。また、画像格納装置40に記憶されている第1テーブル61には、ユニフォームを着用した人物の画像(すなわち、第1の実施の形態の対象画像11)に関する情報が格納されている。   Here, the target object 401 of the present embodiment is, for example, a product itself that is a target of a transaction. More specifically, a uniform (uniform) is adopted as the object 401 in the present embodiment. Further, the first table 61 stored in the image storage device 40 stores information related to the image of the person wearing the uniform (that is, the target image 11 of the first embodiment).

また、図16に示すように、対象物401には、例えばRFID(Radio Frequency IDentification)のような電子記憶媒体の格納部406が付設されている。この格納部40には、第1の実施の形態の格納部6と同様に、識別情報ID1が格納されている。   Also, as shown in FIG. 16, the object 401 is provided with a storage unit 406 of an electronic storage medium such as RFID (Radio Frequency IDentification). In the storage unit 40, identification information ID1 is stored in the same manner as the storage unit 6 of the first embodiment.

画像合成装置420は、第1の実施の形態の画像合成装置20と同様に、合成画像の生成を指示する使用者の端末である。図17に示すように、画像合成装置420は、主として、CPU21と、RAM32と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、読取部437と、を有している。また、CPU21、RAM32、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   The image composition device 420 is a user terminal that instructs generation of a composite image, similarly to the image composition device 20 of the first embodiment. As shown in FIG. 17, the image composition device 420 mainly includes a CPU 21, a RAM 32, a ROM 33, a first communication unit 35, a touch panel unit 36, an image input unit 37, and a reading unit 437. ing. The CPU 21, RAM 32, ROM 33, first communication unit 35, display processing unit 38, and input / output processing unit 39 are electrically connected via a bus 21a.

読取部437は、対象物401に付設された格納部406から、対象画像11に関連付けられた識別情報ID1を読み取る。本実施の形態において、読取部437としては、RFIDリーダまたはRFIDリーダ・ライタが、採用されても良い。   The reading unit 437 reads the identification information ID1 associated with the target image 11 from the storage unit 406 attached to the target object 401. In this embodiment, an RFID reader or an RFID reader / writer may be employed as the reading unit 437.

そして、本実施の形態では、第1の実施の形態と同様に、識別情報ID1に基づいて画像格納装置40で抽出された第1関連データRD11と、画像合成装置420で取得された第2関連データRD12と、に基づいて撮像画像16の上に対象画像11を重ね合わせた合成画像15が、生成される(図8から図12参照)。   In the present embodiment, as in the first embodiment, the first related data RD11 extracted by the image storage device 40 based on the identification information ID1 and the second related data acquired by the image composition device 420 are used. Based on the data RD12, a composite image 15 in which the target image 11 is superimposed on the captured image 16 is generated (see FIGS. 8 to 12).

<3.2.第3の実施の形態の画像生成システムの利点>
以上のように、第3の実施の形態の画像生成システム500によれば、第1の実施の形態の画像生成システム100と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。
<3.2. Advantages of Image Generation System of Third Embodiment>
As described above, according to the image generation system 500 of the third embodiment, similar to the image generation system 100 of the first embodiment, the object is virtually moved to the target space (that is, by a simple operation). The captured image 16) can be arranged. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

<4.第4の実施の形態>
次に、本考案の第4の実施の形態について説明する。第2および第4実施の形態の画像生成装置200、600は、読取対象となる格納部6、406の構成が異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<4. Fourth Embodiment>
Next, a fourth embodiment of the present invention will be described. The image generation apparatuses 200 and 600 of the second and fourth embodiments have the same configuration except that the configurations of the storage units 6 and 406 to be read are different. Therefore, in the following, this difference will be mainly described.

なお、画像生成装置200、600で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1、第2、および第3の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。   In addition, the same code | symbol is attached | subjected to the same component in the image generation apparatuses 200 and 600, and the component to which this same code | symbol was attached | subjected is described in 1st, 2nd, and 3rd embodiment. It is done. Therefore, description is abbreviate | omitted in this Embodiment.

<4.1.画像生成装置の構成>
図18は、画像生成装置600の構成の一例を示す図である。図16は、対象物の構成の一例を示す図である。図17は、画像合成装置420の構成の一例を示す図である。ここで、画像生成装置600は、第3の実施の形態の画像生成システム500と同様に、予め準備された対象物の対象画像に基づいて、合成画像を生成する。また、画像生成装置600は、第1の実施の形態の画像合成装置20と同様に、いわゆるスマートフォンやタブレット端末のような携帯端末により構成されている。
<4.1. Configuration of Image Generation Device>
FIG. 18 is a diagram illustrating an example of the configuration of the image generation apparatus 600. FIG. 16 is a diagram illustrating an example of a configuration of an object. FIG. 17 is a diagram illustrating an example of the configuration of the image composition device 420. Here, similarly to the image generation system 500 of the third embodiment, the image generation apparatus 600 generates a composite image based on a target image of a target prepared in advance. The image generation device 600 is configured by a portable terminal such as a so-called smartphone or tablet terminal, as with the image composition device 20 of the first embodiment.

図18に示すように、画像生成装置600は、主として、CPU121と、RAM132と、ROM33と、第1通信部35と、タッチパネル部36と、画像入力部37と、読取部437と、を有している。また、CPU121、RAM132、ROM33、第1通信部35、表示処理部38、および入出力処理部39は、バス21aを介して電気的に接続されている。   As illustrated in FIG. 18, the image generation apparatus 600 mainly includes a CPU 121, a RAM 132, a ROM 33, a first communication unit 35, a touch panel unit 36, an image input unit 37, and a reading unit 437. ing. The CPU 121, the RAM 132, the ROM 33, the first communication unit 35, the display processing unit 38, and the input / output processing unit 39 are electrically connected via the bus 21a.

そして、本実施の形態では、第2の実施の形態と同様に、識別情報ID1に基づいて抽出された第1関連データRD11と、タッチパネル部36および画像入力部37を介して取得された第2関連データRD12と、に基づいて撮像画像16の上に対象画像11を重ね合わせた合成画像15が、生成される(図8から図12参照)。   In the present embodiment, as in the second embodiment, the first related data RD11 extracted based on the identification information ID1, the second data acquired via the touch panel unit 36 and the image input unit 37 are used. Based on the related data RD12, a composite image 15 is generated by superimposing the target image 11 on the captured image 16 (see FIGS. 8 to 12).

<4.2.第4の実施の形態の画像生成システムの利点>
以上のように、第4の実施の形態の画像生成装置600によれば、第3の実施の形態の画像生成システム500と同様に、簡便な操作によって対象物を仮想的に対象空間(すなわち、撮像画像16)に配置することができる。そのため、対象物を対象空間にて使用することなく、対象空間における対象物の使用感を確認することができる。
<4.2. Advantages of Image Generation System of Fourth Embodiment>
As described above, according to the image generation apparatus 600 of the fourth embodiment, similarly to the image generation system 500 of the third embodiment, the object is virtually moved to the target space (that is, by a simple operation). The captured image 16) can be arranged. Therefore, the feeling of use of the target object in the target space can be confirmed without using the target object in the target space.

<5.変形例>
以上、本考案の実施の形態について説明してきたが、本考案は上記実施の形態に限定されるものではなく様々な変形が可能である。
<5. Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, A various deformation | transformation is possible.

(1)第1および第2の実施の形態において、格納部6は、2次元バーコードにより構成されているものとして説明したが、これに限定されるものでない。例えば、格納部6、206としては、一次元バーコードが採用されても良いし、RFIDのような電子記憶媒体が採用されても良い。なお、RFIDが採用される場合には、読取部としてRFIDリーダやRFIDリーダ・ライタ等を別途設けることが必要となる。   (1) In the first and second embodiments, the storage unit 6 has been described as being configured by a two-dimensional barcode, but is not limited thereto. For example, as the storage units 6 and 206, a one-dimensional barcode may be employed, or an electronic storage medium such as an RFID may be employed. Note that when RFID is employed, it is necessary to separately provide an RFID reader, an RFID reader / writer, or the like as a reading unit.

(2)また、第3および第4の実施の形態において、格納部406は、RFIDのような電子記憶媒体により構成されているものとして説明したが、これに限定されるものでない。例えば、格納部406として、1次元または2次元バーコードが採用されても良い。この場合、格納部406の読み取りは、画像入力部37により実行される。   (2) In the third and fourth embodiments, the storage unit 406 has been described as being configured by an electronic storage medium such as an RFID. However, the present invention is not limited to this. For example, a one-dimensional or two-dimensional barcode may be employed as the storage unit 406. In this case, reading of the storage unit 406 is executed by the image input unit 37.

(3)また、第1および第2の実施の形態において、カタログ1は印刷物であるものとして説明したがこれに限定されるものでない。例えば、カタログ1は、パーソナルコンピュータのモニタ、または、いわゆるスマートフォンのタッチパネル部等に電磁的方法により表示されるものであっても良い。すなわち、カタログ1は、対象物を表示可能な表示媒体であれば十分である。   (3) In the first and second embodiments, the catalog 1 has been described as a printed matter, but is not limited to this. For example, the catalog 1 may be displayed by an electromagnetic method on a personal computer monitor or a so-called smartphone touch panel. That is, the catalog 1 is sufficient if it is a display medium that can display an object.

(4)また、第1から第4の実施の形態において、第2サイズ情報SD2はタッチパネル部36からの入力動作によって入力されるものとして説明したが、これに限定されるものでない。例えば、第2サイズ情報SD2としては、識別情報ID1、ID3を読み取る前に、予め設定されているものが用いられても良い。   (4) In the first to fourth embodiments, the second size information SD2 has been described as being input by an input operation from the touch panel unit 36. However, the present invention is not limited to this. For example, as the second size information SD2, information set in advance before reading the identification information ID1 and ID3 may be used.

例えば、予め設定される第2サイズ情報SD2の値としては、「タッチパネル部36の画面縦方向のサイズ」×「0.9」(単位:ピクセル)が、採用されても良い。また、予め設定された第2サイズ情報SD2の値を用いる場合、対象画像11の中心位置と、タッチパネル部36の画面中心と、が一致するように、対象画像11がタッチパネル部36の画面上に配置されても良い。   For example, “the size of the touch panel unit 36 in the vertical direction of the screen” × “0.9” (unit: pixel) may be adopted as the value of the second size information SD2 set in advance. Further, when the preset value of the second size information SD2 is used, the target image 11 is displayed on the screen of the touch panel unit 36 so that the center position of the target image 11 matches the screen center of the touch panel unit 36. It may be arranged.

(5)また、第1から第4の実施の形態において、第2画像データPD2は、合成処理の中で、撮像されるものとして説明したが、これに限定されるものでない。   (5) In the first to fourth embodiments, the second image data PD2 has been described as being imaged during the synthesis process. However, the present invention is not limited to this.

第2画像データPD2は、予め、RAM32、52、132、252、332、または大容量記憶部51などの記憶部(第2記憶部)に記憶させられるとともに、合成処理の実行時にこの予め記憶させた第2画像データPD2が、第2関連データRD12の要素として取得されても良い。 The second image data PD2 is stored in advance in a storage unit (second storage unit) such as the RAM 32, 52, 132, 252, 332, or the large-capacity storage unit 51, and is stored in advance during the execution of the synthesis process. The second image data PD2 may be acquired as an element of the second related data RD12.

この場合、第2サイズ情報SD2は、(A)第2画像データPD2に付随して記憶部に記憶させられても良いし、(B)予め記憶された第2画像データPD2をタッチパネル部36に表示させた上で、タッチパネル部36からの入力動作により入力されても良い。   In this case, the second size information SD2 may be (A) stored in the storage unit along with the second image data PD2, or (B) the second image data PD2 stored in advance in the touch panel unit 36. It may be input by an input operation from the touch panel unit 36 after being displayed.

(6)また、第1および第3の実施の形態において、識別情報ID1は、タッチパネル部36による第2サイズ情報SD2の入力が完了した後に、画像合成装置20から画像格納装置40に送信されるものとして説明したが、識別情報ID1の送信タイミングこれに限定されるものでない。識別情報ID1の送信は、識別情報ID1の読取時点からタッチパネル部36による第2サイズ情報SD2の入力時点の間の任意のタイミングで実行されても良い。   (6) In the first and third embodiments, the identification information ID1 is transmitted from the image composition device 20 to the image storage device 40 after the input of the second size information SD2 by the touch panel unit 36 is completed. Although described as a thing, the transmission timing of identification information ID1 is not limited to this. The transmission of the identification information ID1 may be executed at an arbitrary timing between the reading time of the identification information ID1 and the input time of the second size information SD2 by the touch panel unit 36.

(7)さらに、第1から第4の実施の形態において、対象空間の撮像は、スマートフォンやタブレット端末のような携帯端末により実行されるものとして説明したが、これに限定されるものでなく、パーソナルコンピュータやワークステーションのような電子計算機により実行されても良い。   (7) Furthermore, in the first to fourth embodiments, the imaging of the target space has been described as being executed by a mobile terminal such as a smartphone or a tablet terminal, but is not limited thereto. It may be executed by an electronic computer such as a personal computer or a workstation.

1 カタログ(表示媒体)
5(5a、5b) 表示部
6、406 格納部
10 標本画像
11 対象画像
12 背景画像
15 合成画像
16 撮像画像
20、420 画像合成装置
22、122 第1取得部
23 第2取得部
24 合成部
32、52、132 RAM
35 第1通信部
36 タッチパネル部(操作部)
37 画像入力部
40 画像格納装置
42 抽出部
55 第2通信部
60 データベース
61 第1テーブル
100、500 画像生成システム
200、600 画像生成装置
401 対象物
437 読取部
ID1 識別情報
MN 媒体番号
PD1〜PD3 第1〜第3画像データ
RD11 第1関連データ
RD12 第2関連データ
SD1、SD2 第1および第2サイズ情報
TN 対象物番号
1 Catalog (display medium)
5 (5a, 5b) Display unit 6,406 Storage unit 10 Sample image 11 Target image 12 Background image 15 Composite image 16 Captured image 20, 420 Image composition device 22, 122 First acquisition unit 23 Second acquisition unit 24 Synthesis unit 32 , 52, 132 RAM
35 First communication unit 36 Touch panel unit (operation unit)
37 Image input unit 40 Image storage device 42 Extraction unit 55 Second communication unit 60 Database 61 First table 100, 500 Image generation system 200, 600 Image generation device 401 Object 437 Reading unit ID1 Identification information MN Medium number PD1-PD3 First 1st to 3rd image data RD11 1st related data RD12 2nd related data SD1, SD2 1st and 2nd size information TN Object number

Claims (12)

表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成システムであって、
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 画像合成装置と、
(b) 画像格納装置と、
を備え、
前記画像合成装置は、
(a-1) 前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、
(a-2) 前記画像格納装置との間でデータの送受信を実行する第1通信部と、
(a-3) 前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1送信部に送信されるデータを、第1関連データとして取得する第1取得部と、
(a-4) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(a-5) 使用者からの操作を受け付ける操作部と、
(a-6) 前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を有し、
前記画像格納装置は、
(b-1) 各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する第1記憶部と、
(b-2) 前記画像合成装置との間でデータの送受信を実行する第2通信部と、
(b-3) 前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部と、
を有し、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像合成システム。
An image generation system that generates a composite image based on a target image displayed on each display unit on a display medium,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) an image composition device;
(b) an image storage device;
With
The image composition device includes:
(a-1) a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium;
(a-2) a first communication unit that transmits and receives data to and from the image storage device;
(a-3) The identification information is transmitted from the first communication unit to the image storage device, and data transmitted from the image storage device to the first transmission unit in response to transmission of the identification information is 1st acquisition part acquired as 1 related data,
(a-4) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(a-5) an operation unit that receives an operation from the user;
(a-6) According to the operation from the operation unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second A combining unit that generates the combined image obtained by superimposing the target image corresponding to the identification information on the captured image based on related data;
Have
The image storage device includes:
(b-1) A database that stores first image data corresponding to the target image of each display unit and first size information that is an index of the size of the target object included in the target image in association with each other is stored. A first storage unit;
(b-2) a second communication unit that transmits and receives data to and from the image composition device;
(b-3) First image data and first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the second An extraction unit that causes the communication unit to transmit the first related data to the image composition device;
Have
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. Generating an image composition system.
対象物を含む対象画像に基づいて合成画像を生成する画像生成システムであって、
(a) 画像合成装置と、
(b) 画像格納装置と、
を備え、
前記画像合成装置は、
(a-1) 前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、
(a-2) 前記画像格納装置との間でデータの送受信を実行する第1通信部と、
(a-3) 前記第1通信部から前記画像格納装置に前記識別情報を送信させるとともに、前記識別情報の送信に応じて前記画像格納装置から前記第1送信部に送信されるデータを、第1関連データとして取得する第1取得部と、
(a-4) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(a-5) 使用者からの操作を受け付ける操作部と、
(a-6) 前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を有し、
前記画像格納装置は、
(b-1) 前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する第1記憶部と、
(b-2) 前記画像合成装置との間でデータの送受信を実行する第2通信部と、
(b-3) 前記第2通信部で受信された前記識別情報に基づいて選択される第1画像データおよび第1サイズ情報を、前記第1関連データとして前記データベースから抽出するとともに、前記第2通信部から前記画像合成装置に前記第1関連データを送信させる抽出部と、
を有し、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像合成システム。
An image generation system that generates a composite image based on a target image including an object,
(a) an image composition device;
(b) an image storage device;
With
The image composition device includes:
(a-1) a reading unit that reads identification information associated with the target image from a storage unit attached to the target;
(a-2) a first communication unit that transmits and receives data to and from the image storage device;
(a-3) The identification information is transmitted from the first communication unit to the image storage device, and data transmitted from the image storage device to the first transmission unit in response to transmission of the identification information is 1st acquisition part acquired as 1 related data,
(a-4) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(a-5) an operation unit that receives an operation from the user;
(a-6) According to the operation from the operation unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second A compositing unit that generates the composite image in which the target image is superimposed on the captured image based on related data;
Have
The image storage device includes:
(b-1) A first database that stores first image data corresponding to the target image and first size information that is an index of the size of the target object included in the target image in association with each other. A storage unit;
(b-2) a second communication unit that transmits and receives data to and from the image composition device;
(b-3) First image data and first size information selected based on the identification information received by the second communication unit are extracted from the database as the first related data, and the second An extraction unit that causes the communication unit to transmit the first related data to the image composition device;
Have
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. Generating an image composition system.
請求項1または請求項2に記載の画像生成システムにおいて、
前記第2サイズ情報は、前記読取部により前記識別情報を読み取った後、前記操作部からの入力動作によって入力されることを特徴とする画像生成システム。
The image generation system according to claim 1 or 2,
The second size information is input by an input operation from the operation unit after the identification information is read by the reading unit.
請求項1または請求項2に記載の画像生成システムにおいて、
前記第2サイズ情報は、前記読取部により前記識別情報を読み取る前に、設定されていることを特徴とする画像生成システム。
The image generation system according to claim 1 or 2,
The image generation system according to claim 2, wherein the second size information is set before the identification information is read by the reading unit.
請求項1から請求項4のいずれかに記載の画像生成システムにおいて、
前記対象空間は、前記画像合成装置の撮像部により撮像可能とされており、
前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成システム。
The image generation system according to any one of claims 1 to 4,
The target space can be imaged by an imaging unit of the image synthesis device,
The second acquisition unit acquires the second image data captured by the imaging unit as an element of the second related data.
請求項1から請求項4のいずれかに記載の画像生成システムにおいて、
前記画像合成装置は、
(a-7) 前記第2画像データを記憶可能な第2記憶部、
をさらに有し、
前記第2取得部は、前記第2記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成システム。
The image generation system according to any one of claims 1 to 4,
The image composition device includes:
(a-7) a second storage unit capable of storing the second image data;
Further comprising
The image acquisition system, wherein the second acquisition unit acquires the second image data stored in the second storage unit as an element of the second related data.
表示媒体上の各表示部に表示された対象画像に基づいて、合成画像を生成する画像生成装置であって、
各表示部は、背景画像の上に、対応する対象画像を重ね合わせた標本画像を、表示し、
(a) 各表示部の対象画像に対応する第1画像データと、該対象画像に含まれる対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する記憶部と、
(b) 前記表示媒体上において各表示部に対応して設けられた格納部から、対応する対象画像に関連付けられた識別情報を読み取る読取部と、
(c) 前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、
(d) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(e) 使用者からの操作を受け付ける操作部と、
(f) 前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記識別情報に対応する対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を備え、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像生成装置。
An image generation device that generates a composite image based on a target image displayed on each display unit on a display medium,
Each display unit displays a sample image in which a corresponding target image is superimposed on a background image,
(a) A storage unit that stores a database that associates and stores first image data corresponding to a target image of each display unit and first size information that is an index of the size of the target object included in the target image When,
(b) a reading unit that reads identification information associated with a corresponding target image from a storage unit provided corresponding to each display unit on the display medium;
(c) a first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data;
(d) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(e) an operation unit that receives operations from the user;
(f) According to an operation from the operation unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second related data. A composite unit that generates the composite image obtained by superimposing the target image corresponding to the identification information on the captured image based on
With
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. An image generation apparatus characterized by generating
対象物を含む対象画像に基づいて、合成画像を生成する画像生成装置であって、
(a) 前記対象画像に対応する第1画像データと、前記対象画像に含まれる前記対象物のサイズの指標となる第1サイズ情報と、を関連付けて格納するデータベースを、記憶する記憶部と、
(b) 前記対象物に付設された格納部から、前記対象画像に関連付けられた識別情報を読み取る読取部と、
(c) 前記読取部により読み取られた前記識別情報に基づいて前記データベースから抽出される第1画像データおよび第1サイズ情報を、第1関連データとして取得する第1取得部と、
(d) 対象空間の撮像画像に関連するデータを、第2関連データとして取得する第2取得部と、
(e) 使用者からの操作を受け付ける操作部と、
(f) 前記操作部からの操作に従って、前記第1取得部に前記第1関連データを、前記第2取得部に前記第2関連データを、それぞれ取得させるとともに、前記第1および第2関連データに基づいて前記撮像画像の上に前記対象画像を重ね合わせた前記合成画像を、生成する合成部と、
を備え、
前記第2関連データは、
前記撮像画像に対応する第2画像データと、
前記対象空間における前記対象物のサイズの指標となる第2サイズ情報と、
を有し、
前記合成部は、前記第1および第2サイズ情報に基づいて伸縮させられた前記第2画像データと、前記第1画像データと、を合成することによって、前記合成画像に対応する第3画像データを生成することを特徴とする画像生成装置。
An image generation device that generates a composite image based on a target image including a target object,
(a) a storage unit that stores a database that associates and stores first image data corresponding to the target image and first size information that is an index of the size of the target included in the target image;
(b) a reading unit that reads identification information associated with the target image from a storage unit attached to the target;
(c) a first acquisition unit that acquires first image data and first size information extracted from the database based on the identification information read by the reading unit as first related data;
(d) a second acquisition unit that acquires data related to the captured image of the target space as second related data;
(e) an operation unit that receives operations from the user;
(f) According to an operation from the operation unit, the first acquisition unit acquires the first related data, the second acquisition unit acquires the second related data, and the first and second related data. A combining unit that generates the combined image obtained by superimposing the target image on the captured image based on
With
The second related data is
Second image data corresponding to the captured image;
Second size information serving as an index of the size of the object in the target space;
Have
The synthesizing unit synthesizes the second image data expanded and contracted based on the first and second size information and the first image data to thereby generate third image data corresponding to the synthesized image. An image generation apparatus characterized by generating
請求項7または請求項8に記載の画像生成装置において、
前記第2サイズ情報は、前記読取部により前記識別情報を読み取った後、前記操作部からの入力動作によって入力されることを特徴とする画像生成装置。
In the image generation device according to claim 7 or 8,
The second size information is input by an input operation from the operation unit after the identification information is read by the reading unit.
請求項7または請求項8に記載の画像生成装置において、
前記第2サイズ情報は、前記読取部により前記識別情報を読み取る前に、設定されていることを特徴とする画像生成装置。
In the image generation device according to claim 7 or 8,
The image generating apparatus according to claim 2, wherein the second size information is set before the identification information is read by the reading unit.
請求項7から請求項10のいずれかに記載の画像生成装置において、
前記対象空間は、撮像部により撮像可能とされており、
前記第2取得部は、前記撮像部により撮像された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 7 to 10,
The target space can be imaged by an imaging unit,
The second acquisition unit acquires the second image data captured by the imaging unit as an element of the second related data.
請求項7から請求項10のいずれかに記載の画像生成装置において、
前記記憶部は、前記第2画像データを記憶可能とされており、
前記第2取得部は、前記記憶部に記憶された前記第2画像データを、前記第2関連データの要素として取得することを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 7 to 10,
The storage unit can store the second image data,
The second acquisition unit acquires the second image data stored in the storage unit as an element of the second related data.
JP2017000793U 2017-02-24 2017-02-24 Image generation system and image generation apparatus Active JP3210317U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017000793U JP3210317U (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000793U JP3210317U (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Publications (1)

Publication Number Publication Date
JP3210317U true JP3210317U (en) 2017-05-18

Family

ID=58714624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000793U Active JP3210317U (en) 2017-02-24 2017-02-24 Image generation system and image generation apparatus

Country Status (1)

Country Link
JP (1) JP3210317U (en)

Similar Documents

Publication Publication Date Title
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
JP6202216B2 (en) Information processing apparatus, shelf label management system, control method, and program
CN106548105A (en) A kind of new barcode scanning identification control method and device
EP3070681A1 (en) Display control device, display control method and program
CN110392901A (en) The providing method of e-book service and computer program for this method
US10176552B2 (en) Non-transitory computer-readable storage medium, image display method, and image processing system for associating the same object in different images
JPWO2014017393A1 (en) Information processing apparatus, data processing method thereof, and program
JP5215328B2 (en) Label display device, label display method, and program thereof
CN107851069B (en) Image management system, image management method, and program
JP3210317U (en) Image generation system and image generation apparatus
JP2014222374A (en) Planogram information generation device, planogram information generation method, program, planogram reproduction system and planogram reproduction device
JP6417511B2 (en) Image generation system and image generation apparatus
EP2940635A1 (en) User terminal apparatus for managing data and method thereof
JP7015130B2 (en) Data processing equipment
JP4870474B2 (en) Parts catalog display system and control method thereof
US10037450B2 (en) Information code image display system, information code image display terminal, information code image display program, server, and information code image generating program
JP2017102915A (en) Information processing device, processing method therefor and program
JP2017045276A (en) Mobile drawing display device, drawing display system
JP2014049017A (en) Terminal device, server device, communication system, information processing method, and program
JP2011128710A (en) Display device, display system, display control method and display control program
JP7406904B2 (en) Surveying system, surveying equipment, surveying method and program
JP6355256B2 (en) Menu screen construction device, menu processing device, menu screen production method, menu processing method, and program
US11543962B2 (en) Methods and systems for generating animated images for presentation by a dynamic keyboard interface
JP7369600B2 (en) User terminal, control method and computer program
CN103870227B (en) A kind of method for displaying image and electronic equipment

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170328

R150 Certificate of patent or registration of utility model

Ref document number: 3210317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150