JP2013054598A - Image display device and program - Google Patents

Image display device and program Download PDF

Info

Publication number
JP2013054598A
JP2013054598A JP2011193249A JP2011193249A JP2013054598A JP 2013054598 A JP2013054598 A JP 2013054598A JP 2011193249 A JP2011193249 A JP 2011193249A JP 2011193249 A JP2011193249 A JP 2011193249A JP 2013054598 A JP2013054598 A JP 2013054598A
Authority
JP
Japan
Prior art keywords
image
product
moving image
fitting room
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011193249A
Other languages
Japanese (ja)
Inventor
Yoshitaka Kuniya
美敬 國屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2011193249A priority Critical patent/JP2013054598A/en
Publication of JP2013054598A publication Critical patent/JP2013054598A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device and a program which can easily receive presentation of augmented reality.SOLUTION: An image display device comprises imaging means, identification means, generation means, and display control means. The imaging means captures a moving image. The identification means identifies an object included in the captured moving image. The generation means generates a composite image composed of an image corresponding to the identified object and the captured moving image. The display control means displays the generated composite image on the display unit.

Description

本発明の実施形態は、映像表示装置およびプログラムに関する。   Embodiments described herein relate generally to a video display device and a program.

近年、コンピュータ等を用いて、撮像装置で撮像された画像などの現実の情報に、付加情報としてバーチャルな物体を電子情報として合成して提示する拡張現実という技術が様々な場面で用いられている。   In recent years, a technique called augmented reality that uses a computer or the like to synthesize a virtual object as electronic information and present it with real information such as an image captured by an imaging device has been used in various situations. .

ところで、従来技術においては、拡張現実による提示を受ける際、現実の情報として撮像された画像に付加情報として合成するバーチャルな物体を、ユーザが自ら選択しなければならなかった。そのため、より簡単に拡張現実による提示を受けることができる技術が求められている。   By the way, in the prior art, when receiving presentation by augmented reality, the user has to select a virtual object to be combined as additional information with an image captured as actual information. Therefore, there is a need for a technology that can more easily receive presentations in augmented reality.

実施形態の映像表示装置は、撮像手段と、識別手段と、生成手段と、表示制御手段と、を備える。前記撮像手段は、動画像を撮像する。前記識別手段は、前記撮像された動画像に含まれる物体を識別する。前記生成手段は、前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する。前記表示制御手段は、前記生成した合成画像を表示部に表示する。   The video display apparatus according to the embodiment includes an imaging unit, an identification unit, a generation unit, and a display control unit. The imaging means captures a moving image. The identification means identifies an object included in the captured moving image. The generation unit generates a composite image obtained by combining an image corresponding to the identified object and the captured moving image. The display control means displays the generated composite image on a display unit.

図1は、第1の実施形態にかかる拡張現実システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an augmented reality system according to the first embodiment. 図2は、試着室端末が設置されている試着室を示す斜視図である。FIG. 2 is a perspective view showing a fitting room in which a fitting room terminal is installed. 図3は、試着室端末のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram showing a hardware configuration of the fitting room terminal. 図4は、商品ファイルのデータ構成を示す図である。FIG. 4 is a diagram showing the data structure of the product file. 図5は、商品分類ファイルのデータ構成を示す図である。FIG. 5 is a diagram showing the data structure of the product classification file. 図6は、クライアント端末のハードウェア構成を示すブロック図である。FIG. 6 is a block diagram illustrating a hardware configuration of the client terminal. 図7は、本実施形態にかかる試着室端末の機能構成を示すブロック図である。FIG. 7 is a block diagram showing a functional configuration of the fitting room terminal according to the present embodiment. 図8は、試着室端末が行う拡張現実提示処理の手順を示したフローチャートである。FIG. 8 is a flowchart showing a procedure of augmented reality presentation processing performed by the fitting room terminal. 図9は、複数の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。FIG. 9 is a diagram for explaining processing for generating a composite image in which a plurality of images and frame images captured by a camera are superimposed. 図10は、本実施形態にかかるクライアント端末の機能構成を示すブロック図である。FIG. 10 is a block diagram illustrating a functional configuration of the client terminal according to the present embodiment. 図11は、クライアント端末が行う拡張現実提示処理の手順を示したフローチャートである。FIG. 11 is a flowchart illustrating a procedure of augmented reality presentation processing performed by the client terminal. 図12は、背景の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。FIG. 12 is a diagram for explaining processing for generating a composite image in which a background image and a frame image captured by a camera are superimposed.

(第1の実施形態)
図1は、第1の実施形態にかかる拡張現実システムの構成を示すブロック図である。なお、本実施形態では、衣料品等の商品を販売する店舗に拡張現実システム1を適用した例について説明する。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an augmented reality system according to the first embodiment. In the present embodiment, an example in which the augmented reality system 1 is applied to a store that sells merchandise such as clothing will be described.

本実施形態にかかる拡張現実システム1は、有線または無線の通信回線(例えば、インターネット等)300等を介して相互に電気的に接続されたコンピュータ301や、POS(Point Of Sale)端末501、試着室端末101、クライアント端末401、ハンディーターミナル200等を備えている。   The augmented reality system 1 according to the present embodiment includes a computer 301, a POS (Point Of Sale) terminal 501, and a try-on that are electrically connected to each other via a wired or wireless communication line (for example, the Internet) 300 or the like. A room terminal 101, a client terminal 401, a handy terminal 200, and the like are provided.

本実施形態にかかる拡張現実システム1では、1つまたは複数のコンピュータ301が、所定のサービスを提供するサーバとして機能することができる。この拡張現実システム1では、例えばSaaS(Software as a Service)の形態で、サービスが提供されうる。   In the augmented reality system 1 according to the present embodiment, one or a plurality of computers 301 can function as a server that provides a predetermined service. In the augmented reality system 1, a service can be provided, for example, in the form of SaaS (Software as a Service).

POS端末501は、店舗の出口付近に設けられたレジカウンタ(図示せず)に設置されている。POS端末501は、商品毎に固有の商品IDを読み取って出力するスキャナ502を備えている。商品IDは、商品に付されているRFID(Radio Frequency Identification)タグ111(図2参照)にバーコードや2次元コード等のコードシンボルの形態で印刷されている。そして、POS端末501は、読み取られた情報に基づいて、商品販売データ処理を実行する。   The POS terminal 501 is installed in a cashier counter (not shown) provided near the store exit. The POS terminal 501 includes a scanner 502 that reads and outputs a unique product ID for each product. The product ID is printed in the form of a code symbol such as a barcode or a two-dimensional code on an RFID (Radio Frequency Identification) tag 111 (see FIG. 2) attached to the product. The POS terminal 501 executes merchandise sales data processing based on the read information.

このようなPOS端末501には、通信回線300を介して、コンピュータ301、クライアント端末401、試着室端末101、およびハンディーターミナル200が接続されている。   A computer 301, a client terminal 401, a fitting room terminal 101, and a handy terminal 200 are connected to such a POS terminal 501 through a communication line 300.

コンピュータ301には、ストレージデバイスとしてHDD(Hard Disk Drive)等の記憶装置が内蔵され、この記憶装置には各種ファイルが記憶されている。   The computer 301 includes a storage device such as an HDD (Hard Disk Drive) as a storage device, and various files are stored in the storage device.

クライアント端末401は、拡張現実システム1が導入された店舗を利用する顧客により所有された所謂スマートフォンであり、携帯電話と携帯情報端末機能が付いた携帯端末である。   The client terminal 401 is a so-called smartphone owned by a customer who uses a store where the augmented reality system 1 is introduced, and is a mobile terminal with a mobile phone and a mobile information terminal function.

ハンディーターミナル200は、店舗に来店した顧客に貸し出され、顧客により操作される携帯端末である。本実施形態では、ハンディーターミナル200は、アクセスポイント201を介して通信回線300に接続され、コンピュータ301に記憶された各種ファイルにアクセスすることにより、顧客が自ら商品の登録等を行うことができる。   The handy terminal 200 is a portable terminal that is lent to a customer who visits the store and is operated by the customer. In the present embodiment, the handy terminal 200 is connected to the communication line 300 via the access point 201, and by accessing various files stored in the computer 301, the customer can register the product himself.

試着室端末101は、顧客が商品である衣料品110(図2参照)を持ち込み、持ち込んだ衣料品110を試着する際に使用する試着室100に設置されている。試着室端末101は、顧客が入室した試着室100内の動画像を現実の情報として撮像し、撮像した動画像と、付加情報としての商品(顧客が試着室100内に持ち込んだ衣料品110)の画像とを合成した合成画像を表示する拡張現実提示処理を実行する。   The fitting room terminal 101 is installed in a fitting room 100 used when a customer brings in a clothing item 110 (see FIG. 2) as a product and tries on the clothing item 110 brought in. The fitting room terminal 101 captures a moving image in the fitting room 100 entered by the customer as actual information, and the captured moving image and products as additional information (clothes 110 brought into the fitting room 100 by the customer). Augmented reality presentation processing for displaying a synthesized image obtained by synthesizing these images is executed.

衣料品店である店舗には、顧客が衣料品110(図2参照)の試着に使用する試着室100が複数台設置されている。顧客は、試着室100に試着したい衣料品110を持ち込み、試着室端末101により表示された合成画像を見たり、衣料品110を実際に試着したりすることにより、衣料品110の購入を検討する。   In a store that is a clothing store, a plurality of fitting rooms 100 that are used by customers to try on clothing 110 (see FIG. 2) are installed. The customer considers the purchase of the clothing item 110 by bringing the clothing item 110 to be tried on into the fitting room 100 and viewing the composite image displayed by the fitting room terminal 101 or actually trying on the clothing item 110. .

図2は、試着室端末が設置されている試着室を示す斜視図である。試着室100は、図2に示すように、上面と正面の一部とが開口した直方体形状を有している。試着室100の正面の開口部分は、顧客が出入するための出入口102となっている。出入口102には、布製のカーテン103が図示しないカーテンレールによって開閉自在に取り付けられている。なお、試着室100の出入口102には、カーテン103の代わりに、例えばスライド開閉自在な扉が設けられていても良い。図2では、カーテン103を開いた状態の試着室100を示しているため、試着室100の中を視認できる。試着室100の中の背面側の壁には、試着に際して顧客を映し出すための全身鏡104が取り付けられている。また、全身鏡104の上方位置には、蛍光灯である照明105が取り付けられている。   FIG. 2 is a perspective view showing a fitting room in which a fitting room terminal is installed. As shown in FIG. 2, the fitting room 100 has a rectangular parallelepiped shape with an upper surface and a part of the front surface opened. An opening portion in front of the fitting room 100 serves as an entrance 102 for a customer to enter and exit. A cloth curtain 103 is attached to the doorway 102 so as to be freely opened and closed by a curtain rail (not shown). In addition, instead of the curtain 103, for example, a door that can be freely opened and closed may be provided at the entrance 102 of the fitting room 100. In FIG. 2, since the fitting room 100 with the curtain 103 opened is shown, the inside of the fitting room 100 can be visually recognized. A full-length mirror 104 is attached to the back wall of the fitting room 100 for projecting customers during fitting. An illumination 105 that is a fluorescent lamp is attached to a position above the full-length mirror 104.

さらに、全身鏡104の上部には、顧客が入室した試着室100内の動画像(つまり、試着室100に入室した顧客および当該顧客が試着室100内に持ち込んだ衣料品110の画像を含む動画像)を撮像する撮像部であるカメラ109が取り付けられている。   Further, on the upper part of the full-length mirror 104, a moving image in the fitting room 100 where the customer has entered (that is, a moving image including an image of the customer who has entered the fitting room 100 and the clothing 110 brought into the fitting room 100 by the customer) A camera 109 that is an image pickup unit for picking up an image) is attached.

そして、試着室100内の一方の側壁には、試着室端末101が取り付けられている。試着室端末101は、試着室100の中の顧客に対して情報を表示すると共に、顧客からの操作入力を受け付けるものである。   A fitting room terminal 101 is attached to one side wall in the fitting room 100. The fitting room terminal 101 displays information for the customers in the fitting room 100 and receives operation inputs from the customers.

また、試着室端末101は、厚みのある平板状のハウジング106を備えている。ハウジング106には、情報を表示する表示部としてのLCD(Liquid Crystal Display)107が取り付けられている。LCD107は、その表示面に積層配置され、タッチ指定することにより情報を入力可能な操作入力部としてのタッチパネル108を有する。   The fitting room terminal 101 includes a flat plate-like housing 106 having a thickness. An LCD (Liquid Crystal Display) 107 as a display unit for displaying information is attached to the housing 106. The LCD 107 includes a touch panel 108 as an operation input unit that is stacked on the display surface and can input information by touch designation.

さらに、試着室端末101には、通信回線300を介してコンピュータ301等とデータ通信を実行するための通信インタフェース123(図3参照)が内蔵されている。   Further, the fitting room terminal 101 incorporates a communication interface 123 (see FIG. 3) for executing data communication with the computer 301 and the like via the communication line 300.

また、試着室端末101の下方位置には、RFIDタグ111と無線通信を実行するためのRFIDリーダライタ114が取り付けられている。このRFIDリーダライタ114は、その上方に位置する試着室端末101との間でデータ通信可能に有線接続されている。   In addition, an RFID reader / writer 114 for performing wireless communication with the RFID tag 111 is attached below the fitting room terminal 101. The RFID reader / writer 114 is connected by wire to the fitting room terminal 101 located above the RFID reader / writer so that data communication is possible.

RFIDリーダライタ114が無線通信をするRFIDタグ111は、衣料品110に値札として付されている。衣料品110が顧客によって試着室100の中に持ち込まれた場合に、RFIDリーダライタ114は、その衣料品110に付されたRFIDタグ111と無線通信を実行する。そのため、RFIDリーダライタ114は、試着室100内をその通信可能範囲としている。   The RFID tag 111 with which the RFID reader / writer 114 performs wireless communication is attached to the clothing 110 as a price tag. When the clothing 110 is brought into the fitting room 100 by the customer, the RFID reader / writer 114 performs wireless communication with the RFID tag 111 attached to the clothing 110. Therefore, the RFID reader / writer 114 makes the fitting room 100 within the communicable range.

RFIDタグ111は、電池を内蔵しないパッシブタグであり、ICチップ112とコイル状のタグアンテナ113とが埋設されている。このICチップ112には、商品を特定する特定情報である商品IDのデータが記憶されている。   The RFID tag 111 is a passive tag that does not incorporate a battery, and an IC chip 112 and a coiled tag antenna 113 are embedded therein. The IC chip 112 stores product ID data that is identification information for identifying a product.

RFIDリーダライタ114とRFIDタグ111とは、例えば13.56MHzの周波数帯を使用する電磁誘導方式によって交信する。つまり、RFIDリーダライタ114とRFIDタグ111とは、RFIDリーダライタ114のアンテナコイル(図示せず)とタグアンテナ113との誘導磁束による誘起電圧を利用することで交信する。このような交信状態を利用して、RFIDリーダライタ114は、ICチップ112に記憶されている商品IDを読み取る。そして、RFIDリーダライタ114は、読み取った商品IDを試着室端末101のCPU119(図3参照)に出力する。   The RFID reader / writer 114 and the RFID tag 111 communicate with each other by an electromagnetic induction method using, for example, a 13.56 MHz frequency band. That is, the RFID reader / writer 114 and the RFID tag 111 communicate with each other by using an induced voltage caused by an induced magnetic flux between the antenna coil (not shown) of the RFID reader / writer 114 and the tag antenna 113. Using such a communication state, the RFID reader / writer 114 reads the product ID stored in the IC chip 112. Then, the RFID reader / writer 114 outputs the read product ID to the CPU 119 (see FIG. 3) of the fitting room terminal 101.

また、試着室100の背面には、細長い円柱状のポール115が立設されている。ポール115の先端部には、青色と赤色と緑色とを選択的に発光可能な報知部としての発光部116が設けられている。発光部116は、ポール115を通る図示しないケーブルによって試着室端末101と接続されており、試着室端末101のCPU119(図3参照)によって動作制御を受ける。なお、CPU119による動作制御を受けていない状態では、発光部116は発光動作をしていない。   An elongated cylindrical pole 115 is erected on the back of the fitting room 100. A light emitting unit 116 as a notification unit capable of selectively emitting blue, red, and green is provided at the tip of the pole 115. The light emitting unit 116 is connected to the fitting room terminal 101 by a cable (not shown) passing through the pole 115, and is subjected to operation control by the CPU 119 (see FIG. 3) of the fitting room terminal 101. Note that the light emitting unit 116 does not perform the light emitting operation in a state where the operation control by the CPU 119 is not received.

また、試着室100の出入口102の一方の側部には、出入口102を通過する顧客を検出する人感センサとして赤外線センサ117が取り付けられている。この赤外線センサ117は、いわゆる焦電型赤外線センサである。つまり、赤外線センサ117は、出入口102を通過する顧客の人体が発する赤外線を受光し、受光した赤外線を熱変換し、その熱を素子の焦電効果で電荷に変えて出力(検出出力)する。赤外線センサ117は、試着室端末101と図示しないケーブルによって接続されており、赤外線センサ117の検出出力は、試着室端末101のCPU119(図3参照)へと入力される。   An infrared sensor 117 is attached to one side of the entrance / exit 102 of the fitting room 100 as a human sensor that detects a customer passing through the entrance / exit 102. This infrared sensor 117 is a so-called pyroelectric infrared sensor. That is, the infrared sensor 117 receives infrared rays emitted from the customer's human body passing through the doorway 102, converts the received infrared rays into heat, and converts the heat into electric charges by the pyroelectric effect of the element and outputs (detected output). The infrared sensor 117 is connected to the fitting room terminal 101 via a cable (not shown), and the detection output of the infrared sensor 117 is input to the CPU 119 of the fitting room terminal 101 (see FIG. 3).

また、図2では図示しないが、試着室100の床には、感圧センサ118(図3参照)が配置されている。試着室100の床は、詳細は図示しないが二枚の床板が重なって構成されており、この二枚の床板の間に挟まるようにして、複数個の感圧センサ118が配置されている。そのため、顧客が出入口102を通って試着室100の中に入り床をその足で踏むと、いずれかの感圧センサ118に圧力がかかることになる。感圧センサ118は、このような圧変化を内部の感圧素子によって電気信号に変換して出力(検出出力)する。そして、感圧センサ118は、試着室端末101と図示しないケーブルによって接続されており、感圧センサ118の検出出力は、試着室端末101のCPU119(図3参照)へと入力される。   Although not shown in FIG. 2, a pressure-sensitive sensor 118 (see FIG. 3) is disposed on the floor of the fitting room 100. Although the floor of the fitting room 100 is not shown in detail, two floor boards are overlapped, and a plurality of pressure sensors 118 are arranged so as to be sandwiched between the two floor boards. Therefore, when a customer enters the fitting room 100 through the doorway 102 and steps on the floor with his / her foot, pressure is applied to one of the pressure-sensitive sensors 118. The pressure sensor 118 converts such a pressure change into an electrical signal by an internal pressure sensor and outputs (detects) the signal. The pressure sensor 118 is connected to the fitting room terminal 101 via a cable (not shown), and the detection output of the pressure sensor 118 is input to the CPU 119 of the fitting room terminal 101 (see FIG. 3).

図3は、試着室端末のハードウェア構成を示すブロック図である。試着室端末101は、各種演算処理を実行し各部を制御する情報処理部としてのCPU(Central Processing Unit)119を備えている。CPU119には、コンピュータプログラム等の固定データを固定的に記憶保存するROM(Read Only Memory)120と、可変データを書き換え自在に記憶してワークエリアとして使用されるRAM(Random Access Memory)121と、試着室端末101の電源を落としてもデータ内容を保持する不揮発性メモリであるフラッシュメモリ122とがバス接続されている。   FIG. 3 is a block diagram showing a hardware configuration of the fitting room terminal. The fitting room terminal 101 includes a CPU (Central Processing Unit) 119 as an information processing unit that executes various arithmetic processes and controls each unit. The CPU 119 includes a ROM (Read Only Memory) 120 that fixedly stores fixed data such as a computer program, a RAM (Random Access Memory) 121 that stores variable data in a rewritable manner and is used as a work area, The flash memory 122, which is a nonvolatile memory that retains data contents even when the fitting room terminal 101 is turned off, is connected by a bus.

また、CPU119には、LCD107、タッチパネル108、カメラ109、RFIDリーダライタ114、発光部116、赤外線センサ117、感圧センサ118、および通信インタフェース123、が、いずれも各種の入出力回路(いずれも図示せず)を介して接続され、CPU119によって動作制御される。なお、感圧センサ118は、前述したように実際には複数個設けられているが、図3中では一つの感圧センサ118のみ示している。   The CPU 119 includes an LCD 107, a touch panel 108, a camera 109, an RFID reader / writer 114, a light emitting unit 116, an infrared sensor 117, a pressure sensor 118, and a communication interface 123, all of which are various input / output circuits (all illustrated). (Not shown) and the operation is controlled by the CPU 119. Although a plurality of pressure sensors 118 are actually provided as described above, only one pressure sensor 118 is shown in FIG.

フラッシュメモリ122には、各種コンピュータプログラムおよび各種ファイルが記憶されている。このようなフラッシュメモリ122に記憶されているコンピュータプログラムやファイルは、試着室端末101の起動時に、その全部又は一部がRAM121にコピーされて使用される。   The flash memory 122 stores various computer programs and various files. Computer programs and files stored in the flash memory 122 are used by being copied entirely or partially into the RAM 121 when the fitting room terminal 101 is activated.

そして、試着室端末101のCPU119は、コンピュータプログラムに従って実行する処理中に各種のファイルにデータアクセスする。アクセスされるファイルは、コンピュータ301の図示しないHDD(Hard Disk Drive)に格納されているファイルである。コンピュータ301は、通信回線300を介して試着室端末101と接続されている。そのため、これらのファイルは、試着室端末101のCPU119によってデータアクセス可能となっている。   Then, the CPU 119 of the fitting room terminal 101 accesses data to various files during processing executed according to the computer program. The accessed file is a file stored in an HDD (Hard Disk Drive) (not shown) of the computer 301. The computer 301 is connected to the fitting room terminal 101 via the communication line 300. Therefore, these files can be accessed by the CPU 119 of the fitting room terminal 101.

ここで、図4および図5を用いて、コンピュータ301のHDD(図示しない)に格納され、試着室端末101のCPU119によりデータアクセス可能となっている各種ファイル(商品ファイルF1、商品分類ファイルF2等)について説明する。   4 and 5, various files (product file F1, product classification file F2, etc.) stored in the HDD (not shown) of the computer 301 and accessible by the CPU 119 of the fitting room terminal 101 are used. ).

図4は、商品ファイルのデータ構成を示す図である。商品ファイルF1は、商品を特定する特定情報である商品IDに対応付けて、当該商品IDにより特定される商品の商品名と、当該商品IDにより特定される商品が属する商品分類と、当該商品IDにより特定される商品の単価と、当該商品IDにより特定される商品に対応する画像(本実施形態では、商品画像)と、を記憶するファイルである。   FIG. 4 is a diagram showing the data structure of the product file. The product file F1 is associated with a product ID that is specification information for specifying a product, the product name of the product specified by the product ID, the product classification to which the product specified by the product ID belongs, and the product ID This is a file for storing the unit price of the product specified by the product and an image (product image in this embodiment) corresponding to the product specified by the product ID.

図5は、商品分類ファイルのデータ構成を示す図である。商品分類ファイルF2は、商品ファイルF1に記憶された商品分類に対応付けて、所定の位置と、順番と、を記憶する。ここで、所定の位置は、商品分類に応じて予め設定された位置である。例えば、商品分類:「上着」の所定の位置は、カメラ109により撮像された動画像に含まれる顧客(人)のトップスの位置である。また、商品分類:「ズボン」の所定の位置は、カメラ109により撮像された動画像に含まれる顧客(人)のボトムスの位置である。   FIG. 5 is a diagram showing the data structure of the product classification file. The product classification file F2 stores a predetermined position and order in association with the product classification stored in the product file F1. Here, the predetermined position is a position set in advance according to the product classification. For example, the predetermined position of the product classification: “jacket” is the position of the tops of the customer (person) included in the moving image captured by the camera 109. The predetermined position of the product classification: “trousers” is the position of the bottoms of the customer (person) included in the moving image captured by the camera 109.

また、順番は、カメラ109により撮像された動画像に複数の商品に対応する複数の画像を重ね合わせる場合に、各商品が属する商品分類に応じて予め設定された順番である。例えば、商品分類:「下着」の順番は、商品分類:「上着」よりも前の順番である。   The order is an order set in advance according to the product classification to which each product belongs when a plurality of images corresponding to a plurality of products are superimposed on the moving image captured by the camera 109. For example, the order of the product category: “underwear” is the order before the product category: “outerwear”.

図6は、クライアント端末のハードウェア構成を示すブロック図である。クライアント端末401は、各種演算処理を実行し各部を制御する情報処理部としてのCPU402を備えている。CPU402には、コンピュータプログラム等の固定データを固定的に記憶保存するROM403と、可変データを書き換え自在に記憶してワークエリアとして使用されるRAM404と、クライアント端末401の電源を落としてもデータ内容を保持する不揮発性メモリであるフラッシュメモリ405とがバス接続されている。   FIG. 6 is a block diagram illustrating a hardware configuration of the client terminal. The client terminal 401 includes a CPU 402 as an information processing unit that executes various arithmetic processes and controls each unit. The CPU 402 has a ROM 403 for fixedly storing and saving fixed data such as computer programs, a RAM 404 for storing variable data in a rewritable manner and used as a work area, and data contents even when the client terminal 401 is turned off. A flash memory 405 that is a nonvolatile memory to be held is connected by a bus.

CPU402には、情報を表示するLCD406、LCD406の表示面に積層配置されてタッチ指定することにより情報を入力可能な操作入力部としてのタッチパネル408、通信回線300を介してコンピュータ301等とデータ通信を実行するための通信インタフェース407、衣料品110等の商品に付されたRFIDタグ111と無線通信を実行するRFIDリーダライタ409、および動画像を撮像する撮像部であるカメラ410が、いずれも各種の入出力回路(いずれも図示せず)を介して接続され、CPU402によって動作制御される。なお、RFIDリーダライタ409は、試着室端末101が備えるRFIDリーダライタ114と同様の構成を有しているため、ここでは説明を省略する。   The CPU 402 is configured to perform data communication with the computer 301 or the like via the touch panel 408 serving as an operation input unit that can be input by touching the LCD 406 that displays information, and the display surface of the LCD 406 that is stacked. A communication interface 407 for execution, an RFID reader / writer 409 for performing wireless communication with an RFID tag 111 attached to a product such as clothing 110, and a camera 410 that is an imaging unit for capturing a moving image are all of various types. They are connected via an input / output circuit (both not shown), and their operation is controlled by the CPU 402. Note that the RFID reader / writer 409 has the same configuration as the RFID reader / writer 114 included in the fitting room terminal 101, and thus the description thereof is omitted here.

フラッシュメモリ405には、各種コンピュータプログラムおよび各種ファイルが記憶されている。このようなフラッシュメモリ405に記憶されているコンピュータプログラムやファイルは、クライアント端末401の起動時に、その全部又は一部がRAM404にコピーされて使用される。   The flash memory 405 stores various computer programs and various files. The computer programs and files stored in the flash memory 405 are used by copying all or part of them to the RAM 404 when the client terminal 401 is activated.

そして、クライアント端末401のCPU402は、コンピュータプログラムに従って実行する処理中に各種のファイル(例えば、商品ファイルF1、商品分類ファイルF2など)にデータアクセスする。アクセスされるファイルは、コンピュータ301の図示しないHDDに格納されているファイルである。コンピュータ301は、通信回線300を介してクライアント端末101とも接続されている。そのため、これらのファイルは、クライアント端末401のCPU402によってもデータアクセス可能となっている。   Then, the CPU 402 of the client terminal 401 performs data access to various files (for example, the product file F1, the product classification file F2, etc.) during processing executed according to the computer program. The accessed file is a file stored in an HDD (not shown) of the computer 301. The computer 301 is also connected to the client terminal 101 via the communication line 300. Therefore, these files can also be accessed by the CPU 402 of the client terminal 401.

次に、本実施形態にかかる試着室端末101が有する機能について説明する。図7は、本実施形態にかかる試着室端末の機能構成を示すブロック図である。CPU119は、RAM121に展開されたROM120が記憶するプログラムに従って動作することで、図7に示すように、識別部701、生成部702、および表示制御部703として機能する。   Next, functions of the fitting room terminal 101 according to the present embodiment will be described. FIG. 7 is a block diagram showing a functional configuration of the fitting room terminal according to the present embodiment. The CPU 119 operates as a discrimination unit 701, a generation unit 702, and a display control unit 703 as illustrated in FIG. 7 by operating according to a program stored in the ROM 120 expanded in the RAM 121.

識別部701は、赤外線センサ117によって顧客が検出されかつ感圧センサ118により圧力の検出が出力されると、試着室100に顧客が入室したと判断して、カメラ109に撮像オン信号を出力してカメラ109に撮像動作を開始させる。そして、識別部701は、カメラ109が撮像した撮像エリアのフレーム画像(動画像)を取り込んで、RAM121に格納する。   When the customer is detected by the infrared sensor 117 and the pressure detection is output by the pressure-sensitive sensor 118, the identification unit 701 determines that the customer has entered the fitting room 100 and outputs an imaging ON signal to the camera 109. This causes the camera 109 to start an imaging operation. Then, the identification unit 701 captures a frame image (moving image) of the imaging area captured by the camera 109 and stores it in the RAM 121.

また、識別部701は、RAM121に格納されたフレーム画像に含まれる物体を識別するものである。本実施形態では、識別部701は、RFIDリーダライタ114を制御して、衣料品110に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDのデータを読み取る。そして、識別部701は、読み取った商品IDにより特定される衣料品110を、RAM121に格納されたフレーム画像に含まれる物体として識別する。   The identification unit 701 identifies an object included in the frame image stored in the RAM 121. In the present embodiment, the identification unit 701 controls the RFID reader / writer 114 to perform wireless communication with the RFID tag 111 attached to the clothing 110, and reads the product ID data stored in the RFID tag 111. . Then, the identification unit 701 identifies the clothing item 110 specified by the read product ID as an object included in the frame image stored in the RAM 121.

なお、本実施形態では、識別部701は、RFIDリーダライタ114により読み取った商品IDにより特定される衣料品110を、RAM121に格納されたフレーム画像に含まれる物体として識別しているが、これに限定するものではない。例えば、識別部701は、商品ファイルF1に記憶された商品画像を参照して、RAM121に格納されたフレーム画像から、特徴量として色合いや表面の凹凸状況等の表面の状態を読み取ることによって特定の物体として商品を認識(識別)する。なお、識別部701は、処理時間の短縮を図るため、商品の輪郭や大きさは考慮しないものとする。   In this embodiment, the identification unit 701 identifies the clothing item 110 specified by the product ID read by the RFID reader / writer 114 as an object included in the frame image stored in the RAM 121. It is not limited. For example, the identification unit 701 refers to the product image stored in the product file F1 and reads a specific state by reading a surface state such as a hue or a surface roughness as a feature amount from a frame image stored in the RAM 121. A product is recognized (identified) as an object. Note that the identification unit 701 does not consider the outline or size of the product in order to shorten the processing time.

このように画像中に含まれる物体を認識することは一般物体認識(generic object recognition)と呼ばれている。このような一般物体認識については、下記の文献において各種認識技術が解説されている。
柳井 啓司,“一般物体認識の現状と今後”,情報処理学会論文誌,Vol.48,No.SIG16 [平成22年8月10日検索],インターネット<URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf >
Recognizing an object contained in an image in this way is called generic object recognition. Regarding such general object recognition, various recognition techniques are described in the following documents.
Keiji Yanai, “Current Status and Future of General Object Recognition”, IPSJ Journal, Vol. 48, no. SIG16 [Search August 10, 2010], Internet <URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf>

また、画像をオブジェクトごとに領域分割することによって一般物体認識を行う技術が、下記の文献において解説されている。
Jamie Shottonら,“Semantic Texton Forests for Image Categorization and Segmentation”,[平成22年8月10日検索],インターネット<URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.145.3036&rep=rep1&type=pdf >
Further, techniques for performing general object recognition by dividing an image into regions for each object are described in the following documents.
Jamie Shotton et al., “Semantic Texton Forests for Image Categorization and Segmentation”, [August 10, 2010 search], Internet <URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1. 1.145.3036 & rep = rep1 & type = pdf>

または、識別部701は、パターン認識やOCR(Optical Character Reader)文字認識により、RAM121に格納されたフレーム画像から文字や絵やシンボル等の特徴を抽出する。そして、識別部701は、抽出した特徴から、フレーム画像に含まれる物体を識別しても良い。   Alternatively, the identification unit 701 extracts characters, pictures, symbols, and other features from the frame image stored in the RAM 121 by pattern recognition or OCR (Optical Character Reader) character recognition. Then, the identification unit 701 may identify an object included in the frame image from the extracted feature.

生成部702は、RAM121に格納されたフレーム画像と、識別部701により識別された物体に対応する画像と、を合成した合成画像を生成する。本実施形態では、生成部702は、商品ファイルF1から、RFIDリーダライタ114により読み取った商品IDと対応付けられた画像を、識別部701により識別された物体に対応する画像として読み出す。さらに、生成部702は、商品ファイルF1から、RFIDリーダライタ114により読み取った商品IDと対応付けられた商品分類を読み出す。   The generation unit 702 generates a composite image obtained by combining the frame image stored in the RAM 121 and the image corresponding to the object identified by the identification unit 701. In the present embodiment, the generation unit 702 reads, from the product file F1, an image associated with the product ID read by the RFID reader / writer 114 as an image corresponding to the object identified by the identification unit 701. Further, the generation unit 702 reads the product classification associated with the product ID read by the RFID reader / writer 114 from the product file F1.

次いで、生成部702は、商品分類ファイルF2から、読み出した商品分類と対応付けられた所定の位置を読み出す。そして、生成部702は、RAM121に格納されたフレーム画像のうち、読み出した所定の位置に当該所定の位置の表示と異なる透過処理を施す。さらに、生成部702は、透過処理を施した部分に、商品ファイルF1から読み出した画像を重ね合わせることにより、合成画像を生成する。   Next, the generation unit 702 reads a predetermined position associated with the read product classification from the product classification file F2. Then, the generation unit 702 performs transmission processing different from the display at the predetermined position on the read predetermined position in the frame image stored in the RAM 121. Further, the generation unit 702 generates a composite image by superimposing the image read from the product file F1 on the portion subjected to the transparent process.

また、生成部702は、RFIDリーダライタ114により複数の商品IDが読み取られた場合(つまり、識別部701により複数の物体が識別された場合)、商品ファイルF1から、RFIDリーダライタ114により読み取られた複数の商品IDと対応付けられた商品分類および画像を読み出す。さらに、生成部702は、商品分類ファイルF2から、読み出した商品分類と対応付けられた順番を読み出す。そして、生成部702は、読み出した画像を、読み出した順番に従って、RAM121に格納されたフレーム画像に重ね合わせることにより、合成画像を生成する。   In addition, when a plurality of product IDs are read by the RFID reader / writer 114 (that is, when a plurality of objects are identified by the identification unit 701), the generation unit 702 is read by the RFID reader / writer 114 from the product file F1. The product classification and images associated with the plurality of product IDs are read out. Furthermore, the generation unit 702 reads the order associated with the read product classification from the product classification file F2. Then, the generation unit 702 generates a composite image by superimposing the read images on the frame images stored in the RAM 121 according to the read order.

表示制御部703は、生成部702により生成された合成画像を、LCD107に表示する。これにより、試着室100に入室した顧客は、試着室100に持ち込んだ衣料品110を実際に試着しなくても、当該衣料品110を自身が試着したイメージを確認することができる。また、合成画像をLCD107に表示させる際(つまり、拡張現実の提示を受ける際)、現実の情報(RAM121に格納されたフレーム画像)に重ね合わせる付加情報(商品画像)を顧客が選択する必要がないので、より簡単に拡張現実の提示を受けることができる。   The display control unit 703 displays the composite image generated by the generation unit 702 on the LCD 107. Thereby, the customer who entered the fitting room 100 can confirm the image of the clothing 110 that he / she tried on without actually trying on the clothing 110 brought into the fitting room 100. Further, when the composite image is displayed on the LCD 107 (that is, when receiving the augmented reality presentation), the customer needs to select additional information (product image) to be superimposed on the actual information (the frame image stored in the RAM 121). Because it is not, you can receive the augmented reality presentation more easily.

次に、図8を用いて、試着室端末101が行う拡張現実提示処理について説明する。図8は、試着室端末が行う拡張現実提示処理の手順を示したフローチャートである。   Next, the augmented reality presentation process performed by the fitting room terminal 101 will be described with reference to FIG. FIG. 8 is a flowchart showing a procedure of augmented reality presentation processing performed by the fitting room terminal.

識別部701は、試着室100に顧客が入室するのを待つ(ステップS801:No)。赤外線センサ117によって顧客が検出されかつ感圧センサ118により圧力の検出が出力されると、識別部701は、試着室100に顧客が入室したと判断して(ステップS801:Yes)、カメラ109に撮像オン信号を出力してカメラ109に撮像動作を開始させる(ステップS802)。そして、識別部701は、カメラ109により撮像された動画像を構成するフレーム画像を取り込んで、RAM121に格納する。   The identification unit 701 waits for a customer to enter the fitting room 100 (step S801: No). When the customer is detected by the infrared sensor 117 and the detection of the pressure is output by the pressure sensor 118, the identification unit 701 determines that the customer has entered the fitting room 100 (step S801: Yes), and enters the camera 109. An imaging on signal is output to cause the camera 109 to start an imaging operation (step S802). Then, the identification unit 701 captures a frame image constituting a moving image captured by the camera 109 and stores it in the RAM 121.

次いで、識別部701は、RFIDリーダライタ114を制御して、顧客が試着室100内に持ち込んだ衣料品110に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る(ステップS803)。   Next, the identification unit 701 controls the RFID reader / writer 114 to perform wireless communication with the RFID tag 111 attached to the clothing 110 brought into the fitting room 100 by the customer, and is stored in the RFID tag 111. The product ID is read (step S803).

次に、生成部702は、商品ファイルF1から、読み取った商品IDと対応付けて記憶された画像を読み出す。そして、生成部702は、読み出した画像と、RAM121に格納されたフレーム画像とを合成した合成画像を生成する(ステップS804)。   Next, the generation unit 702 reads an image stored in association with the read product ID from the product file F1. Then, the generation unit 702 generates a composite image obtained by combining the read image and the frame image stored in the RAM 121 (step S804).

ここで、図9を用いて、顧客が試着室100内に持ち込んだ複数の衣料品110(例えば、ジャケット、ワイシャツ、スラックス)に付されたRFIDタグ111から、複数の商品IDが読み取られた場合における合成画像の生成処理について説明する。図9は、複数の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。   Here, referring to FIG. 9, when a plurality of product IDs are read from RFID tags 111 attached to a plurality of clothing items 110 (for example, jackets, shirts, slacks) brought into the fitting room 100 by the customer. A composite image generation process will be described. FIG. 9 is a diagram for explaining processing for generating a composite image in which a plurality of images and frame images captured by a camera are superimposed.

生成部702は、商品ファイルF1から、識別部701により読み取った複数の商品IDと対応付けて記憶された画像(ジャケットの画像、ワイシャツの画像、スラックスの画像)および商品分類(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)を読み出す。次いで、生成部702は、商品分類ファイルF2から、読み出した商品分類(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)と対応付けられた所定の位置(商品分類:「上着」,「下着」と対応付けられた所定の位置:「トップス」、商品分類:「パンツ」と対応付けられた所定の位置:「ボトムス」)を読み出す。   The generation unit 702 stores, from the product file F1, images (jacket image, shirt image, slack image) and product classification (jacket product classification: jacket image) stored in association with a plurality of product IDs read by the identification unit 701. “Outerwear”, shirt product category: “underwear”, slacks product category: “pants”). Next, the generation unit 702 is associated with the read product category (jacket product category: “overwear”, shirt product category: “underwear”, slacks product category: “pants”) from the product category file F2. The predetermined position (product classification: “outerwear”, predetermined position associated with “underwear”: “tops”, product classification: predetermined position associated with “pants”: “bottoms”) is read out. .

さらに、生成部702は、商品分類ファイルF2から、(ジャケットの商品分類:「上着」、ワイシャツの商品分類:「下着」、スラックスの商品分類:「パンツ」)と対応付けられた順番(商品分類:「上着」と対応付けられた順番:「3」、商品分類:「パンツ」と対応付けられた順番:「2」、商品分類:「下着」と対応付けられた順番:「1」)を読み出す。   Further, the generation unit 702 (from the product classification file F2), the order (product) corresponding to (product category of jacket: “upper”, product category of shirt: “underwear”, product category of slacks: “pants”). Classification: Order associated with “outerwear”: “3”, Product classification: Order associated with “pants”: “2”, Product classification: Order associated with “underwear”: “1” ).

次に、生成部702は、RAM121に記憶されたフレーム画像901のうち、商品分類ファイルF2から読み出した所定の位置903:「フレーム画像901に含まれる顧客のトップスの位置」および所定の位置904:「フレーム画像901に含まれる顧客のボトムスの位置」に透過処理を施す。より具体的には、生成部702は、フレーム画像901に対して物体認識やパターン認識等を行うことにより、当該フレーム画像901における所定の位置903:「フレーム画像901に含まれる顧客のトップスの位置」および所定の位置904:「フレーム画像901に含まれる顧客のボトムスの位置」を抽出する。そして、生成部702は、抽出した所定の位置903,904に対して透過処理を施すものとする。次いで、生成部702は、フレーム画像901において透過処理を施した部分(所定の位置903,904)に、商品ファイルF1から読み出した画像(ジャケットの画像、ワイシャツの画像、およびスラックスの画像)を、商品分類ファイルF2から読み出した順番(商品分類:「上着」と対応付けられた順番:「3」、商品分類:「パンツ」と対応付けられた順番:「2」、商品分類:「下着」と対応付けられた順番:「1」)に重ね合わせた合成画像905を生成する。つまり、生成部702は、フレーム画像901において透過処理を施した部分(所定の位置903,904)に、ワイシャツの画像906、スラックスの画907像、ジャケットの画像908の順に重ね合わせた合成画像905を生成する。   Next, the generation unit 702 reads out the predetermined position 903 read from the product classification file F2 in the frame image 901 stored in the RAM 121: “the position of the customer's tops included in the frame image 901” and the predetermined position 904: Transparent processing is performed on “the position of the customer's bottoms included in the frame image 901”. More specifically, the generation unit 702 performs object recognition, pattern recognition, or the like on the frame image 901 to thereby obtain a predetermined position 903 in the frame image 901: “the position of the customer's tops included in the frame image 901” ”And a predetermined position 904:“ the position of the customer's bottoms included in the frame image 901 ”is extracted. And the production | generation part 702 shall perform the permeation | transmission process with respect to the extracted predetermined position 903,904. Next, the generation unit 702 adds an image (a jacket image, a shirt image, and a slack image) read from the product file F1 to a portion (predetermined positions 903 and 904) subjected to the transmission processing in the frame image 901. Order read from the product category file F2 (product category: order associated with “outerwear”: “3”, product category: order associated with “pants”: “2”, product category: “underwear” Are combined in the order of “1”). In other words, the generation unit 702 superimposes a shirt image 906, a slack image 907 image, and a jacket image 908 in this order on a portion (predetermined positions 903 and 904) on which transmission processing has been performed in the frame image 901. Is generated.

図8に戻り、生成部702により合成画像が生成されると、表示制御部703は、生成された合成画像を、LCD107に表示させる(ステップS805)。   Returning to FIG. 8, when a composite image is generated by the generation unit 702, the display control unit 703 displays the generated composite image on the LCD 107 (step S805).

このように本実施形態にかかる試着室端末101によれば、試着室100内の動画像を撮像するカメラ109と、カメラ109により撮像された動画像を構成するフレーム画像に含まれる物体を識別する識別部701と、カメラ109により撮像された動画像を構成するフレーム画像と、識別部701により識別された物体に対応する画像と、を合成した合成画像を生成する生成部702と、生成部702により生成された合成画像をLCD107に表示する表示制御部703と、を備えることにより、合成画像をLCD107に表示させる際、カメラ109に撮像された動画像を構成するフレーム画像に合成する画像を顧客が選択する必要がなくなるので、より簡単に拡張現実(合成画像)の提示を受けることができる。   As described above, according to the fitting room terminal 101 according to the present embodiment, the camera 109 that captures the moving image in the fitting room 100 and the object included in the frame image that forms the moving image captured by the camera 109 are identified. A generating unit 702 that generates a combined image obtained by combining the identifying unit 701, a frame image that forms a moving image captured by the camera 109, and an image that corresponds to the object identified by the identifying unit 701, and a generating unit 702 And a display control unit 703 that displays the composite image generated by the LCD 107 on the LCD 107, so that when the composite image is displayed on the LCD 107, the image to be combined with the frame image that constitutes the moving image captured by the camera 109 is displayed. Therefore, it is possible to receive augmented reality (composite image) more easily.

(第2の実施形態)
本実施形態は、第1の実施形態における拡張現実提示処理をクライアント端末において実行する例である。なお、クライアント端末のハードウェア構成は、第1の実施形態と同様であるため、ここでは説明を省略する。
(Second Embodiment)
The present embodiment is an example in which the augmented reality presentation process in the first embodiment is executed in a client terminal. Note that the hardware configuration of the client terminal is the same as that of the first embodiment, and a description thereof will be omitted here.

図10は、本実施形態にかかるクライアント端末の機能構成を示すブロック図である。CPU402は、RAM404に展開されたROM403に記憶するプログラムに従って動作することで、図10に示すように、識別部1001、生成部1002、および表示制御部1003として機能する。   FIG. 10 is a block diagram illustrating a functional configuration of the client terminal according to the present embodiment. The CPU 402 operates according to a program stored in the ROM 403 expanded in the RAM 404, thereby functioning as an identification unit 1001, a generation unit 1002, and a display control unit 1003 as shown in FIG.

識別部1001は、クライアント端末401を操作する顧客によってタッチパネル408が操作されて拡張現実の提示が要求されると、カメラ410に撮像オン信号を出力してカメラ410の撮像動作を開始させる。そして、識別部1001は、カメラ410が撮像した撮像エリアのフレーム画像(動画像)を取り込んでRAM404に格納する。   When the customer who operates the client terminal 401 operates the touch panel 408 and requests the presentation of augmented reality, the identification unit 1001 outputs an imaging on signal to the camera 410 to start the imaging operation of the camera 410. Then, the identification unit 1001 captures a frame image (moving image) of the imaging area captured by the camera 410 and stores it in the RAM 404.

また、識別部1001は、RAM404に格納されたフレーム画像に含まれる物体を識別するものである。本実施形態では、識別部1001は、RFIDリーダライタ409を制御して、商品(例えば、ショールーム等に展示された車など)に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る。そして、識別部1001は、読み取った商品IDにより特定される商品を、RAM404に格納されたフレーム画像に含まれる物体として識別する。なお、識別部1001は、第1の実施形態にかかる識別部701と同様に、一般物体認識やパターン認識やOCR文字認識等を用いて、フレーム画像に含まれる物体を認識することができる。   The identification unit 1001 identifies an object included in the frame image stored in the RAM 404. In the present embodiment, the identification unit 1001 controls the RFID reader / writer 409 to perform wireless communication with the RFID tag 111 attached to a product (for example, a car displayed in a showroom or the like), and the RFID tag 111 The product ID stored in is read. Then, the identification unit 1001 identifies the product specified by the read product ID as an object included in the frame image stored in the RAM 404. Note that the identification unit 1001 can recognize an object included in the frame image using general object recognition, pattern recognition, OCR character recognition, or the like, as with the identification unit 701 according to the first embodiment.

生成部1002は、RAM404に格納されたフレーム画像と、識別部1001により識別された物体に対応する画像と、を合成した合成画像を生成する。本実施形態では、生成部1001は、商品ファイルF1から、RFIDリーダライタ409により読み取った商品IDと対応付けられた商品分類および画像を読み出す。次いで、生成部1002は、商品分類ファイルF2から、読み出した商品分類と対応付けられた所定の位置(例えば、RAM403に格納されたフレーム画像における背景部分)を読み出す。そして、生成部1002は、RAM404に格納されたフレーム画像のうち、読み出した所定の位置に当該所定の位置の表示と異なる透過処理を施す。さらに、生成部1002は、透過処理を施した部分に、識別部1001により識別された物体に対応する画像(商品ファイルF1から読み出した画像、例えば、背景の動画像など)を重ね合わせた合成画像を生成する。   The generation unit 1002 generates a composite image obtained by combining the frame image stored in the RAM 404 and the image corresponding to the object identified by the identification unit 1001. In the present embodiment, the generation unit 1001 reads the product classification and the image associated with the product ID read by the RFID reader / writer 409 from the product file F1. Next, the generation unit 1002 reads a predetermined position (for example, a background portion in a frame image stored in the RAM 403) associated with the read product classification from the product classification file F2. Then, the generation unit 1002 performs transmission processing different from the display at the predetermined position on the read predetermined position in the frame image stored in the RAM 404. Further, the generation unit 1002 combines a transparent image with an image corresponding to the object identified by the identification unit 1001 (an image read from the product file F1, such as a background moving image). Is generated.

表示制御部1003は、生成部1002により生成された合成画像を、LCD406に表示する。これにより、車のショールーム等を訪れた顧客は、車が実際に公道を走っている様子を見なくても、車が公道を走っているイメージを確認することができる。また、合成画像をLCD406に表示させる際、現実の情報(RAM404に格納されたフレーム画像)に合成する付加情報(背景の画像)を顧客が選択する必要がないので、より簡単に拡張現実の提示を受けることができる。   The display control unit 1003 displays the composite image generated by the generation unit 1002 on the LCD 406. Thus, a customer who visits a car showroom or the like can confirm an image of a car running on a public road without seeing the car actually running on a public road. In addition, when the composite image is displayed on the LCD 406, it is not necessary for the customer to select additional information (background image) to be combined with the actual information (frame image stored in the RAM 404), so it is easier to present augmented reality. Can receive.

次に、図11を用いて、クライアント端末101が行う拡張現実提示処理について説明する。図11は、クライアント端末が行う拡張現実提示処理の手順を示したフローチャートである。   Next, an augmented reality presentation process performed by the client terminal 101 will be described with reference to FIG. FIG. 11 is a flowchart illustrating a procedure of augmented reality presentation processing performed by the client terminal.

識別部1001は、クライアント端末401を操作する顧客によってタッチパネル408が操作されて拡張現実の提示が要求されるのを待つ(ステップS1101:No)。タッチパネル408が操作されて拡張現実の提示が要求されると(ステップS1101:Yes)、識別部1001は、カメラ410に撮像オン信号を出力してカメラ410に撮像動作を開始させる(ステップS1102)。そして、識別部1001は、カメラ410により撮像された動画像を構成するフレーム画像を取り込んで、RAM404に格納する。   The identification unit 1001 waits for the customer operating the client terminal 401 to operate the touch panel 408 to request the presentation of augmented reality (step S1101: No). When the touch panel 408 is operated and an augmented reality presentation is requested (step S1101: Yes), the identification unit 1001 outputs an imaging on signal to the camera 410 and causes the camera 410 to start an imaging operation (step S1102). Then, the identification unit 1001 captures a frame image constituting a moving image captured by the camera 410 and stores it in the RAM 404.

次いで、識別部1001は、RFIDリーダライタ409を制御して、ショールーム等の店舗に展示されている車等の商品に付されたRFIDタグ111と無線通信を実行して、RFIDタグ111に記憶された商品IDを読み取る(ステップS1103)。   Next, the identification unit 1001 controls the RFID reader / writer 409 to perform wireless communication with the RFID tag 111 attached to a product such as a car displayed in a store such as a showroom, and is stored in the RFID tag 111. The product ID is read (step S1103).

次に、生成部1002は、商品ファイルF1から、読み取った商品IDと対応付けて記憶された画像を読み出す。そして、生成部1002は、読み出した画像を、RAM404に格納されたフレーム画像に合成した合成画像を生成する(ステップS1104)。   Next, the generation unit 1002 reads an image stored in association with the read product ID from the product file F1. Then, the generation unit 1002 generates a composite image obtained by combining the read image with the frame image stored in the RAM 404 (step S1104).

ここで、図12を用いて、ショールームに展示されている商品(例えば、車)に付されたRFIDタグ111から、商品IDが読み取られた場合における合成画像の生成処理について説明する。図12は、背景の画像とカメラにより撮像されたフレーム画像とを重ね合わせた合成画像を生成する処理を説明するための図である。   Here, a composite image generation process in the case where a product ID is read from an RFID tag 111 attached to a product (for example, a car) displayed in a showroom will be described with reference to FIG. FIG. 12 is a diagram for explaining processing for generating a composite image in which a background image and a frame image captured by a camera are superimposed.

生成部1002は、商品ファイルF1から、RFIDリーダライタ409により読み取った商品IDと対応付けて記憶された画像(背景の画像)および商品分類(車の商品分類:「オンロード」)を読み出す。次いで、生成部1002は、商品分類ファイルF2から、読み出した商品分類(車の商品分類:「オンロード」)と対応付けられた所定の位置(所定の位置:背景)を読み出す。   The generation unit 1002 reads an image (background image) and product classification (car product classification: “on-road”) stored in association with the product ID read by the RFID reader / writer 409 from the product file F1. Next, the generation unit 1002 reads a predetermined position (predetermined position: background) associated with the read commodity classification (car commodity classification: “on-road”) from the commodity classification file F2.

次に、生成部1002は、RAM404に記憶されたフレーム画像1201に含まれる車の画像1202を除く背景の画像1203に透過処理を施す。次いで、生成部1002は、フレーム画像1201において透過処理を施した部分に、商品ファイルF1から読み出した背景の画像1205を重ね合わせた合成画像1204を生成する。   Next, the generation unit 1002 performs a transparency process on the background image 1203 excluding the car image 1202 included in the frame image 1201 stored in the RAM 404. Next, the generation unit 1002 generates a composite image 1204 in which the background image 1205 read from the product file F1 is superimposed on the portion of the frame image 1201 that has been subjected to the transparent process.

図11に戻り、生成部1002により合成画像が生成されると、表示制御部1003は、生成された合成画像を、LCD406に表示させる(ステップS1105)。   Returning to FIG. 11, when a composite image is generated by the generation unit 1002, the display control unit 1003 displays the generated composite image on the LCD 406 (step S1105).

このように本実施形態にかかるクライアント端末401によれば、ショールーム内の動画像を撮像するカメラ410と、カメラ410により撮像された動画像を構成するフレーム画像に含まれる物体を識別する識別部1001と、カメラ401により撮像された動画像を構成するフレーム画像と、識別部1001により識別された物体に対応する画像と、を合成した合成画像を生成する生成部1002と、生成部1002により生成された合成画像をLCD406に表示する表示制御部1003と、を備えることにより、合成画像をLCD406に表示させる際に、カメラ410に撮像された動画像を構成するフレーム画像に合成する画像を顧客が選択する必要がなくなるので、より簡単に拡張現実(合成画像)の提示を受けることができる。   As described above, according to the client terminal 401 according to the present embodiment, the camera 410 that captures the moving image in the showroom and the identification unit 1001 that identifies the object included in the frame image that forms the moving image captured by the camera 410. And a generation unit 1002 that generates a composite image obtained by combining the frame image constituting the moving image captured by the camera 401 and the image corresponding to the object identified by the identification unit 1001, and the generation unit 1002. A display control unit 1003 for displaying the synthesized image on the LCD 406, so that when the synthesized image is displayed on the LCD 406, the customer selects an image to be synthesized with the frame image constituting the moving image captured by the camera 410. So you can receive the augmented reality (synthesized image) more easily.

以上説明したとおり、第1から第2の実施形態によれば、より簡単に拡張現実の提示を受けることができる。   As described above, according to the first and second embodiments, it is possible to receive an augmented reality presentation more easily.

なお、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、ROM等に予め組み込まれて提供されるが、これに限定するものではない。例えば、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   Note that the program executed in the fitting room terminal 101 and the client terminal 401 of the present embodiment is provided by being incorporated in advance in a ROM or the like, but is not limited thereto. For example, the program executed in the fitting room terminal 101 and the client terminal 401 according to the present embodiment is a file in an installable format or an executable format, and is a CD-ROM, flexible disk (FD), CD-R, DVD (Digital It may be configured to be recorded on a computer-readable recording medium such as Versatile Disk).

さらに、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the program executed in the fitting room terminal 101 and the client terminal 401 according to the present embodiment may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. good. Further, the program executed in the fitting room terminal 101 and the client terminal 401 of the present embodiment may be provided or distributed via a network such as the Internet.

本実施形態の試着室端末101およびクライアント端末401で実行されるプログラムは、上述した各部(識別部701,1001、生成部702,1002、表示制御部703,1003)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、識別部701,1001、生成部702,1002、表示制御部703,1003が主記憶装置上に生成されるようになっている。   The program executed in the fitting room terminal 101 and the client terminal 401 according to the present embodiment has a module configuration including the above-described units (identification units 701 and 1001, generation units 702 and 1002, display control units 703 and 1003). As actual hardware, a CPU (processor) reads out and executes a program from the ROM, and the above-described units are loaded onto the main storage device. The identification units 701 and 1001, the generation units 702 and 1002, and the display control unit 703. , 1003 are generated on the main storage device.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 拡張現実システム
101 試着室端末
107,406 LCD
109,410 カメラ
110 衣料品
111 RFIDタグ
112 ICチップ
113 タグアンテナ
114,409 RFIDリーダライタ
119,402 CPU
120,403 ROM
121,404 RAM
123,407 通信インタフェース
300 通信回線
301 コンピュータ
401 クライアント端末
701,1001 識別部
702,1002 生成部
703,1003 表示制御部
F1 商品ファイル
F2 商品分類ファイル
1 Augmented Reality System 101 Fitting Room Terminal 107,406 LCD
109,410 Camera 110 Clothing 111 RFID tag 112 IC chip 113 Tag antenna 114,409 RFID reader / writer 119,402 CPU
120,403 ROM
121,404 RAM
123,407 Communication interface 300 Communication line 301 Computer 401 Client terminal 701, 1001 Identification unit 702, 1002 Generation unit 703, 1003 Display control unit F1 Product file F2 Product classification file

特開2007−37078号公報JP 2007-37078 A

Claims (6)

動画像を撮像する撮像手段と、
前記撮像された動画像に含まれる物体を識別する識別手段と、
前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する生成手段と、
前記生成した合成画像を表示部に表示する表示制御手段と、
を備えた映像表示装置。
An imaging means for capturing a moving image;
Identification means for identifying an object included in the captured moving image;
Generating means for generating a composite image obtained by combining the image corresponding to the identified object and the captured moving image;
Display control means for displaying the generated composite image on a display unit;
A video display device comprising:
前記識別手段は、前記撮像された動画像に含まれる物体を特定する特定情報が記憶されかつ無線通信により前記特定情報が読み取られるタグから、無線通信により前記特定情報を読み取り、前記読み取った特定情報により特定される物体を、前記撮像された動画像に含まれる物体として識別する請求項1に記載の映像表示装置。   The identification unit reads the specific information by wireless communication from a tag in which specific information for specifying an object included in the captured moving image is stored and the specific information is read by wireless communication, and the read specific information The video display device according to claim 1, wherein an object specified by the method is identified as an object included in the captured moving image. 前記生成手段は、前記識別手段により識別された物体に対応する画像を、前記撮像された動画像における所定の位置に合成した前記合成画像を生成する請求項1または2に記載の映像表示装置。   The video display device according to claim 1, wherein the generation unit generates the composite image obtained by combining an image corresponding to the object identified by the identification unit at a predetermined position in the captured moving image. 前記生成手段は、前記撮像された動画像において、前記識別された物体が属する分類に応じて予め設定された前記所定の位置に、前記識別された物体に対応する画像を合成した前記合成画像を生成する請求項3に記載の映像表示装置。   The generating means combines the synthesized image obtained by synthesizing the image corresponding to the identified object at the predetermined position set in advance according to the classification to which the identified object belongs in the captured moving image. The video display device according to claim 3 to be generated. 前記生成手段は、前記識別手段により複数の物体が識別された場合、前記識別された各物体に対応する複数の画像を、前記識別された各物体が属する分類に応じて予め設定された順番に従って前記撮像された動画像に重ね合わせた前記合成画像を生成する請求項1から4のいずれか一に記載の映像表示装置。   In the case where a plurality of objects are identified by the identifying means, the generating means displays a plurality of images corresponding to the identified objects according to a predetermined order according to a classification to which the identified objects belong. The video display device according to claim 1, wherein the composite image superimposed on the captured moving image is generated. コンピュータを、
撮像部により撮像された動画像に含まれる物体を識別する識別手段と、
前記識別された物体に対応する画像と前記撮像された動画像とを合成した合成画像を生成する生成手段と、
前記生成した合成画像を表示部に表示する表示制御手段と、
として機能させるためのプログラム。




Computer
Identification means for identifying an object included in the moving image captured by the imaging unit;
Generating means for generating a composite image obtained by combining the image corresponding to the identified object and the captured moving image;
Display control means for displaying the generated composite image on a display unit;
Program to function as.




JP2011193249A 2011-09-05 2011-09-05 Image display device and program Pending JP2013054598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011193249A JP2013054598A (en) 2011-09-05 2011-09-05 Image display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011193249A JP2013054598A (en) 2011-09-05 2011-09-05 Image display device and program

Publications (1)

Publication Number Publication Date
JP2013054598A true JP2013054598A (en) 2013-03-21

Family

ID=48131513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011193249A Pending JP2013054598A (en) 2011-09-05 2011-09-05 Image display device and program

Country Status (1)

Country Link
JP (1) JP2013054598A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149022A (en) * 2015-02-12 2016-08-18 株式会社キヌガワ京都 Sales support program and sales support device
CN107111923A (en) * 2014-11-07 2017-08-29 马里利亚标签公司 Apparatus and method for fitting room

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186965A (en) * 2001-12-19 2003-07-04 Hitachi Ltd Apparel selection supporting system and method
JP2004003058A (en) * 2002-05-31 2004-01-08 Casio Comput Co Ltd Electronic equipment, and fitting management program
JP2005174204A (en) * 2003-12-15 2005-06-30 Fuji Xerox Co Ltd Catalog-preparing system, image processor, image processing method and its program
JP2009282676A (en) * 2008-05-21 2009-12-03 Toshiba Tec Corp Fitting room terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003186965A (en) * 2001-12-19 2003-07-04 Hitachi Ltd Apparel selection supporting system and method
JP2004003058A (en) * 2002-05-31 2004-01-08 Casio Comput Co Ltd Electronic equipment, and fitting management program
JP2005174204A (en) * 2003-12-15 2005-06-30 Fuji Xerox Co Ltd Catalog-preparing system, image processor, image processing method and its program
JP2009282676A (en) * 2008-05-21 2009-12-03 Toshiba Tec Corp Fitting room terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107111923A (en) * 2014-11-07 2017-08-29 马里利亚标签公司 Apparatus and method for fitting room
JP2018502361A (en) * 2014-11-07 2018-01-25 マリエラ ラベルズ オーワイ Fitting room configuration and method
JP2016149022A (en) * 2015-02-12 2016-08-18 株式会社キヌガワ京都 Sales support program and sales support device

Similar Documents

Publication Publication Date Title
US11514497B2 (en) Method of using, apparatus, product, and system for a no touch point-of-sale self-checkout
US20160140534A1 (en) Information processing apparatus, store system and method
US10803438B2 (en) Reading apparatus
JP2013210971A (en) Information processing apparatus and program
JP2014170314A (en) Information processing system, information processing method, and program
JP5511864B2 (en) Store accounting system and store accounting program
JP2013084182A (en) Information processor and program
JP5551140B2 (en) Information processing apparatus and program
JP2014052800A (en) Information processing apparatus and program
JP5622756B2 (en) Product reading apparatus and product reading program
JP6208091B2 (en) Information processing apparatus and program
US20160171581A1 (en) Apparatus and method for locating products in a retail store using a mobile device
JP6886906B2 (en) Readers and programs
JPWO2013147003A1 (en) Digital signage system, digital signage, article information presentation method and program
JP2012108805A (en) Try-on system
JP2018160108A (en) Settlement processor, method and program
US20170076270A1 (en) Image recognition system that performs code detection and image recognition concurrently
JP7289613B2 (en) Merchandise management system and merchandise management method
US9245264B2 (en) Reading apparatus
JP2020064331A (en) Reader and program
US9355395B2 (en) POS terminal apparatus and commodity specification method
US20180005214A1 (en) Check-out system with merchandise reading apparatus and pos terminal
JP2014052806A (en) Information processor and program
JP2013054598A (en) Image display device and program
US20150058170A1 (en) Digital signage system, digital signage, article information presenting method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131119