JPWO2019150531A1 - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JPWO2019150531A1
JPWO2019150531A1 JP2019568503A JP2019568503A JPWO2019150531A1 JP WO2019150531 A1 JPWO2019150531 A1 JP WO2019150531A1 JP 2019568503 A JP2019568503 A JP 2019568503A JP 2019568503 A JP2019568503 A JP 2019568503A JP WO2019150531 A1 JPWO2019150531 A1 JP WO2019150531A1
Authority
JP
Japan
Prior art keywords
image
image display
unit
image data
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019568503A
Other languages
Japanese (ja)
Other versions
JP7150755B2 (en
Inventor
川前 治
治 川前
奥 万寿男
万寿男 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2019150531A1 publication Critical patent/JPWO2019150531A1/en
Priority to JP2022154897A priority Critical patent/JP7410246B2/en
Application granted granted Critical
Publication of JP7150755B2 publication Critical patent/JP7150755B2/en
Priority to JP2023215565A priority patent/JP2024038005A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)

Abstract

AR画像を表示する端末装置などを不要としながら複数の被説明者に対してリアルタイムに物品に係る情報を提示する。画像表示装置1は、携帯情報端末2および該携帯情報端末2から出力される画像データを投射する。携帯情報端末2は、カメラ206,207、ディスプレイ212、および画像処理制御部を有する。カメラ206,207は、画像を撮影する。ディスプレイ212は、カメラ206,207が撮影した画像を表示する。画像処理制御部は、CPU203、無線LANインタフェース202、および画像処理プロセッサ208などからなり、ディスプレイ212に表示される画像から選択された物品が具備する通信機能部に対して画像データを送信させる。プロジェクタ3は、携帯情報端末2が受信した画像データから情報画像を投射する。Information related to goods is presented to a plurality of people to be explained in real time without the need for a terminal device for displaying AR images. The image display device 1 projects the mobile information terminal 2 and the image data output from the mobile information terminal 2. The mobile information terminal 2 has cameras 206 and 207, a display 212, and an image processing control unit. The cameras 206 and 207 take an image. The display 212 displays images taken by the cameras 206 and 207. The image processing control unit includes a CPU 203, a wireless LAN interface 202, an image processing processor 208, and the like, and causes the communication function unit of an article selected from the images displayed on the display 212 to transmit image data. The projector 3 projects an information image from the image data received by the mobile information terminal 2.

Description

本発明は、画像表示装置および画像表示方法に関し、特に、展示あるいは陳列されている物品などの理解促進に有効な技術に関する。 The present invention relates to an image display device and an image display method, and more particularly to a technique effective for promoting understanding of an article displayed or displayed.

近年、AR(Augmented Reality:拡張現実)を利用したサービスの提案がされている。ARは、ARトリガと呼ばれる2次元画像をデジタルカメラあるいはスマートフォンに内蔵されるカメラなどにて撮影して、ARトリガで紐付けしている情報の画像をカメラ撮影画像にリアルタイムに合成表示させる。 In recent years, services using AR (Augmented Reality) have been proposed. AR captures a two-dimensional image called an AR trigger with a digital camera or a camera built in a smartphone, and displays an image of information associated with the AR trigger in real time on the image captured by the camera.

ARを利用したサービスを提供する技術として、例えば合成表示されるAR画像を画像共有データベースに蓄積させて、サービス提供サーバを介してAR画像を提供することにより、ユーザ以外の他ユーザにもAR画像の観閲を可能とするものがある(例えば特許文献1参照)。 As a technology for providing a service using AR, for example, by accumulating a composite display AR image in an image sharing database and providing the AR image via a service providing server, the AR image can be provided to users other than the user. There is something that enables viewing of (see, for example, Patent Document 1).

特開2014−229090号公報Japanese Unexamined Patent Publication No. 2014-229090

上述したように特許文献1の技術では、合成表示されるAR画像を画像共有データベースに蓄積させるためにAR画像を複数のユーザ間においてリアルタイムに共有することができない。 As described above, in the technique of Patent Document 1, the AR image cannot be shared in real time among a plurality of users in order to store the AR image to be compositely displayed in the image sharing database.

複数のユーザによりAR画像を共有するためには、各々のユーザに該AR画像を表示する端末装置がそれぞれ必要となる。すなわち、AR画像を表示する端末装置をユーザ数分用意しなければならず、ユーザ数が多い場合には、AR画像の共有が困難である。 In order to share an AR image among a plurality of users, a terminal device for displaying the AR image is required for each user. That is, it is necessary to prepare terminal devices for displaying AR images for the number of users, and when the number of users is large, it is difficult to share the AR images.

本発明の目的は、AR画像を表示する端末装置を不要としながら複数の被説明者に対してリアルタイムに物品に係る情報を提示することができる技術を提供することにある。 An object of the present invention is to provide a technique capable of presenting information related to an article to a plurality of people to be explained in real time without requiring a terminal device for displaying an AR image.

本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other purposes and novel features of the present invention will become apparent from the description and accompanying drawings herein.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。 A brief description of typical inventions disclosed in the present application is as follows.

すなわち、代表的な画像表示装置は、携帯情報端末および画像表示部を備える。携帯情報端末は、外部から送信される物品に係る情報である画像データを受信する。画像表示部は、携帯情報端末から出力される画像データから生成他情報画像を投射する。 That is, a typical image display device includes a mobile information terminal and an image display unit. The mobile information terminal receives image data which is information related to an article transmitted from the outside. The image display unit projects a generated other information image from the image data output from the mobile information terminal.

携帯情報端末は、カメラ部、表示部、および画像処理制御部を有する。カメラ部は、画像を撮影する。表示部は、カメラ部が撮影した画像を表示する。画像処理制御部は、選択された物品から画像データを取得して、取得した画像データを画像表示部に出力する。 The mobile information terminal has a camera unit, a display unit, and an image processing control unit. The camera unit captures an image. The display unit displays an image taken by the camera unit. The image processing control unit acquires image data from the selected article and outputs the acquired image data to the image display unit.

そして、画像処理制御部は、表示部に表示される画像から選択された物品が具備する通信機能部に対して画像データを送信させる。 Then, the image processing control unit causes the communication function unit of the article selected from the images displayed on the display unit to transmit the image data.

特に、画像処理制御部は、カメラ部から出力される距離データから検出した平坦部を投射領域として設定して、設定した投射領域に情報画像を投射するように画像表示部を制御する。また、画像処理制御部は、投射領域の背景色を検出して、投射領域に投射される情報画像と検出した背景色とのコントラストが強まるように画像データを補正する。 In particular, the image processing control unit sets a flat portion detected from the distance data output from the camera unit as a projection area, and controls the image display unit so as to project an information image on the set projection area. Further, the image processing control unit detects the background color of the projection area and corrects the image data so that the contrast between the information image projected on the projection area and the detected background color is strengthened.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 Among the inventions disclosed in the present application, the effects obtained by representative ones will be briefly described as follows.

(1)複数の被説明者に対してリアルタイムに物品に係る情報を提示することができる。 (1) Information related to an article can be presented to a plurality of people to be explained in real time.

(2)上記(1)により、利用者の利便性を向上させることができる。 (2) According to the above (1), the convenience of the user can be improved.

実施の形態1による画像表示装置における構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure in the image display apparatus according to Embodiment 1. FIG. 図1の画像表示装置の利用の一例を示す説明図である。It is explanatory drawing which shows an example of the use of the image display device of FIG. 図1の画像表示装置が有する画像処理プロセッサの処理例を示す説明図である。It is explanatory drawing which shows the processing example of the image processing processor which the image display apparatus of FIG. 1 has. 図1の画像表示装置による商品との通信シーケンスの一例を示す説明図である。It is explanatory drawing which shows an example of the communication sequence with a product by the image display device of FIG. 図3の平坦部検出における検出例を示す説明図である。It is explanatory drawing which shows the detection example in the flat part detection of FIG. 図3の投射画像データ補正における処理の一例を示す説明図である。It is explanatory drawing which shows an example of the process in the projection image data correction of FIG. 図1の画像表示装置のディスプレイに表示されるカメラ撮影画像の一例を示す説明図である。It is explanatory drawing which shows an example of the camera-photographed image displayed on the display of the image display apparatus of FIG. 図1の画像表示装置による商品情報における表示の一例を示す説明図である。It is explanatory drawing which shows an example of the display in the product information by the image display device of FIG. 図1の画像表示装置による画像表示の他の例を示す説明図である。It is explanatory drawing which shows another example of the image display by the image display device of FIG. 図9の他の例を示す説明図である。It is explanatory drawing which shows the other example of FIG. 図1の画像表示装置による動き検出、カメラ撮影状態、およびプロジェクタ投射状態の関係を示す説明図である。It is explanatory drawing which shows the relationship of the motion detection by the image display device of FIG. 1, the camera shooting state, and the projector projection state. 実施の形態2による画像表示装置における構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure in the image display apparatus according to Embodiment 2. 実施の形態3による画像表示装置における構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure in the image display apparatus according to Embodiment 3. 実施の形態4による画像表示装置を用いた画像表示システムおける構成の一例を示す説明図である。It is explanatory drawing which shows an example of the structure in the image display system using the image display device according to Embodiment 4.

実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 In all the drawings for explaining the embodiment, the same members are, in principle, given the same reference numerals, and the repeated description thereof will be omitted.

(実施の形態1)
以下、実施の形態を詳細に説明する。
(Embodiment 1)
Hereinafter, embodiments will be described in detail.

〈画像表示装置の構成例〉
図1は、本実施の形態1による画像表示装置1における構成の一例を示す説明図である。
<Configuration example of image display device>
FIG. 1 is an explanatory diagram showing an example of a configuration in the image display device 1 according to the first embodiment.

画像表示装置1は、図1に示すように携帯情報端末2およびプロジェクタ3を有する。携帯情報端末2は、モバイル通信インタフェース201、無線LANインタフェース202、CPU(Central Processing Unit)203、RAM(Random Access Memory)204、フラッシュROM(Read Only Memory)205、カメラ206、カメラ207、画像処理プロセッサ208、センサ209、ビデオプロセッサ210、グラフィックプロセッサ211、ディスプレイ212、音声通話用のマイク/スピーカ213、外部インタフェース214、外部端子215、ビーコン送受信部216などを有する。上記した各機能ブロックは、共通バス217により相互に接続されている。 The image display device 1 has a mobile information terminal 2 and a projector 3 as shown in FIG. The mobile information terminal 2 includes a mobile communication interface 201, a wireless LAN interface 202, a CPU (Central Processing Unit) 203, a RAM (Random Access Memory) 204, a flash ROM (Read Only Memory) 205, a camera 206, a camera 207, and an image processor. It has 208, a sensor 209, a video processor 210, a graphic processor 211, a display 212, a microphone / speaker 213 for voice communication, an external interface 214, an external terminal 215, a beacon transmitter / receiver 216, and the like. The above-mentioned functional blocks are connected to each other by a common bus 217.

画像表示部であるプロジェクタ3は、外部端子215を介し、携帯情報端末2に接続されている。プロジェクタ3の投射口である投射レンズ面は、カメラ206およびカメラ207がそれぞれ有するレンズ面とおおよそ同じ方向を向くように設置されている。また、設置の調整を行う機構を採用してもよい。 The projector 3 which is an image display unit is connected to the mobile information terminal 2 via the external terminal 215. The projection lens surface, which is the projection port of the projector 3, is installed so as to face substantially the same direction as the lens surfaces of the camera 206 and the camera 207, respectively. Further, a mechanism for adjusting the installation may be adopted.

説明者は、画像表示装置1を手に持ち、カメラ206,207のレンズ面を被写体である物品(以下、商品という)に向けて撮影を行う。カメラ部であるカメラ206,207は、例えばステレオカメラである。ステレオカメラは、2つのカメラの視差を利用して、被写体を撮影するのに加えて、被写体とカメラ間の距離を測距する。 The explainer holds the image display device 1 in his hand and shoots the lens surfaces of the cameras 206 and 207 toward an article (hereinafter referred to as a product) as a subject. The cameras 206 and 207, which are camera units, are, for example, stereo cameras. The stereo camera uses the parallax of the two cameras to measure the distance between the subject and the camera in addition to photographing the subject.

この他に、カメラ206,207のいずれか一方のカメラを被写体を撮影するカメラとして用いて、他方のカメラをTOF(Time Of Flight)やSP(Structured Patter)などの方式によって被写体との距離を測距する専用のカメラとしてもよい。 In addition, one of the cameras 206 and 207 is used as a camera for shooting the subject, and the other camera is used to measure the distance to the subject by a method such as TOF (Time Of Flight) or SP (Structured Patter). It may be a dedicated camera for distance.

画像処理プロセッサ208は、カメラ206,207の撮影画像および距離データの処理を行う。CPU203、無線LANインタフェース202、および画像処理プロセッサ208などによって画像処理制御部が構成されている。 The image processing processor 208 processes the captured images and the distance data of the cameras 206 and 207. The image processing control unit is composed of a CPU 203, a wireless LAN interface 202, an image processing processor 208, and the like.

また、センサ209は、例えばジャイロセンサなどであり、カメラ206,207の撮影時における手振れなどを検知して、撮影時の手振れ補正を行い、安定した被写体の撮影を可能とさせる。 Further, the sensor 209 is, for example, a gyro sensor or the like, which detects camera shake during shooting by the cameras 206 and 207, corrects camera shake during shooting, and enables stable shooting of a subject.

モバイル通信インタフェース201は、3G(Generation)あるいは4Gと称されるモバイル通信機能を担い、無線LANインタフェース202は、Wi−fi(登録商標)などに代表される無線LAN(Local Area Network)機能を担う。無線LANインタフェース202には、無線LANだけでなく、Bluetooth(登録商標)などに例示される通信機能を含んでもよい。 The mobile communication interface 201 is responsible for a mobile communication function called 3G (Generation) or 4G, and the wireless LAN interface 202 is responsible for a wireless LAN (Local Area Network) function represented by Wi-fi (registered trademark). .. The wireless LAN interface 202 may include not only a wireless LAN but also a communication function exemplified by Bluetooth (registered trademark) and the like.

モバイル通信インタフェース201および無線LANインタフェース202は、周囲の通信環境に応じて相補的に動作する。例えば屋内では無線LANインタフェース202が選択され、屋外ではモバイル通信インタフェース201が選択される。 The mobile communication interface 201 and the wireless LAN interface 202 operate complementarily according to the surrounding communication environment. For example, the wireless LAN interface 202 is selected indoors, and the mobile communication interface 201 is selected outdoors.

被写体である商品についても、画像表示装置1との通信を行う図2に示す通信機能部300を備えている。この通信機能部300は、通信機能の他に該商品に係る情報である画像データあるいは後述する個体情報などのデータなどを格納する図示しない格納部などを有している。以下、画像表示装置1は、商品に備えられる通信機能部300を通じて通信可能な商品を選択して、選択した商品と通信を行い、該商品に係る情報を得る。 The product, which is the subject, also includes the communication function unit 300 shown in FIG. 2, which communicates with the image display device 1. In addition to the communication function, the communication function unit 300 has a storage unit (not shown) for storing image data which is information related to the product or data such as individual information described later. Hereinafter, the image display device 1 selects a communicable product through the communication function unit 300 provided in the product, communicates with the selected product, and obtains information related to the product.

CPU203は、フラッシュROM205に格納されているアプリケーションやOS(オペレーティングシステム)などのプログラムを実行する。実行に当たっては、フラッシュROM205のプログラムは、揮発性半導体メモリであるRAM204に展開される。 The CPU 203 executes a program such as an application or an OS (operating system) stored in the flash ROM 205. In execution, the program of the flash ROM 205 is expanded into the RAM 204, which is a volatile semiconductor memory.

フラッシュROM205は、データを書き換えすることができる不揮発性半導体メモリであり、プログラムのほか、商品に係る情報、および商品に係る情報の画像のデータなどを保持する。これらデータについてもRAM204に展開される。 The flash ROM 205 is a non-volatile semiconductor memory in which data can be rewritten, and holds information related to products, image data of information related to products, and the like in addition to programs. These data are also expanded in RAM 204.

また、CPU203が実行するプログラムは、アプリケーションやOSに加えて、共通バス217に繋がる画像処理プロセッサ208、ビデオプロセッサ210、およびグラフィックプロセッサ211などの制御プログラムなどを含む。 Further, the program executed by the CPU 203 includes, in addition to the application and the OS, control programs such as an image processor 208, a video processor 210, and a graphic processor 211 connected to the common bus 217.

上述した商品に係る情報、すなわち画像データは、CPU203、ビデオプロセッサ210、およびグラフィックプロセッサ211にて処理され、プロジェクタ3によって投射可能な画像である情報画像に変換される。 The information related to the above-mentioned product, that is, image data is processed by the CPU 203, the video processor 210, and the graphic processor 211, and converted into an information image which is an image that can be projected by the projector 3.

商品に係る情報がMPEG(Moving Picture Experts Group)やJPEG(Joint Photographic Experts Group)などの圧縮された画像データである場合には、ビデオプロセッサ210により復号が行われる。ハイパーテキストなどのデータである場合には、グラフィックプロセッサ211が画像データに変換する。得られた画像データは、外部インタフェース214および外部端子215を介してプロジェクタ3に送出される。 When the information related to the product is compressed image data such as MPEG (Moving Picture Experts Group) or JPEG (Joint Photographic Experts Group), the video processor 210 decodes the information. In the case of data such as hypertext, the graphic processor 211 converts it into image data. The obtained image data is transmitted to the projector 3 via the external interface 214 and the external terminal 215.

ディスプレイ212は、例えばタッチパネルを有しており、カメラ206,207の撮影画像、あるいはアプリケーションの実行画面を表示する。また、必要に応じてユーザの入力操作を促して、画像表示装置1でのインタラクティブ操作を可能とさせる。 The display 212 has, for example, a touch panel, and displays captured images of the cameras 206 and 207 or an application execution screen. In addition, the user's input operation is urged as necessary to enable interactive operation on the image display device 1.

ビーコン送受信部216は、商品に向けてビーコン信号を送信するとともに、商品から送信されるビーコン信号を受信する。ビーコン信号は、画像表示装置1の周辺にある商品の存在を検知する際に用いられる。 The beacon transmission / reception unit 216 transmits a beacon signal toward the product and receives the beacon signal transmitted from the product. The beacon signal is used when detecting the presence of a product in the vicinity of the image display device 1.

〈画像表示装置の利用例〉
図2は、図1の画像表示装置1の利用の一例を示す説明図である。
<Example of using an image display device>
FIG. 2 is an explanatory diagram showing an example of using the image display device 1 of FIG.

この図2では、画像表示装置1がスマートフォンからなる例を示したものであり、スマートフォンには、プロジェクタ3が内蔵されている。また、図2では、商品としてスーツケース6を説明する例を示している。 FIG. 2 shows an example in which the image display device 1 is composed of a smartphone, and the smartphone has a built-in projector 3. Further, FIG. 2 shows an example of explaining the suitcase 6 as a product.

図2において、商品であるスーツケース6を説明する説明者4は、画像表示装置1を保持して、カメラ206,207のレンズ面をスーツケース6に向けて撮影する。撮影画像は、ディスプレイ212に表示される。そして、ディスプレイ212の表示画面上にて、説明者4は、説明する商品を選択する。商品の選択は、例えば説明者が説明するスーツケース6の画像をタッチすることなどによって行われる。 In FIG. 2, the explainer 4 explaining the suitcase 6 as a product holds the image display device 1 and shoots the lens surfaces of the cameras 206 and 207 toward the suitcase 6. The captured image is displayed on the display 212. Then, on the display screen of the display 212, the explainer 4 selects the product to be explained. The product is selected, for example, by touching the image of the suitcase 6 explained by the explainer.

説明する商品であるスーツケース6が選択されると、画像表示装置1とスーツケース6が有する通信機能部300とが通信信号21a,21bを用いてそれぞれ通信を行う。これにより、画像表示装置1は、選択したスーツケース6から該スーツケース6に係る情報を得る。 When the suitcase 6, which is the product to be described, is selected, the image display device 1 and the communication function unit 300 included in the suitcase 6 communicate with each other using the communication signals 21a and 21b, respectively. As a result, the image display device 1 obtains information related to the suitcase 6 from the selected suitcase 6.

さらに、画像表示装置1は、通信から得るスーツケース6に係る情報である画像データを情報画像に変換して、スーツケース6に対して投射することによりて、情報画面である投射画面30を被説明者5a,5b,5cに提示する。 Further, the image display device 1 covers the projection screen 30 which is an information screen by converting the image data which is the information related to the suitcase 6 obtained from the communication into an information image and projecting it onto the suitcase 6. It will be presented to the explainers 5a, 5b and 5c.

これにより、被説明者5a,5b,5cは、スーツケース6と投射画面30とを同時に見ながら説明者4が行う説明を受けることができる。このように、複数の被説明者によって商品の情報を観閲する際に、個々の被説明者5a,5b,5cが商品の情報を閲覧するAR(Augmented Reality)ヘッドマウントディスプレイや表示装置などの端末装置をそれぞれ用意しなくてもよいので、装置コストを低減しながら、利用者の利便性を向上させることができる。 As a result, the person to be explained 5a, 5b, 5c can receive the explanation given by the person to be explained 4 while simultaneously looking at the suitcase 6 and the projection screen 30. In this way, when the product information is viewed by a plurality of explained persons, terminals such as AR (Augmented Reality) head-mounted displays and display devices in which the individual explained persons 5a, 5b, and 5c view the product information. Since it is not necessary to prepare each device, it is possible to improve the convenience of the user while reducing the device cost.

〈画像処理プロセッサの処理例〉
図3は、図1の画像表示装置1が有する画像処理プロセッサ208の処理例を示す説明図である。この図3では、画像処理プロセッサ208による処理の一例としたが、以下に示す処理は、画像処理プロセッサ208とCPU203とによって行うものであってもよい。
<Processing example of image processor>
FIG. 3 is an explanatory diagram showing a processing example of the image processing processor 208 included in the image display device 1 of FIG. In FIG. 3, an example of processing by the image processing processor 208 is taken, but the processing shown below may be performed by the image processing processor 208 and the CPU 203.

画像処理プロセッサ208は、第1の処理、第2の処理、および第3の処理をそれぞれ実行する。第1の処理は、商品認識および商品決定操作受信を行う処理である。第2の処理は、距離データ受信、平坦部検出、および投射領域決定を行う処理である。第3の処理は、投射画像データ受信、投射画像データ補正、および投射画像データ送出を行う。 The image processor 208 executes the first process, the second process, and the third process, respectively. The first process is a process of performing product recognition and receiving a product determination operation. The second process is a process of receiving distance data, detecting a flat portion, and determining a projection area. The third process performs projection image data reception, projection image data correction, and projection image data transmission.

第1の処理において、商品認識では、カメラ206,207の撮影画像を画像処理して商品を認識する(ステップS101)。商品認識に関しては、予めビーコン送受信部216によるビーコン通信を用いて、近くにある商品の存在を検知する。 In the first process, in the product recognition, the captured images of the cameras 206 and 207 are image-processed to recognize the product (step S101). Regarding product recognition, the presence of a nearby product is detected in advance by using beacon communication by the beacon transmission / reception unit 216.

ビーコン送受信部216は、特定の商品に向けて発信するものでないので、画像表示装置1の周辺にビーコン信号に応答する商品が複数ある場合には、複数の商品が検知される。あるいはカメラ206,207の撮影画像から物体の画像認識を行い、その結果に基づいて、商品を判別するようにしてもよい。ビーコン通信によって予め商品の存在が絞り込まれているため、画像認識の計算負荷が軽減される。 Since the beacon transmission / reception unit 216 does not transmit to a specific product, if there are a plurality of products that respond to the beacon signal in the vicinity of the image display device 1, the plurality of products are detected. Alternatively, the image of the object may be recognized from the images taken by the cameras 206 and 207, and the product may be discriminated based on the result. Since the existence of products is narrowed down in advance by beacon communication, the calculation load of image recognition is reduced.

検知された商品は、ディスプレイ212に選択候補として提示する。この場合、ディスプレイ212に表示されるカメラ206,207の撮影画像において、選択候補の商品、すなわち検出した商品を識別マークである枠などによって囲む表示などを行うことによって、説明者4に選択候補であることを認識させる。 The detected product is presented on the display 212 as a selection candidate. In this case, in the captured images of the cameras 206 and 207 displayed on the display 212, the selected product, that is, the detected product is surrounded by a frame or the like which is an identification mark, so that the explainer 4 can select the selected product. Make them recognize that there is.

説明者4は、カメラ206,207の撮影画像の表示画面で、商品の画像をタッチするなどの操作を行い、説明の対象とする商品を決定する。商品決定操作受信では、画像処理プロセッサ208が説明の対象とする商品を決定した際の決定指示を受信する(ステップS102)。 The explainer 4 performs an operation such as touching an image of the product on the display screen of the captured image of the cameras 206 and 207 to determine the product to be explained. In the product determination operation reception, the image processing processor 208 receives a determination instruction when the product to be described is determined (step S102).

第2の処理において、距離データ受信では、カメラ206,207から距離データを受信する(ステップS103)。距離データは、例えばカメラ206,207の撮影画像の画素単位に付随するものである。平坦部検出では、該距離データを用いて、距離の変動偏差が予め設定される基準値以内の領域を平坦部として判定する(ステップS104)。 In the second process, in the distance data reception, the distance data is received from the cameras 206 and 207 (step S103). The distance data is, for example, attached to each pixel of the captured image of the cameras 206 and 207. In the flat portion detection, a region in which the fluctuation deviation of the distance is within a preset reference value is determined as a flat portion using the distance data (step S104).

投射領域決定では、平坦部として判定された領域から、投射領域を決定する(ステップS105)。投射領域は、ひとつの平坦部を選択してもよいが、複数の平坦部の組み合わせとして選択してもよい。 In the projection area determination, the projection area is determined from the area determined as the flat portion (step S105). The projection region may be selected as one flat portion, or may be selected as a combination of a plurality of flat portions.

第3の処理において、投射画像データ受信では、ビデオプロセッサ210およびグラフィックプロセッサ211にて得る商品に係る情報の画像データを選択したスーツケース6、すなわちステップS102の処理にて決定した商品から受信する(ステップS106)。 In the third process, in the projected image data reception, the image data of the information related to the product obtained by the video processor 210 and the graphic processor 211 is received from the selected suitcase 6, that is, the product determined in the process of step S102 ( Step S106).

投射画像データ補正は、図2に示したように商品であるスーツケース6に投射画面30を投射する際に投射領域の背景色、投射領域の形状などを考慮して、投射画像データの色合い変更あるいは形状変換などを行う(ステップS107)。これにより、投射画面が見やすくなるように修正される。 In the projection image data correction, as shown in FIG. 2, when the projection screen 30 is projected onto the suitcase 6 which is a product, the color tone of the projection image data is changed in consideration of the background color of the projection area, the shape of the projection area, and the like. Alternatively, shape conversion or the like is performed (step S107). This is modified so that the projection screen is easier to see.

投射画像データ送出では、投射画像データ補正の処理にて修正された投射画像データを図1の外部インタフェース214などを介してプロジェクタ3に送出する(ステップS108)。 In the projected image data transmission, the projected image data corrected by the projection image data correction process is transmitted to the projector 3 via the external interface 214 of FIG. 1 or the like (step S108).

なお、図3では、上述した第1の処理、第2の処理、および第3の処理をそれぞれ順番に処理する例を示したが、これらの処理の順番は、これに限定されるものではない。例えば第1の処理と第2の処理、第2処理と第3の処理、第1の処理と第3の処理、あるいは第1の処理〜第3の処理までを並列に処理するようにしてもよい。 Note that FIG. 3 shows an example in which the above-mentioned first process, second process, and third process are processed in order, but the order of these processes is not limited to this. .. For example, even if the first process and the second process, the second process and the third process, the first process and the third process, or the first process to the third process are processed in parallel. Good.

〈画像表示装置と商品との通信例〉
図4は、図1の画像表示装置1による商品との通信シーケンスの一例を示す説明図である。
<Example of communication between an image display device and a product>
FIG. 4 is an explanatory diagram showing an example of a communication sequence with a product by the image display device 1 of FIG.

まず、画像表示装置1は、説明する商品を検出するためにビーコン送受信部216からビーコン信号を送信する(ステップS201)。このビーコン信号は、上述したように特定の商品に向けて発信するものでない。 First, the image display device 1 transmits a beacon signal from the beacon transmission / reception unit 216 in order to detect the product to be described (step S201). This beacon signal is not transmitted to a specific product as described above.

よって、ビーコン信号を受信した画像表示装置1の周辺にある複数の商品が該ビーコン信号を受信したことを示すビーコン応答を返す(ステップS202)。このビーコン応答には、例えば商品を特定する商品コードあるいは型番などの個体情報が含まれている。 Therefore, a beacon response indicating that a plurality of products around the image display device 1 that has received the beacon signal have received the beacon signal is returned (step S202). This beacon response includes individual information such as a product code or model number that identifies the product, for example.

また、ステップS202の処理であるビーコン応答は、ビーコン信号に替えて、例えば無線LANインタフェース202などによるブロードキャスト通信などを用いてもよい。 Further, the beacon response, which is the process of step S202, may use, for example, broadcast communication by a wireless LAN interface 202 or the like instead of the beacon signal.

画像表示装置1において、画像処理プロセッサ208は、周辺にある商品からの応答を確認して、商品を説明する商品を決定する(ステップS203)。ステップS203の処理では、説明者4が図3の商品決定操作受信(ステップS102)において選択した商品を説明する商品として決定する。 In the image display device 1, the image processing processor 208 confirms the response from the surrounding products and determines the product explaining the product (step S203). In the process of step S203, the explainer 4 determines the product selected in the product determination operation reception (step S102) of FIG. 3 as a product to explain.

商品が決定された際、画像処理プロセッサ208は、画像認識処理によって決定した商品の個体情報を取得する。この場合、例えばフラッシュROM205などに各商品の特徴点および該特徴点に紐付いた個体情報などを示すテーブルが格納されている。画像処理プロセッサ208は、このテーブルに基づいて、決定された商品の個体情報を取得する。 When the product is determined, the image processing processor 208 acquires the individual information of the product determined by the image recognition process. In this case, for example, a flash ROM 205 or the like stores a table showing feature points of each product and individual information associated with the feature points. The image processor 208 acquires the individual information of the determined product based on this table.

続いて、CPU203は、取得した個体情報に合致する商品に対してデータリクエストを送信する(ステップS204)。この場合、ビーコン応答に含まれる個体情報を検索し、商品の決定の際に取得した個体情報と一致する商品を検索する。 Subsequently, the CPU 203 transmits a data request to the product that matches the acquired individual information (step S204). In this case, the individual information included in the beacon response is searched, and the product that matches the individual information acquired at the time of determining the product is searched.

そして、ビーコン応答に含まれる個体情報と取得した個体情報とが一致する商品に対してデータリクエストを送信する。このデータリクエストは、例えば無線LANインタフェース202などによって送信される。 Then, a data request is transmitted to the product in which the individual information included in the beacon response and the acquired individual information match. This data request is transmitted by, for example, the wireless LAN interface 202.

商品6は、画像表示装置1からのデータリクエストに応えて、商品に係る情報のデータを送信する(ステップS205)。画像処理装置1は、無線LANインタフェース202を介して商品に係る情報のデータを受信する。 The product 6 transmits data of information related to the product in response to the data request from the image display device 1 (step S205). The image processing device 1 receives information data related to the product via the wireless LAN interface 202.

〈平坦部検出の検出例〉
図5は、図3の平坦部検出における検出例を示す説明図である。
<Detection example of flat part detection>
FIG. 5 is an explanatory diagram showing a detection example in the flat portion detection of FIG.

カメラ206,207の撮影画像は2次元の画像であり、対応する距離データも2次元のデータであるが、図5では、説明を簡単にするために1次元にて示している。図5(a)および図5(b)において、横軸は、画素の位置を示したものであり、縦軸は距離の大きさを示したものである。また、図5(a)の実線841aおよび図5(b)の実線841bは、距離データをそれぞれプロットしたものである。 The captured images of the cameras 206 and 207 are two-dimensional images, and the corresponding distance data is also two-dimensional data, but in FIG. 5, they are shown in one dimension for the sake of simplicity. In FIGS. 5 (a) and 5 (b), the horizontal axis indicates the position of the pixel, and the vertical axis indicates the magnitude of the distance. Further, the solid line 841a in FIG. 5A and the solid line 841b in FIG. 5B are plots of distance data, respectively.

図5(a)の場合には、実線841aに示すように、画素位置が位置X1〜位置X2の範囲もおいて距離の偏差がδに収まっている平坦部が検出できる。また、図5(b)の場合には、実線841bに示すように画素位置が位置X3〜位置X4の範囲において、距離が単調に増加しているものの、傾斜分を控除した偏差がδに収まっている傾斜付き平坦部が検出できる。傾斜つき平坦部においても、投射領域として選択することができる。 In the case of FIG. 5A, as shown by the solid line 841a, a flat portion having a pixel position in the range of positions X1 to X2 and a distance deviation within δ can be detected. Further, in the case of FIG. 5 (b), as shown in the solid line 841b, the distance increases monotonically in the range of the pixel positions from the position X3 to the position X4, but the deviation after deducting the inclination is within δ. The slanted flat part can be detected. Even in a flat portion with an inclination, it can be selected as a projection region.

〈投射画像データ補正の処理例〉
図6は、図3の投射画像データ補正における処理の一例を示す説明図である。
<Processing example of projected image data correction>
FIG. 6 is an explanatory diagram showing an example of processing in the projection image data correction of FIG.

この図6では、投射画像データ補正として、色明度補正、形状補正、および奥行き補正の3つの補正を行う例を示している。 FIG. 6 shows an example in which three corrections, color brightness correction, shape correction, and depth correction, are performed as projection image data correction.

色明度補正は、背景色検出および文字色補正を実行する。形状補正は、投射領域形状検出および画像データ形状補正を実行する。奥行き補正は、投射領域奥行き検出および画像データ奥行き補正を実行する。 The color brightness correction executes background color detection and character color correction. The shape correction executes projection area shape detection and image data shape correction. Depth correction executes projection area depth detection and image data depth correction.

まず、背景色検出において、カメラ206,207の撮影画像の投射領域の背景色を検出する(ステップS301)。そして、文字色補正にて、投射画像データに含まれる文字などの色補正および明度補正を行う(ステップS302)。これにより、背景とのコントラストを強めて投射画像の視認性を改善する。 First, in the background color detection, the background color of the projection area of the captured images of the cameras 206 and 207 is detected (step S301). Then, in the character color correction, color correction and brightness correction of characters and the like included in the projected image data are performed (step S302). This enhances the contrast with the background and improves the visibility of the projected image.

続いて、投射領域形状検出にて、投射領域が例えば台形である場合、曲面である場合、あるいは分離されて構成されている場合などの投射領域の形状を検出する(ステップS303)。 Subsequently, in the projection region shape detection, the shape of the projection region is detected, for example, when the projection region is trapezoidal, curved, or separated (step S303).

その後、画像データ形状補正において、検出された投射領域の形状に合わせて、投射画像データの形状補正を行い、投射画像を投射領域の範囲に収める(ステップS304)。 After that, in the image data shape correction, the shape of the projected image data is corrected according to the shape of the detected projection region, and the projected image is within the range of the projection region (step S304).

そして、投射領域奥行き検出にて、投射領域の奥行き形状を検出する(ステップS305)。この処理は、例えば距離データに傾斜があるような場合などに実行される。 Then, the depth shape of the projection area is detected by the projection area depth detection (step S305). This process is executed, for example, when the distance data has a slope.

続いて、画像データ奥行き補正にて、検出された奥行き形状に対する画像補正を行う(ステップS306)。この補正は、例えば投射領域の奥の方ほど文字を大きくするなどの補正である。これにより、表示される文字の歪みなどを低減することができる。 Subsequently, the image data depth correction performs image correction for the detected depth shape (step S306). This correction is, for example, a correction such as making the characters larger toward the back of the projection area. As a result, distortion of displayed characters can be reduced.

〈カメラ撮影画像の表示例〉
図7は、図1の画像表示装置1のディスプレイ212に表示されるカメラ撮影画像の一例を示す説明図である。
<Display example of camera shot image>
FIG. 7 is an explanatory diagram showing an example of a camera-photographed image displayed on the display 212 of the image display device 1 of FIG.

図7(a)は、説明者が説明する商品がスーツケース6であり、該スーツケース6の外観が撮影された場合の例を示している。 図7(b)は、図7(a)の商品であるスーツケース6の蓋が開かれた状態にて撮影された場合の例を示している。 FIG. 7A shows an example in which the product described by the explainer is a suitcase 6, and the appearance of the suitcase 6 is photographed. FIG. 7B shows an example of a case where the suitcase 6 which is the product of FIG. 7A is photographed with the lid open.

図7(a)および図7(b)において、ディスプレイ212には、商品であるスーツケース6の撮影画像に商品ポインタ62が表示されている。説明者4は、例えばディスプレイ212に表示される商品ポインタ62をタッチすることにより、商品ポインタ62直下にあるスーツケース6が選択される。 In FIGS. 7A and 7B, the product pointer 62 is displayed on the display 212 in the photographed image of the suitcase 6, which is a product. For example, the explainer 4 touches the product pointer 62 displayed on the display 212 to select the suitcase 6 directly below the product pointer 62.

図7(a)および図7(b)に示したように、スーツケース6が閉じられている状態あるいはスーツケース6の蓋が開けられている状態など、たとえ同じ商品であっても状態が異なる場合がある。 As shown in FIGS. 7 (a) and 7 (b), the states of the same product are different, such as the state in which the suitcase 6 is closed or the state in which the lid of the suitcase 6 is opened. In some cases.

このように、画像表示装置1は、商品の様々な状態に応じて最適な情報を選択して提供することができる。 As described above, the image display device 1 can select and provide the optimum information according to various states of the product.

〈商品情報の表示例〉
図8は、図1の画像表示装置1による商品情報における表示の一例を示す説明図である。
<Display example of product information>
FIG. 8 is an explanatory diagram showing an example of display in product information by the image display device 1 of FIG.

図8(a)は、図7(a)のカメラ206,207の撮影画像に対する情報の投射例を示している。すなわちスーツケース6を閉じた状態の外観に情報画像、すなわち該スーツケース6に係る情報の画像31aを投射している例を示している。 FIG. 8A shows an example of projecting information on the captured images of the cameras 206 and 207 of FIG. 7A. That is, an example is shown in which an information image, that is, an image 31a of information related to the suitcase 6 is projected on the appearance of the suitcase 6 in a closed state.

図8(b)は、図7(b)のカメラ206,207の撮影画像に対する情報の投射例を示している。すなわちスーツケース6の蓋を開いた状態にて、開いた蓋の内側に情報画像、すなわち該スーツケース6に係る情報の画像31bを投射している例を示している。 FIG. 8B shows an example of projecting information on the captured images of the cameras 206 and 207 of FIG. 7B. That is, an example is shown in which an information image, that is, an image 31b of information related to the suitcase 6 is projected on the inside of the opened lid with the lid of the suitcase 6 opened.

図8(a)および図8(b)に示すように、商品の状態に応じて情報となる画像31a,31bの内容が異なるように表示される。言い換えれば、同じ商品であっても、その状態によって、商品に係る情報の内容が異なるように表示される。 As shown in FIGS. 8 (a) and 8 (b), the contents of the images 31a and 31b, which are information, are displayed differently depending on the state of the product. In other words, even for the same product, the content of the information related to the product is displayed differently depending on the state.

スーツケース6の状態が図8(a)であることを画像処理プロセッサ208が認識すると、CPU203は、図8(a)の状態に応じた画像データを送信するようにデータリクエストする。 When the image processing processor 208 recognizes that the state of the suitcase 6 is the state of FIG. 8A, the CPU 203 requests data to transmit the image data according to the state of FIG. 8A.

また、スーツケース6が図8(b)であることを画像処理プロセッサ208が認識すると、CPU203は、図8(b)の状態に応じた画像データを送信するようにデータリクエストする。 Further, when the image processing processor 208 recognizes that the suitcase 6 is shown in FIG. 8B, the CPU 203 requests data to transmit the image data according to the state shown in FIG. 8B.

あるいは、すべての状態の画像データを一括にて、該スーツケース6から予め取得しておき、スーツケース6の状態に応じた画像データをCPU203が取り出してプロジェクタ3に出力するようにしてもよい。この場合も、スーツケース6の状態は、カメラ206,207によって撮影された画像によって画像処理プロセッサ208が認識する。 Alternatively, the image data of all the states may be collectively acquired from the suitcase 6 in advance, and the CPU 203 may take out the image data according to the state of the suitcase 6 and output it to the projector 3. In this case as well, the state of the suitcase 6 is recognized by the image processing processor 208 based on the images taken by the cameras 206 and 207.

これにより、被説明者は、より商品の特徴を把握しやすくなる。 This makes it easier for the person to be explained to understand the characteristics of the product.

〈商品情報の表示の他の例1〉
図9は、図1の画像表示装置1による画像表示の他の例を示す説明図である。
<Other example of displaying product information 1>
FIG. 9 is an explanatory diagram showing another example of image display by the image display device 1 of FIG.

この図9は、洋服の販売に画像表示装置1を適用した例を示したものである。 FIG. 9 shows an example in which the image display device 1 is applied to the sale of clothes.

まず、図9の右側に示す商品である洋服を着ているモデル64を画像表示装置1によって撮影する。ここで、モデル64は、マネキンなどであってもよい。この撮影画像の一部を切り出し、さらにその一部である顔の部分を被説明者の顔33に置き換えて、図9の左側に示すようにプロジェクタ3により情報画像である投射画像32を投射する。 First, the image display device 1 photographs a model 64 wearing clothes, which is a product shown on the right side of FIG. Here, the model 64 may be a mannequin or the like. A part of the photographed image is cut out, the face part which is a part thereof is replaced with the face 33 of the person to be explained, and the projection image 32 which is an information image is projected by the projector 3 as shown on the left side of FIG. ..

被説明者の顔画像33は、例えばモデル64をカメラ撮像する前に撮影する。撮影画像は、例えば画像表示装置1のフラッシュROM205あるいはRAM204などに格納される。そして、格納された顔画像33をモデル64のカメラ撮影画像と合成する。これにより、商品の実体とARのようなバーチャル画像を比較することができるという利点がある。 The face image 33 of the person to be explained is taken, for example, before the model 64 is imaged by the camera. The captured image is stored in, for example, the flash ROM 205 or RAM 204 of the image display device 1. Then, the stored face image 33 is combined with the camera-photographed image of the model 64. This has the advantage that the entity of the product can be compared with a virtual image such as AR.

〈商品情報の表示の他の例2〉
図10は、図9の他の例を示す説明図である。
<Other example of displaying product information 2>
FIG. 10 is an explanatory diagram showing another example of FIG.

この図10は、家屋の部屋66の説明に画像表示装置1を適用し例を示したものである。図10(a)は、部屋66に設けられた窓67から差し込む光を網掛けにて示す情報画像である投射画像34a,34bとして表示する例を示しいる。 FIG. 10 shows an example in which the image display device 1 is applied to the description of the room 66 of the house. FIG. 10A shows an example in which the light emitted from the window 67 provided in the room 66 is displayed as projected images 34a and 34b, which are information images showing the shaded area.

例えば不動産業者による物件の案内において、部屋66内部における1日の日照の動きを投射画像として高速で表示して、被説明者に提示することによりタイムラプス表示が可能となる。この場合、日照の動きのデータは、予めフラッシュROM205などに格納されており、フラッシュROM205などに格納された日照の動きのデータに基づいて、CPU203およびグラフィックプロセッサ211などが日照の1日の動きを高速で表示する投射画像を生成してプロジェクタ3によって投射される。 For example, in the guidance of a property by a real estate agent, a time-lapse display is possible by displaying the movement of the daily sunshine inside the room 66 as a projected image at high speed and presenting it to the person to be explained. In this case, the sunshine movement data is stored in the flash ROM 205 or the like in advance, and the CPU 203, the graphic processor 211, or the like performs the daily movement of the sunshine based on the sunshine movement data stored in the flash ROM 205 or the like. A projected image to be displayed at high speed is generated and projected by the projector 3.

図10(b)は、部屋66に設置されたエアコン68の風向きおよび風量を情報画像である矢印35a,35b,35cとして投射画像する例を示している。矢印35a,35b,35cの向きは、風向きを示しており、矢印35a,35b,35cの大きさは、風量を示している。例えば表示される矢印が大きくなるほど、風量が多くなるものとする。 FIG. 10B shows an example in which the wind direction and the air volume of the air conditioner 68 installed in the room 66 are projected as information images arrows 35a, 35b, and 35c. The directions of the arrows 35a, 35b, 35c indicate the wind direction, and the sizes of the arrows 35a, 35b, 35c indicate the air volume. For example, it is assumed that the larger the displayed arrow, the larger the air volume.

この場合、画像表示装置1は、例えばエアコン68を制御するリモートコントローラに適用する。エアコン68を多数の被説明者で共有している場合などにおいて、エアコン68の風の様子をわかりやすく伝えることができ、被説明者全員が納得する状態にエアコン68の風向きや風量などを制御することができる。 In this case, the image display device 1 is applied to, for example, a remote controller that controls the air conditioner 68. When the air conditioner 68 is shared by a large number of people to be explained, the state of the wind of the air conditioner 68 can be conveyed in an easy-to-understand manner, and the wind direction and volume of the air conditioner 68 can be controlled so that all the persons to be explained are satisfied. be able to.

なお、エアコンの制御に関する応用は、業務用途以外にも民生用途にも適用可能である。家庭用エアコンの場合でも、図10(b)は適用可能であり、例えば家庭用エアコンのリモートコントローラに適用することができる。 The application related to the control of the air conditioner can be applied not only to commercial use but also to consumer use. FIG. 10B is applicable even in the case of a home air conditioner, and can be applied to, for example, a remote controller of a home air conditioner.

さらに、民生用途としては、冷蔵庫などにも適用可能である。冷蔵庫に収納されている食品リストを商品に係る情報として提供するようにして、該情報の画像を冷蔵庫の壁面に投射して、家族間で共有する。 Furthermore, for consumer use, it can also be applied to refrigerators and the like. The food list stored in the refrigerator is provided as information related to the product, and an image of the information is projected on the wall surface of the refrigerator to be shared among the family.

この場合、投射される情報から食品を選択して、料理や調理方法の情報サイトにリンクするようにしておけば、ユーザの利便性を向上させることができる。 In this case, if food is selected from the projected information and linked to an information site for cooking and cooking methods, the convenience of the user can be improved.

続いて、カメラ206,207およびプロジェクタ3の切り替え技術について説明する。 Subsequently, the switching technique of the cameras 206 and 207 and the projector 3 will be described.

〈カメラおよびプロジェクタの同期動作例〉
図11は、図1の画像表示装置1による動き検出、カメラ撮影状態、およびプロジェクタ投射状態の関係を示す説明図である。
<Camera and projector synchronization operation example>
FIG. 11 is an explanatory diagram showing the relationship between motion detection by the image display device 1 of FIG. 1, a camera shooting state, and a projector projection state.

図11において、上方から下方にかけては、動き検出、カメラ撮影、およびプロジェクタ投影をそれぞれ示しており、横軸は、時刻を示している。動き検出は、センサ209による携帯情報端末2の動きの検出結果であり、「有」が動き検出したことを示し、「無」が動きを検出していないことを示している。 In FIG. 11, motion detection, camera shooting, and projector projection are shown from above to below, and the horizontal axis represents time. The motion detection is the result of detecting the motion of the mobile information terminal 2 by the sensor 209, and "Yes" indicates that the motion is detected, and "No" indicates that the motion is not detected.

カメラ撮影は、カメラ206,207による撮影状態を示したものであり、「ON」は撮影状態、すなわちカメラ206,207が起動している状態であることを示しており、「OFF」は、撮影状態でないこと、すなわちカメラ206,207が起動していない状態であることを示している。 The camera shooting indicates the shooting state by the cameras 206 and 207, "ON" indicates the shooting state, that is, the state in which the cameras 206 and 207 are activated, and "OFF" indicates the shooting state. It indicates that it is not in the state, that is, the cameras 206 and 207 are not started.

プロジェクタ投影は、プロジェクタ3の投射状態であり、「ON」はプロジェクタ3による投射が行われている状態であることを示しており、「OFF」は、プロジェクタ3による投射が行われていない状態であることを示している。 The projector projection is the projection state of the projector 3, “ON” indicates that the projection by the projector 3 is being performed, and “OFF” is the state in which the projection by the projector 3 is not being performed. It shows that there is.

カメラ206,207およびプロジェクタ3は、同期動作をする。図11に示す縦の点線の間隔は、映画像の1フレーム、もしくは数フレームであり(以下、画像フレームと記す)、カメラ206,207とプロジェクタ3とは、画像フレームを基準単位として動作のON/OFFが切り替えられる。 The cameras 206 and 207 and the projector 3 perform synchronous operations. The interval between the vertical dotted lines shown in FIG. 11 is one frame or several frames of the projected image (hereinafter referred to as an image frame), and the cameras 206 and 207 and the projector 3 operate with the image frame as a reference unit. / OFF can be switched.

図11において、カメラ206,207によるカメラ撮影が開始された状態において、左側の時刻t0を経由して、時刻t1と時刻t2との間まで、センサ209が動きを検出している。この動きは、前述したようにジャイロセンサであるセンサ209が携帯情報端末2の動きを検出する。 In FIG. 11, the sensor 209 detects the movement from the time t1 to the time t2 via the time t0 on the left side in the state where the camera photography by the cameras 206 and 207 is started. As described above, the sensor 209, which is a gyro sensor, detects the movement of the mobile information terminal 2.

センサ209が動きを検出した状態、すなわち図11の動き検出が有の状態では、例えば説明者4が携帯情報端末2を動かして、被写体の商品などを捉えようとしている期間である。そして、被写体の商品を捉えてカメラ206,207による撮影時には、携帯情報端末2の動きが止まり、カメラ206,207による撮影が実行される。 In the state in which the sensor 209 detects the movement, that is, in the state in which the movement detection in FIG. 11 is present, for example, the explainer 4 is moving the mobile information terminal 2 to capture the product of the subject. Then, when the product of the subject is captured and the cameras 206 and 207 take pictures, the movement of the mobile information terminal 2 is stopped and the pictures taken by the cameras 206 and 207 are executed.

このとき、プロジェクタ投射は、非実行、すなわちOFFとなる。プロジェクタ投射では、プロジェクタ3から強い光が投射されるので、カメラ撮影の支障となることがある。 At this time, the projector projection is not executed, that is, it is turned off. In projector projection, strong light is projected from the projector 3, which may interfere with camera shooting.

よって、カメラ撮影期間、すなわちセンサ209が動きを検出してから被写体の商品を捉えて撮影されるまでの期間においては、プロジェクタ3をOFFさせることにより、カメラ撮影を良好に行うことができる。 Therefore, during the camera shooting period, that is, the period from when the sensor 209 detects the movement to when the product of the subject is captured and shot, the camera shooting can be performed satisfactorily by turning off the projector 3.

時刻t1と時刻t2との間において、動き検出状態が無に遷移すると、カメラ206,207は、時刻t2から時刻t3の画像フレーム期間にてカメラ撮影を実行して、該期間のカメラ撮影画像を携帯情報端末2に保存する。そして、図3の商品認識(ステップS101)および商品決定操作受信(ステップS102)を実行して、商品に係る情報の画像データを準備する。 When the motion detection state transitions to nothing between the time t1 and the time t2, the cameras 206 and 207 execute the camera shooting in the image frame period from the time t2 to the time t3, and capture the camera shot image in that period. Save in the mobile information terminal 2. Then, the product recognition (step S101) and the product determination operation reception (step S102) of FIG. 3 are executed to prepare image data of information related to the product.

時刻t3に移行すると、プロジェクタ投射がONとなり、商品に係る情報の画像データを投射するプロジェクタ投射期間となる。この時、カメラ撮影はOFFである。カメラ撮影期間およびプロジェクタ投射期間は、例えばCPU203が判定してカメラ206,207およびプロジェクタ3の動作を制御する。 When the time shifts to t3, the projector projection is turned on, and the projector projection period for projecting the image data of the information related to the product is reached. At this time, the camera shooting is OFF. For example, the CPU 203 determines the camera shooting period and the projector projection period to control the operations of the cameras 206 and 207 and the projector 3.

時刻t4〜t5に示すように、動き検出が無の状態の任意の画像フレームにて、カメラ撮影をON、プロジェクタ投射をOFFに切り替えることができる。例えば説明者4の操作により、商品を切り替える場合である。 As shown at times t4 to t5, the camera shooting can be switched on and the projector projection can be switched off at any image frame in the state where motion detection is not performed. For example, it is a case where the product is switched by the operation of the explainer 4.

時刻t6から再び動き検出が有の状態に遷移すると、動き検出の遷移に連動して、カメラ撮影がON、プロジェクタ投射がOFFに切り替えられる。このように、ジャイロセンサなどのセンサ209の動き検出を用いることによって、説明者4が携帯情報端末2を動かして被写体の商品を捉えようとしている期間の自動的な検出を容易にすることができる。 When the state with motion detection is changed again from the time t6, the camera shooting is switched on and the projector projection is switched off in conjunction with the motion detection transition. In this way, by using the motion detection of the sensor 209 such as the gyro sensor, it is possible to facilitate the automatic detection of the period during which the explainer 4 moves the mobile information terminal 2 to capture the product of the subject. ..

以上により、説明者が説明対象とする商品の上もしくは商品の近傍に商品に係る情報の画像を投射し、商品に係る情報を被説明者にリアルタイムに提示することができる。商品情報を提示する際には、被説明者がそれぞれ端末装置などを所持していなくてもよく、利便性を向上することができる。 As described above, the explainer can project an image of the information related to the product on or near the product to be explained, and present the information related to the product to the explained person in real time. When presenting the product information, the person to be explained does not have to have a terminal device or the like, and the convenience can be improved.

また、商品に係る情報の画像を、商品の上、もしくは商品の近傍に投射して、商品の実体と関連する情報を同時に複数の被説明者が見ることができるので、商品特徴の理解を促進することができる。さらに、説明者は別の商品の説明を行うときに、対象の商品を選択し、投影領域を変更することが可能になる。 In addition, an image of information related to the product can be projected onto the product or in the vicinity of the product so that a plurality of persons to be explained can see the information related to the substance of the product at the same time, thereby promoting understanding of the product features. can do. Further, the explainer can select the target product and change the projection area when explaining another product.

(実施の形態2)
〈画像表示装置1の構成例〉
図12は、本実施の形態2による画像表示装置1における構成の一例を示す説明図である。
(Embodiment 2)
<Configuration example of image display device 1>
FIG. 12 is an explanatory diagram showing an example of the configuration in the image display device 1 according to the second embodiment.

前記実施の形態1では、図1に示すように画像表示装置1が携帯情報端末2とプロジェクタ3とが一体となった構成であったが、本実施の形態1においては、図12に示すように、携帯情報端末2とプロジェクタ3とが分離された構成となっている。 In the first embodiment, as shown in FIG. 1, the image display device 1 has a configuration in which the mobile information terminal 2 and the projector 3 are integrated, but in the first embodiment, as shown in FIG. In addition, the mobile information terminal 2 and the projector 3 are separated from each other.

分離した構成の携帯情報端末2およびプロジェクタ3は、例えばネットワーク接続されている。ネットワークは、例えば無線LANなどの無線ネットワークであり、アクセスポイント7を介してそれぞれ無線接続される。 The personal digital assistant 2 and the projector 3 having the separated configurations are connected to each other by a network, for example. The network is a wireless network such as a wireless LAN, and each is wirelessly connected via the access point 7.

このように、プロジェクタ3を携帯情報端末2から分離して設けることにより、プロジェクタ3の選択の自由度が高くなり、例えばより高輝度なプロジェクタなどを選択することが可能になる。 By providing the projector 3 separately from the mobile information terminal 2 in this way, the degree of freedom in selecting the projector 3 is increased, and for example, a projector having higher brightness can be selected.

以上により、前記実施の形態1の効果に加えて、明るい環境下などであっても、視認性に優れた投射画像を提供することができる。 As described above, in addition to the effect of the first embodiment, it is possible to provide a projected image having excellent visibility even in a bright environment or the like.

(実施の形態3)
〈画像表示装置1の構成例〉
図13は、本実施の形態3による画像表示装置1における構成の一例を示す説明図である。
(Embodiment 3)
<Configuration example of image display device 1>
FIG. 13 is an explanatory diagram showing an example of the configuration in the image display device 1 according to the third embodiment.

画像表示装置1は、図13に示すように、携帯情報端末2、プロジェクタ3、およびカメラ8,8a,8bを有しており、これらは、個々に分離された構成からなる。携帯情報端末2、プロジェクタ3、およびカメラ8,8a,8bは、例えばアクセスポイント7を介して無線LANなどの無線ネットワークによって無線接続されている。カメラ8,8a,8bは、例えばネットワークカメラなどである。あるいはカメラ8,8a,8bは、PTZ(Pan Tilt Zoom)制御が可能なPTZカメラなどであってもよい。 As shown in FIG. 13, the image display device 1 includes a mobile information terminal 2, a projector 3, and cameras 8, 8a and 8b, which are individually separated from each other. The mobile information terminal 2, the projector 3, and the cameras 8, 8a, 8b are wirelessly connected by a wireless network such as a wireless LAN via, for example, an access point 7. The cameras 8, 8a and 8b are, for example, network cameras. Alternatively, the cameras 8, 8a and 8b may be PTZ cameras capable of PTZ (Pan Tilt Zoom) control.

図12は、カメラ8,8a,8bがPTZカメラである例を示しており、これらカメラ8,8a,8bによって商品などが撮影される。携帯情報端末2は、前記実施の形態1の図3にて示した処理シーケンスによって商品などと対応付けを行う。 FIG. 12 shows an example in which the cameras 8, 8a, 8b are PTZ cameras, and the products and the like are photographed by these cameras 8, 8a, 8b. The mobile information terminal 2 associates with a product or the like by the processing sequence shown in FIG. 3 of the first embodiment.

PTZカメラなどは、建物などの固定物に取り付けられているので、手ぶれなどの影響を受けることなく、安定したカメラ撮像を行うことができるなる。また、PTZカメラは、商品のカメラ撮影での位置、アングル、および大きさを自由度高く変えることができる。さらに、分離されているプロジェクタ3を安定した場所などに設置するようにすれば、投射画面の安定化を図ることができる。 Since the PTZ camera or the like is attached to a fixed object such as a building, stable camera imaging can be performed without being affected by camera shake or the like. In addition, the PTZ camera can change the position, angle, and size of the product in camera shooting with a high degree of freedom. Further, if the separated projectors 3 are installed in a stable place or the like, the projection screen can be stabilized.

以上により、前記第2の実施形態の効果に加えて、より安定したカメラ撮影画像を得ることができる。 As described above, in addition to the effect of the second embodiment, a more stable camera-captured image can be obtained.

(実施の形態4)
〈画像表示システムの構成例〉
図14は、本実施の形態4による画像表示装置1を用いた画像表示システム50における構成の一例を示す説明図である。
(Embodiment 4)
<Configuration example of image display system>
FIG. 14 is an explanatory diagram showing an example of the configuration in the image display system 50 using the image display device 1 according to the fourth embodiment.

画像表示システム50は、図14に示すように、例えば画像表示装置1、アクセスポイント7、およびサーバ9によって構成されている。画像表示装置1は、前記実施の形態1の図1と同様であるので、説明は省略する。 As shown in FIG. 14, the image display system 50 is composed of, for example, an image display device 1, an access point 7, and a server 9. Since the image display device 1 is the same as FIG. 1 of the first embodiment, the description thereof will be omitted.

アクセスポイント7は、画像表示装置1がWAN(Wide Area Network)10を介してサーバ9にアクセスするために設けられる。アクセスポイント7と画像表示装置1とは、例えば無線LANなどによって接続される。 The access point 7 is provided for the image display device 1 to access the server 9 via the WAN (Wide Area Network) 10. The access point 7 and the image display device 1 are connected by, for example, a wireless LAN.

商品決定におけるプロセスは、前記実施の形態1の図3および図4に示したものと同じであるが、画像表示装置1は、図4のステップS203の処理における商品決定処理の後にサーバ9に対してデータリクエストを送信する。データリクエストを受けたサーバ9は、リクエストされた商品に係る情報を画像表示装置1に送信する。これによって、画像表示装置1は、説明する商品などに係る情報を得ることができる。 The process in the product determination is the same as that shown in FIGS. 3 and 4 of the first embodiment, but the image display device 1 refers to the server 9 after the product determination process in the process of step S203 of FIG. And send a data request. The server 9 that receives the data request transmits the information related to the requested product to the image display device 1. As a result, the image display device 1 can obtain information related to the product or the like to be described.

商品に係る情報は、商品の状態、すなわち上述したように図8のスーツケース6の場合には蓋が開かれた状態や蓋が閉じられた状態などによって異なるが、商品などの状態が多岐に渡る場合には、それに伴い、商品にかかる情報量も多くなることが考えられる。その場合、商品との通信によって該商品の情報を取得するには、商品との通信負荷が重くなりすぎることがある。 The information related to the product differs depending on the state of the product, that is, the state in which the lid is opened or the lid is closed in the case of the suitcase 6 in FIG. 8 as described above, but the state of the product is diverse. In the case of crossing, it is conceivable that the amount of information required for the product will increase accordingly. In that case, the communication load with the product may become too heavy to acquire the information of the product by communicating with the product.

一方、図14に示した画像表示システム50の場合には、商品に係る情報がサーバ9に蓄えられており、該サーバ9から画像表示装置1に情報を送出するので、上述した問題は解消される。 On the other hand, in the case of the image display system 50 shown in FIG. 14, the information related to the product is stored in the server 9, and the information is transmitted from the server 9 to the image display device 1, so that the above-mentioned problem is solved. To.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。 Although the invention made by the present inventor has been specifically described above based on the embodiment, the present invention is not limited to the embodiment and can be variously modified without departing from the gist thereof. Needless to say.

例えば実施の形態1〜4では、携帯情報端末2が有するディスプレイ212にカメラ撮影画像を、プロジェクタ3の投射画面に商品などに係る情報の画像データをそれぞれ映し出す場合を説明したが、プロジェクタ3の投射画面にカメラ撮影画像と商品に係る情報の画像データを時間的に切り替えて映し出すことも可能である。 For example, in the first to fourth embodiments, the case where the image captured by the camera is projected on the display 212 of the mobile information terminal 2 and the image data of the information related to the product or the like is projected on the projection screen of the projector 3 has been described. It is also possible to display the image taken by the camera and the image data of the information related to the product on the screen in a timely manner.

また、説明者が被説明者に対して商品の説明をする例を示したが、画像表示装置1を使用する目的はこれに限定されるものではなく、任意の製品に関する情報を、それ自体もしくはその近辺に表示する場合であれば、同様の使い方が可能である。 Further, although an example in which the explainer explains the product to the person to be explained is shown, the purpose of using the image display device 1 is not limited to this, and information on any product itself or If it is displayed in the vicinity, the same usage is possible.

また、携帯情報端末2の機能などは、それらの一部または全部を、例えば集積回路にて設計するなどによりハードウェア実装してもよい。また、マイクロプロセッサユニット、CPUなどがそれぞれの機能などを実現する動作プログラムを解釈して実行するソフトウェア実装であってもよい。ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアとを併用してもよい。 Further, the functions of the mobile information terminal 2 may be implemented in hardware by designing a part or all of them by, for example, an integrated circuit. Further, it may be a software implementation in which a microprocessor unit, a CPU, or the like interprets and executes an operation program that realizes each function or the like. The implementation range of the software is not limited, and the hardware and the software may be used together.

1 画像表示装置
2 携帯情報端末
3 プロジェクタ
7 アクセスポイント
8 カメラ
8a カメラ
8b カメラ
9 サーバ
50 画像表示システム
62 商品ポインタ
201 モバイル通信インタフェース
202 無線LANインタフェース
203 CPU
204 RAM
205 フラッシュROM
206 カメラ
207 カメラ
208 画像処理プロセッサ
209 センサ
210 ビデオプロセッサ
211 グラフィックプロセッサ
212 ディスプレイ
213 マイク/スピーカ
214 外部インタフェース
215 外部端子
216 ビーコン送受信部
217 共通バス
1 Image display device 2 Mobile information terminal 3 Projector 7 Access point 8 Camera 8a Camera 8b Camera 9 Server 50 Image display system 62 Product pointer 201 Mobile communication interface 202 Wireless LAN interface 203 CPU
204 RAM
205 flash ROM
206 Camera 207 Camera 208 Image processor 209 Sensor 210 Video processor 211 Graphic processor 212 Display 213 Microphone / speaker 214 External interface 215 External terminal 216 Beacon transmitter / receiver 217 Common bus

Claims (14)

外部から送信される物品に係る情報である画像データを受信する携帯情報端末と、
前記携帯情報端末から出力される前記画像データから生成した情報画像を投射する画像表示部と、
を備え、
前記携帯情報端末は、
画像を撮影するカメラ部と、
前記カメラ部が撮影した画像を表示する表示部と、
選択された物品から前記画像データを取得して、取得した前記画像データを前記画像表示部に出力する画像処理制御部と、
を有し、
前記画像処理制御部は、前記表示部に表示される前記画像から選択された物品が具備する通信機能部に対して前記画像データを送信させる、画像表示装置。
A mobile information terminal that receives image data, which is information related to articles transmitted from the outside,
An image display unit that projects an information image generated from the image data output from the mobile information terminal, and an image display unit.
With
The mobile information terminal is
The camera unit that takes images and
A display unit that displays an image taken by the camera unit and
An image processing control unit that acquires the image data from the selected article and outputs the acquired image data to the image display unit.
Have,
The image processing control unit is an image display device that transmits the image data to a communication function unit included in an article selected from the image displayed on the display unit.
請求項1記載の画像表装置において、
前記カメラ部が有するレンズ面は、前記画像表示部が有する投射レンズ面と同一面に設けられる、画像表示装置。
In the image table apparatus according to claim 1,
An image display device in which the lens surface of the camera unit is provided on the same surface as the projection lens surface of the image display unit.
請求項1記載の画像表装置において、
前記画像処理制御部は、前記カメラ部から出力される距離データから検出した平坦部を投射領域として設定し、
前記画像表示部は、前記画像処理制御部が設定した前記投射領域に前記画像データから生成した前記情報画像を投射する、画像表示装置。
In the image table apparatus according to claim 1,
The image processing control unit sets a flat portion detected from the distance data output from the camera unit as a projection region.
The image display unit is an image display device that projects the information image generated from the image data onto the projection area set by the image processing control unit.
請求項3記載の画像表装置において、
前記画像処理制御部は、前記投射領域の背景色を検出して、前記投射領域に投射される前記情報画像と検出した前記背景色とのコントラストが強まるように前記画像データを補正する、画像表示装置。
In the image table apparatus according to claim 3,
The image processing control unit detects the background color of the projection region and corrects the image data so that the contrast between the information image projected on the projection region and the detected background color is enhanced. apparatus.
請求項3記載の画像表装置において、
前記画像処理制御部は、前記投射領域の形状を検出して、検出した前記投射領域の形状に合わせて投射される前記情報画像の形状を補正する、画像表示装置。
In the image table apparatus according to claim 3,
The image processing control unit is an image display device that detects the shape of the projection region and corrects the shape of the information image projected according to the detected shape of the projection region.
請求項1記載の画像表装置において、
前記携帯情報端末は、前記物品を検索するビーコン信号の送信および前記ビーコン信号に対する応答信号であるビーコン応答信号の受信を行うビーコン送受信部を有し、
前記画像処理制御部は、前記画像に前記ビーコン応答信号を送信した物品が表示されているか否かを判定して、表示されていると判定した前記物品であることを識別する識別マークを前記画像に表示する、画像表示装置。
In the image table apparatus according to claim 1,
The mobile information terminal has a beacon transmission / reception unit that transmits a beacon signal for searching the article and receives a beacon response signal that is a response signal to the beacon signal.
The image processing control unit determines whether or not the article to which the beacon response signal is transmitted is displayed on the image, and attaches an identification mark for identifying the article that is determined to be displayed. An image display device that displays on.
請求項1記載の画像表装置において、
前記画像処理制御部は、前記カメラ部が撮影した前記画像から選択された前記物品の形態を検出して、検出した前記物品の形態に見合った前記画像データが送信されるように選択された前記物品の前記通信機能部に要求する、画像表示装置。
In the image table apparatus according to claim 1,
The image processing control unit detects the form of the article selected from the image taken by the camera unit, and is selected so that the image data corresponding to the detected form of the article is transmitted. An image display device required for the communication function unit of an article.
請求項1記載の画像表装置において、
前記画像処理制御部は、前記カメラ部が撮影した撮影画像の一部を加工あるいは置換した前記画像データを前記画像表示部に出力する、画像表示装置。
In the image table apparatus according to claim 1,
The image processing control unit is an image display device that outputs the image data obtained by processing or replacing a part of the captured image taken by the camera unit to the image display unit.
請求項1記載の画像表装置において、
前記携帯情報端末は、前記カメラ部および前記画像表示部の動作を制御する動作制御部を有し、
前記動作制御部は、前記カメラ部が撮影状態にあると判定した際に前記画像表示部による前記情報画像の投射を停止させる、画像表示装置。
In the image table apparatus according to claim 1,
The mobile information terminal has an operation control unit that controls the operations of the camera unit and the image display unit.
The motion control unit is an image display device that stops projection of the information image by the image display unit when it is determined that the camera unit is in a shooting state.
請求項1記載の画像表装置において、
前記携帯情報端末は、通信網に接続する通信部を有し、
前記画像処理制御部は、前記通信部を通じて、前記通信網に接続されるサーバに対して認識した前記物品に係る前記画像データを要求して取得する、画像表示装置。
In the image table apparatus according to claim 1,
The mobile information terminal has a communication unit connected to a communication network, and has a communication unit.
The image processing control unit is an image display device that requests and acquires the image data related to the article recognized by the server connected to the communication network through the communication unit.
画像を撮影するカメラ部、前記カメラ部が撮影した画像を表示する表示部、取得した画像データを出力する画像処理制御部を具備する前記携帯情報端末と、前記携帯情報端末から出力される前記画像データから生成した情報画像を投射する画像表示部と、を備える画像表示装置による画像表示方法であって、
前記カメラ部が、画像を撮影するステップと、
前記画像処理制御部が、前記カメラ部によって撮影された前記画像から選択された物品が具備する通信機能部に対して前記物品に係る前記画像データを要求して受信するステップと、
前記画像表示部が、前記画像処理制御部が受信した前記画像データから生成した前記情報画像を投射するステップと、
を有する、画像表示方法。
The mobile information terminal including a camera unit for capturing an image, a display unit for displaying an image captured by the camera unit, and an image processing control unit for outputting acquired image data, and the image output from the mobile information terminal. An image display method using an image display device including an image display unit that projects an information image generated from data.
When the camera unit takes an image,
A step in which the image processing control unit requests and receives the image data related to the article from the communication function unit included in the article selected from the image taken by the camera unit.
A step in which the image display unit projects the information image generated from the image data received by the image processing control unit.
An image display method having.
請求項11記載の画像表示方法において、
前記画像データを投射するステップは、
前記カメラ部から出力される距離データから平坦部を検出するステップと、
検出した平坦部を投射領域として決定して、決定した前記投射領域に前記画像データを投射するように前記画像表示部を制御するステップと、
を有する、画像表示方法。
In the image display method according to claim 11,
The step of projecting the image data is
A step of detecting a flat portion from the distance data output from the camera unit, and
A step of determining the detected flat portion as a projection region and controlling the image display unit so as to project the image data onto the determined projection region.
An image display method having.
請求項11記載の画像表示方法において、
前記物品に係る前記画像データを投射するステップは、
前記カメラ部から出力される距離データから平坦部を検出するステップと、
検出した平坦部を投射領域として決定して、決定した前記投射領域の背景色を検出するステップと、
前記投射領域に投射される前記画像データと検出した前記背景色とのコントラストが強まるように前記画像データを補正するステップと、
を有する、画像表示方法。
In the image display method according to claim 11,
The step of projecting the image data relating to the article is
A step of detecting a flat portion from the distance data output from the camera unit, and
A step of determining the detected flat portion as a projection region and detecting the background color of the determined projection region,
A step of correcting the image data so that the contrast between the image data projected on the projection region and the detected background color is enhanced.
An image display method having.
請求項11記載の画像表示方法において、
前記物品に係る前記画像データを投射するステップは、
前記カメラ部から出力される距離データから平坦部を検出するステップと、
検出した平坦部を投射領域として決定して、決定した前記投射領域の形状を検出するステップと、
検出した前記投射領域の形状に合わせて投射される前記画像データの形状を補正するステップと、
を有する、画像表示方法。
In the image display method according to claim 11,
The step of projecting the image data relating to the article is
A step of detecting a flat portion from the distance data output from the camera unit, and
A step of determining the detected flat portion as a projection region and detecting the shape of the determined projection region,
A step of correcting the shape of the image data projected according to the detected shape of the projection region, and
An image display method having.
JP2019568503A 2018-02-01 2018-02-01 Image display device and image display method Active JP7150755B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022154897A JP7410246B2 (en) 2018-02-01 2022-09-28 Information processing terminal and image processing method
JP2023215565A JP2024038005A (en) 2018-02-01 2023-12-21 Information processing terminal and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/003446 WO2019150531A1 (en) 2018-02-01 2018-02-01 Image display device and image display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022154897A Division JP7410246B2 (en) 2018-02-01 2022-09-28 Information processing terminal and image processing method

Publications (2)

Publication Number Publication Date
JPWO2019150531A1 true JPWO2019150531A1 (en) 2021-02-18
JP7150755B2 JP7150755B2 (en) 2022-10-11

Family

ID=67478102

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019568503A Active JP7150755B2 (en) 2018-02-01 2018-02-01 Image display device and image display method
JP2022154897A Active JP7410246B2 (en) 2018-02-01 2022-09-28 Information processing terminal and image processing method
JP2023215565A Pending JP2024038005A (en) 2018-02-01 2023-12-21 Information processing terminal and image processing method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022154897A Active JP7410246B2 (en) 2018-02-01 2022-09-28 Information processing terminal and image processing method
JP2023215565A Pending JP2024038005A (en) 2018-02-01 2023-12-21 Information processing terminal and image processing method

Country Status (2)

Country Link
JP (3) JP7150755B2 (en)
WO (1) WO2019150531A1 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120698A (en) * 2002-09-30 2004-04-15 Sony Corp Information processing terminal and method, and program
JP2005184624A (en) * 2003-12-22 2005-07-07 Seiko Epson Corp Commodity sale/management method, commodity sale/management system, and server
JP2007116306A (en) * 2005-10-19 2007-05-10 Casio Comput Co Ltd Projector and projection method
JP2007310882A (en) * 2007-05-14 2007-11-29 Tsukuba Multimedia:Kk Web camera shopping system
JP2009032156A (en) * 2007-07-30 2009-02-12 Casio Hitachi Mobile Communications Co Ltd Electronic device and program
JP2009134479A (en) * 2007-11-29 2009-06-18 Toshiba Tec Corp Article sales data processor and computer program
JP2011175201A (en) * 2010-02-25 2011-09-08 Sanyo Electric Co Ltd Projection image display device
JP2013064827A (en) * 2011-09-16 2013-04-11 Seiko Epson Corp Electronic apparatus
JP2013218019A (en) * 2012-04-05 2013-10-24 Casio Comput Co Ltd Projection device, projection method and program
JP2013219457A (en) * 2012-04-05 2013-10-24 Casio Comput Co Ltd Display controller, display control method, and program
WO2016125359A1 (en) * 2015-02-03 2016-08-11 ソニー株式会社 Information processing device, information processing method and program
JP2017058531A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Information processing device, information processing method, computer program and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITUA20162729A1 (en) 2016-04-20 2017-10-20 Cefla Soc Cooperativa METHOD FOR A CORRECT IMPLEMENTATION OF THE PLANOGRAM WITHIN SALE POINTS

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120698A (en) * 2002-09-30 2004-04-15 Sony Corp Information processing terminal and method, and program
JP2005184624A (en) * 2003-12-22 2005-07-07 Seiko Epson Corp Commodity sale/management method, commodity sale/management system, and server
JP2007116306A (en) * 2005-10-19 2007-05-10 Casio Comput Co Ltd Projector and projection method
JP2007310882A (en) * 2007-05-14 2007-11-29 Tsukuba Multimedia:Kk Web camera shopping system
JP2009032156A (en) * 2007-07-30 2009-02-12 Casio Hitachi Mobile Communications Co Ltd Electronic device and program
JP2009134479A (en) * 2007-11-29 2009-06-18 Toshiba Tec Corp Article sales data processor and computer program
JP2011175201A (en) * 2010-02-25 2011-09-08 Sanyo Electric Co Ltd Projection image display device
JP2013064827A (en) * 2011-09-16 2013-04-11 Seiko Epson Corp Electronic apparatus
JP2013218019A (en) * 2012-04-05 2013-10-24 Casio Comput Co Ltd Projection device, projection method and program
JP2013219457A (en) * 2012-04-05 2013-10-24 Casio Comput Co Ltd Display controller, display control method, and program
WO2016125359A1 (en) * 2015-02-03 2016-08-11 ソニー株式会社 Information processing device, information processing method and program
JP2017058531A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Information processing device, information processing method, computer program and recording medium

Also Published As

Publication number Publication date
JP7410246B2 (en) 2024-01-09
WO2019150531A1 (en) 2019-08-08
JP7150755B2 (en) 2022-10-11
JP2024038005A (en) 2024-03-19
JP2022191295A (en) 2022-12-27

Similar Documents

Publication Publication Date Title
US8957913B2 (en) Display apparatus, display control method, and storage medium storing program
US9811910B1 (en) Cloud-based image improvement
US20180367732A1 (en) Visual cues for managing image capture
KR20200028481A (en) Imaging apparatus, image display system and operation method
US9264679B2 (en) Maintaining distortion-free projection from a mobile device
US9392248B2 (en) Dynamic POV composite 3D video system
US20120307091A1 (en) Imaging apparatus and imaging system
US20140354874A1 (en) Method and apparatus for auto-focusing of an photographing device
KR20120051209A (en) Method for providing display image in multimedia device and thereof
US11006042B2 (en) Imaging device and image processing method
JP2019012881A (en) Imaging control device and control method of the same
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
KR20160024848A (en) Remote control programming using images
CN110928509B (en) Display control method, display control device, storage medium, and communication terminal
US11265529B2 (en) Method and apparatus for controlling image display
JP6374535B2 (en) Operating device, tracking system, operating method, and program
US11003062B2 (en) Information processing device, method of information processing, and image display system
JP7410246B2 (en) Information processing terminal and image processing method
JP2004289779A (en) Mobile body imaging method and mobile body imaging system
KR20190061165A (en) System and method for generating 360 degree video including advertisement
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
CN107426522B (en) Video method and system based on virtual reality equipment
JP2020198501A (en) Photographing device, program, and photographing method
US11889237B2 (en) Setting method and a non-transitory computer-readable storage medium storing a program
JP2019140530A (en) Server device, display device, video display system, and video display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7150755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150