JP2015106147A - Projector, image projection system, and control method of projector - Google Patents

Projector, image projection system, and control method of projector Download PDF

Info

Publication number
JP2015106147A
JP2015106147A JP2013249860A JP2013249860A JP2015106147A JP 2015106147 A JP2015106147 A JP 2015106147A JP 2013249860 A JP2013249860 A JP 2013249860A JP 2013249860 A JP2013249860 A JP 2013249860A JP 2015106147 A JP2015106147 A JP 2015106147A
Authority
JP
Japan
Prior art keywords
image
unit
information
guide
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013249860A
Other languages
Japanese (ja)
Inventor
美孝 中進
Yoshitaka Nakashin
美孝 中進
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013249860A priority Critical patent/JP2015106147A/en
Publication of JP2015106147A publication Critical patent/JP2015106147A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projector that can guide the operation for an object.SOLUTION: A projector 100 includes an imaging unit 51 that photographs an area including an object, an analysis unit (image analysis unit 52 and image recognition unit 53) that analyzes a result of the photographing by the imaging unit to recognize the object, a guidance information acquisition unit 30 that acquires guidance information for guiding the operation for the object, a guidance image creation unit 32b that creates a first guidance image based on the guidance information acquired by the guidance information acquisition unit 30, and a projection unit (image projection unit 10) that projects the first guidance image created by the guidance image creation unit 32b onto the object.

Description

本発明は、プロジェクター、画像投写システム、およびプロジェクターの制御方法に関する。   The present invention relates to a projector, an image projection system, and a projector control method.

従来、学習者がコンピューター又はコンピューターシステム上で学ぶための電子学習システムであって、学習ストーリーを展開し、学習者の操作によって、学習ストーリーを変化させる電子学習システムが開示されている(特許文献1)。特許文献1において、電子学習システムは、電子記録媒体又は通信手段によって提示された初期学習情報をコンピューターに取り込み、学習者の操作に従い、初期学習情報を用いて初期学習ストーリーを展開する。そして、学習者の操作情報等を記憶し、それらの情報と初期学習情報とから初期学習ストーリーとは異なる学習ストーリーに変化させて実行を可能とする。そして、電子記録媒体または通信手段によって、コンピューターに取り込まれた初期学習情報を含む電子学習情報中の電子学習教材と学習者とが、コンピューター上で相互に情報交換しながら学習ストーリーを学習者の目的に合致させていく。   2. Description of the Related Art Conventionally, an electronic learning system for a learner to learn on a computer or a computer system has been disclosed in which a learning story is developed and the learning story is changed by a learner's operation (Patent Document 1). ). In Patent Document 1, an electronic learning system takes in initial learning information presented by an electronic recording medium or communication means into a computer, and develops an initial learning story using the initial learning information according to the learner's operation. Then, the learner's operation information and the like are stored, and the information and the initial learning information are changed into a learning story different from the initial learning story, and the execution is enabled. The learner's purpose is to learn the learning story while exchanging information on the computer with the electronic learning material and the learner in the electronic learning information including the initial learning information captured in the computer by the electronic recording medium or communication means. To match.

特開2006−308815号公報JP 2006-308815 A

特許文献1に記載されているような電子学習システムにおいては、ユーザーは、コンピューター上の表示によって情報を取得することが可能である。しかしながら、コンピューター上での学習ではなく、実技を行う際には、実技を行う対象物に対してどのような操作を行えばよいのかを指示(案内)することはできなかった。   In an electronic learning system such as that described in Patent Document 1, a user can obtain information by display on a computer. However, it is not possible to instruct (guide) what kind of operation should be performed on the object to be practiced when performing practical skills rather than learning on a computer.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]本適用例に係るプロジェクターは、対象物を含む領域を撮像する撮像部と、前記撮像部の撮像結果を解析し、前記対象物を認識する解析部と、前記対象物に対する操作を案内するための案内情報を取得する案内情報取得部と、前記案内情報取得部によって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成部と、前記案内画像生成部が生成した前記第1案内画像を、前記対象物に投写する投写部と、を備えることを特徴とする。   Application Example 1 A projector according to this application example includes an imaging unit that captures an area including an object, an analysis unit that analyzes an imaging result of the imaging unit and recognizes the object, and an operation on the object A guide information acquisition unit for acquiring guide information for guiding the user, a guide image generation unit for generating a first guide image based on the guide information acquired by the guide information acquisition unit, and the guide image generation unit A projection unit configured to project the generated first guide image onto the object.

このようなプロジェクターによれば、解析部は、撮像部の撮像結果を解析し、対象物を認識する。案内画像生成部は、案内情報取得部によって取得された案内情報に基づいた第1案内画像を生成する。投写部は、第1案内画像を、対象物に投写する。これにより、プロジェクターは、対象物に第1案内画像を投写することで、対象物に対して行う操作の内容を、操作者に案内することができる。   According to such a projector, the analysis unit analyzes the imaging result of the imaging unit and recognizes the object. The guidance image generation unit generates a first guidance image based on the guidance information acquired by the guidance information acquisition unit. The projection unit projects the first guide image onto the object. Thereby, the projector can guide the operator of the content of the operation performed on the object by projecting the first guidance image onto the object.

[適用例2]上記適用例に係るプロジェクターにおいて、前記解析部は、前記撮像部の撮像結果を解析して、前記対象物および指示体を認識し、前記案内情報取得部は、前記解析部が認識した前記指示体の操作に基づいて前記案内情報を取得することを特徴とする。   Application Example 2 In the projector according to the application example described above, the analysis unit analyzes an imaging result of the imaging unit to recognize the object and the indicator, and the guidance information acquisition unit is configured by the analysis unit. The guide information is acquired based on the recognized operation of the indicator.

このようなプロジェクターによれば、解析部は、撮像結果を解析して、対象物および指示体を認識する。そして、案内画像取得部は、指示体の操作に基づいた案内情報を取得する。これにより、プロジェクターは、操作体の操作に応じ、案内情報を取得して第1案内画像として操作者に案内することができる。   According to such a projector, the analysis unit analyzes the imaging result and recognizes the object and the indicator. And a guidance image acquisition part acquires the guidance information based on operation of a pointer. Accordingly, the projector can acquire guidance information and guide the operator as the first guidance image in accordance with the operation of the operating tool.

[適用例3]上記適用例に係るプロジェクターにおいて、前記第1案内画像には、前記対象物に対する操作を行う位置を表す画像が含まれることを特徴とする。   Application Example 3 In the projector according to the application example, the first guide image includes an image representing a position where an operation is performed on the object.

このようなプロジェクターによれば、第1案内画像によって、対象物に対する操作を行う位置を操作者に案内することができる。   According to such a projector, the operator can be guided to the position for performing an operation on the object by the first guidance image.

[適用例4]上記適用例に係るプロジェクターにおいて、前記撮像部は複数の撮像素子を有して構成されており、前記解析部は、前記対象物および前記操作体を立体的に認識することを特徴とする。   Application Example 4 In the projector according to the application example, the imaging unit includes a plurality of imaging elements, and the analysis unit recognizes the object and the operation body in a three-dimensional manner. Features.

このようなプロジェクターによれば、撮像部は複数の撮像素子を有して構成されており、解析部は、対象物および操作体を立体的に認識することが可能になる。これにより、対象物の認識性を向上することができる。   According to such a projector, the imaging unit includes a plurality of imaging elements, and the analysis unit can recognize the object and the operating body in a three-dimensional manner. Thereby, the recognizability of a target object can be improved.

[適用例5]上記適用例に係るプロジェクターにおいて、前記撮像部が撮像し、前記解析部が認識した前記対象物の形状に応じて、前記第1案内画像を補正する補正部をさらに有することを特徴とする。   Application Example 5 In the projector according to the application example described above, the projector further includes a correction unit that corrects the first guide image according to the shape of the object captured by the imaging unit and recognized by the analysis unit. Features.

このようなプロジェクターによれば、補正部は、解析部が認識した対象物の形状に応じて、第1案内画像を補正する。これにより、補正された第1案内画像が対象物に投写される。よって、第1案内画像が対象物の形状に即さない場合に、対象物の形状に即するように第1案内画像を補正して、投写することが可能になる。   According to such a projector, the correction unit corrects the first guide image according to the shape of the object recognized by the analysis unit. Thereby, the corrected first guide image is projected onto the object. Therefore, when the first guide image does not conform to the shape of the object, the first guide image can be corrected and projected so as to conform to the shape of the object.

[適用例6]上記適用例に係るプロジェクターにおいて、前記案内画像生成部は、前記案内情報に基づいて第2案内画像をさらに生成し、前記投写部は、前記第2案内画像を前記対象物とは異なる位置に投写することを特徴とする。   Application Example 6 In the projector according to the application example, the guide image generation unit further generates a second guide image based on the guide information, and the projection unit uses the second guide image as the object. Is characterized by projecting to different positions.

このようなプロジェクターによれば、第2案内画像を対象物とは異なる位置に投写する。これにより、プロジェクターは、対象物への第1案内画像に加えて、第2案内画像を投写することで、操作に関する多くの情報を操作者に提供(案内)することができる。   According to such a projector, the second guide image is projected at a position different from the object. Thereby, the projector can provide (guide) a lot of information regarding the operation to the operator by projecting the second guide image in addition to the first guide image to the object.

[適用例7]上記適用例に係るプロジェクターにおいて、前記第2案内画像には、前記対象物に対する操作の見本を表す画像が含まれることを特徴とする。   Application Example 7 In the projector according to the application example, the second guide image includes an image representing a sample of an operation on the object.

このようなプロジェクターによれば、第2案内画像によって、対象物に対する操作の見本を操作者に案内することができる。   According to such a projector, it is possible to guide a sample of the operation on the target object to the operator using the second guidance image.

[適用例8]上記適用例に係るプロジェクターにおいて、前記案内情報取得部が取得する前記案内情報には、案内のための音声情報である案内音声情報を含み、前記案内音声情報を出力する音声出力部をさらに備えることを特徴とする。   Application Example 8 In the projector according to the application example, the guidance information acquired by the guidance information acquisition unit includes guidance voice information that is voice information for guidance, and outputs the guidance voice information. It further has a section.

このようなプロジェクターによれば、音声出力部は、案内音声情報を出力する。これにより、プロジェクターは、対象物への第1案内画像や第2案内画像に加えて、音声で案内するため、操作に関する多くの情報を操作者に案内することができる。   According to such a projector, the voice output unit outputs guidance voice information. Accordingly, since the projector guides by voice in addition to the first guide image and the second guide image to the object, the projector can guide a lot of information regarding the operation to the operator.

[適用例9]本適用例に係る画像投写システムは、対象物を撮像する撮像装置と、画像情報を解析する解析装置と、画像を投写する画像投写装置と、を備えた画像投写システムであって、前記撮像装置は、前記対象物を撮像して撮像画像情報を生成する撮像部と、前記撮像画像情報を前記解析装置に出力する第1出力部と、を有し、前記解析装置は、前記撮像装置から出力された前記撮像画像情報を入力する第1入力部と、前記撮像画像情報を解析し、前記対象物を認識する解析部と、前記対象物に対する操作を案内するための案内情報を取得する案内情報取得部と、前記案内情報取得部によって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成部と、前記案内画像生成部が生成した前記第1案内画像の情報を前記画像投写装置に出力する第2出力部と、を有し、前記画像投写装置は、前記解析装置から出力された前記第1案内画像の情報を入力する第2入力部と、前記第1案内画像を、前記対象物に投写する投写部と、を有することを特徴とする。   Application Example 9 An image projection system according to this application example is an image projection system including an imaging device that captures an object, an analysis device that analyzes image information, and an image projection device that projects an image. The imaging device includes an imaging unit that images the object and generates captured image information, and a first output unit that outputs the captured image information to the analysis device, and the analysis device includes: A first input unit that inputs the captured image information output from the imaging device, an analysis unit that analyzes the captured image information and recognizes the target, and guidance information for guiding operations on the target A guide information acquisition unit that acquires the guide information, a guide image generation unit that generates a first guide image based on the guide information acquired by the guide information acquisition unit, and the first guide image generated by the guide image generation unit Information on the picture A second output unit that outputs to the projection device, wherein the image projection device receives a second input unit that inputs information of the first guide image output from the analysis device, and the first guide image. And a projection unit that projects onto the object.

このような画像投写システムによれば、撮像装置は、対象物を撮像して撮像画像情報を生成する。解析装置は、撮像画像情報を解析し、対象物を認識する。また、対象物に対する操作を案内するための案内情報を取得する。そして、案内情報に基づいた第1案内画像を生成する。画像投写装置は、第1案内画像を対象物に投写する。これにより、画像投写システムは、対象物に第1案内画像を投写することで、対象物に対して行う操作の内容を、操作者に案内することができる。   According to such an image projection system, the imaging device captures an object and generates captured image information. The analysis device analyzes captured image information and recognizes an object. Also, guidance information for guiding operations on the object is acquired. And the 1st guidance image based on guidance information is generated. The image projection device projects the first guide image onto the object. Thereby, the image projection system can guide the operator of the content of the operation performed on the object by projecting the first guidance image onto the object.

[適用例10]本適用例に係るプロジェクターの制御方法は、撮像部を有するプロジェクターの制御方法であって、前記撮像部によって、対象物を含む領域を撮像する撮像ステップと、前記撮像ステップによる撮像結果を解析し、前記対象物を認識する解析ステップと、前記対象物に対する操作を案内するための案内情報を取得する案内情報取得ステップと、前記案内情報取得ステップによって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成ステップと、前記案内画像生成ステップによって生成された前記第1案内画像を、前記対象物に投写する投写ステップと、を備えることを特徴とする。   Application Example 10 A projector control method according to this application example is a projector control method including an imaging unit, and an imaging step of imaging an area including an object by the imaging unit, and imaging by the imaging step. Based on the guide information acquired by the analysis step of analyzing the result and recognizing the object, the guide information acquisition step of acquiring guide information for guiding operations on the target object, and the guide information acquisition step A guide image generating step for generating the first guide image; and a projecting step for projecting the first guide image generated by the guide image generating step onto the object.

このようなプロジェクターの制御方法によれば、プロジェクターは、対象物に第1案内画像を投写することで、対象物に対して行う操作の内容を、操作者に案内することができる。   According to such a projector control method, the projector can guide the contents of the operation performed on the object to the operator by projecting the first guidance image onto the object.

また、上述したプロジェクター、画像投写システム、およびプロジェクターの制御方法が、プロジェクターまたは解析装置に備えられたコンピューターを用いて構築されている場合には、上記形態および上記適用例は、その機能を実現するためのプログラム、あるいは当該プログラムを前記コンピューターで読み取り可能に記録した記録媒体等の態様で構成することも可能である。記録媒体としては、フレキシブルディスクやHDD(Hard Disk Drive)、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc、光磁気ディスク、不揮発性メモリーカード、プロジェクターまたは解析装置の内部記憶装置(RAM(Random Access Memory)やROM(Read Only Memory)等の半導体メモリー)、および外部記憶装置(USB(Universal Serial Bus)メモリー等)等、前記コンピューターが読み取り可能な種々の媒体を利用することができる。   In addition, when the projector, the image projection system, and the projector control method described above are constructed using a computer provided in the projector or the analysis apparatus, the mode and the application example realize the function. It is also possible to constitute in the form of a program for recording or a recording medium on which the program is recorded so as to be readable by the computer. Recording media include flexible disk, HDD (Hard Disk Drive), CD-ROM (Compact Disk Read Only Memory), DVD (Digital Versatile Disk), Blu-ray (registered trademark) Disc, magneto-optical disk, nonvolatile memory card The computer can read the internal storage device of the projector or analyzer (semiconductor memory such as RAM (Random Access Memory) and ROM (Read Only Memory)), and external storage device (USB (Universal Serial Bus) memory, etc.) Various types of media can be used.

第1の実施形態に係るプロジェクターおよび投写状態を表す斜視図。FIG. 2 is a perspective view illustrating a projector and a projection state according to the first embodiment. 第1の実施形態に係るプロジェクターの構成を示すブロック図。1 is a block diagram illustrating a configuration of a projector according to a first embodiment. プロジェクターの操作内容を案内する処理のフローチャート。The flowchart of the process which guides the operation content of a projector. 第2の実施形態に係る画像投写システムおよび投写状態を表す斜視図。The perspective view showing the image projection system and projection state concerning a 2nd embodiment. 第2の実施形態に係る画像投写システムの構成を示すブロック図。The block diagram which shows the structure of the image projection system which concerns on 2nd Embodiment.

(第1の実施形態)
以下、第1の実施形態として、投写画像を撮像し、撮像画像に基づいて、投写画像内における対象物および指示体を検出するインタラクティブ機能を有し、操作内容を案内するプロジェクターについて説明する。
(First embodiment)
Hereinafter, as a first embodiment, a projector that has an interactive function of capturing a projection image and detecting an object and a pointer in the projection image based on the captured image and guiding operation contents will be described.

図1は、第1の実施形態に係るプロジェクターおよび投写状態を表す斜視図である。
図1には、プロジェクター100、投写面であるテーブルT、対象物である実物の魚F1、指示体である包丁P1、および投写画像DAが表されている。また、操作者Hも表示されている。プロジェクター100は、テーブルTに固定または載置され、テーブルT上に画像を投写している。
FIG. 1 is a perspective view illustrating a projector and a projection state according to the first embodiment.
FIG. 1 shows a projector 100, a table T that is a projection surface, a real fish F1 that is an object, a knife P1 that is an indicator, and a projection image DA. An operator H is also displayed. The projector 100 is fixed or placed on the table T and projects an image on the table T.

プロジェクター100は、投写レンズ13、および4つの撮像カメラC1,C2,C3,C4を備えている。投写レンズ13は、テーブルT上に投写画像DAを投写し、撮像カメラC1,C2,C3,C4は、投写画像DAを含む範囲を撮像する。   The projector 100 includes a projection lens 13 and four imaging cameras C1, C2, C3, and C4. The projection lens 13 projects the projection image DA on the table T, and the imaging cameras C1, C2, C3, and C4 capture the range including the projection image DA.

第1の実施形態のプロジェクター100では、魚をさばく操作を案内する。よって、操作者Hは、実物の魚F1をテーブルT上に載置して、包丁P1を用いて魚F1をさばく。また、プロジェクター100は、操作の見本となる様子を表す魚の見本画像D1をテーブル上に投写することで、実物の魚F1の状態と比較することができる。   In the projector 100 according to the first embodiment, an operation for handling a fish is guided. Therefore, the operator H places the real fish F1 on the table T, and uses the knife P1 to determine the fish F1. Moreover, the projector 100 can compare with the state of the real fish F1 by projecting on the table the sample image D1 of the fish that represents a mode of operation.

プロジェクター100の魚の見本画像D1上には、操作を表す画像、即ち包丁P1で切る位置を表す指示線D2が投写される。そして、実物の魚F1上には、包丁P1で操作する位置(切る位置)を表す案内線L1を投写する。このとき、プロジェクター100は、実物の魚F1を画像認識し、案内線L1を投写する。なお、案内線L1は、投写レンズ13側から見て、実物の魚F1の影になる部分は表示されないが、本実施形態の図1では、説明のために表示している。さらに見本画像D1の横(操作者Hから見て手前側)には、操作を案内する案内文字D3が投写される。図1では、「ひれを跨いで包丁を立てます」と表示している。   On the fish sample image D1 of the projector 100, an image representing an operation, that is, an instruction line D2 representing a position to be cut by the knife P1 is projected. And the guide line L1 showing the position (cutting position) operated with the kitchen knife P1 is projected on the real fish F1. At this time, the projector 100 recognizes an image of the real fish F1 and projects the guide line L1. The guide line L1 is not displayed in the shadow of the real fish F1 when viewed from the projection lens 13 side, but is shown in FIG. 1 of the present embodiment for explanation. Further, a guide character D3 for guiding the operation is projected beside the sample image D1 (on the front side as viewed from the operator H). In FIG. 1, “Standing a knife across a fin” is displayed.

さらに、プロジェクター100は、投写画像DAを切り換えるためのボタンB1,B2,B3を投写する。本実施形態では、ボタンB1には、魚をさばく操作を案内するための投写画像DAを次のシーン(場面)の画像に切り換えるための「次へ」という文字が表示されている。また、ボタンB2には、前のシーンの画像に戻るための「戻る」という文字が表示されている。さらに、ボタンB3には、魚をさばく操作の案内を終了するための「終了」という文字が表示されている。   Furthermore, the projector 100 projects buttons B1, B2, and B3 for switching the projection image DA. In the present embodiment, the character “next” for switching the projection image DA for guiding the fish handling operation to the image of the next scene (scene) is displayed on the button B1. In addition, a letter “return” for returning to the image of the previous scene is displayed on the button B2. In addition, on the button B3, a character “END” for ending the guidance of the operation for handling fish is displayed.

操作者Hが、指(図示せず)や包丁P1等の指示体によって、ボタンB1,B2,B3を指示する操作を行うと、プロジェクター100の撮像カメラC1,C2,C3,C4によって撮像して操作を認識し、プロジェクター100は、操作されたボタンに応じた画像を投写する。   When the operator H performs an operation of instructing the buttons B1, B2, and B3 with an indicator such as a finger (not shown) or a knife P1, the image is captured by the imaging cameras C1, C2, C3, and C4 of the projector 100. Recognizing the operation, the projector 100 projects an image corresponding to the operated button.

なお、プロジェクター100は、ズーム機能、台形補正機能、フォーカス機能を備えている。そして、操作者Hは、これらの機能を用いて、図1に示すように、矩形のテーブルTに収まるように投写画像DAを投写するように調整する。なお、プロジェクター100は、投写レンズ13や撮像カメラC1,C2,C3,C4を用いて、テーブルTの枠を検出したり、所定のテストパターンを表示したりして、ズーム機能、台形補正機能、フォーカス機能を自動で調整し、矩形のテーブルTに収まるように投写画像DAを投写するように調整してもよい。なお、以降では、ズーム機能、台形補正機能、フォーカス機能についての説明は省略する。また、プロジェクター100では、撮像した投写画像DA内における所定の場所を、画像信号(画像情報)に基づく画像内における所定の場所に対応付けるための手続きであるキャリブレーションが行われているものとする。   The projector 100 includes a zoom function, a keystone correction function, and a focus function. Then, using these functions, the operator H adjusts to project the projection image DA so as to fit in the rectangular table T as shown in FIG. The projector 100 detects the frame of the table T or displays a predetermined test pattern by using the projection lens 13 and the imaging cameras C1, C2, C3, and C4, so that the zoom function, the keystone correction function, The focus function may be automatically adjusted so that the projected image DA is projected so as to fit on the rectangular table T. Hereinafter, descriptions of the zoom function, the keystone correction function, and the focus function are omitted. In the projector 100, it is assumed that calibration, which is a procedure for associating a predetermined location in the captured projection image DA with a predetermined location in the image based on the image signal (image information), is performed.

図2は、第1の実施形態に係るプロジェクター100の構成を示すブロック図である。
図2には、プロジェクター100に加えて、ネットワークNW、ネットワークNWに接続されたデータベースDB、投写面となるテーブルT、対象物である実物の魚F1、および指示体としての包丁P1等が表されている。これらによって、インタラクティブ機能によって案内画像の投写が実現される。
FIG. 2 is a block diagram illustrating a configuration of the projector 100 according to the first embodiment.
In FIG. 2, in addition to the projector 100, a network NW, a database DB connected to the network NW, a table T serving as a projection plane, a real fish F1 as a target, a knife P1 as an indicator, and the like are shown. ing. Thus, the guidance image can be projected by the interactive function.

プロジェクター100は、投写部としての画像投写部10、制御部20、操作受付部21、案内情報取得部30、案内情報処理部31、画像処理部32、画像情報入力部35、音声出力部40、スピーカー41、撮像解析部50等を備えて構成されている。   The projector 100 includes an image projection unit 10 as a projection unit, a control unit 20, an operation reception unit 21, a guidance information acquisition unit 30, a guidance information processing unit 31, an image processing unit 32, an image information input unit 35, an audio output unit 40, A speaker 41, an imaging analysis unit 50, and the like are provided.

画像投写部10は、光源11、光変調装置としての3つの液晶ライトバルブ12R,12G,12B、投写光学系としての投写レンズ13、ライトバルブ駆動部14等を含んでいる。画像投写部10は、光源11から射出された光を、液晶ライトバルブ12R,12G,12Bで変調して画像光を形成し、この画像光を投写レンズ13から投写して投写面であるテーブルT等に表示する。   The image projection unit 10 includes a light source 11, three liquid crystal light valves 12R, 12G, and 12B as light modulation devices, a projection lens 13 as a projection optical system, a light valve drive unit 14, and the like. The image projection unit 10 modulates the light emitted from the light source 11 with the liquid crystal light valves 12R, 12G, and 12B to form image light, and projects the image light from the projection lens 13 to form a table T that is a projection surface. Etc.

光源11は、超高圧水銀ランプやメタルハライドランプ等からなる放電型の光源ランプ11aと、光源ランプ11aが放射した光を液晶ライトバルブ12R,12G,12B側に反射するリフレクター11bとを含んで構成されている。光源11から射出された光は、図示しないインテグレーター光学系によって輝度分布が略均一な光に変換され、図示しない色分離光学系によって光の3原色である赤色R、緑色G、青色Bの各色光成分に分離された後、それぞれ液晶ライトバルブ12R,12G,12Bに入射する。   The light source 11 includes a discharge-type light source lamp 11a made of an ultra-high pressure mercury lamp, a metal halide lamp, or the like, and a reflector 11b that reflects light emitted from the light source lamp 11a toward the liquid crystal light valves 12R, 12G, and 12B. ing. The light emitted from the light source 11 is converted into light having a substantially uniform luminance distribution by an integrator optical system (not shown), and each color light of red R, green G, and blue B, which are the three primary colors of light, by a color separation optical system (not shown). After being separated into components, they are incident on the liquid crystal light valves 12R, 12G, and 12B, respectively.

液晶ライトバルブ12R,12G,12Bは、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。液晶ライトバルブ12R,12G,12Bには、マトリクス状に配列された複数の画素(図示せず)が形成されており、液晶に対して画素毎に駆動電圧を印加可能になっている。ライトバルブ駆動部14が、入力される画像情報に応じた駆動電圧を各画素に印加すると、各画素は、画像情報に応じた光透過率に設定される。このため、光源11から射出された光は、この液晶ライトバルブ12R,12G,12Bを透過することによって変調され、画像情報に応じた画像が色光毎に形成される。形成された各色の画像は、図示しない色合成光学系によって画素毎に合成されてカラー画像となった後、投写レンズ13から投写される。   The liquid crystal light valves 12R, 12G, and 12B are configured by a liquid crystal panel in which liquid crystal is sealed between a pair of transparent substrates. In the liquid crystal light valves 12R, 12G, and 12B, a plurality of pixels (not shown) arranged in a matrix are formed, and a driving voltage can be applied to the liquid crystal for each pixel. When the light valve driving unit 14 applies a driving voltage corresponding to the input image information to each pixel, each pixel is set to a light transmittance corresponding to the image information. For this reason, the light emitted from the light source 11 is modulated by transmitting through the liquid crystal light valves 12R, 12G, and 12B, and an image corresponding to the image information is formed for each color light. The formed color images are synthesized for each pixel by a color synthesis optical system (not shown) to form a color image, and then projected from the projection lens 13.

制御部20は、CPU(Central Processing Unit)、各種データの一時記憶等に用いられるRAM、および、マスクROMやフラッシュメモリー、FeRAM(Ferroelectric RAM:強誘電体メモリー)等の不揮発性のメモリー等(いずれも図示せず)を備え、コンピューターとして機能するものである。制御部20は、CPUが不揮発性のメモリーに記憶されている制御プログラムに従って動作することにより、プロジェクター100の動作を統括制御する。   The control unit 20 includes a CPU (Central Processing Unit), a RAM used for temporary storage of various data, and a non-volatile memory such as a mask ROM, flash memory, FeRAM (Ferroelectric RAM), etc. (Not shown) and functions as a computer. The control unit 20 performs overall control of the operation of the projector 100 by the CPU operating according to a control program stored in a nonvolatile memory.

操作受付部21は、操作者Hからの入力操作を受け付けるものであり、操作者Hがプロジェクター100に対して各種指示を行うための複数の操作キーを備えている。操作受付部21が備える操作キーとしては、電源のオン・オフを切り換えるための電源キー、各種設定を行うためのメニュー画像の表示・非表示を切り換えるメニューキー、メニュー画像におけるカーソルの移動等に用いられるカーソルキー、各種設定を決定するための決定キー等がある。操作者Hが操作受付部21の各種操作キーを操作(押下)すると、操作受付部21は、この入力操作を受け付けて、操作者Hの操作内容に応じた操作信号を制御部20に出力する。   The operation reception unit 21 receives an input operation from the operator H, and includes a plurality of operation keys for the operator H to give various instructions to the projector 100. The operation keys included in the operation receiving unit 21 are a power key for switching power on / off, a menu key for switching display / non-display of a menu image for performing various settings, a cursor movement in the menu image, and the like. Cursor keys to be displayed, determination keys for determining various settings, and the like. When the operator H operates (presses) various operation keys of the operation reception unit 21, the operation reception unit 21 receives this input operation and outputs an operation signal corresponding to the operation content of the operator H to the control unit 20. .

なお、操作受付部21として、遠隔操作が可能なリモコン(図示せず)を用いた構成としてもよい。この場合、リモコンは、操作者Hの操作内容に応じた赤外線等の操作信号を発信し、図示しないリモコン信号受信部がこれを受信して制御部20に伝達する。   The operation receiving unit 21 may be configured using a remote control (not shown) capable of remote operation. In this case, the remote controller transmits an operation signal such as an infrared ray according to the operation content of the operator H, and a remote control signal receiving unit (not shown) receives this and transmits it to the control unit 20.

案内情報取得部30は、制御部20の指示により、TCP/IP等のプロトコルを用いて、ネットワークNWを介してデータベースDBから案内情報を取得する。ここで案内情報とは、対象物に対する操作を案内するための情報であり、シーン(場面)毎の画像情報や音声情報等を備えて構成されている。案内情報には、シーン毎に通し番号が設定されており、当該案内情報において何番目のシーンなのかを判別することが可能になっている。案内情報取得部30は、案内情報を取得すると、制御部20に取得した旨を通知する。取得した案内情報は、案内情報処理部31に出力する。なお、本実施形態では、案内情報を、ネットワークNWを介してデータベースDBから取得するものとしたが、メモリーカードや他の記憶媒体等から取得してもよい。また、プロジェクター100内の不揮発性のメモリー等に予め案内情報を記憶させておき、このメモリーから取得してもよい。   The guidance information acquisition unit 30 acquires guidance information from the database DB via the network NW using a protocol such as TCP / IP according to an instruction from the control unit 20. Here, the guidance information is information for guiding operations on the object, and is configured to include image information, audio information, and the like for each scene. In the guide information, a serial number is set for each scene, and it is possible to determine the number of the scene in the guide information. When the guide information acquisition unit 30 acquires the guide information, the guide information acquisition unit 30 notifies the control unit 20 of the acquisition. The acquired guidance information is output to the guidance information processing unit 31. In the present embodiment, the guide information is acquired from the database DB via the network NW, but may be acquired from a memory card or other storage medium. Further, guide information may be stored in advance in a nonvolatile memory or the like in the projector 100 and acquired from this memory.

案内情報処理部31は、制御部20の指示により、入力された案内情報に対する処理を行う。具体的には、案内情報を画像情報と音声情報とに分割する。案内情報処理部31は、画像情報を画像処理部32で処理可能な形式の画像情報に変換して画像処理部32に出力する。このとき、案内情報処理部31は、魚の見本画像D1上に描画されている指示線D2を画像認識する。そして、その見本画像D1における指示線D2の位置情報も画像処理部32に出力する。また、案内情報処理部31は、音声情報を音声出力部40で処理可能な形式に変換して、音声出力部40に出力する。また、案内情報処理部31は、画像情報に入力されているシーン番号を制御部20に通知する。   The guidance information processing unit 31 performs processing on the inputted guidance information according to an instruction from the control unit 20. Specifically, the guidance information is divided into image information and audio information. The guidance information processing unit 31 converts the image information into image information in a format that can be processed by the image processing unit 32 and outputs the image information to the image processing unit 32. At this time, the guidance information processing section 31 recognizes an image of the instruction line D2 drawn on the fish sample image D1. Then, the positional information of the instruction line D2 in the sample image D1 is also output to the image processing unit 32. In addition, the guidance information processing unit 31 converts the voice information into a format that can be processed by the voice output unit 40 and outputs the converted information to the voice output unit 40. The guidance information processing unit 31 notifies the control unit 20 of the scene number input in the image information.

画像処理部32は、OSD処理部32aおよび案内画像生成部32bを含んで構成されている。画像処理部32は、案内情報処理部31または画像情報入力部35から入力される画像情報を、液晶ライトバルブ12R,12G,12Bの各画素の階調を表す画像データに変換し、ライトバルブ駆動部14に出力する。ここで、変換された画像データは、R,G,Bの色光別になっており、各液晶ライトバルブ12R,12G,12Bのすべての画素に対応する複数の画素値によって構成されている。画素値とは、対応する画素の光透過率を定めるものであり、この画素値によって、各画素から射出する光の強弱(階調)が規定される。また、画像処理部32は、制御部20の指示に基づき、変換した画像データに対して、明るさ、コントラスト、シャープネス、色合い等を調整するための画質調整処理等を行う。   The image processing unit 32 includes an OSD processing unit 32a and a guide image generation unit 32b. The image processing unit 32 converts the image information input from the guidance information processing unit 31 or the image information input unit 35 into image data representing the gradation of each pixel of the liquid crystal light valves 12R, 12G, and 12B, and drives the light valve. To the unit 14. Here, the converted image data is for each color light of R, G, B, and is composed of a plurality of pixel values corresponding to all the pixels of each liquid crystal light valve 12R, 12G, 12B. The pixel value determines the light transmittance of the corresponding pixel, and the intensity (gradation) of light emitted from each pixel is defined by the pixel value. Further, the image processing unit 32 performs image quality adjustment processing for adjusting brightness, contrast, sharpness, hue, and the like on the converted image data based on an instruction from the control unit 20.

OSD処理部32aは、制御部20の指示に基づいて、入力された画像情報に基づく画像(以降、「入力画像」とも呼ぶ。)上に、メニュー画像やメッセージ画像等のOSD(オンスクリーンディスプレイ)画像を重畳して表示するための処理を行う。OSD処理部32aは、図示しないOSDメモリーを備えており、OSD画像を形成するための図形やフォント等を表すOSD画像情報を記憶している。制御部20が、OSD画像の重畳を指示すると、OSD処理部32aは、必要なOSD画像情報をOSDメモリーから読み出し、入力画像上の所定の位置にOSD画像が重畳されるように、画像情報にこのOSD画像情報を合成する。   The OSD processing unit 32a performs an OSD (on-screen display) such as a menu image or a message image on an image based on input image information (hereinafter also referred to as “input image”) based on an instruction from the control unit 20. A process for superimposing and displaying an image is performed. The OSD processing unit 32a includes an OSD memory (not shown) and stores OSD image information representing graphics, fonts, and the like for forming an OSD image. When the control unit 20 instructs to superimpose the OSD image, the OSD processing unit 32a reads out necessary OSD image information from the OSD memory and adds the OSD image to the image information so that the OSD image is superimposed at a predetermined position on the input image. This OSD image information is synthesized.

案内画像生成部32bは、対象物である実物の魚F1上に投写する案内線L1(第1案内画像)、見本画像D1(第2案内画像)、指示線D2(第2案内画像)、案内文字D3(第2案内画像)を生成する。見本画像D1、指示線D2、案内文字D3は、入力画像に基づいた画像として生成される。案内線L1は、OSD画像として生成され、入力画像に基づいた画像に重畳される。   The guide image generation unit 32b projects a guide line L1 (first guide image), a sample image D1 (second guide image), an instruction line D2 (second guide image), and a guide to be projected onto the real fish F1 that is the object. Character D3 (second guide image) is generated. The sample image D1, the instruction line D2, and the guide character D3 are generated as images based on the input image. The guide line L1 is generated as an OSD image and is superimposed on an image based on the input image.

案内画像生成部32bは、案内情報処理部31から入力した見本画像D1における指示線D2の位置情報に基づき、後述する撮像解析部50が画像認識した対象物である実物の魚F1上に相当する位置の画像情報に、案内線L1をOSD画像として合成する。ここで、実物の魚F1は立体であり、案内線L1を直線として表示すると、実物の魚F1上で歪む場合がある。このため、案内画像生成部32bは、案内線L1を実物の魚F1上で歪まないように曲線等に補正する。具体的には、撮像解析部50の撮像部51の複数の撮像カメラC1,C2,C3,C4によって、複数の方向から実際の魚F1を撮像する。これによって、実際の魚F1を立体的に認識することができる。さらに、撮像した撮像画像に基づき、実物の魚F1上で歪まないように案内線L1を補正する。この案内画像生成部32bが、補正部に相当する。   The guide image generation unit 32b corresponds to the real fish F1, which is an object recognized by the imaging analysis unit 50 described later, based on the positional information of the instruction line D2 in the sample image D1 input from the guide information processing unit 31. The guide line L1 is combined with the position image information as an OSD image. Here, the real fish F1 is three-dimensional, and if the guide line L1 is displayed as a straight line, the real fish F1 may be distorted on the real fish F1. For this reason, the guide image generation unit 32b corrects the guide line L1 to a curve or the like so as not to be distorted on the real fish F1. Specifically, the actual fish F1 is imaged from a plurality of directions by the plurality of imaging cameras C1, C2, C3, and C4 of the imaging unit 51 of the imaging analysis unit 50. Thereby, the actual fish F1 can be recognized three-dimensionally. Further, the guide line L1 is corrected so as not to be distorted on the real fish F1 based on the captured image. The guide image generation unit 32b corresponds to a correction unit.

画像情報入力部35は、複数の入力端子を備えており、これらの入力端子には、ビデオ再生装置やパーソナルコンピューター等、図示しない外部の画像供給装置から各種形式の画像情報(画像信号)が入力される。制御部20からの指示に基づき、画像情報入力部35は画像情報を選択し、選択した画像情報を画像処理部32に出力する。なお、本実施形態では、画像処理部32は、画像情報入力部35から入力される画像情報ではなく、案内情報処理部31から入力される画像情報を処理して出力する。   The image information input unit 35 includes a plurality of input terminals, and various types of image information (image signals) are input to these input terminals from an external image supply device (not shown) such as a video playback device or a personal computer. Is done. Based on an instruction from the control unit 20, the image information input unit 35 selects image information and outputs the selected image information to the image processing unit 32. In the present embodiment, the image processing unit 32 processes and outputs the image information input from the guidance information processing unit 31 instead of the image information input from the image information input unit 35.

ライトバルブ駆動部14が、画像処理部32から入力される画像データ(画像情報)に従って液晶ライトバルブ12R,12G,12Bを駆動すると、液晶ライトバルブ12R,12G,12Bは、画像データに応じた画像を形成し、この画像が投写レンズ13から投写される。   When the light valve driving unit 14 drives the liquid crystal light valves 12R, 12G, and 12B according to the image data (image information) input from the image processing unit 32, the liquid crystal light valves 12R, 12G, and 12B display images corresponding to the image data. And this image is projected from the projection lens 13.

撮像解析部50は、撮像部51、画像解析部52、画像認識部53を含んで構成されている。撮像解析部50は、制御部20によって制御される。撮像解析部50は、投写面であるテーブルTを撮像し、画像解析して、対象物である魚F1を画像認識する。画像解析部52および画像認識部53が、解析部に相当する。   The imaging analysis unit 50 includes an imaging unit 51, an image analysis unit 52, and an image recognition unit 53. The imaging analysis unit 50 is controlled by the control unit 20. The imaging analysis unit 50 captures an image of the table T that is the projection plane, analyzes the image, and recognizes the image of the fish F1 that is the object. The image analysis unit 52 and the image recognition unit 53 correspond to an analysis unit.

撮像部51は、複数の撮像カメラC1,C2,C3,C4を有して構成されている。撮像カメラC1,C2,C3,C4は、それぞれ、CCD(Charge Coupled Device)センサー、或いはCMOS(Complementary Metal Oxide Semiconductor)センサー等からなる撮像素子等(図示せず)と、撮像対象から発せられた光を撮像素子上に結像させるための撮像レンズ(図示せず)を備えている。撮像部51は、投写面であるテーブルTに投写された画像(以降、「投写画像」とも呼ぶ。)を含む範囲を制御部20の指示に基づいて撮像する。そして、撮像部51は、撮像した画像(以降、「撮像画像」とも呼ぶ。)を表す画像情報を順次生成し、画像解析部52に出力する。   The imaging unit 51 includes a plurality of imaging cameras C1, C2, C3, and C4. The imaging cameras C1, C2, C3, and C4 each include an imaging element (not shown) such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and light emitted from an imaging target. Is provided with an imaging lens (not shown) for forming an image on the imaging device. The imaging unit 51 captures an area including an image projected on the table T that is a projection plane (hereinafter also referred to as “projection image”) based on an instruction from the control unit 20. Then, the imaging unit 51 sequentially generates image information representing captured images (hereinafter also referred to as “captured images”) and outputs the image information to the image analysis unit 52.

画像解析部52は、画像解析用の処理装置やメモリー等(いずれも図示せず)を有して構成されている。画像解析部52は、撮像部51から入力された撮像画像情報の解析を行う。画像解析部52は、解析結果を画像認識部53に出力する。また、画像解析部52は、撮像画像上の位置情報から入力画像の画像信号に基づく画像上の位置情報への変換を行う。   The image analysis unit 52 includes a processing device for image analysis, a memory, and the like (none of which are shown). The image analysis unit 52 analyzes the captured image information input from the imaging unit 51. The image analysis unit 52 outputs the analysis result to the image recognition unit 53. Further, the image analysis unit 52 performs conversion from position information on the captured image to position information on the image based on the image signal of the input image.

画像認識部53は、画像解析部52の解析結果に基づいて、画像認識を行い、対象物である実物の魚F1および指示体である指や包丁P1の形状情報と位置情報を認識する。画像認識部53は、実物の魚F1および指や包丁P1の形状情報と位置情報を制御部20および画像処理部32に出力する。   The image recognition unit 53 performs image recognition based on the analysis result of the image analysis unit 52, and recognizes the shape information and position information of the real fish F1 that is the object and the finger or knife P1 that is the indicator. The image recognition unit 53 outputs the shape information and position information of the real fish F1 and the finger or knife P1 to the control unit 20 and the image processing unit 32.

制御部20の不揮発性のメモリーには、指や包丁P1等の指示体を操作デバイスとして利用するためのソフトウェア(デバイスドライバー)が記憶されている。そして、このソフトウェアが起動した状態では、画像処理部32は、撮像解析部50から制御部20を介して入力される位置情報(制御情報)に基づいて、投写画像内で指や包丁P1の操作がなされた位置をそれぞれ認識する。そして、指や包丁P1の操作の位置情報に基づいて、画像処理部32は、ボタンB1,B2,B3等の指示がなされているか否かの情報を制御部20に通知する。   The nonvolatile memory of the control unit 20 stores software (device driver) for using an indicator such as a finger or a knife P1 as an operation device. When the software is activated, the image processing unit 32 operates the finger or the knife P1 in the projected image based on the position information (control information) input from the imaging analysis unit 50 via the control unit 20. Recognize the position where each was made. Then, based on the position information of the operation of the finger or the knife P1, the image processing unit 32 notifies the control unit 20 of information on whether or not an instruction for the buttons B1, B2, B3, etc. has been made.

音声出力部40は、図示しない増幅回路等を備えており、案内情報処理部31から入力された音声情報に基づく音声を、スピーカー41から出力する。音声情報は、操作者Hに操作を案内する。   The audio output unit 40 includes an amplification circuit (not shown) and the like, and outputs audio based on the audio information input from the guidance information processing unit 31 from the speaker 41. The voice information guides the operation to the operator H.

次に、プロジェクター100が、操作内容を案内する処理について、フローチャートを用いて説明する。
図3は、本実施形態に係るプロジェクター100の操作内容を案内する処理のフローチャートである。なお、本実施形態では、案内する操作内容は、予め、「魚のさばき方」が選択されているものとする。
Next, a process in which the projector 100 guides the operation content will be described using a flowchart.
FIG. 3 is a flowchart of processing for guiding the operation content of the projector 100 according to the present embodiment. In the present embodiment, it is assumed that “how to fish” is selected in advance as the operation content to be guided.

プロジェクター100の制御部20は、案内情報取得部30に指示を出して、ネットワークNWを介してデータベースDBから、「魚のさばき方」の最初のシーン(場面)の案内情報を取得させる(ステップS101)。制御部20は、案内情報処理部31に指示を出して、案内情報における画像情報を画像処理部32に出力させ、画像情報に基づいた画像を投写させる。さらに、制御部20は、案内情報処理部31に指示を出して、案内情報における音声情報を音声出力部40に出力させ、スピーカー41から案内音声を出力させる(ステップS102)。   The control unit 20 of the projector 100 instructs the guidance information acquisition unit 30 to acquire the guidance information of the first scene of “how to judge fish” from the database DB via the network NW (step S101). . The control unit 20 instructs the guidance information processing unit 31 to cause the image processing unit 32 to output image information in the guidance information, and to project an image based on the image information. Further, the control unit 20 instructs the guidance information processing unit 31 to output the voice information in the guidance information to the voice output unit 40 and to output the guidance voice from the speaker 41 (step S102).

制御部20は、案内情報処理部31に指示を出して、画像情報上の見本画像D1における指示線D2を画像認識して、位置情報を検出する(ステップS103)。   The control unit 20 issues an instruction to the guidance information processing unit 31, recognizes the instruction line D2 in the sample image D1 on the image information, and detects position information (step S103).

制御部20は、撮像解析部50の撮像部51に指示を出して、投写面であるテーブルTを含む領域を撮像させて撮像画像を生成させる(ステップS104)。画像解析部52は、撮像画像を解析する(ステップS105)。そして、画像認識部53は、解析結果に基づいて対象物である実物の魚F1の形状情報と位置情報とを画像認識する(ステップS106)。   The control unit 20 issues an instruction to the imaging unit 51 of the imaging analysis unit 50 to capture an area including the table T, which is a projection plane, and generate a captured image (step S104). The image analysis unit 52 analyzes the captured image (step S105). Then, the image recognition unit 53 recognizes the shape information and position information of the real fish F1, which is the object, based on the analysis result (step S106).

制御部20は、対象物である実物の魚F1の形状情報と位置情報、および見本画像D1における指示線D2の位置情報に基づいて、画像情報にOSD画像による案内線L1を重畳して、実物の魚F1上に案内線L1を表示させる(ステップS107)。   Based on the shape information and position information of the real fish F1, which is the object, and the position information of the instruction line D2 in the sample image D1, the control unit 20 superimposes the guide line L1 based on the OSD image on the image information, The guide line L1 is displayed on the fish F1 (step S107).

制御部20は、画像認識部53に指示を出して、解析結果に基づいて指示体である指や包丁P1の形状情報と位置情報を画像認識する(ステップS108)。制御部20は、指示体が、「次へ」のボタンB1を指示しているか否かを判断する(ステップS109)。   The control unit 20 issues an instruction to the image recognizing unit 53, and image-recognizes the shape information and position information of the finger or knife P1 that is the indicator based on the analysis result (step S108). The control unit 20 determines whether or not the indicator indicates the “next” button B1 (step S109).

指示体が、「次へ」のボタンB1を指示している場合(ステップS109:YES)、制御部20は、操作の案内が終了、即ち、全ての案内シーンが終了したか否かを判断する(ステップS110)。操作の案内が終了している場合(ステップS110:YES)、操作内容を案内する処理(当該フローチャート)を終了する。   When the indicator indicates the “next” button B1 (step S109: YES), the control unit 20 determines whether or not the operation guidance has ended, that is, all the guidance scenes have ended. (Step S110). If the operation guidance has been completed (step S110: YES), the process of guiding the operation content (the flowchart) is terminated.

操作の案内が終了していない場合(ステップS110:NO)、制御部20は、案内情報取得部30に指示を出して、データベースDBから、次のシーン(場面)の案内情報を取得させる(ステップS111)。制御部20は、案内情報処理部31に指示を出して、案内情報における画像情報を画像処理部32に出力させ、画像情報に基づいた画像を投写させる。さらに、制御部20は、案内情報処理部31に指示を出して、案内情報における音声情報を音声出力部40に出力させ、スピーカー41から案内音声を出力させる(ステップS112)。そして、ステップS103に移行する。   When the operation guidance has not ended (step S110: NO), the control unit 20 instructs the guidance information acquisition unit 30 to acquire the guidance information of the next scene (scene) from the database DB (step S110). S111). The control unit 20 instructs the guidance information processing unit 31 to cause the image processing unit 32 to output image information in the guidance information, and to project an image based on the image information. Further, the control unit 20 instructs the guidance information processing unit 31 to output voice information in the guidance information to the voice output unit 40 and to output guidance voice from the speaker 41 (step S112). Then, the process proceeds to step S103.

指示体が、「次へ」のボタンB1を指示していない場合(ステップS109:NO)、制御部20は、「戻る」のボタンB2を指示しているか否かを判断する(ステップS113)。   When the indicator does not instruct the “next” button B1 (step S109: NO), the control unit 20 determines whether or not the “return” button B2 is instructed (step S113).

指示体が、「戻る」のボタンB2を指示している場合(ステップS113:YES)、制御部20は、案内情報取得部30に指示を出して、データベースDBから、1つ前のシーン(場面)の案内情報を取得させる(ステップS114)。制御部20は、案内情報処理部31に指示を出して、案内情報における画像情報を画像処理部32に出力させ、画像情報に基づいた画像を投写させる。さらに、制御部20は、案内情報処理部31に指示を出して、案内情報における音声情報を音声出力部40に出力させ、スピーカー41から案内音声を出力させる(ステップS115)。そして、ステップS103に移行する。   When the indicator indicates the “return” button B2 (step S113: YES), the control unit 20 issues an instruction to the guidance information acquisition unit 30, and the previous scene (scene from the database DB) ) Guidance information is acquired (step S114). The control unit 20 instructs the guidance information processing unit 31 to cause the image processing unit 32 to output image information in the guidance information, and to project an image based on the image information. Further, the control unit 20 instructs the guidance information processing unit 31 to output the voice information in the guidance information to the voice output unit 40 and output the guidance voice from the speaker 41 (step S115). Then, the process proceeds to step S103.

指示体が、「戻る」のボタンB2を指示していない場合(ステップS113:NO)、制御部20は、「終了」のボタンB3を指示しているか否かを判断する(ステップS116)。   When the indicator does not indicate the “return” button B2 (step S113: NO), the control unit 20 determines whether or not the “end” button B3 is specified (step S116).

指示体が、「終了」のボタンB3を指示している場合(ステップS116:YES)、操作内容を案内する処理(当該フローチャート)を終了する。指示体が、「終了」のボタンB3を指示していない場合(ステップS116:NO)、ステップS104に移行する。   When the indicator indicates the “end” button B3 (step S116: YES), the process of guiding the operation content (the flowchart) is ended. When the indicator does not instruct the “end” button B3 (step S116: NO), the process proceeds to step S104.

このように、プロジェクター100は、操作内容を案内する処理を実行することで、「魚のさばき方」の操作を画像および音声にて案内することができる。そして、実物の魚F1上に案内線L1を表示することができる。なお、案内する操作内容は、「魚のさばき方」に限定するものではなく、その他の案内操作も選択できる。この場合、制御部20は、案内情報取得部30に指示を出して、データベースDBに記憶されている各種の「案内する操作内容」を取得して、画像投写部10に投写させる。そして、操作者Hに指示体によって選択させて、撮像解析部50で認識して、実行するものとする。   Thus, the projector 100 can guide the operation of “how to judge fish” with images and sounds by executing the process of guiding the operation content. The guide line L1 can be displayed on the real fish F1. The operation content to be guided is not limited to “how to handle fish”, and other guidance operations can be selected. In this case, the control unit 20 issues an instruction to the guidance information acquisition unit 30, acquires various “operation contents to be guided” stored in the database DB, and causes the image projection unit 10 to project. Then, the operator H is selected by an indicator, and is recognized and executed by the imaging analysis unit 50.

上述した第1の実施形態によれば、以下の効果が得られる。
(1)プロジェクター100の撮像解析部50は、撮像画像を解析し、対象物である実物の魚F1を認識する。案内画像生成部32bは、案内情報取得部30によって取得された案内情報に基づいて、画像情報において、対象物である実物の魚F1上の操作を行う位置に、案内線L1(第1案内画像)をOSD画像として合成する。画像投写部10は、画像情報に基づいた画像を投写する。これにより、プロジェクター100は、対象物である実物の魚F1に案内線L1を投写することが可能となり、対象物に対してどのような操作を行えばよいか(包丁P1を用いてどこを切ればよいか)を、操作者Hに案内し、支援することができるため、有益である。
According to the first embodiment described above, the following effects can be obtained.
(1) The imaging analysis unit 50 of the projector 100 analyzes the captured image and recognizes the real fish F1 that is the target. Based on the guide information acquired by the guide information acquiring unit 30, the guide image generating unit 32b has a guide line L1 (first guide image) at a position in the image information where an operation is performed on the real fish F1, which is the target object. ) As an OSD image. The image projection unit 10 projects an image based on the image information. Thus, the projector 100 can project the guide line L1 onto the real fish F1 that is the target object, and what operation should be performed on the target object (where the knife P1 is used to cut) This is useful because it can be guided to the operator H and supported.

(2)プロジェクター100の撮像解析部50は、撮像結果を解析して、対象物である実物の魚F1、および操作者Hの指や包丁P1等の指示体を認識する。そして、指示体による指示操作(「次へ」のボタンの指示操作)に基づいて、制御部20は、案内情報取得部30に指示を出して、データベースDBから、次のシーン(場面)の案内情報を取得させることができる。そして、案内情報処理部31および画像処理部32の案内画像生成部32bは、案内線L1が重畳された画像情報を生成する。画像投写部10は、対象物に案内画像を投写する。これにより、プロジェクター100は、操作者Hの指示操作に応じ、次にどのような操作を行えばよいかを、操作者Hに案内することが可能になる。また、指示体による指示操作によって、前のシーンに戻ったり、案内を終了させたりすることも可能であるため有益である。   (2) The imaging analysis unit 50 of the projector 100 analyzes the imaging result, and recognizes the real fish F1, which is the object, and the indicator such as the finger of the operator H and the knife P1. Then, based on the instruction operation by the indicator (the instruction operation of the “next” button), the control unit 20 issues an instruction to the guidance information acquisition unit 30 to guide the next scene (scene) from the database DB. Information can be acquired. The guide information processing unit 31 and the guide image generation unit 32b of the image processing unit 32 generate image information on which the guide line L1 is superimposed. The image projection unit 10 projects a guide image on the object. Thus, the projector 100 can guide the operator H what operation should be performed next in response to the instruction operation of the operator H. Further, it is useful because it is possible to return to the previous scene or end the guidance by an instruction operation by the indicator.

(3)プロジェクター100は、撮像部51として、複数の撮像カメラC1,C2,C3,C4を有して構成されており、撮像解析部50は、対象物である実物の魚F1および操作体である指や包丁P1を立体的に認識することが可能である。これにより、画像認識の正確性を向上することができる。   (3) The projector 100 is configured to include a plurality of imaging cameras C1, C2, C3, and C4 as the imaging unit 51, and the imaging analysis unit 50 includes a real fish F1 that is a target and an operation body. A certain finger or knife P1 can be recognized in three dimensions. Thereby, the accuracy of image recognition can be improved.

(4)プロジェクター100の案内画像生成部32bは、対象物の形状に応じて案内線L1を補正する。つまり、案内画像生成部32bは、撮像解析部50が認識した対象物である実物の魚F1の立体的な形状に応じて、案内線L1(第1案内画像)が歪まないように補正する。これにより、操作者Hは、対象物における正しい操作位置を視認することが可能になるため、有益である。   (4) The guide image generation unit 32b of the projector 100 corrects the guide line L1 according to the shape of the object. That is, the guide image generation unit 32b corrects the guide line L1 (first guide image) so as not to be distorted according to the three-dimensional shape of the real fish F1, which is the object recognized by the imaging analysis unit 50. Thereby, the operator H can recognize the correct operation position on the object, which is beneficial.

(5)プロジェクター100は、操作の見本となる様子を表す魚の見本画像D1、指示線D2、および操作を案内する案内文字D3を、対象物とは異なる位置に投写する。これにより、プロジェクター100は、対象物への案内線L1に加えて、見本画像D1、指示線D2および案内文字D3を投写することによって、操作に関する多くの情報を操作者Hに提供することができる。よって、操作者Hは、対象物に対する操作を効率的に行うことが可能になる。   (5) The projector 100 projects a fish sample image D1, an instruction line D2, and a guide character D3 that guides the operation, which represent a sample operation, at a position different from the object. Thereby, the projector 100 can provide the operator H with a lot of information regarding the operation by projecting the sample image D1, the instruction line D2, and the guide character D3 in addition to the guide line L1 to the object. . Therefore, the operator H can efficiently perform an operation on the object.

(6)プロジェクター100は、音声出力部40およびスピーカー41によって、案内音声を出力する。これにより、プロジェクター100は、対象物への案内線L1、見本画像D1、指示線D2、案内文字D3に加えて、音声で案内するため、操作に関する多くの情報を操作者Hに提供することができる。よって、操作者Hは、対象物に対する操作を効率的に行うことが可能になる。   (6) The projector 100 outputs a guidance voice by the voice output unit 40 and the speaker 41. Thereby, since the projector 100 guides by voice in addition to the guide line L1, the sample image D1, the instruction line D2, and the guide character D3 to the object, the projector 100 can provide the operator H with a lot of information regarding the operation. it can. Therefore, the operator H can efficiently perform an operation on the object.

(第2の実施形態)
第2の実施形態では、投写画像を撮像する撮像装置と、画像データを解析する解析装置と、画像を投写する画像投写装置と、を備える画像投写システムであって、撮像画像に基づいて、投写画像内における対象物および指示体を検出するインタラクティブ機能を有し、操作内容を案内する画像投写システムについて説明する。
(Second Embodiment)
In the second embodiment, an image projection system includes an imaging device that captures a projected image, an analysis device that analyzes image data, and an image projection device that projects an image, and performs projection based on the captured image. An image projection system having an interactive function for detecting an object and an indicator in an image and guiding operation contents will be described.

図4は、第2の実施形態に係る画像投写システムおよび投写状態を表す斜視図である。
図4には、画像投写システム1として、画像投写装置としてのプロジェクター200、解析装置としてのPC300、撮像装置としての撮像部400(撮像カメラC5,C6)が表されている。図4には、さらに、投写面であるテーブルT、対象物である魚F1、指示体である包丁P1、および投写画像DAが表されている。また、操作者Hも表示されている。プロジェクター200は、テーブルTに固定または載置され、テーブルT上に画像を投写している。ここで、第1の実施形態と同様な構成部には同様な符号を付記している。なお、第2の実施形態においても、案内する操作内容は、「魚のさばき方」が選択されているものとする。
FIG. 4 is a perspective view illustrating an image projection system and a projection state according to the second embodiment.
FIG. 4 shows a projector 200 as an image projection apparatus, a PC 300 as an analysis apparatus, and an imaging unit 400 (imaging cameras C5 and C6) as an imaging apparatus as the image projection system 1. FIG. 4 further shows a table T that is a projection surface, a fish F1 that is an object, a knife P1 that is an indicator, and a projection image DA. An operator H is also displayed. The projector 200 is fixed or placed on the table T and projects an image on the table T. Here, the same code | symbol is attached | subjected to the structure part similar to 1st Embodiment. In the second embodiment, it is assumed that “how to treat fish” is selected as the operation content to be guided.

画像投写システム1のプロジェクター200は、投写レンズ13を備えている。投写レンズ13は、PC300から入力される入力画像情報に基づいて、テーブルT上に投写画像DAを投写する。撮像部400は複数の撮像カメラC5,C6を備えて構成されており、投写面上を撮像する。撮像カメラC5,C6によって撮像された撮像画像情報は、PC300に出力される。   The projector 200 of the image projection system 1 includes a projection lens 13. The projection lens 13 projects the projection image DA on the table T based on the input image information input from the PC 300. The imaging unit 400 includes a plurality of imaging cameras C5 and C6, and images the projection surface. The captured image information captured by the imaging cameras C5 and C6 is output to the PC 300.

第2の実施形態の画像投写システム1では、第1の実施形態と同様に、魚をさばく操作を案内する。よって、操作者Hは、実物の魚F1をテーブルT上に載置して、包丁P1を用いて魚F1をさばく。また、画像投写システム1のプロジェクター200は、操作の見本となる様子を表す魚の見本画像D1をテーブル上に投写することで、実物の魚F1の状態と比較することができる。   In the image projection system 1 according to the second embodiment, an operation for handling a fish is guided as in the first embodiment. Therefore, the operator H places the real fish F1 on the table T, and uses the knife P1 to determine the fish F1. Further, the projector 200 of the image projection system 1 can compare the state of the real fish F1 by projecting the fish sample image D1 representing the sample operation on the table.

画像投写システム1のプロジェクター200が投写する魚の見本画像D1には、操作を表す画像、即ち包丁P1で切る位置を表す指示線D2が投写される。そして、実物の魚F1には、包丁P1で操作する位置(切る位置)を表す案内線L1を投写する。このとき、画像投写システム1は、実物の魚F1を画像認識し、案内線L1を投写する。なお、案内線L1は、投写レンズ13側から見て、実物の魚F1の影になる部分は表示されないが、本実施形態の図4では、説明のために表示している。さらに見本となる魚の見本画像D1の横(操作者Hから見て手前側)には、操作を案内する案内文字D3が投写される。図1では、「ひれを跨いで包丁を立てます」と表示している。   On the fish sample image D1 projected by the projector 200 of the image projection system 1, an image representing an operation, that is, an instruction line D2 representing a position to be cut by the knife P1 is projected. And the guide line L1 showing the position (cutting position) operated with the knife P1 is projected on the real fish F1. At this time, the image projection system 1 recognizes an image of the real fish F1 and projects the guide line L1. The guide line L1 is not displayed in the shadow of the real fish F1 when viewed from the projection lens 13 side, but is displayed for explanation in FIG. 4 of the present embodiment. Further, a guide character D3 for guiding the operation is projected next to the sample fish sample image D1 (on the front side as viewed from the operator H). In FIG. 1, “Standing a knife across a fin” is displayed.

さらに、画像投写システム1のプロジェクター200は、投写画像DAを切り換えるためのボタンB1,B2,B3を投写する。本実施形態では、ボタンB1には、魚をさばく操作を案内するための投写画像DAを次の画像に切り換えるための「次へ」という文字が表示されている。また、ボタンB2には、前の画像に戻るための「戻る」という文字が表示されている。さらに、ボタンB3には、魚をさばく操作の案内を終了するための「終了」という文字が表示されている。   Further, the projector 200 of the image projection system 1 projects buttons B1, B2, and B3 for switching the projection image DA. In the present embodiment, on the button B1, characters “next” are displayed for switching the projected image DA for guiding the operation of handling fish to the next image. In addition, on the button B2, characters “return” for returning to the previous image are displayed. In addition, on the button B3, a character “END” for ending the guidance of the operation for handling fish is displayed.

操作者Hが、指(図示せず)や包丁P1等の指示体によって、ボタンB1,B2,B3を指示する操作を行うと、撮像カメラC5,C6によって撮像し、PC300によって操作を認識し、プロジェクター200によって、操作されたボタンに応じた画像を投写する。   When the operator H performs an operation of instructing the buttons B1, B2, and B3 with an indicator such as a finger (not shown) or a knife P1, the imaging is performed by the imaging cameras C5 and C6, and the operation is recognized by the PC 300. The projector 200 projects an image corresponding to the operated button.

なお、画像投写システム1のプロジェクター200は、ズーム機能、台形補正機能、フォーカス機能を備えている。そして、操作者Hは、これらの機能を用いて、図4に示すように、矩形のテーブルTに収まるように投写画像DAを投写するように調整する。なお、画像投写システム1は、投写レンズ13や撮像カメラC5,C6を用いて、テーブルTの枠を検出したり、所定のテストパターンを表示したりして、プロジェクター200のズーム機能、台形補正機能、フォーカス機能を自動で調整し、矩形のテーブルTに収まるように投写画像DAを投写するように調整してもよい。なお、以降では、ズーム機能、台形補正機能、フォーカス機能についての説明は省略する。また、画像投写システム1では、撮像した投写画像DA内における所定の場所を、画像信号(画像情報)に基づく画像内における所定の場所に対応付けるための手続きであるキャリブレーションが行われているものとする。   Note that the projector 200 of the image projection system 1 has a zoom function, a keystone correction function, and a focus function. Then, using these functions, the operator H adjusts to project the projection image DA so as to fit in the rectangular table T as shown in FIG. The image projection system 1 uses the projection lens 13 and the imaging cameras C5 and C6 to detect the frame of the table T and display a predetermined test pattern, so that the zoom function and the keystone correction function of the projector 200 are detected. The focus function may be automatically adjusted so that the projected image DA is projected so as to fit on the rectangular table T. Hereinafter, descriptions of the zoom function, the keystone correction function, and the focus function are omitted. In the image projection system 1, calibration is performed as a procedure for associating a predetermined location in the captured projection image DA with a predetermined location in the image based on the image signal (image information). To do.

図5は、第2の実施形態に係る画像投写システム1の構成を示すブロック図である。
画像投写システム1は、画像投写装置としてのプロジェクター200と、解析装置としてのパーソナルコンピューター(PC)300と、撮像装置としての撮像部400とを有して構成されている。
FIG. 5 is a block diagram showing a configuration of the image projection system 1 according to the second embodiment.
The image projection system 1 includes a projector 200 as an image projection device, a personal computer (PC) 300 as an analysis device, and an imaging unit 400 as an imaging device.

図5には、画像投写システム1に加えて、ネットワークNW、ネットワークNWに接続されたデータベースDB、投写面となるテーブルT、対象物である実物の魚F1、および指示体としての包丁P1等が表されている。これらによって、インタラクティブ機能が実現され、案内画像の投写が実現される。   In FIG. 5, in addition to the image projection system 1, a network NW, a database DB connected to the network NW, a table T serving as a projection surface, a real fish F1 as a target, a kitchen knife P1 as an indicator, and the like. It is represented. As a result, an interactive function is realized, and a guidance image is projected.

プロジェクター200は、投写部としての画像投写部10、制御部220、操作受付部21、画像情報入力部230、画像処理部231、音声情報入力部240、音声出力部241、スピーカー242等を備えて構成されている。   The projector 200 includes an image projection unit 10 as a projection unit, a control unit 220, an operation reception unit 21, an image information input unit 230, an image processing unit 231, an audio information input unit 240, an audio output unit 241, a speaker 242, and the like. It is configured.

画像投写部10および操作受付部21は、第1の実施形態のプロジェクター100の画像投写部10および操作受付部21と同様である。よって、説明は省略する。このように同様な構成部には同様な符号を付記する。   The image projection unit 10 and the operation reception unit 21 are the same as the image projection unit 10 and the operation reception unit 21 of the projector 100 according to the first embodiment. Therefore, the description is omitted. In this way, the same reference numerals are given to the same components.

制御部220は、CPU、各種データの一時記憶等に用いられるRAM、および、マスクROMやフラッシュメモリー、FeRAM等の不揮発性のメモリー等(いずれも図示せず)を備え、コンピューターとして機能するものである。制御部220は、CPUが不揮発性のメモリーに記憶されている制御プログラムに従って動作することにより、プロジェクター200の動作を統括制御する。   The control unit 220 includes a CPU, a RAM used for temporary storage of various data, and a non-volatile memory such as a mask ROM, flash memory, and FeRAM (none of which are shown), and functions as a computer. is there. The control unit 220 performs overall control of the operation of the projector 200 by the CPU operating according to a control program stored in a nonvolatile memory.

画像情報入力部230は、複数の入力端子を備えており、これらの入力端子には、ビデオ再生装置やPC等、図示しない外部の画像供給装置から各種形式の画像情報(画像信号)が入力される。制御部220からの指示に基づき、画像情報入力部230は画像情報を選択し、選択した画像情報を画像処理部231に出力する。本実施形態では、画像投写システム1を実現するため、画像情報入力部230は、PC300に接続されている。画像情報入力部230が、第2入力部に相当する。   The image information input unit 230 includes a plurality of input terminals, and various types of image information (image signals) are input to these input terminals from an external image supply device (not shown) such as a video playback device or a PC. The Based on an instruction from the control unit 220, the image information input unit 230 selects image information and outputs the selected image information to the image processing unit 231. In the present embodiment, the image information input unit 230 is connected to the PC 300 in order to realize the image projection system 1. The image information input unit 230 corresponds to the second input unit.

画像処理部231は、画像情報入力部230から入力される画像情報を、液晶ライトバルブ12R,12G,12Bの各画素の階調を表す画像データに変換し、ライトバルブ駆動部14に出力する。ここで、変換された画像データは、R,G,Bの色光別になっており、各液晶ライトバルブ12R,12G,12Bのすべての画素に対応する複数の画素値によって構成されている。画素値とは、対応する画素の光透過率を定めるものであり、この画素値によって、各画素から射出する光の強弱(階調)が規定される。また、画像処理部32は、制御部220の指示に基づき、変換した画像データに対して、明るさ、コントラスト、シャープネス、色合い等を調整するための画質調整処理等を行う。   The image processing unit 231 converts the image information input from the image information input unit 230 into image data representing the gradation of each pixel of the liquid crystal light valves 12R, 12G, and 12B, and outputs the image data to the light valve driving unit 14. Here, the converted image data is for each color light of R, G, B, and is composed of a plurality of pixel values corresponding to all the pixels of each liquid crystal light valve 12R, 12G, 12B. The pixel value determines the light transmittance of the corresponding pixel, and the intensity (gradation) of light emitted from each pixel is defined by the pixel value. Further, the image processing unit 32 performs image quality adjustment processing for adjusting brightness, contrast, sharpness, hue, and the like on the converted image data based on an instruction from the control unit 220.

ライトバルブ駆動部14が、画像処理部32から入力される画像データ(画像情報)に従って液晶ライトバルブ12R,12G,12Bを駆動すると、液晶ライトバルブ12R,12G,12Bは、画像データに応じた画像を形成し、この画像が投写レンズ13から投写される。   When the light valve driving unit 14 drives the liquid crystal light valves 12R, 12G, and 12B according to the image data (image information) input from the image processing unit 32, the liquid crystal light valves 12R, 12G, and 12B display images corresponding to the image data. And this image is projected from the projection lens 13.

音声情報入力部240は、音声入力端子を備えており、音声情報(音声信号)が入力される。入力された音声情報は、音声出力部241に出力する。   The audio information input unit 240 includes an audio input terminal, and receives audio information (audio signal). The input audio information is output to the audio output unit 241.

音声出力部241は、図示しない増幅回路等を備えており、音声情報入力部240から入力された音声情報に基づく音声を、スピーカー242から出力する。音声情報は、操作者Hに操作を案内する。   The audio output unit 241 includes an amplifier circuit (not shown) and the like, and outputs audio based on the audio information input from the audio information input unit 240 from the speaker 242. The voice information guides the operation to the operator H.

PC300は、制御部320、通信部330、案内情報処理部331、案内画像生成部332、案内画像出力部333、画像入力部335、画像解析部352、画像認識部353、案内音声出力部340等を備えて構成されている。   The PC 300 includes a control unit 320, a communication unit 330, a guidance information processing unit 331, a guidance image generation unit 332, a guidance image output unit 333, an image input unit 335, an image analysis unit 352, an image recognition unit 353, a guidance voice output unit 340, and the like. It is configured with.

制御部320は、CPU、各種データの一時記憶等に用いられるRAM、および、マスクROMやフラッシュメモリー、HDD(ハードディスクドライブ)、FeRAM等の不揮発性のメモリー等(いずれも図示せず)を備え、コンピューターとして機能するものである。制御部320は、CPUが不揮発性のメモリーに記憶されている制御プログラムに従って動作することにより、PC300の動作を統括制御する。   The control unit 320 includes a CPU, a RAM used for temporary storage of various data, and a non-volatile memory such as a mask ROM, flash memory, HDD (hard disk drive), and FeRAM (none of which are shown). It functions as a computer. The control unit 320 performs overall control of the operation of the PC 300 when the CPU operates according to a control program stored in a nonvolatile memory.

通信部330は、制御部320の指示により、TCP/IP等のプロトコルを用いて、ネットワークNWを介してデータベースDBから案内情報を取得する。通信部330が、案内情報取得部に相当する。通信部330は、案内情報を取得すると、制御部320に取得した旨を通知する。取得した案内情報は、案内情報処理部331に出力する。なお、本実施形態では、案内情報を、ネットワークNWを介してデータベースDBから取得するものとしたが、メモリーカードや他の記憶媒体等から取得してもよい。   The communication unit 330 acquires guide information from the database DB via the network NW using a protocol such as TCP / IP according to an instruction from the control unit 320. The communication unit 330 corresponds to a guidance information acquisition unit. When acquiring the guidance information, the communication unit 330 notifies the control unit 320 of the acquisition. The acquired guidance information is output to the guidance information processing unit 331. In the present embodiment, the guide information is acquired from the database DB via the network NW, but may be acquired from a memory card or other storage medium.

案内情報処理部331は、制御部320の指示により、入力された案内情報に対する処理を行う。具体的には、案内情報を画像情報と音声情報とに分割する。そして、案内情報処理部31は、画像情報を案内画像生成部332で処理可能な形式の画像情報に変換して案内画像生成部332に出力する。このとき、案内情報処理部31は、魚の見本画像D1上に描画されている指示線D2を画像認識する。そして、その見本画像D1における指示線D2の位置情報も案内画像生成部332に出力する。また、案内情報処理部331は、音声情報を案内音声出力部340に出力する。また、案内情報処理部331は、画像情報に入力されているシーン番号(場面の番号)を制御部320に通知する。   The guidance information processing unit 331 performs processing on the inputted guidance information according to an instruction from the control unit 320. Specifically, the guidance information is divided into image information and audio information. Then, the guidance information processing unit 31 converts the image information into image information in a format that can be processed by the guidance image generation unit 332 and outputs the image information to the guidance image generation unit 332. At this time, the guidance information processing section 31 recognizes an image of the instruction line D2 drawn on the fish sample image D1. Then, the position information of the instruction line D2 in the sample image D1 is also output to the guidance image generation unit 332. In addition, the guidance information processing unit 331 outputs voice information to the guidance voice output unit 340. The guidance information processing unit 331 notifies the control unit 320 of the scene number (scene number) input in the image information.

案内画像生成部332は、対象物である実物の魚F1上に投写する案内線L1(第1案内画像)、見本画像D1(第2案内画像)、指示線D2(第2案内画像)、案内文字D3(第2案内画像)を生成する。見本画像D1、指示線D2、案内文字D3は、入力された画像情報に基づいた画像を生成する。案内線L1は、画像情報に重畳する重畳画像として生成される。案内画像生成部332は、案内情報処理部331から入力した見本画像D1における指示線D2の位置情報に基づき、後述する画像認識部353が画像認識した対象物である実物の魚F1上に相当する位置の画像情報に、案内線L1を重畳画像として合成する。ここで、実物の魚F1は立体であり、案内線L1を直線で表示すると、実物の魚F1上で歪む場合がある。このため、案内画像生成部332は、案内線L1を実物の魚F1上で歪まないように曲線等に補正する。具体的には、撮像部400の複数の撮像カメラC5,C6によって、複数の方向から実際の魚F1を撮像する。これによって、実際の魚F1を立体的に認識することができる。さらに、撮像した撮像画像に基づき、実物の魚F1上で歪まないように案内線L1を補正する。   The guide image generation unit 332 guides a guide line L1 (first guide image), a sample image D1 (second guide image), an instruction line D2 (second guide image), and a guide to be projected onto a real fish F1 that is an object. Character D3 (second guide image) is generated. The sample image D1, the instruction line D2, and the guide character D3 generate an image based on the input image information. The guide line L1 is generated as a superimposed image that is superimposed on the image information. The guide image generation unit 332 corresponds to the real fish F1 that is an object that has been image-recognized by the image recognition unit 353, which will be described later, based on the position information of the instruction line D2 in the sample image D1 input from the guide information processing unit 331. The guide line L1 is combined with the position image information as a superimposed image. Here, the real fish F1 is three-dimensional, and when the guide line L1 is displayed as a straight line, the real fish F1 may be distorted on the real fish F1. For this reason, the guide image generation unit 332 corrects the guide line L1 to a curve or the like so as not to be distorted on the real fish F1. Specifically, the actual fish F1 is imaged from a plurality of directions by the plurality of imaging cameras C5 and C6 of the imaging unit 400. Thereby, the actual fish F1 can be recognized three-dimensionally. Further, the guide line L1 is corrected so as not to be distorted on the real fish F1 based on the captured image.

案内画像出力部333は、案内画像生成部332から画像情報を入力する。そして、案内画像出力部333は、プロジェクター200の画像情報入力部230に、画像情報を出力する。案内画像出力部333が、第2出力部に相当する。   The guide image output unit 333 receives image information from the guide image generation unit 332. Then, the guidance image output unit 333 outputs image information to the image information input unit 230 of the projector 200. The guide image output unit 333 corresponds to a second output unit.

案内音声出力部340は、案内情報処理部331から音声情報を入力する。そして、案内音声出力部340は、プロジェクター200の音声情報入力部240に、音声情報を出力する。   The guidance voice output unit 340 inputs voice information from the guidance information processing unit 331. Then, the guidance voice output unit 340 outputs voice information to the voice information input unit 240 of the projector 200.

画像入力部335は、制御部320の指示により、撮像部400から撮像画像情報を入力する。画像入力部335は、撮像画像情報を画像解析部352に出力し、制御部320に、撮像画像情報を入力したことを通知する。画像入力部335が、第1入力部に相当する。   The image input unit 335 inputs captured image information from the imaging unit 400 according to an instruction from the control unit 320. The image input unit 335 outputs the captured image information to the image analysis unit 352 and notifies the control unit 320 that the captured image information has been input. The image input unit 335 corresponds to the first input unit.

画像解析部352は、画像解析用の処理装置や処理プログラム、メモリー等(いずれも図示せず)を有して構成されている。画像解析部352は、画像入力部335から入力された撮像画像情報に対して、解析を行う。画像解析部352は、解析結果を画像認識部353に出力する。また、画像解析部352は、撮像画像上の位置情報から画像信号(出力する画像情報)に基づく画像上の位置情報への変換を行う。   The image analysis unit 352 includes a processing device for image analysis, a processing program, a memory, and the like (all not shown). The image analysis unit 352 analyzes the captured image information input from the image input unit 335. The image analysis unit 352 outputs the analysis result to the image recognition unit 353. In addition, the image analysis unit 352 converts position information on the captured image into position information on the image based on the image signal (image information to be output).

画像認識部353は、画像解析部352の解析結果に基づいて、画像認識を行い、対象物である実物の魚F1および指示体である指や包丁P1の形状情報と位置情報を認識する。画像認識部353は、実物の魚F1および指や包丁P1の形状情報と位置情報を制御部320および案内画像生成部332に出力する。画像解析部352および画像認識部353が、解析部に相当する。   The image recognizing unit 353 performs image recognition based on the analysis result of the image analyzing unit 352, and recognizes the shape information and position information of the real fish F1 that is the object and the finger or knife P1 that is the indicator. The image recognition unit 353 outputs the shape information and position information of the real fish F1 and the finger or knife P1 to the control unit 320 and the guide image generation unit 332. The image analysis unit 352 and the image recognition unit 353 correspond to the analysis unit.

制御部320の不揮発性のメモリーには、指や包丁P1等の指示体を操作デバイスとして利用するためのソフトウェア(デバイスドライバー)が記憶されている。そして、このソフトウェアが起動した状態では、案内情報処理部331は、画像認識部353から入力される位置情報(制御情報)に基づいて、投写画像内で指や包丁P1の操作がなされた位置をそれぞれ認識する。そして、指や包丁P1の操作の位置情報に基づいて、案内情報処理部331は、ボタンB1,B2,B3等の指示がなされているか否かの情報を制御部320に通知する。   The nonvolatile memory of the control unit 320 stores software (device driver) for using an indicator such as a finger or a knife P1 as an operation device. When the software is activated, the guidance information processing unit 331 determines the position where the finger or the knife P1 is operated in the projected image based on the position information (control information) input from the image recognition unit 353. Recognize each. Then, based on the position information of the operation of the finger or the knife P1, the guidance information processing unit 331 notifies the control unit 320 of information on whether or not an instruction for the buttons B1, B2, B3, etc. is made.

撮像部400は、複数の撮像カメラC5,C6を有して構成されている。撮像カメラC5,C6は、それぞれ、CCDセンサー、或いはCMOSセンサー等からなる撮像素子等(図示せず)と、撮像対象から発せられた光を撮像素子上に結像させるための撮像レンズ(図示せず)を備えている。撮像部400は、投写面であるテーブルTに投写された画像を含む範囲を制御部20の指示に基づいて撮像する。そして、撮像部400は、撮像した画像を表す画像情報(撮像画像情報)を順次生成し、PC300の画像入力部335に出力する。PC300に撮像画像情報を出力する際の撮像部400が、第1出力部に相当する。   The imaging unit 400 includes a plurality of imaging cameras C5 and C6. The imaging cameras C5 and C6 are each an imaging element (not shown) composed of a CCD sensor or a CMOS sensor, and an imaging lens (not shown) for forming an image of light emitted from an imaging target on the imaging element. )). The imaging unit 400 captures an area including an image projected on the table T, which is a projection plane, based on an instruction from the control unit 20. Then, the imaging unit 400 sequentially generates image information (captured image information) representing the captured image and outputs the image information to the image input unit 335 of the PC 300. The imaging unit 400 when outputting captured image information to the PC 300 corresponds to the first output unit.

上述した画像投写システム1は、第1の実施形態のプロジェクター100と同様に、操作内容を案内する処理を実行することで、「魚のさばき方」の操作を画像および音声にて案内することができる。また、実物の魚F1上に案内線L1を表示することができる。なお、案内する操作内容は、「魚のさばき方」に限定するものではなく、その他の操作内容も選択できる。この場合、PC300の制御部320は、通信部330に指示を出して、データベースDBに記憶されている各種の「案内する操作内容」を取得して、プロジェクター200に投写させる。そして、操作者Hに指示体によって選択させ、撮像部400で撮像してPC300で認識し、実行するものとする。   Similar to the projector 100 of the first embodiment, the image projection system 1 described above can guide the operation of “fish handling” with an image and sound by executing a process for guiding the operation content. . Moreover, the guide line L1 can be displayed on the real fish F1. The operation content to be guided is not limited to “how to judge fish”, and other operation content can be selected. In this case, the control unit 320 of the PC 300 issues an instruction to the communication unit 330, acquires various “guidance operation contents” stored in the database DB, and causes the projector 200 to project them. Then, it is assumed that the operator H is selected by an indicator, picked up by the image pickup unit 400, recognized by the PC 300, and executed.

上述した第2の実施形態によれば、以下の効果が得られる。
(1)画像投写システム1において、PC300の画像解析部352および画像認識部353は、撮像画像を解析し、対象物である実物の魚F1を認識する。案内画像生成部332は、通信部330によって取得された案内情報に基づいて、画像情報において、対象物である実物の魚F1上の操作を行う位置に、案内線L1(第1案内画像)を重畳画像として合成する。プロジェクター200は、画像情報を入力して、画像情報に基づいた画像を投写する。これにより、プロジェクター200は、対象物である実物の魚F1上に案内線L1を投写することが可能となり、対象物に対してどのような操作を行えばよいか(包丁P1を用いてどこを切ればよいか)を、操作者Hに案内し、支援することができるため、有益である。
According to the second embodiment described above, the following effects can be obtained.
(1) In the image projection system 1, the image analysis unit 352 and the image recognition unit 353 of the PC 300 analyze the captured image and recognize the real fish F1 that is the target. Based on the guide information acquired by the communication unit 330, the guide image generation unit 332 sets a guide line L1 (first guide image) at a position where an operation is performed on the real fish F1, which is the object, in the image information. Composite as a superimposed image. The projector 200 inputs image information and projects an image based on the image information. Thereby, the projector 200 can project the guide line L1 onto the real fish F1 that is the object, and what operation should be performed on the object (where the knife P1 is used) This is useful because the operator H can be guided and supported.

(2)画像投写システム1のPC300の画像解析部352および画像認識部353は、撮像結果を解析して、対象物である実物の魚F1、および操作者Hの指や包丁P1等の指示体を認識する。そして、指示体の指示操作(「次へ」のボタンの指示操作)に基づいて、制御部320は、通信部330に指示を出して、データベースDBから、次のシーン(場面)の案内情報を取得させることができる。そして、案内情報処理部331および案内画像生成部332は、案内線L1が重畳された画像情報を生成する。そして、案内画像出力部333は、画像情報をプロジェクター200に出力する。プロジェクター200は、対象物に案内画像を投写する。これにより、プロジェクター200は、操作者Hの指示操作に応じ、次にどのような操作を行えばよいかを、操作者Hに案内することが可能になる。また、指示体の指示操作によって、前のシーンに戻ったり、案内を終了させたりすることも可能であるため、有益である。   (2) The image analyzing unit 352 and the image recognizing unit 353 of the PC 300 of the image projection system 1 analyze the imaging result, and the actual fish F1, which is the object, and the indicator such as the finger of the operator H and the knife P1 Recognize Then, based on the pointing operation of the indicator (the “next” button pointing operation), the control unit 320 issues an instruction to the communication unit 330, and guides the next scene (scene) guidance information from the database DB. Can be acquired. Then, the guidance information processing unit 331 and the guidance image generation unit 332 generate image information on which the guide line L1 is superimposed. Then, the guidance image output unit 333 outputs the image information to the projector 200. The projector 200 projects a guide image on the object. As a result, the projector 200 can guide the operator H what operation should be performed next in response to the instruction operation of the operator H. In addition, it is useful because it is possible to return to the previous scene or end the guidance by the pointing operation of the pointer.

(3)画像投写システム1は、撮像部400として、複数の撮像カメラC5,C6を有しており、PC300の画像解析部352および画像認識部353は、対象物である実物の魚F1および操作体である指や包丁P1を立体的に認識することが可能である。これにより、画像認識の正確性を向上することができる。   (3) The image projection system 1 includes a plurality of imaging cameras C5 and C6 as the imaging unit 400, and the image analysis unit 352 and the image recognition unit 353 of the PC 300 are the actual fish F1 that is the object and the operation. It is possible to three-dimensionally recognize a finger or a knife P1 that is a body. Thereby, the accuracy of image recognition can be improved.

(4)画像投写システム1のPC300の案内画像生成部332は、対象物の形状に応じて案内線L1を補正する。つまり、案内画像生成部332は、画像解析部352が認識した対象物である実物の魚F1の立体的な形状に応じて、案内線L1(第1案内画像)が歪まないように補正する。これにより、操作者Hは、対象物における正しい操作位置を視認することが可能になるため、有益である。   (4) The guide image generation unit 332 of the PC 300 of the image projection system 1 corrects the guide line L1 according to the shape of the object. That is, the guide image generation unit 332 corrects the guide line L1 (first guide image) so as not to be distorted according to the three-dimensional shape of the real fish F1, which is the object recognized by the image analysis unit 352. Thereby, the operator H can recognize the correct operation position on the object, which is beneficial.

(5)画像投写システム1は、操作の見本となる様子を表す魚の見本画像D1、指示線D2、および操作を案内する案内文字D3を、対象物とは異なる位置に投写する。これにより、画像投写システム1は、対象物への案内線L1に加えて、見本画像D1、指示線D2、および案内文字D3を投写することによって、操作に関する多くの情報を操作者Hに提供することができる。よって、操作者Hは、対象物に対する操作を効率的に行うことが可能になる。   (5) The image projection system 1 projects a fish sample image D1, an instruction line D2, and a guide character D3 for guiding the operation, which represent a sample of the operation, at a position different from the object. Thereby, the image projection system 1 provides the operator H with a lot of information regarding the operation by projecting the sample image D1, the instruction line D2, and the guide character D3 in addition to the guide line L1 to the object. be able to. Therefore, the operator H can efficiently perform an operation on the object.

(6)画像投写システム1は、プロジェクター200の音声出力部241およびスピーカー242によって、案内音声を出力する。これにより、画像投写システム1は、対象物への案内線L1、見本画像D1、指示線D2、案内文字D3に加えて、音声で案内するため、操作に関する多くの情報を操作者Hに提供することができる。よって、操作者Hは、対象物に対する操作を効率的に行うことが可能になる。   (6) The image projection system 1 outputs the guidance sound by the sound output unit 241 and the speaker 242 of the projector 200. As a result, the image projection system 1 provides the operator H with a lot of information related to the operation in order to guide by voice in addition to the guide line L1, the sample image D1, the instruction line D2, and the guide character D3 to the object. be able to. Therefore, the operator H can efficiently perform an operation on the object.

(7)画像投写システム1のプロジェクター200は、撮像部400や画像認識部353、通信部330等を内蔵する必要がないため、一般的なプロジェクターを用いることが可能となるため、有益である。   (7) Since the projector 200 of the image projection system 1 does not need to incorporate the imaging unit 400, the image recognition unit 353, the communication unit 330, and the like, it is useful because a general projector can be used.

(8)画像投写システム1のPC300は、画像解析部352、画像認識部353、案内情報処理部331、案内画像生成部332等の機能を、ソフトウェアとして実装することが可能である。よって、一般的なPCを用いて処理を行うことができるため、有益である。   (8) The PC 300 of the image projection system 1 can implement functions such as the image analysis unit 352, the image recognition unit 353, the guidance information processing unit 331, and the guidance image generation unit 332 as software. Therefore, since processing can be performed using a general PC, it is beneficial.

なお、上述した実施形態に限定されず、種々の変更や改良等を加えて実施することが可能である。変形例を以下に述べる。   In addition, it is not limited to embodiment mentioned above, It is possible to implement by adding various change, improvement, etc. A modification will be described below.

(変形例1)上記第1の実施形態では、撮像部51は、4つの撮像カメラC1,C2,C3,C4を備えるものとし、第2の実施形態では、撮像部400は、2つの撮像カメラC5,C6を備えるものとした。しかし、撮像カメラの数は、これに限定するものではなく、複数であればよい。また、撮像カメラは単数であってもよい。単数の場合には、立体的な画像認識ができなくなるが、プロジェクター100や画像投写システム1の構成を簡易化することができる。   (Modification 1) In the first embodiment, the imaging unit 51 includes four imaging cameras C1, C2, C3, and C4. In the second embodiment, the imaging unit 400 includes two imaging cameras. C5 and C6 were provided. However, the number of imaging cameras is not limited to this, and may be plural. Moreover, the imaging camera may be single. In the case of a single unit, stereoscopic image recognition cannot be performed, but the configuration of the projector 100 and the image projection system 1 can be simplified.

(変形例2)上記実施形態では、投写表示されるボタンB1,B2,B3には、投写画像DAを切り換えるための「次へ」、「戻る」、「終了」という文字が表示されているものとしたが、投写表示されるボタンはこれらに限定するものではない。例えば、魚の鱗の有無を操作者Hに選択させるための指示ボタン「鱗有り」、「鱗無し」といったボタンを投写表示させてもよい。そして、「鱗有り」が指示された場合には、鱗を取る操作について案内するようにしてもよい。また、ボタンの数も限定するものではない。単数でもよいし、4つ以上でもよい。   (Modification 2) In the above embodiment, the buttons B1, B2, and B3 that are projected and displayed are displayed with characters “next”, “return”, and “end” for switching the projected image DA. However, the buttons to be projected and displayed are not limited to these. For example, buttons such as instruction buttons “with scales” and “without scales” for causing the operator H to select the presence or absence of fish scales may be projected and displayed. Then, when “with scales” is instructed, an operation for taking scales may be guided. Further, the number of buttons is not limited. It may be singular or four or more.

(変形例3)上記実施形態では、ボタンB1,B2,B3の指示操作によって、投写画像DAを切り換えるものとした。しかし、プロジェクター100や画像投写システム1の撮像部が撮像して、画像解析部や画像認識部が、対象物である実物の魚F1や指示体である包丁P1を画像認識することによって、実物の魚F1の状態や包丁P1の状態の認識を行い、投写画像DAを切り換えることも可能である。例えば、実物の魚F1の頭部が切り離されたことを認識し、プロジェクター100や画像投写システム1は、次の操作を案内するためのシーンの画像に切り換えてもよい。   (Modification 3) In the above embodiment, the projected image DA is switched by the instruction operation of the buttons B1, B2, and B3. However, the imaging unit of the projector 100 or the image projection system 1 captures an image, and the image analysis unit and the image recognition unit recognize the image of the real fish F1 that is the object and the knife P1 that is the indicator, so It is also possible to recognize the state of the fish F1 and the state of the knife P1 and switch the projected image DA. For example, the projector 100 and the image projection system 1 may recognize that the head of the real fish F1 has been cut off, and switch to a scene image for guiding the next operation.

(変形例4)上記実施形態では、プロジェクター100や画像投写システム1が案内する操作内容は「魚のさばき方」のように、操作に順序があるものとしたが、順序を問わない操作を案内するものとしてもよい。例えば、基板上に複数の部品を配置するような操作内容を案内することも可能である。具体的には、テーブルT上に載置された基板および複数の部品を撮像部が撮像して、画像認識部が画像認識する。操作者Hが任意の部品を選択すると、プロジェクター100や画像投写システム1は、その部品を認識して、基板上の配置先に所定の目印を投写表示させることが可能である。そして、操作者Hは、所定の目印上に部品を配置することが可能である。
また、例えば、収穫した果実の分別の操作等を案内することも可能である。具体的には、例えばリンゴをテーブルT上に載置し、プロジェクター100や画像投写システム1の撮像部はそのリンゴを撮像して、画像認識部が画像認識する。そして、プロジェクター100や画像投写システム1は、画像認識した結果に基づいて、そのリンゴの色や大きさを判別してランク付けし、当該リンゴにそのランク情報を画像として投写する。これにより、操作者Hは、リンゴ上に投写されたランク情報に基づいて、リンゴを分別することが可能である。
(Modification 4) In the above embodiment, the operation content guided by the projector 100 and the image projection system 1 is assumed to have an order of operations, such as “How to judge fish”, but the operation regardless of the order is guided. It may be a thing. For example, it is possible to guide the operation content such as arranging a plurality of components on the board. Specifically, the imaging unit images the substrate and a plurality of components placed on the table T, and the image recognition unit recognizes the image. When the operator H selects an arbitrary component, the projector 100 and the image projection system 1 can recognize the component and project and display a predetermined mark on the arrangement destination on the substrate. And the operator H can arrange | position components on a predetermined mark.
In addition, for example, it is possible to guide an operation for sorting the harvested fruits. Specifically, for example, an apple is placed on the table T, the imaging unit of the projector 100 or the image projection system 1 images the apple, and the image recognition unit recognizes the image. Then, the projector 100 and the image projection system 1 determine and rank the color and size of the apple based on the image recognition result, and project the rank information as an image on the apple. Thereby, the operator H can sort apples based on the rank information projected on the apples.

(変形例5)上記実施形態では、プロジェクター100および画像投写システム1は、案内線L1、見本画像D1、指示線D2、案内文字D3、および各種ボタン等を投写表示するものとした。投写画像DAにおけるこれらの案内線L1、見本画像D1、指示線D2、案内文字D3、および各種ボタン以外の領域には、白色の画像を投写してもよい。こうすれば、投写領域が明るく照明されることになり、操作者Hは、明るい環境で操作を行うことができる。また、投写画像DAにおけるこれらの案内線L1、見本画像D1、指示線D2、案内文字D3、および各種ボタン以外の領域には、黒色の画像を投写してもよい。こうすると、操作者Hは、案内線L1、見本画像D1、指示線D2、案内文字D3、および各種ボタンを鮮明に視認することができる。   (Modification 5) In the above embodiment, the projector 100 and the image projection system 1 project and display the guide line L1, the sample image D1, the instruction line D2, the guide character D3, and various buttons. A white image may be projected on an area other than the guide line L1, the sample image D1, the instruction line D2, the guide character D3, and various buttons in the projection image DA. In this way, the projection area is illuminated brightly, and the operator H can perform the operation in a bright environment. In addition, a black image may be projected on an area other than the guide line L1, the sample image D1, the instruction line D2, the guide character D3, and various buttons in the projection image DA. Thus, the operator H can clearly see the guide line L1, the sample image D1, the instruction line D2, the guide character D3, and various buttons.

(変形例6)上記実施形態では、プロジェクター100,200の光源11は、放電型の光源ランプ11aを有して構成されているが、LED(Light Emitting Diode)光源やレーザー等の固体光源や、その他の光源を用いることもできる。   (Modification 6) In the above embodiment, the light source 11 of the projectors 100 and 200 is configured to include the discharge-type light source lamp 11a, but a solid light source such as an LED (Light Emitting Diode) light source or a laser, Other light sources can also be used.

(変形例7)上記実施形態では、プロジェクター100,200は、光変調装置として、透過型の液晶ライトバルブ12R,12G,12Bを用いているが、反射型の液晶ライトバルブ等、反射型の光変調装置を用いることも可能である。また、入射した光の射出方向を、画素としてのマイクロミラー毎に制御することにより、光源から射出した光を変調する微小ミラーアレイデバイス等を光変調装置として用いることもできる。   (Modification 7) In the above embodiment, the projectors 100 and 200 use the transmissive liquid crystal light valves 12R, 12G, and 12B as the light modulators. It is also possible to use a modulation device. Further, a micromirror array device that modulates the light emitted from the light source by controlling the emission direction of the incident light for each micromirror as a pixel can be used as the light modulation device.

1…画像投写システム、10…画像投写部、11…光源、11a…光源ランプ、11b…リフレクター、12R,12G,12B…液晶ライトバルブ、13…投写レンズ、14…ライトバルブ駆動部、20…制御部、21…操作受付部、30…案内情報取得部、31…案内情報処理部、32…画像処理部、32a…OSD処理部、32b…案内画像生成部、35…画像情報入力部、40…音声出力部、41…スピーカー、50…撮像解析部、51…撮像部、52…画像解析部、53…画像認識部、100,200…プロジェクター、220…制御部、230…画像情報入力部、231…画像処理部、240…音声情報入力部、241…音声出力部、242…スピーカー、300…PC、320…制御部、330…通信部、331…案内情報処理部、332…案内画像生成部、333…案内画像出力部、335…画像入力部、340…案内音声出力部、352…画像解析部、353…画像認識部、400…撮像部、C1,C2,C3,C4,C5,C6…撮像カメラ、F1…実物の魚、P1…包丁、B1,B2,B3…ボタン、D1…見本画像、D2…指示線、D3…案内文字、L1…案内線、T…テーブル。   DESCRIPTION OF SYMBOLS 1 ... Image projection system, 10 ... Image projection part, 11 ... Light source, 11a ... Light source lamp, 11b ... Reflector, 12R, 12G, 12B ... Liquid crystal light valve, 13 ... Projection lens, 14 ... Light valve drive part, 20 ... Control , 21 ... Operation accepting part, 30 ... Guidance information acquisition part, 31 ... Guidance information processing part, 32 ... Image processing part, 32a ... OSD processing part, 32b ... Guidance image generation part, 35 ... Image information input part, 40 ... Audio output unit, 41 ... speaker, 50 ... imaging analysis unit, 51 ... imaging unit, 52 ... image analysis unit, 53 ... image recognition unit, 100, 200 ... projector, 220 ... control unit, 230 ... image information input unit, 231 DESCRIPTION OF SYMBOLS ... Image processing part 240 ... Audio | voice information input part 241 ... Audio | voice output part 242 ... Speaker ... 300 ... PC, 320 ... Control part 330 ... Communication part 331 ... Guidance information processing 332 ... Guide image generation unit 333 ... Guidance image output unit 335 ... Image input unit 340 ... Guidance voice output unit 352 ... Image analysis unit 353 ... Image recognition unit 400 ... Imaging unit C1, C2, C3, C4, C5, C6 ... imaging camera, F1 ... real fish, P1 ... kitchen knife, B1, B2, B3 ... button, D1 ... sample image, D2 ... indicator line, D3 ... guide character, L1 ... guide line, T …table.

Claims (10)

対象物を含む領域を撮像する撮像部と、
前記撮像部の撮像結果を解析し、前記対象物を認識する解析部と、
前記対象物に対する操作を案内するための案内情報を取得する案内情報取得部と、
前記案内情報取得部によって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成部と、
前記案内画像生成部が生成した前記第1案内画像を、前記対象物に投写する投写部と、
を備えることを特徴とするプロジェクター。
An imaging unit that images an area including the object;
Analyzing the imaging result of the imaging unit and recognizing the object;
A guidance information acquisition unit for acquiring guidance information for guiding operations on the object;
A guide image generating unit that generates a first guide image based on the guide information acquired by the guide information acquiring unit;
A projection unit that projects the first guidance image generated by the guidance image generation unit onto the object;
A projector comprising:
請求項1に記載のプロジェクターであって、
前記解析部は、前記撮像部の撮像結果を解析して、前記対象物および指示体を認識し、
前記案内情報取得部は、前記解析部が認識した前記指示体の操作に基づいて前記案内情報を取得することを特徴とするプロジェクター。
The projector according to claim 1,
The analysis unit analyzes the imaging result of the imaging unit, recognizes the object and the indicator,
The projector is characterized in that the guidance information acquisition unit acquires the guidance information based on an operation of the indicator recognized by the analysis unit.
請求項1または2に記載のプロジェクターであって、
前記第1案内画像には、前記対象物に対する操作を行う位置を表す画像が含まれることを特徴とするプロジェクター。
The projector according to claim 1 or 2,
The projector according to claim 1, wherein the first guide image includes an image representing a position where an operation is performed on the object.
請求項1乃至3のいずれか一項に記載のプロジェクターであって、
前記撮像部は複数の撮像素子を有して構成されており、
前記解析部は、前記対象物および前記操作体を立体的に認識することを特徴とするプロジェクター。
The projector according to any one of claims 1 to 3,
The imaging unit is configured to include a plurality of imaging elements,
The analysis unit recognizes the object and the operation body three-dimensionally.
請求項4に記載のプロジェクターであって、
前記撮像部が撮像し、前記解析部が認識した前記対象物の形状に応じて、前記第1案内画像を補正する補正部をさらに有することを特徴とするプロジェクター。
The projector according to claim 4,
The projector further comprising a correction unit that corrects the first guide image according to the shape of the object captured by the imaging unit and recognized by the analysis unit.
請求項1乃至5のいずれか一項に記載のプロジェクターであって、
前記案内画像生成部は、前記案内情報に基づいて第2案内画像をさらに生成し、
前記投写部は、前記第2案内画像を前記対象物とは異なる位置に投写することを特徴とするプロジェクター。
A projector according to any one of claims 1 to 5,
The guide image generation unit further generates a second guide image based on the guide information,
The projector projects the second guide image at a position different from the object.
請求項6に記載のプロジェクターであって、
前記第2案内画像には、前記対象物に対する操作の見本を表す画像が含まれることを特徴とするプロジェクター。
The projector according to claim 6, wherein
The projector according to claim 2, wherein the second guide image includes an image representing a sample of an operation on the object.
請求項1乃至7のいずれか一項に記載のプロジェクターであって、
前記案内情報取得部が取得する前記案内情報には、案内のための音声情報である案内音声情報を含み、前記案内音声情報を出力する音声出力部をさらに備えることを特徴とするプロジェクター。
A projector according to any one of claims 1 to 7,
The guidance information acquired by the guidance information acquisition unit includes guidance voice information that is voice information for guidance, and further includes a voice output unit that outputs the guidance voice information.
対象物を撮像する撮像装置と、画像情報を解析する解析装置と、画像を投写する画像投写装置と、を備えた画像投写システムであって、
前記撮像装置は、
前記対象物を撮像して撮像画像情報を生成する撮像部と、
前記撮像画像情報を前記解析装置に出力する第1出力部と、
を有し、
前記解析装置は、
前記撮像装置から出力された前記撮像画像情報を入力する第1入力部と、
前記撮像画像情報を解析し、前記対象物を認識する解析部と、
前記対象物に対する操作を案内するための案内情報を取得する案内情報取得部と、
前記案内情報取得部によって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成部と、
前記案内画像生成部が生成した前記第1案内画像の情報を前記画像投写装置に出力する第2出力部と、
を有し、
前記画像投写装置は、
前記解析装置から出力された前記第1案内画像の情報を入力する第2入力部と、
前記第1案内画像を、前記対象物に投写する投写部と、
を有することを特徴とする画像投写システム。
An image projection system comprising: an imaging device that captures an object; an analysis device that analyzes image information; and an image projection device that projects an image.
The imaging device
An imaging unit that images the object and generates captured image information;
A first output unit that outputs the captured image information to the analysis device;
Have
The analysis device includes:
A first input unit for inputting the captured image information output from the imaging device;
An analysis unit that analyzes the captured image information and recognizes the object;
A guidance information acquisition unit for acquiring guidance information for guiding operations on the object;
A guide image generating unit that generates a first guide image based on the guide information acquired by the guide information acquiring unit;
A second output unit that outputs information of the first guide image generated by the guide image generation unit to the image projection device;
Have
The image projector is
A second input unit for inputting information of the first guide image output from the analysis device;
A projection unit that projects the first guide image onto the object;
An image projection system comprising:
撮像部を有するプロジェクターの制御方法であって、
前記撮像部によって、対象物を含む領域を撮像する撮像ステップと、
前記撮像ステップによる撮像結果を解析し、前記対象物を認識する解析ステップと、
前記対象物に対する操作を案内するための案内情報を取得する案内情報取得ステップと、
前記案内情報取得ステップによって取得された前記案内情報に基づいた第1案内画像を生成する案内画像生成ステップと、
前記案内画像生成ステップによって生成された前記第1案内画像を、前記対象物に投写する投写ステップと、
を備えることを特徴とするプロジェクターの制御方法。
A method for controlling a projector having an imaging unit,
An imaging step of imaging an area including the object by the imaging unit;
Analyzing the imaging result of the imaging step and recognizing the object; and
Guidance information acquisition step for acquiring guidance information for guiding operations on the object;
A guide image generating step for generating a first guide image based on the guide information acquired by the guide information acquiring step;
A projecting step of projecting the first guide image generated by the guide image generating step onto the object;
A projector control method comprising:
JP2013249860A 2013-12-03 2013-12-03 Projector, image projection system, and control method of projector Pending JP2015106147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013249860A JP2015106147A (en) 2013-12-03 2013-12-03 Projector, image projection system, and control method of projector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013249860A JP2015106147A (en) 2013-12-03 2013-12-03 Projector, image projection system, and control method of projector

Publications (1)

Publication Number Publication Date
JP2015106147A true JP2015106147A (en) 2015-06-08

Family

ID=53436265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013249860A Pending JP2015106147A (en) 2013-12-03 2013-12-03 Projector, image projection system, and control method of projector

Country Status (1)

Country Link
JP (1) JP2015106147A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038982A1 (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
JP2018029339A (en) * 2011-12-28 2018-02-22 株式会社ニコン Display apparatus and electronic device
CN113824937A (en) * 2021-08-06 2021-12-21 广州小鹏汽车科技有限公司 Operation guidance method and device, vehicle and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018029339A (en) * 2011-12-28 2018-02-22 株式会社ニコン Display apparatus and electronic device
WO2017038982A1 (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
JP2017050701A (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
GB2557787A (en) * 2015-09-02 2018-06-27 Bandai Namco Entertainment Inc Projection system
GB2557787B (en) * 2015-09-02 2021-02-10 Bandai Namco Amusement Inc Projection system
CN113824937A (en) * 2021-08-06 2021-12-21 广州小鹏汽车科技有限公司 Operation guidance method and device, vehicle and storage medium
CN113824937B (en) * 2021-08-06 2024-03-12 广州小鹏汽车科技有限公司 Operation guiding method and device, vehicle and storage medium

Similar Documents

Publication Publication Date Title
US20200275069A1 (en) Display method and display system
US9565408B2 (en) Projection apparatus, geometric correction adjustment method, and storage medium storing codes for geometric correction adjustment
US9470966B2 (en) Image projection apparatus and presentation system
US9743052B2 (en) Projector, multi-projection system, and method for controlling projector
US8982286B2 (en) Projection apparatus, projection method and computer-readable storage medium for correcting a projection state being projected onto curved surface
JP2015043066A (en) Image projection device
US11611731B2 (en) Evaluation method for image projection system, image projection system, and image projection control apparatus
JP2015043556A (en) Information processor, image projection system and program
JP2019045549A (en) Image projection system, terminal device, and control method for image projection system
JP2015106147A (en) Projector, image projection system, and control method of projector
US20200150824A1 (en) Display apparatus and method for controlling display apparatus
US8919963B2 (en) Projector and method for controlling the same
JP2012181264A (en) Projection device, projection method, and program
US10839482B2 (en) Information processing apparatus, image display method, display system, and computer readable storage medium
US9524696B2 (en) Image projection device
US20180039380A1 (en) Display apparatus, display system, and method of controlling display apparatus
JP7251095B2 (en) POSITION DETECTION DEVICE, DISPLAY DEVICE, DISPLAY SYSTEM AND POSITION DETECTION METHOD
JP2009276507A (en) Projection type display device, control method and control program for projection type display device
JP6883256B2 (en) Projection device
US11327389B2 (en) Image projection system and method of controlling image projection system
CN115834846A (en) Image display method and projector
JP2016057363A (en) Projection device
US8228342B2 (en) Image display device, highlighting method
JP2021132299A (en) Control device, projection system, control method of projection device, program, and storage medium
JP2016164704A (en) Image display device and image display system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160627