JP2015097074A - Information processing apparatus, control method of the same, and program, and projection system, control method of the same, and program - Google Patents

Information processing apparatus, control method of the same, and program, and projection system, control method of the same, and program Download PDF

Info

Publication number
JP2015097074A
JP2015097074A JP2014118179A JP2014118179A JP2015097074A JP 2015097074 A JP2015097074 A JP 2015097074A JP 2014118179 A JP2014118179 A JP 2014118179A JP 2014118179 A JP2014118179 A JP 2014118179A JP 2015097074 A JP2015097074 A JP 2015097074A
Authority
JP
Japan
Prior art keywords
imaging
information processing
processing apparatus
projection
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014118179A
Other languages
Japanese (ja)
Other versions
JP5939278B2 (en
JP2015097074A5 (en
Inventor
昌也 富岡
Masaya Tomioka
昌也 富岡
雅裕 涌井
Masahiro Wakui
雅裕 涌井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2014118179A priority Critical patent/JP5939278B2/en
Publication of JP2015097074A publication Critical patent/JP2015097074A/en
Publication of JP2015097074A5 publication Critical patent/JP2015097074A5/ja
Application granted granted Critical
Publication of JP5939278B2 publication Critical patent/JP5939278B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus that controls an imaging sound of an imaging device in obtaining a trace.SOLUTION: In a projection system 100 that is communicably connected with a camera 102, infrared sensor 103, and projector 104, an information processing apparatus 101 determines whether or not an object such as a finger of a user is an object that leaves a trace. When determined that the object is the object that leaves a trace such as a finger of a user, the information processing apparatus 101 reduces an imaging sound of the camera 102, and when determined that the object is not the object that leaves a trace such as a finger of a user, outputs the imaging sound of the camera 102.

Description

本発明は、投影された画像データに対する操作を行ったユーザを特定可能な証跡を残すことの可能な情報処理装置、その制御方法、及びプログラム、並びに、投影システム、その制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus capable of leaving a trail that can identify a user who has performed an operation on projected image data, a control method and program thereof, and a projection system, and a control method and program thereof.

従来、金融商品などの販売や説明行うとき、金融商品の説明を行う者(以後、テラー)は顧客に対し金融商品のカタログなどの紙媒体で説明を行っていた。紙媒体のカタログでは、テラーが顧客ごとの説明記録を残すことはあっても、いつ、どの部分を説明したという客観的な証跡記録を残すことはできなかった。   Conventionally, when a financial product is sold or explained, a person who explains the financial product (hereinafter referred to as a teller) has given the customer a paper medium such as a catalog of the financial product. In the paper catalog, Teller could leave an explanatory record for each customer, but could not leave an objective trail record explaining what part and when.

そのため、紙媒体で、仮にテラーが説明すべきところを説明し忘れてしまった部分があった場合、その部分については顧客は認識することができない。たとえ、顧客が署名捺印をしたとしても、説明義務のある場所すべての説明を受けたということではなく、テラーから一通りの説明を受けたということを担保することしかできず、実質形骸化していた。   Therefore, if there is a portion of the paper medium that the teller has forgotten to explain, the customer cannot recognize that portion. Even if a customer signs and seals, it does not mean that they have received explanations for all places where accountability is required, but can only assure that they have received a single explanation from the teller, and the substance has become a substantial body. It was.

このような状況の中、紙媒体では客観的な履歴を残すことができないため、顧客が金融商品の説明をされていないと主張した場合に「説明した、説明していない」といった水掛け論に陥ってしまう。これを避けるため、法律に定められる説明責任を金融機関側が担保できる方法が求められていた。   Under such circumstances, since paper media cannot leave an objective history, when customers insist that they are not explaining financial products, they fall into the watering theory of “explained, not explained” End up. In order to avoid this, there was a need for a way for financial institutions to ensure accountability as required by law.

そこで、テラーが説明を行ったことを証明する方法として、下記の特許文献1で、テラーが説明をする際に使う窓口端末装置でのログを記録することで顧客に対し説明を行った証跡とする仕組みが開示されている。   Therefore, as a method for proving that the teller has explained, the following patent document 1 describes the trail explained to the customer by recording the log at the window terminal device used when the teller explains. The mechanism to do is disclosed.

特開2009−122796号公報JP 2009-122796 A

また、テラーが説明を行ったことを証明する方法として、説明をしている様子をカメラなどで動画として保存をしたり、要所で静止画として保存をしたりすることで証跡を残すということが行われている。また、顧客が説明を受けたサインや承認ボタンを押すといった同意行為の証跡を残すということも行われている。   Also, as a way to prove that Teller has explained, it is possible to save the trail by saving the state of explanation as a movie with a camera etc. or saving it as a still image at a key point Has been done. In addition, it is also done to leave a trail of consenting act such as a customer pressing a sign or approval button.

しかし、証跡を取るために生じる撮像音は顧客にとって精神的にあまり気持ちの良いものではなく、明らかに証跡を取られているという感覚を与えるものである。こうした感覚は、テラーとの間の信頼関係に悪影響を与えるものであった。   However, the image pickup sound generated for taking a trail is not so much mentally pleasant for the customer, and clearly gives a sense that the trail is being taken. Such a sense negatively affected the trust relationship with Teller.

そこで、撮像装置の撮像音を消す、または撮像音を小さくする仕組みが考えられるが、図4に示すような投影システム100では、カメラ102(撮像装置)が前述した証跡を残す役割を果たすと共に、投影面106に置かれた紙文書を撮像装置が撮像し、画像データとして情報処理装置101に取り込む役割もある。そのため、撮像装置で紙文書を取り込む際、撮像音が聞こえないと、紙文書が撮影されたのか否かがわからないという問題が発生する。つまり、単に、撮像装置の撮像音を消す、または撮像音を小さくしておくことができない。   Therefore, a mechanism for eliminating the imaging sound of the imaging device or reducing the imaging sound is conceivable, but in the projection system 100 as shown in FIG. 4, the camera 102 (imaging device) plays the role of leaving the trail described above, The imaging apparatus also has a role of capturing a paper document placed on the projection surface 106 and capturing it as image data in the information processing apparatus 101. For this reason, when a paper document is captured by the imaging device, there is a problem in that it is not possible to know whether or not the paper document has been shot unless an imaging sound is heard. That is, the image pickup sound of the image pickup apparatus cannot be simply turned off or the image pickup sound cannot be reduced.

また、撮像音の種類が一つの場合、撮像のシーンによって撮像音が切り替わることが無い為、テラーや顧客などのユーザにとって撮像の意味を理解することができない。撮像のたびに撮像の意味を自分の行為及び相手の行為から推測することにより顧客はテラーの説明に集中を欠くこととなってしまうのである。   In addition, when there is only one kind of image pickup sound, the image pickup sound is not switched depending on the image pickup scene, so that the user such as a teller or a customer cannot understand the meaning of the image pickup. Each time an image is taken, the customer loses concentration on the teller's explanation by inferring the meaning of the image from his actions and the actions of the other party.

例えば、証跡にはテラーが顧客に対して説明を行ったことを担保する説明証跡と、同意を行ったことを担保する同意証跡があり、それぞれの証跡保存のための撮像音が一つである場合、ユーザは撮像音が生じた理由を理解することができないという課題がある。   For example, in the trail, there are an explanation trail that guarantees that the teller explained to the customer, and an agreement trail that guarantees that the consent has been given, and there is one imaging sound for each trail preservation In this case, there is a problem that the user cannot understand the reason why the image pickup sound is generated.

更に、証跡保存だけでなく、撮像装置の撮像により紙文書の取り込みも行う場合にも撮像音が変化しないとなると、ユーザは撮像音だけで撮像の意味を理解できず、逐一意味を考えなければならない。   Furthermore, if the captured sound does not change not only when the trail image is stored but also when a paper document is captured by the imaging device, the user cannot understand the meaning of the captured image only by the captured sound, and must think about the meaning one by one. Don't be.

そこで、本発明の第1の目的は、証跡を取る際に撮像装置の撮像に応じて出力される撮像音を制御することを目的とする。   Therefore, a first object of the present invention is to control imaging sound that is output in accordance with imaging by an imaging device when taking a trail.

更に、本発明の第2の目的は、投影面上のオブジェクトを撮像するシーンに応じて撮像装置の撮像に応じて出力される撮像音を切り替えることを目的とする。   Furthermore, the second object of the present invention is to switch the image pickup sound output according to the image pickup of the image pickup device according to the scene where the object on the projection plane is picked up.

上記の第1の目的を達成するために、本発明の情報処理装置は、画像を投影する投影装置と、前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と通信可能に接続される情報処理装置であって、前記オブジェクトの種類を特定するオブジェクト特定手段と、前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御手段とを備えることを特徴とする。   In order to achieve the first object, an information processing apparatus of the present invention images a projection device that projects an image and an object that is a real object that exists on a projection plane projected by the projection device. An information processing apparatus that is communicably connected to an imaging apparatus, the object specifying unit specifying the type of the object, and depending on the imaging of the imaging apparatus according to the type of the object specified by the object specifying unit Imaging sound control means for controlling the imaging sound output in this manner.

更に上記の第2の目的を達成するために、本発明の情報処理装置は、電子データを投影する投影装置と、撮像指示に応じて撮像する撮像装置と通信可能に接続される情報処理装置であって、ユーザの動作に応じて実行される処理ごとに撮像音を記憶する記憶手段と、ユーザの動作を検知する動作検知手段と、前記動作検知手段でユーザの動作を検知した場合に、前記撮像装置に対して撮像指示を送信する撮像指示送信手段と、前記撮像指示送信手段によって送信される撮像指示に応じて、撮像音を出力する撮像音出力手段とを備え、前記撮像音出力手段は、前記動作検知手段で検知した動作に応じて実行される処理に対応する撮像音を前記記憶手段から取得して出力することを特徴とする。   In order to achieve the second object, an information processing apparatus according to the present invention is an information processing apparatus that is communicably connected to a projection apparatus that projects electronic data and an imaging apparatus that captures an image according to an imaging instruction. When the user's action is detected by the storage means for storing the picked-up sound for each process executed according to the user's action, the action detecting means for detecting the user action, and the action detecting means, An imaging instruction transmission unit that transmits an imaging instruction to the imaging device, and an imaging sound output unit that outputs an imaging sound in response to the imaging instruction transmitted by the imaging instruction transmission unit, the imaging sound output unit The image pickup sound corresponding to the process executed in accordance with the operation detected by the operation detection unit is acquired from the storage unit and output.

本発明によれば、証跡を取る際に撮像装置の撮像音を制御することが可能となる第1の効果を奏する。   According to the present invention, there is a first effect that enables the imaging sound of the imaging apparatus to be controlled when taking a trail.

本発明によれば、投影面上のオブジェクトを撮像するシーンに応じて撮像装置の撮像に応じて出力される撮像音を切り替えることが可能となる第2の効果を奏する。   According to the present invention, it is possible to switch the image pickup sound output according to the image pickup of the image pickup apparatus according to the scene where the object on the projection plane is picked up.

投影システム100の一例を示す構成図である。1 is a configuration diagram showing an example of a projection system 100. FIG. 投影システム100のハードウェア構成の一例を示す構成図である。FIG. 2 is a configuration diagram illustrating an example of a hardware configuration of a projection system 100. 情報処理装置101のモジュール構成の一例を示す構成図である。2 is a configuration diagram illustrating an example of a module configuration of an information processing apparatus 101. FIG. 投影システム100の一例を示す構成図である。1 is a configuration diagram showing an example of a projection system 100. FIG. 本発明の実施形態における一連の処理の流れの一例を示す構成図である。It is a block diagram which shows an example of the flow of a series of processes in embodiment of this invention. 証跡記録アプリケーションを起動した後に表示されるID入力を受け付ける画面の一例を示す画面例である。It is an example of a screen which shows an example of the screen which receives ID input displayed after starting a trail recording application. 情報処理装置101に記憶されたテラーIDテーブル700の構成の一例を示す構成図である。3 is a configuration diagram illustrating an example of a configuration of a teller ID table 700 stored in an information processing apparatus 101. FIG. 情報処理装置101に記憶された顧客IDテーブル800の構成の一例を示す構成図である。3 is a configuration diagram illustrating an example of a configuration of a customer ID table 800 stored in an information processing apparatus 101. FIG. 図5に示す投影処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the projection process shown in FIG. 図9で投影処理を行った場合の一例を示す模式図である。It is a schematic diagram which shows an example at the time of performing a projection process in FIG. 図5に示すタッチ判定処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the touch determination process shown in FIG. 情報処理装置101に記憶された撮像領域情報テーブル1200の構成の一例を示す構成図である。3 is a configuration diagram illustrating an example of a configuration of an imaging region information table 1200 stored in an information processing apparatus 101. FIG. テラー1001が投影画像を顧客1002向きで概要説明部分1004をタッチしている場合の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a case where a teller 1001 touches an outline description portion 1004 with a projection image facing a customer 1002; 顧客1002が投影画像を顧客1002向きで概要説明部分1004をタッチしている場合の一例を示す模式図である。It is a schematic diagram which shows an example in case the customer 1002 is touching the summary description part 1004 with the projection image facing the customer 1002. テラー1001が投影画像をテラー1001向きで概要説明部分1004をタッチしている場合の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a case where the teller 1001 is touching an outline description portion 1004 with a projection image facing the teller 1001; 顧客1002が投影画像を顧客1002向きで署名記入欄1007に署名を行っている場合の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a case where a customer 1002 signs a projected image in the signature entry field 1007 in the direction of the customer 1002. テラー1001が投影画像をテラー1001向きで署名記入欄1007に署名を行っている場合の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a case where the teller 1001 signs a projected image in the signature entry field 1007 in the direction of the teller 1001. テラー1001が投影画像を顧客1002向きで署名記入欄1007に署名を行っている場合の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a case where a teller 1001 signs a projected image in a signature entry field 1007 for a customer 1002; 情報処理装置101に記憶された証跡保存テーブル1900の構成の一例を示す構成図である。6 is a configuration diagram illustrating an example of a configuration of a trail storage table 1900 stored in an information processing apparatus 101. FIG. 図5に示す紙文書取り込み処理の詳細を示すフローチャートである。6 is a flowchart showing details of a paper document capturing process shown in FIG. 5. 顧客の住民票2102を撮像し画像データとして取り込む場合の一例を示す模式図である。It is a schematic diagram which shows an example in case a customer's resident's card 2102 is imaged and taken in as image data. カメラ102に対して撮像指示を行う条件を示す条件テーブル2200の構成の一例を示す構成図である。It is a block diagram which shows an example of a structure of the condition table 2200 which shows the conditions which perform an imaging instruction | indication with respect to the camera. 投影中の投影文書と当該投影文書の回転フラグを格納する投影テーブル2300の構成の一例を示す構成図である。It is a block diagram which shows an example of the structure of the projection table 2300 which stores the projection document in projection and the rotation flag of the said projection document. 第2の実施例における投影処理の一連の処理の流れの一例を示す構成図である。It is a block diagram which shows an example of the flow of a series of processes of the projection process in a 2nd Example. 第2の実施例におけるタッチ判定処理の一連の流れの一例を示す構成図である。It is a block diagram which shows an example of a series of flows of the touch determination process in a 2nd Example. 第3の実施例における投影システム100のハードウェア構成の一例を示す構成図である。It is a block diagram which shows an example of the hardware constitutions of the projection system 100 in a 3rd Example. 第3の実施例におけるタッチ判定処理の一連の流れの一例を示す構成図である。It is a block diagram which shows an example of a series of flows of the touch determination process in a 3rd Example. 第3の実施例における紙文書取り込み処理の一連の流れの一例を示す構成図である。It is a block diagram which shows an example of a series of flows of the paper document taking-in process in a 3rd Example. 第3の実施例における撮像のシーンによって撮像音を切り替えるためのシーンごとに撮像音を格納している撮像音データテーブル2900である。It is the imaging sound data table 2900 which stores the imaging sound for every scene for switching an imaging sound with the imaging scene in a 3rd Example.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の投影システム100のシステム構成の一例を示す図である。本発明の投影システム100は、情報処理装置101、カメラ102、赤外線センサ103、プロジェクタ104、プリンタ107が設置されており、情報処理装置101、カメラ102、赤外線センサ103、プロジェクタ104、プリンタ107はUSB(Universal Serial Bus)やVGA端子等を介して相互にデータ通信可能に接続されている。図1に示す投影システム100を立体的に示したものが、図4である。このように、カメラ102、赤外線センサ103、プロジェクタ104を含むものを机上に設置する。なお、本実施形態では有線接続を前提として説明を行うが、無線接続でもよい。図1の各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 1 is a diagram showing an example of a system configuration of a projection system 100 according to the present invention. The projection system 100 of the present invention includes an information processing apparatus 101, a camera 102, an infrared sensor 103, a projector 104, and a printer 107. The information processing apparatus 101, camera 102, infrared sensor 103, projector 104, and printer 107 are connected to a USB. (Universal Serial Bus), a VGA terminal, and the like are connected so as to be capable of data communication with each other. FIG. 4 shows the projection system 100 shown in FIG. 1 in three dimensions. In this manner, a device including the camera 102, the infrared sensor 103, and the projector 104 is installed on a desk. In the present embodiment, description is made on the premise of wired connection, but wireless connection may be used. The configuration of the various terminals in FIG. 1 is an example, and there are various configuration examples depending on applications and purposes.

投影システム100は、投影面106に投影された映像に対してユーザが所定の指示を行うことの可能なシステムである。例えば、投影面106に投影されたボタンをユーザがタッチすることで、所定の処理を実行したり、紙文書を投影面106に置くことで当該紙文書の画像データを生成し、生成した画像データを投影面106に投影したりできる。このようなシステムを用いることで、複数のユーザが投影面106に投影された1つの映像を見ることになるので、スムーズな情報共有を行うことができ、かつ当該投影された映像に対して複数のユーザが直接操作を行うことができる。タッチパネルを備えるタブレット端末でも同様の効果を得ることができるが、ディスプレイが小さいため複数のユーザで同時に閲覧しにくい問題がある。そこで、机のような投影面106に対して映像を投影し、この投影した映像を直接操作できるようにすることで、この問題点を解決している。以下、このシステムを構成する機器の説明を行う。   The projection system 100 is a system that allows a user to give a predetermined instruction to an image projected on the projection surface 106. For example, the user touches a button projected on the projection surface 106 to execute predetermined processing, or a paper document is placed on the projection surface 106 to generate image data of the paper document, and the generated image data Can be projected onto the projection plane 106. By using such a system, a plurality of users can see one image projected on the projection surface 106, so that information can be shared smoothly and a plurality of images can be shared with respect to the projected image. Can be directly operated. The same effect can be obtained with a tablet terminal having a touch panel. However, since the display is small, there is a problem that it is difficult for a plurality of users to browse simultaneously. Therefore, this problem is solved by projecting an image on the projection surface 106 such as a desk so that the projected image can be directly operated. In the following, devices constituting this system will be described.

情報処理装置101は、パーソナルコンピュータやサーバのような装置である。情報処理装置101は、前述した通り、カメラ102、赤外線センサ103、プロジェクタ104と接続されており、これらの機器と情報のやり取りを行うことができる。情報処理装置101は、投影システム100を制御する装置であるので、情報処理装置101に記憶されている各種データの投影をプロジェクタ104に対して指示したり、カメラ102に対して撮影を指示することで画像データを得たり、赤外線センサ103から得た情報を解析したりすることができる。例えば、情報処理装置101は、赤外線センサ103から得た情報を基にカメラ102へ撮像指示を出し、カメラ102から得た画像データを情報処理装置101のRAM203に保存し、RAM203に保存された画像データをプロジェクタ104へ送信する。また、情報処理装置101は、赤外線センサ103から得たユーザの手や紙文書等といった現実の物体(以下、オブジェクト)の情報やオブジェクトの動作の情報などを基に、情報処理装置101は、プロジェクタ104から投影面106に投影する画像を拡大、縮小したり非表示にしたりなどの処理を行う。これらの処理を、情報処理装置101にインストールされた証跡記録アプリケーションによって動作させる。証跡記録アプリケーションは、前述した各種装置との情報の送受信や、ユーザからの指示受付等を行うためのアプリケーションである。この証跡記録アプリケーションを動作させることにより、本実施形態の一連の処理を実現する。   The information processing apparatus 101 is an apparatus such as a personal computer or a server. As described above, the information processing apparatus 101 is connected to the camera 102, the infrared sensor 103, and the projector 104, and can exchange information with these devices. Since the information processing apparatus 101 controls the projection system 100, the projector 104 is instructed to project various data stored in the information processing apparatus 101, and the camera 102 is instructed to shoot. Thus, image data can be obtained and information obtained from the infrared sensor 103 can be analyzed. For example, the information processing apparatus 101 issues an imaging instruction to the camera 102 based on information obtained from the infrared sensor 103, stores image data obtained from the camera 102 in the RAM 203 of the information processing apparatus 101, and an image stored in the RAM 203. Data is transmitted to the projector 104. Further, the information processing apparatus 101 is a projector based on information on an actual object (hereinafter referred to as an object) such as a user's hand or a paper document obtained from the infrared sensor 103, information on the operation of the object, or the like. Processing such as enlarging, reducing, or hiding the image projected from 104 to the projection surface 106 is performed. These processes are operated by a trail recording application installed in the information processing apparatus 101. The trail recording application is an application for transmitting / receiving information to / from various devices described above and receiving instructions from the user. By operating this trail recording application, a series of processing of this embodiment is realized.

カメラ102(撮像装置)は、動画像や静止画像を撮像可能なデジタルカメラであり、情報処理装置101から撮像指示を受け、カメラ102の撮像範囲を撮像する。撮像で得られた画像データは、情報処理装置101へ送信される。   The camera 102 (imaging device) is a digital camera that can capture a moving image or a still image, and receives an imaging instruction from the information processing device 101 to capture an imaging range of the camera 102. Image data obtained by imaging is transmitted to the information processing apparatus 101.

赤外線センサ103は、たとえば赤外光領域を撮影可能な赤外線センサであり、投影面106から赤外線が反射される情報を取得し、赤外線の電気信号(以下、赤外線情報)を情報処理装置101に送信する。情報処理装置101では、受信した情報に基づいて、オブジェクトの形や動き、位置などを特定する。本実施形態においては、赤外線センサを用いるものとするが、オブジェクトの形や動き、位置などを特定できるのであれば、センサの種類は特に問わない。   The infrared sensor 103 is, for example, an infrared sensor capable of photographing an infrared light region, acquires information on which infrared light is reflected from the projection surface 106, and transmits an infrared electrical signal (hereinafter referred to as infrared information) to the information processing apparatus 101. To do. The information processing apparatus 101 identifies the shape, movement, position, etc. of the object based on the received information. In this embodiment, an infrared sensor is used. However, the type of sensor is not particularly limited as long as the shape, movement, position, etc. of the object can be specified.

プロジェクタ104(投影装置)は、情報処理装置101から送られる各種データを投影する装置である。プロジェクタ104は、反射鏡105に向けて設置されており、情報処理装置101から投影の指示を受け付けると、反射鏡105に向けて投影し、反射鏡105の反射を経て、投影面106へ投影する。   The projector 104 (projection device) is a device that projects various data sent from the information processing device 101. The projector 104 is installed toward the reflecting mirror 105. When receiving a projection instruction from the information processing apparatus 101, the projector 104 projects toward the reflecting mirror 105, and projects onto the projection surface 106 through the reflection of the reflecting mirror 105. .

プリンタ107は、情報処理装置101から送られる印刷ジョブに基づいて、印刷をする装置である。   The printer 107 is a device that performs printing based on a print job sent from the information processing apparatus 101.

図2は、本発明の実施形態における各種端末のハードウェア構成を示す図である。   FIG. 2 is a diagram illustrating a hardware configuration of various terminals according to the embodiment of the present invention.

CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 comprehensively controls each device and controller connected to the system bus 204.

また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input/OutputSystem)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。   Further, the ROM 202 or the external memory 211 is necessary to realize a BIOS (Basic Input / Output System) that is a control program of the CPU 201, an operating system program (hereinafter referred to as OS), and a function executed by each server or each PC. Various programs to be described later are stored. The RAM 203 functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

また、入力コントローラ(入力C)205は、キーボードや不図示のマウス等のポインティングデバイス等の入力デバイス209からの入力を制御する。また、カメラ102や赤外線センサ103とも接続されており、これらの装置から送信される画像データや赤外線情報の入力も制御する。   An input controller (input C) 205 controls input from an input device 209 such as a keyboard or a pointing device such as a mouse (not shown). The camera 102 and the infrared sensor 103 are also connected to control input of image data and infrared information transmitted from these devices.

ビデオコントローラ(VC)206は、ディスプレイ210等の表示器への表示を制御する。表示器の種類はCRTや、液晶ディスプレイを想定するが、これに限らない。また、プロジェクタ104とも接続されており、プロジェクタ104に対する投影も制御する。   A video controller (VC) 206 controls display on a display device such as the display 210. The type of the display device is assumed to be a CRT or a liquid crystal display, but is not limited thereto. Further, the projector 104 is also connected to control the projection on the projector 104.

メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。   The memory controller (MC) 207 is an adapter to a hard disk (HD), flexible disk (FD) or PCMCIA card slot for storing boot programs, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 211 such as a card-type memory connected via the.

通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。通信I/FC208は、インターネット通信等により、プリンタ107とも接続されている。通信I/FC208を経由して、CPU201からプリンタ107に対して印刷指示がなされる。   A communication I / F controller (communication I / FC) 208 is connected to and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible. The communication I / FC 208 is also connected to the printer 107 by Internet communication or the like. A print instruction is issued from the CPU 201 to the printer 107 via the communication I / FC 208.

尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display 210 by executing outline font rasterization processing on a display information area in the RAM 203, for example. Further, the CPU 201 enables a user instruction with a mouse cursor (not shown) on the display 210.

本発明の情報処理装置101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。   Various programs used by the information processing apparatus 101 of the present invention to execute various processes described later are recorded in the external memory 211 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. is there. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 211.

次に、情報処理装置101のモジュール構成を示す機能構成図について、図3を用いて説明する。なお、図3の装置のモジュール構成は一例であり、用途や目的に応じて様々な構成例がある。   Next, a functional configuration diagram showing a module configuration of the information processing apparatus 101 will be described with reference to FIG. Note that the module configuration of the apparatus of FIG. 3 is an example, and there are various configuration examples depending on the application and purpose.

情報処理装置101は、前述した通り、証跡記録アプリケーションを備える。証跡記録アプリケーションは、入力受付部301、表示指示部302、画像保存部303、オブジェクト検知部304、撮影指示部305、OCR処理部306、操作判定部307、表示制御部308を備える。   As described above, the information processing apparatus 101 includes a trail recording application. The trail recording application includes an input reception unit 301, a display instruction unit 302, an image storage unit 303, an object detection unit 304, an imaging instruction unit 305, an OCR processing unit 306, an operation determination unit 307, and a display control unit 308.

入力受付部301は、赤外線センサ103から送信される赤外線情報を受け付ける。受け付けた赤外線情報はオブジェクト検知部304に送られる。また、カメラ102から送信される動画像や静止画像を画像データとして受け付ける。受け付けた画像データは画像保存部303に送られる。   The input receiving unit 301 receives infrared information transmitted from the infrared sensor 103. The received infrared information is sent to the object detection unit 304. Also, moving images and still images transmitted from the camera 102 are accepted as image data. The received image data is sent to the image storage unit 303.

表示指示部302は、情報処理装置101のRAM203や外部メモリ211に保存されたPDFデータや画像データなどを表示制御部308が制御した結果を、プロジェクタ104へ送信する。   Display instruction unit 302 transmits to projector 104 the result of display control unit 308 controlling PDF data, image data, and the like stored in RAM 203 or external memory 211 of information processing apparatus 101.

画像保存部303は、入力受付部301から送られた画像データを、オブジェクト検知部304で検知された情報に基づいて、紙文書等のオブジェクトに相当する領域を切り取り、切り取った画像データをRAM203や外部メモリ211に保存する。また、画像保存部303は、保存した画像データを表示指示部302へ送信する。   The image storage unit 303 cuts out an area corresponding to an object such as a paper document from the image data sent from the input reception unit 301 based on the information detected by the object detection unit 304, and the cut image data is stored in the RAM 203 or the like. Save in the external memory 211. In addition, the image storage unit 303 transmits the stored image data to the display instruction unit 302.

オブジェクト検知部304は、入力受付部301で受け付けた赤外線情報などを基に投影面106の上にあるオブジェクトの種類を検知する。たとえば、投影面106の上にあるオブジェクトがユーザの指(指示物)なのか、紙文書なのかを検知する。また、オブジェクトの進入方向も検知できる。   The object detection unit 304 detects the type of the object on the projection plane 106 based on the infrared information received by the input reception unit 301. For example, it is detected whether the object on the projection surface 106 is a user's finger (indicator) or a paper document. Moreover, the approach direction of the object can also be detected.

撮影指示部305は、操作判定部307でユーザの撮影指示がなされたと判定された場合に、カメラ102に対して撮影指示を行う。また、ユーザの証跡を残す操作がなされたと操作判定部307で判定された場合にもカメラ102に対して撮影指示を行う。   The shooting instruction unit 305 issues a shooting instruction to the camera 102 when the operation determination unit 307 determines that the user has given a shooting instruction. In addition, when the operation determination unit 307 determines that an operation for leaving the user's trail has been performed, the camera 102 is also instructed to take a picture.

OCR処理部306は、OCR(Optical Character Recognition)などの技術を用いて、情報処理装置101のRAM203や外部メモリ211に保存された画像データの文字領域を検出し、画像データの中のそれぞれの文字が何の文字なのかを特定する。   The OCR processing unit 306 detects a character area of the image data stored in the RAM 203 or the external memory 211 of the information processing apparatus 101 using a technique such as OCR (Optical Character Recognition), and each character in the image data. Identify what character is.

操作判定部307は、オブジェクト検知部304で検知されたオブジェクトの現実空間上の位置やジェスチャを判定する。また、現実空間上の位置やジェスチャに対応づけられた処理を判定する。たとえば、投影されている画像データに対する制御内容の判定や、投影面106に置かれたオブジェクトの撮影指示の判定等を行う。   The operation determination unit 307 determines the position and gesture of the object detected by the object detection unit 304 in the real space. Also, a process associated with a position in the real space and a gesture is determined. For example, the control content for the projected image data is determined, and the shooting instruction for the object placed on the projection surface 106 is determined.

表示制御部308は、操作判定部で判定された結果に応じて、投影面106に投影されている画像データの拡大/縮小、表示/非表示、移動などを実行する。たとえば、拡大/縮小したい画像データの上でのピンチイン/ピンチアウトのジェスチャを操作判定部307が判定した場合に、表示制御部308は画像データの拡大/縮小処理を行う。   The display control unit 308 executes enlargement / reduction, display / non-display, movement, and the like of the image data projected on the projection plane 106 according to the result determined by the operation determination unit. For example, when the operation determination unit 307 determines a pinch-in / pinch-out gesture on image data to be enlarged / reduced, the display control unit 308 performs image data enlargement / reduction processing.

画像変換部309は、撮影指示部305で撮影指示をし取得した画像データをTIFF形式に変換することができる。画像の変換形式はTIFF形式だけではなく、さまざまな形式に変換することができる。   The image conversion unit 309 can convert the image data acquired when the shooting instruction unit 305 gives a shooting instruction into the TIFF format. The image conversion format is not limited to the TIFF format, and can be converted into various formats.

次に、本発明の実施形態における情報処理装置101によって行われる一連の処理について、図5に示すフローチャートを用いて説明する。   Next, a series of processing performed by the information processing apparatus 101 in the embodiment of the present invention will be described with reference to the flowchart shown in FIG.

ステップS501では、情報処理装置101のCPU201は、顧客に対して金融商品などの説明を行う人(以後、テラーと呼ぶ)からの指示に応じて、外部メモリ211に記憶された証跡記録アプリケーションを起動する。なお、証跡記録アプリケーションは、銀行の窓口などで行われる金融商品などの説明を想定し、それら一連の流れの証跡を記録するアプリケーションである。   In step S501, the CPU 201 of the information processing apparatus 101 activates a trail recording application stored in the external memory 211 in response to an instruction from a person (hereinafter referred to as a teller) who explains a financial product or the like to a customer. To do. The trail recording application is an application for recording a trail of a series of flows assuming an explanation of financial products performed at a bank window or the like.

ステップS502では、情報処理装置101のCPU201は、ディスプレイ210の画面上にテラーIDと顧客IDを入力させるID入力受付画面を表示させる。たとえば図6に示すID入力受付画面601のような画面である。ID入力受付画面601のテラーID入力欄602はテラーのIDが入力される欄である。顧客ID入力欄603は顧客のIDが入力される欄である。テラーIDは図7のテラーID管理テーブル700で管理しており、テラーIDとテラーの氏名などの情報が紐づけられている。テラーID管理テーブル700にはテラーID701とテラー氏名702があり、テラーID701はテラーを一意的に決めるためのIDであり、テラー氏名702は、テラーの氏名を表すものである。顧客IDは図8の顧客IDテーブル800で管理しており、顧客IDと顧客の氏名などの情報が紐づけられている。顧客IDテーブル800には顧客ID801と顧客氏名802があり、顧客ID801は顧客を一意的に決めるためのIDであり、顧客氏名802は顧客の氏名を表すものである。
ステップS503では、情報処理装置101のCPU201は、ステップS502において表示されたID入力受付画面601において、テラーと顧客のIDの入力を受け付ける。OKボタン604が押下されると次のステップS504へ移行する。キャンセルボタン605が押下されると証跡記録アプリケーションの起動を終了し、本一連の処理を終了する
In step S <b> 502, the CPU 201 of the information processing apparatus 101 displays an ID input acceptance screen for inputting a teller ID and a customer ID on the screen of the display 210. For example, it is a screen like the ID input acceptance screen 601 shown in FIG. The teller ID input field 602 of the ID input acceptance screen 601 is a field in which a teller ID is input. A customer ID input column 603 is a column in which a customer ID is input. The teller ID is managed in the teller ID management table 700 of FIG. 7, and information such as the teller ID and the name of the teller is linked. The teller ID management table 700 includes a teller ID 701 and a teller name 702. The teller ID 701 is an ID for uniquely determining a teller, and the teller name 702 represents the teller name. The customer ID is managed in the customer ID table 800 of FIG. 8, and the customer ID is associated with information such as the customer's name. The customer ID table 800 includes a customer ID 801 and a customer name 802. The customer ID 801 is an ID for uniquely determining a customer, and the customer name 802 represents the name of the customer.
In step S503, the CPU 201 of the information processing apparatus 101 accepts input of the teller and customer IDs on the ID input acceptance screen 601 displayed in step S502. When the OK button 604 is pressed, the process proceeds to the next step S504. When the cancel button 605 is pressed, the activation of the trail recording application is terminated, and this series of processing is terminated.

ステップS504では、情報処理装置101のCPU201は、文書データや画像データをプロジェクタ104から投影面106に投影するために、テラーからの投影指示を受け付ける。具体的には、テラーから、投影する文書データや画像データの選択を受け付ける。たとえば金融商品を説明するためのPDFデータである。文書のファイル形式はPDF形式以外でも構わない。   In step S <b> 504, the CPU 201 of the information processing apparatus 101 receives a projection instruction from a teller in order to project document data and image data from the projector 104 onto the projection surface 106. Specifically, the selection of document data or image data to be projected is accepted from the teller. For example, it is PDF data for explaining a financial product. The file format of the document may be other than the PDF format.

ステップS505では、情報処理装置101のCPU201は、ステップS504で受け付けたテラーからの投影指示に応じて、プロジェクタ104に対してテラーから選択されたPDFデータを投影させる投影指示を行う。投影指示処理の詳細は、図9で後述する。   In step S505, the CPU 201 of the information processing apparatus 101 issues a projection instruction to project the PDF data selected from the teller to the projector 104 in accordance with the projection instruction from the teller received in step S504. Details of the projection instruction processing will be described later with reference to FIG.

ステップS506では、情報処理装置101のCPU201は、赤外線センサ103から投影面106に対して照射され跳ね返ってくる赤外線の情報(以降、赤外線情報とする)を赤外線センサ103から受信する。投影面106から赤外線のはね返りがない部分を物体があると認識する。   In step S <b> 506, the CPU 201 of the information processing apparatus 101 receives from the infrared sensor 103 infrared information (hereinafter referred to as infrared information) that is irradiated from the infrared sensor 103 onto the projection surface 106 and bounces back. A portion where the infrared ray does not rebound from the projection surface 106 is recognized as an object.

ステップS507では、情報処理装置101のCPU201は、ステップS506で受信した赤外線情報を基にオブジェクトを検知したか否かを判定する(動作検知手段)。ここでいうオブジェクトは例えばユーザの指や紙文書などを指す。オブジェクトを検知した場合にはステップS508に処理を進める。オブジェクトを検知しなかった場合にはステップS512へ処理を進める。   In step S507, the CPU 201 of the information processing apparatus 101 determines whether an object has been detected based on the infrared information received in step S506 (motion detection unit). The object here refers to, for example, a user's finger or a paper document. If an object is detected, the process proceeds to step S508. If no object is detected, the process proceeds to step S512.

ステップS508では、情報処理装置101のCPU201は、ステップS507で検知したオブジェクトが指なのか、紙文書なのかを特定する(オブジェクト特定手段)。より具体的には赤外線センサ103で受信した赤外線情報からオブジェクトの種類を特定する。たとえば、オブジェクトの形が球状のものから棒状のものが突き出ている形であることを認識した場合に突き出た部分を指であると特定する。また赤外線センサ103で受信した赤外線情報で判定したオブジェクトの形が、矩形であると認識した場合にはオブジェクトは紙文書であると特定する。   In step S508, the CPU 201 of the information processing apparatus 101 specifies whether the object detected in step S507 is a finger or a paper document (object specifying unit). More specifically, the type of object is specified from the infrared information received by the infrared sensor 103. For example, when it is recognized that the shape of the object is a shape in which a rod-shaped object protrudes from a spherical object, the protruding part is specified as a finger. If the object determined by the infrared information received by the infrared sensor 103 is recognized as a rectangle, the object is specified as a paper document.

ステップS509では、情報処理装置101のCPU201は、ステップS508で判定したオブジェクトの種類によって、検知したオブジェクトが証跡を残すものであるかを判定する(オブジェクト判定手段)。たとえば、オブジェクトが指であると判定した場合は、証跡を残すものであると判定し、ステップS510のタッチ判定処理へ移行する。オブジェクトが紙文書であると判定した場合は、証跡を残さないものであると判定しステップS511の紙文書取り込み処理へ移行する。投影システム100を利用するユーザ(テラーまたは顧客)が投影面106に対してどのような操作を行ったのかを証跡として記録したいので、このような判定を行っている。   In step S509, the CPU 201 of the information processing apparatus 101 determines whether the detected object leaves a trail based on the type of object determined in step S508 (object determination unit). For example, if it is determined that the object is a finger, it is determined that a trail is to be left, and the process proceeds to the touch determination process in step S510. If it is determined that the object is a paper document, it is determined that no trail is left, and the process proceeds to a paper document capturing process in step S511. Such a determination is made because it is desired to record, as a trail, what operation a user (teller or customer) using the projection system 100 has performed on the projection plane 106.

ステップS510では、情報処理装置101のCPU201は、投影された文書データまたは画像データ(以下、投影画像)に指がタッチしているかを判定し、タッチされていると判定された場合には、投影画像の上で指をタッチしている画像データを撮像することで証跡を残す。タッチ判定処理の詳細は後の図19で詳しく説明する。   In step S510, the CPU 201 of the information processing apparatus 101 determines whether the finger is touching the projected document data or image data (hereinafter, “projected image”). If it is determined that the finger is touched, the projection is performed. A trail is left by capturing image data of a finger touching the image. Details of the touch determination processing will be described in detail later with reference to FIG.

ステップS511では、情報処理装置101のCPU201は、投影面106上に置かれた紙文書を撮像し、画像データとして取り込みを行う。より具体的には、顧客が持ってきた住民票や戸籍謄本など、金融商品の契約などで必要となる書類を撮像する。紙文書取り込み処理の詳細は後の図20で詳しく説明する。   In step S511, the CPU 201 of the information processing apparatus 101 captures a paper document placed on the projection surface 106 and captures it as image data. More specifically, it captures documents necessary for financial product contracts, such as resident's cards and family register copies brought by customers. Details of the paper document capturing process will be described in detail later with reference to FIG.

ステップS512では、情報処理装置101のCPU201は、ユーザから投影の終了指示があったか否かを判定する。投影の終了指示をユーザから受け付けた場合には、投影を終了させる。投影の終了を受け付けたと判定されなかった場合には、ステップS506へ処理を戻す。   In step S512, the CPU 201 of the information processing apparatus 101 determines whether there is an instruction to end projection from the user. When an instruction to end projection is received from the user, the projection is ended. If it is not determined that the end of projection has been received, the process returns to step S506.

ステップS513では、情報処理装置101のCPU201は、ユーザからの指示に応じてアプリケーションの終了処理を行う。   In step S513, the CPU 201 of the information processing apparatus 101 performs an application termination process in response to an instruction from the user.

次に、前述したステップS505における投影処理について、図9を用いて説明する。   Next, the projection processing in step S505 described above will be described with reference to FIG.

ステップS901では、情報処理装置101のCPU201は、前述したステップS504においてテラーから投影の指示があったかどうかを判定し、指示がなければ投影処理を終了する。投影の指示を受け付けた場合は、ステップS902へ処理を進める。   In step S901, the CPU 201 of the information processing apparatus 101 determines whether or not there is a projection instruction from the teller in step S504 described above. If there is no instruction, the projection processing ends. If a projection instruction is accepted, the process proceeds to step S902.

ステップS902では、情報処理装置101のCPU201は、ステップS504でテラーから投影の指示のあった文書データまたは画像データ(ここでは、例えばPDFデータ)を取得し、RAM203に記憶する。PDFデータ(電子データ)を取得したあと、ステップS903へと処理を進める。   In step S <b> 902, the CPU 201 of the information processing apparatus 101 acquires document data or image data (in this case, PDF data, for example) that is instructed to be projected from the teller in step S <b> 504 and stores it in the RAM 203. After obtaining the PDF data (electronic data), the process proceeds to step S903.

ステップS903では、情報処理装置101のCPU201は、RAM203に取得したPDFデータの投影指示をプロジェクタ104に対して行う。   In step S <b> 903, the CPU 201 of the information processing apparatus 101 instructs the projector 104 to project the PDF data acquired in the RAM 203.

ステップS904では、プロジェクタ104は、情報処理装置101から投影指示を受け取る。   In step S <b> 904, the projector 104 receives a projection instruction from the information processing apparatus 101.

ステップS905では、プロジェクタ104は、ステップS904で受け取った指示により、投影を指示されたPDFデータ(電子データ)を投影面106に投影する。ステップS905で投影された結果の投影面106の例が、図10である。テラー1001は、たとえば顧客に対して金融商品などの説明をする人物であり、証跡記録アプリケーションの起動や、顧客1002に対する商品説明などを行う。投影面106上の申込書1003には、概要説明部分1004と詳細説明部分1005と個人情報説明部分1006と署名欄1007がある。テラー1001は、顧客1002に対して申込書1003に関する商品説明を行う際に、概要説明部分1004と詳細説明部分1005と個人情報説明部分1006に対する説明を、指などを用いて行っていく。顧客1002は、テラー1001からの説明を受けたのち、署名欄1007に署名を記入する。回転ボタン1008は、テラーの指などが回転ボタン1008にタッチされた場合に投影されている文書データや画像データを180度回転させるときに使うものである。図10において回転ボタン1008が押下されると、投影面106上の申込書1003が180度回転することになる。つまり、顧客1002の方を向いている申込書1003が、テラー1001の方を向くことになる。回転ボタン1008は、物理的なボタンであっても、投影されたボタン画像であってもよい。以上で投影処理の説明を終わる。   In step S905, the projector 104 projects the PDF data (electronic data) instructed to be projected onto the projection plane 106 according to the instruction received in step S904. FIG. 10 shows an example of the projection surface 106 obtained as a result of the projection in step S905. The teller 1001 is a person who explains, for example, a financial product to a customer, and activates a trail recording application, explains a product to the customer 1002, and the like. The application form 1003 on the projection surface 106 includes an outline explanation part 1004, a detailed explanation part 1005, a personal information explanation part 1006, and a signature field 1007. When telling the customer 1002 about the product regarding the application form 1003, the teller 1001 explains the outline explanation portion 1004, the detailed explanation portion 1005, and the personal information explanation portion 1006 by using a finger or the like. After receiving the explanation from the teller 1001, the customer 1002 enters the signature in the signature column 1007. The rotation button 1008 is used to rotate the projected document data or image data by 180 degrees when a teller's finger or the like is touched with the rotation button 1008. In FIG. 10, when the rotation button 1008 is pressed, the application form 1003 on the projection plane 106 is rotated 180 degrees. That is, the application form 1003 facing the customer 1002 faces the teller 1001. The rotation button 1008 may be a physical button or a projected button image. This is the end of the description of the projection process.

次に、ステップS510におけるタッチ判定処理について、図11を用いて説明する。   Next, the touch determination process in step S510 will be described with reference to FIG.

ステップS1101では、情報処理装置101のCPU201は、投影面106に投影されている投影画像の基となる投影元文書の特定を行う。投影元文書は、前述したステップS504で選択された文書データまたは画像データであるので、これに基づいて特定する。ここでは、投影画像のファイル名や保存場所、更には投影している投影元文書のページ番号を特定する。特定を行ったら、ステップS1102へと処理を移行する。   In step S <b> 1101, the CPU 201 of the information processing apparatus 101 specifies a projection source document that is a basis of a projection image projected on the projection plane 106. Since the projection source document is the document data or image data selected in step S504 described above, the projection source document is specified based on this. Here, the file name and storage location of the projection image, and the page number of the projection source document being projected are specified. If specified, the process proceeds to step S1102.

ステップS1102では、情報処理装置101のCPU201は、ステップS1101で特定された投影画像に対応する撮像領域情報を取得する。撮像領域情報とは、投影画像に含まれる所定の領域ごとに存在する情報であり、図12に示す撮像領域情報テーブル1200に記憶された各レコードを指す。より具体的には、領域ID1201、名称1202、保存場所1203、page1204、撮像位置領域1205、属性1206のことを指す。   In step S1102, the CPU 201 of the information processing apparatus 101 acquires imaging area information corresponding to the projection image specified in step S1101. The imaging area information is information existing for each predetermined area included in the projection image, and indicates each record stored in the imaging area information table 1200 shown in FIG. More specifically, the area ID 1201, name 1202, storage location 1203, page 1204, imaging position area 1205, and attribute 1206 are indicated.

撮像領域情報テーブル1200は、情報処理装置101の外部メモリ211に記憶されたテーブルである。撮像領域情報テーブル1200は、領域ID1201、名称1202、保存場所1203、page1204、撮像位置領域1205、属性1206から構成される。領域ID1201ではそれぞれ証跡を保存する領域に番号などの領域ID番号を記載している。名称1202では、証跡を保存する領域の具体的な名称を記載している。保存場所1203は、投影するPDFデータを保存している場所を記載してある。page1204では、投影する書類のページ数を記載してある。撮像位置領域1205では、投影するPDFデータ上の証跡を保存する位置情報を記載してある。カンマで区切られた左側のXY座標は矩形の左上を示している。カンマで区切られた右側のXY座標は矩形の右下を示している。この2点からなる矩形を撮像する領域としている。なお、撮像する領域は本実施例では矩形としているが、円状であっても帯状であっても構わない。属性1206では、証跡を保存する領域の属性を記載してある。本実施例では説明、同意という属性があるが、それ以外であってもよい。   The imaging area information table 1200 is a table stored in the external memory 211 of the information processing apparatus 101. The imaging area information table 1200 includes an area ID 1201, a name 1202, a storage location 1203, a page 1204, an imaging position area 1205, and an attribute 1206. In the area ID 1201, an area ID number such as a number is written in each area for storing a trail. The name 1202 describes a specific name of the area for storing the trail. A storage location 1203 describes a location where the PDF data to be projected is stored. In page 1204, the number of pages of the document to be projected is described. In the imaging position area 1205, position information for storing a trail on the PDF data to be projected is described. The left XY coordinates separated by commas indicate the upper left corner of the rectangle. The right XY coordinates separated by commas indicate the lower right corner of the rectangle. A rectangle consisting of these two points is used as an area for imaging. In addition, although the area | region to image is made into the rectangle in a present Example, it may be circular shape or strip | belt shape. An attribute 1206 describes the attribute of the area for storing the trail. In this embodiment, there are attributes of explanation and consent, but other attributes may be used.

たとえば、図10の申込書1003の撮像領域情報を取得する場合には、ステップS1101で申込書1003のファイル名や保存場所や投影しているページ番号が特定される。特定されたこれらの情報と、保存場所1203とに基づいて、必要なレコードを特定し、これを取得する。申込書1003のファイル名が「A.pdf」、保存場所が「D:¥document¥data¥」、投影しているページ番号が「2」である場合には、図12に示す領域ID1201が「1」〜「4」に該当する。よって、この4つのレコードを撮像領域情報として取得する。   For example, when acquiring the imaging area information of the application form 1003 in FIG. 10, the file name, storage location, and projected page number of the application form 1003 are specified in step S1101. Based on the identified information and the storage location 1203, a necessary record is identified and acquired. When the file name of the application form 1003 is “A.pdf”, the storage location is “D: \ document \ data \”, and the projected page number is “2”, the area ID 1201 shown in FIG. It corresponds to “1” to “4”. Therefore, these four records are acquired as imaging area information.

ステップS1103では、情報処理装置101のCPU201は、赤外線センサ103から送られてくる赤外線情報を受信する。   In step S <b> 1103, the CPU 201 of the information processing apparatus 101 receives infrared information transmitted from the infrared sensor 103.

ステップS1104では、情報処理装置101のCPU201は、ステップS1103で受信した赤外線情報に基づいて、投影面106上におけるユーザの手の位置を解析する。   In step S1104, the CPU 201 of the information processing apparatus 101 analyzes the position of the user's hand on the projection plane 106 based on the infrared information received in step S1103.

ユーザの手の位置の解析の方法は従来の技術を用いるものとし、赤外線センサ103が赤外線のはね返りを検知することができなかった形状を解析する。形状の解析により、ユーザの指がどの部分を指しているかを特定することが可能になる。   The method for analyzing the position of the user's hand is to use a conventional technique, and the infrared sensor 103 analyzes a shape in which infrared bounce cannot be detected. By analyzing the shape, it is possible to specify which part the user's finger is pointing to.

ステップS1105では、情報処理装置101のCPU201は、ステップS1104で解析したユーザの手の位置などを基に、解析した手が誰の手なのかを特定する(ユーザ特定手段)。より具体的には、手の入射方向や手の向きなどから特定する。たとえば図10では、回転ボタン1008がある方向から手が入ってきた場合はテラーの手であると特定し、そうでない場合は顧客の手であると特定する。誰の手なのかを特定する方法はこれに限らない。ユーザの手にユーザを識別できる情報を付与しておき、これをカメラ102で撮像し、撮像された画像データを解析して特定してもよい。   In step S1105, the CPU 201 of the information processing apparatus 101 specifies who is the analyzed hand based on the position of the user's hand analyzed in step S1104 (user specifying unit). More specifically, it is specified from the incident direction of the hand and the direction of the hand. For example, in FIG. 10, when the rotation button 1008 comes in from a certain direction, it is specified as a teller's hand, and otherwise, it is specified as a customer's hand. The method of identifying who is the hand is not limited to this. Information that can identify the user may be given to the user's hand, and this may be captured by the camera 102 and analyzed to identify the captured image data.

ステップS1106では、情報処理装置101のCPU201は、ステップS1102で取得した撮像領域情報に含まれる撮像位置領域1205を示す領域にユーザの手がタッチされたかどうかを判定する。ユーザの手が撮像位置領域1205にタッチされたと判定されれば、ステップS1107へ処理を移行する。ユーザの手が撮像位置領域1205にタッチされたと判定されなければ、タッチ判定処理を終了する。図13は、テラーが撮像位置領域1205である概要説明部分1004にタッチしている例の図である。テラーの手1301が概要説明部分1004の上をタッチしていれば、テラーが概要説明部分1004の説明を行っているということである。つまり、顧客に対して概要説明部分1004の説明を行ったということの証明のために、証跡を取る必要がある。そのため、ステップS1106では、このように撮像位置領域1205を示す領域がタッチされていれば、ステップS1107に処理を進める。   In step S1106, the CPU 201 of the information processing apparatus 101 determines whether the user's hand has touched the area indicating the imaging position area 1205 included in the imaging area information acquired in step S1102. If it is determined that the user's hand has touched the imaging position area 1205, the process proceeds to step S1107. If it is not determined that the user's hand has touched the imaging position area 1205, the touch determination process ends. FIG. 13 is a diagram of an example in which the teller is touching the outline explanation portion 1004 that is the imaging position area 1205. If the teller's hand 1301 touches the outline explanation portion 1004, it means that the teller is explaining the outline explanation portion 1004. In other words, it is necessary to take a trail to prove that the summary explanation portion 1004 has been explained to the customer. Therefore, in step S1106, if the area indicating the imaging position area 1205 is touched in this way, the process proceeds to step S1107.

ステップS1107では、情報処理装置101のCPU201は、タッチされた撮像位置領域1205を示す領域の属性が、テラーから顧客に対する説明義務のある領域(以下、説明証跡領域)であるのか、顧客が契約等に同意の意思を示すための領域(以下、同意証跡領域)であるのかを判定する。タッチされた撮像位置領域1205に対応する、ステップS1102で取得した撮像領域情報の中の属性1206によって、タッチされた撮像位置領域1205の証跡の属性を特定し、特定した属性に応じて判定すればよい。撮像位置領域1205を示す領域が説明証跡領域であると判定した場合には、ステップS1108に処理を進める。撮像位置領域1205を示す領域が同意証跡領域であると判定した場合には、ステップS1110に処理を進める。このようにタッチされた部分の領域の属性を判定することにより、タッチされた領域が示す属性に応じて撮像の条件を変更することが可能となる。   In step S1107, the CPU 201 of the information processing apparatus 101 determines whether the attribute of the area indicating the touched imaging position area 1205 is an area obligated to explain to the customer from the teller (hereinafter referred to as an explanation trail area), whether the customer has a contract, etc. It is determined whether it is an area for indicating the intent of consent (hereinafter referred to as consent trail area). If an attribute 1206 in the imaging area information acquired in step S1102 corresponding to the touched imaging position area 1205 is specified, the attribute of the trail of the touched imaging position area 1205 is specified, and determination is made according to the specified attribute. Good. If it is determined that the area indicating the imaging position area 1205 is an explanation trail area, the process proceeds to step S1108. If it is determined that the area indicating the imaging position area 1205 is the consent trail area, the process proceeds to step S1110. By determining the attribute of the touched area as described above, it is possible to change the imaging condition according to the attribute indicated by the touched area.

たとえば図13の概要説明部分1004の領域ID1201「1」に対応する属性1206は「説明」となっているので、概要説明部分1004が説明証跡領域であると特定する。よって、ステップS1108へ処理を進める。   For example, since the attribute 1206 corresponding to the area ID 1201 “1” of the outline explanation portion 1004 in FIG. 13 is “description”, the outline explanation portion 1004 is specified as the explanation trail area. Therefore, the process proceeds to step S1108.

一方、たとえば図16は、顧客1002が署名欄1007に顧客の手1602でサインを行っている図である。投影システム100では、署名欄1007のような所定の領域を指でタッチしたまま移動させると、その軌跡を描画することができるようになっている。赤外線センサ103から送信された赤外線情報に基づいて、情報処理装置101のCPU201が、ユーザの指が署名欄1007のような所定の領域をタッチしていると判定すると、当該タッチが継続されている間、そのタッチの軌跡を線要素で表現する。このような仕組みを用いることで、投影面106に対してタッチすることにより、サインを行うことができるようになる。   On the other hand, for example, FIG. 16 is a diagram in which the customer 1002 signs the signature field 1007 with the customer's hand 1602. In the projection system 100, when a predetermined area such as the signature field 1007 is moved while being touched with a finger, the locus can be drawn. If the CPU 201 of the information processing apparatus 101 determines that the user's finger is touching a predetermined area such as the signature field 1007 based on the infrared information transmitted from the infrared sensor 103, the touch is continued. Meanwhile, the trajectory of the touch is expressed by a line element. By using such a mechanism, a sign can be performed by touching the projection surface 106.

このように、サインを行うべく、署名欄1007にタッチがなされると、顧客の手であるか、テラーの手であるかを判定するステップS1108と、投影画像の向きを判定するステップS1109は行わずに、即時、ステップS1110へ移行する。同意証跡領域の場合、テラーが顧客の代わりに同意のサインを行ってしまう場合がある。すなわち、顧客は同意の意思を示していないにも関わらず、テラーが代わりにサインしてしまう場合である。このような場合も証跡を保存するようにしておけば、テラーの不正な行為を抑止することができると共に、たとえ争いになったとしても、顧客を守ることができる。たとえば図17ではテラーが同意証跡領域である署名欄1007にサインをしていて、投影画像の向きはテラー向きである。また、図18の場合、同じくテラーがサインをしており、投影画像の向きは顧客向きである。このような場合であっても署名欄1007に手がタッチされているのであれば、署名欄1007は同意証跡領域であるので、ステップS1110へ移行する。   As described above, when the signature field 1007 is touched to sign, step S1108 for determining whether the hand is the customer's hand or the hand of the teller and step S1109 for determining the orientation of the projected image are performed. Instead, the process immediately proceeds to step S1110. In the consent trail area, the teller may sign consent on behalf of the customer. That is, when the customer does not indicate an intent to consent, the teller signs instead. In such a case, if the trail is preserved, it is possible to prevent the illegal act of the teller and to protect the customer even if it becomes a dispute. For example, in FIG. 17, the teller signs the signature field 1007 which is the consent trail area, and the direction of the projected image is the teller direction. In the case of FIG. 18, the teller is also signed, and the direction of the projected image is for the customer. Even in such a case, if the hand is touched in the signature field 1007, the signature field 1007 is a consent trail area, and the process proceeds to step S1110.

ステップS1108では、情報処理装置101のCPU201は、タッチされた手がテラーの手であるかどうかを判定する。ステップS1105で特定された手の人物がテラーであればステップS1109へ処理を進める。ステップS1105で特定された手の人物がテラーでなければタッチ判定処理を終了させる。たとえば、図14は、テラー1001が説明する説明証跡領域である概要説明部分1004を顧客1002がタッチしている図である。この場合には、テラー1001によるタッチではないので証跡の保存は行わずにタッチ判定処理を終了させる。説明証跡領域は、テラーが顧客に説明したということが担保できればよい。顧客が説明証跡領域をタッチした場合も証跡を保存するようにしてしまうと、外部メモリ211などの容量を圧迫してしまう。そのため、テラーからタッチされた場合のみ、証跡を取るようにしている。   In step S1108, the CPU 201 of the information processing apparatus 101 determines whether the touched hand is a teller's hand. If the person in the hand identified in step S1105 is a teller, the process proceeds to step S1109. If the person identified in step S1105 is not a teller, the touch determination process is terminated. For example, FIG. 14 is a diagram in which a customer 1002 touches a summary explanation portion 1004 that is an explanation trail area explained by the teller 1001. In this case, since it is not a touch by the teller 1001, the touch determination process is terminated without saving the trail. The explanation trail area only needs to guarantee that the teller explained to the customer. Even when the customer touches the explanation trail area, if the trail is saved, the capacity of the external memory 211 or the like is compressed. Therefore, the trail is taken only when touched by the teller.

ステップS1109では、情報処理装置101のCPU201は、投影画像が顧客の方を向いているのか、テラーの方を向いているのかを判定する。たとえば、テラーから選択された文書データまたは画像データが、顧客の方を向いて投影される場合、回転ボタン1008が押下されていれば、投影画像がテラーの方を向いていることがわかる。一方、回転ボタン1008が押下されていなければ、投影画像が顧客の方を向いていることがわかる。投影画像が顧客の方を向いていると判定された場合、ステップS1110へ処理を進める。投影画像が顧客の方を向いていると判定されなかった場合は、タッチ判定処理を終了させる。たとえば図15は、投影画像が顧客ではなく、テラーの方を向いている。この状態でテラーが説明を行ったとしても、顧客は投影画像を読むことができないため、正常に説明したとは言えない。そのため、この場合は証跡の保存は行わずに、タッチ判定処理を終了させる。このように、説明証跡領域の場合には、テラーが説明証跡領域をタッチしており、かつ投影画像が顧客の方に向いている場合に、証跡が保存される。テラーが正しい方法で説明していないと、証跡が残らないので、説明したか否かを示す証拠となりうる。   In step S <b> 1109, the CPU 201 of the information processing apparatus 101 determines whether the projected image is facing the customer or the teller. For example, when document data or image data selected from the teller is projected toward the customer, if the rotation button 1008 is pressed, it can be seen that the projected image faces the teller. On the other hand, if the rotation button 1008 is not pressed, it can be seen that the projected image faces the customer. If it is determined that the projected image is facing the customer, the process proceeds to step S1110. If it is not determined that the projected image is facing the customer, the touch determination process is terminated. For example, in FIG. 15, the projected image is directed to the teller, not the customer. Even if the teller explained in this state, it cannot be said that the customer explained normally because the customer cannot read the projected image. Therefore, in this case, the touch determination process is terminated without saving the trail. Thus, in the case of the explanation trail area, the trail is saved when the teller touches the explanation trail area and the projection image faces the customer. If the teller does not explain it in the correct way, there will be no trail, which can be evidence of whether or not it has been explained.

ステップS1110では、情報処理装置101のCPU201は、カメラ102にデジタルな撮像音の無い撮像指示を行う(撮像指示送信手段・撮像音制御手段)。本実施例では撮像音を無くすということは、撮像音の出力を無くすこととしているが、聞こえないような音量の撮像音であっても構わない。また、カメラに対して撮像音のない撮像を指示しているが、カメラが撮像音を出す(撮像音出力手段)必要はなく情報処理装置101につながるスピーカのようなものが撮像音を出していてもよい。   In step S1110, the CPU 201 of the information processing apparatus 101 issues an imaging instruction without digital imaging sound to the camera 102 (imaging instruction transmission unit / imaging sound control unit). In this embodiment, the elimination of the imaging sound means that the output of the imaging sound is eliminated, but the imaging sound may be of a volume that cannot be heard. In addition, the camera is instructed to perform imaging without imaging sound, but the camera does not need to output imaging sound (imaging sound output means), and a speaker connected to the information processing apparatus 101 outputs imaging sound. May be.

ステップS1111では、カメラ102は、情報処理装置101から送信された撮像音の無い撮像指示を受信する。   In step S <b> 1111, the camera 102 receives an imaging instruction without imaging sound transmitted from the information processing apparatus 101.

ステップS1112では、カメラ102は、受信した撮像指示に従って、撮像音を出さない撮像を行う。ここでいう撮像音はデジタルな撮像音である。撮像音を出さないというのは、撮像音を出す撮像と撮像音を出さない撮像を切り替える場合や、撮像音自体の音量を少なくする場合がある。撮像音を出さない方法は上記に限定されない。デジタルな撮像音を出さないことで、顧客がいかにも証跡を取られているということを認識することを避けることができる。   In step S <b> 1112, the camera 102 performs imaging that does not emit imaging sound in accordance with the received imaging instruction. The image pickup sound here is a digital image pickup sound. The imaging sound is not emitted when switching between imaging that produces imaging sound and imaging that does not produce imaging sound, or the volume of the imaging sound itself may be reduced. The method of not producing the imaging sound is not limited to the above. By not producing digital imaging sound, it is possible to avoid recognizing that the customer is taking a trail.

ステップS1113では、カメラ102は、情報処理装置に対し、撮像した画像データを送信する。   In step S1113, the camera 102 transmits captured image data to the information processing apparatus.

ステップS1114では、情報処理装置101のCPU201は、カメラから送信された画像データを受信する。   In step S1114, the CPU 201 of the information processing apparatus 101 receives image data transmitted from the camera.

ステップS1115では、情報処理装置101のCPU201は、受信した画像データを、証跡ID、撮像された年月日(日時)、顧客IDやテラーID、領域ID、画像データをひとまとめにして証跡として顧客ごとに保存する。証跡として保存する例として図19の証跡保存テーブル1900がある。証跡ID欄1901では、証跡を一意に決めるためのID番号を格納する。年月日欄1902では、証跡を保存するために撮像がなされた年月日と時間を格納する。撮像されたユーザ欄1903では、ステップS1105で特定された、撮像されたユーザがテラーなのか顧客なのかという情報を格納する。撮像された顧客/テラーID欄1904では、ステップS503で入力されたテラーや顧客のIDを格納する。画像データ欄1905では、撮像した画像データを保存したフォルダの場所を示す情報を格納する。また、画像の保存形式については本実施例ではTIFF形式を採っているが、ほかの形式でも構わない。このようにテーブル形式で顧客ごとに管理することで証跡の検索もしやすく、顧客と紛争になった際の有用なリソースとなりうるものとなる。投影文書に指を指している画像データが残るため、証跡として担保することが可能なデータを蓄積することが可能になる。   In step S1115, the CPU 201 of the information processing apparatus 101 converts the received image data into a trail ID, a captured date (date and time), a customer ID, a teller ID, a region ID, and image data as a trail for each customer. Save to. As an example of saving as a trail, there is a trail saving table 1900 of FIG. The trail ID column 1901 stores an ID number for uniquely determining a trail. The year / month / day column 1902 stores the date and time when the image was taken to save the trail. The imaged user field 1903 stores information that is specified in step S1105, whether the imaged user is a teller or a customer. In the captured customer / teller ID column 1904, the ID of the teller or customer input in step S503 is stored. The image data column 1905 stores information indicating the folder location where the captured image data is stored. In this embodiment, the TIFF format is adopted as the image storage format, but other formats may be used. By managing each customer in the table format in this way, it is easy to search for trails, and it can be a useful resource in the event of a dispute with the customer. Since image data indicating a finger remains in the projected document, it is possible to accumulate data that can be secured as a trail.

次に、紙文書取り込み処理について図20を用いて説明を行う。   Next, the paper document capturing process will be described with reference to FIG.

ステップS2001では、情報処理装置101のCPU201は、赤外線センサ103から送られる赤外線情報を受信する。   In step S2001, the CPU 201 of the information processing apparatus 101 receives infrared information sent from the infrared sensor 103.

ステップS2002では、情報処理装置101のCPU201は、ステップS2001で受信した赤外線情報を解析し、紙文書の動きを解析する。   In step S2002, the CPU 201 of the information processing apparatus 101 analyzes the infrared information received in step S2001, and analyzes the movement of the paper document.

ステップS2003では、情報処理装置101のCPU201は、ステップS2002で解析した紙文書が撮像可能になったかを判定する。たとえばある一定の時間紙文書が動いていないと判定されたときに、撮像可能と判定する。撮像可能と判定された場合、ステップS2004の処理へと移行する。なお、撮像可能の判定は、ユーザからの撮像の指示を受け付けてもよい。   In step S2003, the CPU 201 of the information processing apparatus 101 determines whether the paper document analyzed in step S2002 can be imaged. For example, when it is determined that the paper document has not moved for a certain period of time, it is determined that imaging is possible. If it is determined that imaging is possible, the process proceeds to step S2004. Note that the determination that imaging is possible may be an imaging instruction from the user.

ステップS2004では、情報処理装置101のCPU201は、ステップS2003で紙文書が置かれて動きがある一定の時間なくなったと判定された時の、投影面106上に投影されている投影画像の位置や、状態を保存しておく処理を行う。たとえば図21で表示されている表示メニュー2003などがあり、これらの状態を保存しておく。保存処理が終わったらステップS2005へと処理を移す。   In step S2004, the CPU 201 of the information processing apparatus 101 determines the position of the projection image projected on the projection surface 106 when it is determined in step S2003 that the paper document is placed and the movement has stopped for a certain period of time, Process to save the state. For example, there is a display menu 2003 displayed in FIG. 21, and these states are stored. When the storage process ends, the process moves to step S2005.

ステップS2005では、情報処理装置101のCPU201は、プロジェクタ104に対して投影しているものを消すよう、指示を行う。現在、投影面106上に投影しているものを投影しないように制御できればよい。これは、後述する処理で紙文書を取り込む際に、投影したものが写り込まないようにするためである。よって、置かれた紙文書の上に投影がされなければよく、それ以外の領域は何かしらの情報が投影されていてもよい。たとえば図21の表示メニュー2003の上に紙文書が置かれた場合、すべての投影を消してもよいし、紙文書と表示メニュー2003が重なる部分の投影だけ消してもよい。   In step S2005, the CPU 201 of the information processing apparatus 101 instructs the projector 104 to erase what is being projected. It is only necessary to be able to control so that what is currently projected on the projection surface 106 is not projected. This is to prevent the projected image from being captured when a paper document is captured in the process described later. Therefore, it is sufficient that projection is not performed on the placed paper document, and some information may be projected in other areas. For example, when a paper document is placed on the display menu 2003 in FIG. 21, all projections may be erased, or only a projection of a portion where the paper document and the display menu 2003 overlap may be erased.

ステップS2006では、プロジェクタ104は、情報処理装置101から指示された投影非表示指示を受信する。   In step S2006, the projector 104 receives a projection non-display instruction instructed from the information processing apparatus 101.

ステップS2007では、プロジェクタ104は、受信した投影非表示指示に従って、現在投影されているものを消す。   In step S2007, the projector 104 erases what is currently projected according to the received projection non-display instruction.

ステップS2008では、情報処理装置101のCPU201は、デジタルな撮像音を伴う撮像の指示をカメラ102に対して行う(撮像音出力手段)。デジタルな撮像音を伴う撮像の指示は、元々音を出さないカメラに撮像音を出力させる指示でもよい。   In step S2008, the CPU 201 of the information processing apparatus 101 instructs the camera 102 to perform imaging with a digital imaging sound (imaging sound output unit). The instruction for imaging with digital imaging sound may be an instruction for outputting imaging sound to a camera that originally does not emit sound.

ステップS2009ではカメラ102は、情報処理装置101から送信された撮像音を伴う撮像の指示を受信する。   In step S2009, the camera 102 receives an imaging instruction with imaging sound transmitted from the information processing apparatus 101.

ステップS2010では、カメラ102は、受信した指示によりデジタルな撮像音を伴う撮像を行う。撮像音を伴う撮像を行うことで、顧客の住民票や戸籍謄本などの書類を画像データとして取り込んでいることを明確に認識させることができる。   In step S2010, the camera 102 performs imaging with digital imaging sound according to the received instruction. By performing imaging with imaging sound, it is possible to clearly recognize that documents such as a customer's resident's card and family register copy are taken in as image data.

ステップS2011では、カメラ102は、撮像によって得られた画像データを情報処理装置101へ送信する。   In step S <b> 2011, the camera 102 transmits image data obtained by imaging to the information processing apparatus 101.

ステップS2012では、情報処理装置101のCPU201は、カメラ102から送信された画像データを受信する。   In step S2012, the CPU 201 of the information processing apparatus 101 receives the image data transmitted from the camera 102.

ステップS2013では、情報処理装置101のCPU201は、受信した画像データを、紙文書の取り込みデータとして保存する。   In step S2013, the CPU 201 of the information processing apparatus 101 stores the received image data as paper document capture data.

ステップS2014では、情報処理装置101のCPU201は、ステップS2004で保存した状態を読み出し、投影を終了する前の状態に戻すため、読み出した投影状態をプロジェクタ104に投影させ、投影を再開させる。   In step S2014, the CPU 201 of the information processing apparatus 101 reads out the state saved in step S2004 and returns the projection state to the projector 104 to resume the projection, and resumes the projection.

ステップS2015では、プロジェクタ104は、情報処理装置101からの投影表示指示を受信する。   In step S2015, the projector 104 receives a projection display instruction from the information processing apparatus 101.

ステップS2016では、プロジェクタ104に、受信した投影表示指示に基づいて、ステップS2004で保存した状態を投影する。   In step S2016, the state saved in step S2004 is projected on the projector 104 based on the received projection display instruction.

以上説明したように、本実施形態によれば、証跡を取る際に撮像装置の撮像音を制御することが可能となる効果を奏する。   As described above, according to the present embodiment, it is possible to control the imaging sound of the imaging device when taking a trail.

次に本願発明の第2の実施例を説明する。第1の実施例では、タッチされた領域の属性が同意証跡であった場合には、タッチされた手が顧客かテラーかの判定と、投影文書の向きの判定をせずに撮像指示を行っていた。第2の実施例では、同意証跡の場合でも上記の判定をすることにより、顧客が同意証跡の領域に確かにサインをしたという証跡を残すことを可能にする。これにより、例えばテラーが顧客に対してサインの説明を行う際などの無駄な証跡を残さずに適切な証跡のみを残すことを可能にする。   Next, a second embodiment of the present invention will be described. In the first embodiment, when the attribute of the touched area is a consent trail, an imaging instruction is performed without determining whether the touched hand is a customer or a teller and determining the orientation of the projected document. It was. In the second embodiment, even in the case of the consent trail, the above determination is made, so that it is possible to leave a trail that the customer has surely signed in the area of the consent trail. This makes it possible to leave only an appropriate trail without leaving a useless trail such as when a teller explains a sign to a customer.

第2の実施例では、システム構成、ハードウェア構成、機能構成、画面例、テーブルは第1の実施例と同じであり、図9が図24、図11が図25にそれぞれ変形したものである。   In the second embodiment, the system configuration, hardware configuration, functional configuration, screen example, and table are the same as those in the first embodiment, and FIG. 9 is modified to FIG. 24 and FIG. 11 is modified to FIG. .

第2の実施例の投影処理を図24のフローチャートで説明する。   The projection process of the second embodiment will be described with reference to the flowchart of FIG.

ステップS2401では、情報処理装置101のCPU201は、ステップS504でテラーから投影の指示のあった文書データまたは画像データ(投影文書)(ここでは、例えばPDFデータ)を取得し、RAM203に記憶する。投影テーブル2300の投影文書2301にステップS504で選択を受け付けた投影文書のファイル名を格納する。図23に示す投影テーブル2300には投影文書2301と回転フラグ2302とが格納されている。投影文書2301はステップS504で選択を受け付けた投影文書のファイル名を格納する。回転フラグ2302は、投影文書の向きを示すフラグであり、回転フラグ2302が「0」の時は投影文書は顧客向きとし、「1」の時(フラグが立っている時)はテラー向きとして投影文書を投影するという指示を示している。ステップS2401でPDFデータを取得したあと、ステップS2402へと処理を進める。   In step S2401, the CPU 201 of the information processing apparatus 101 acquires document data or image data (projection document) (in this case, for example, PDF data) that is instructed to be projected from the teller in step S504, and stores it in the RAM 203. The file name of the projection document whose selection is accepted in step S504 is stored in the projection document 2301 of the projection table 2300. In the projection table 2300 shown in FIG. 23, a projection document 2301 and a rotation flag 2302 are stored. The projection document 2301 stores the file name of the projection document that has been selected in step S504. The rotation flag 2302 is a flag indicating the orientation of the projected document. When the rotation flag 2302 is “0”, the projection document is directed to the customer. When the rotation flag 2302 is “1” (when the flag is set), the projection is projected as the teller orientation. An instruction to project a document is shown. After obtaining the PDF data in step S2401, the process proceeds to step S2402.

ステップS2402では、情報処理装置101のCPU201は、投影テーブル2300の回転フラグ2302が「1」か否か(立っているか否か)を判定する。回転フラグ2302が「1」と判定された場合は投影文書を回転させるべく処理をステップS2303に進める。回転フラグ2302が「1」でないと判定された場合は処理をステップS2304に進める。   In step S2402, the CPU 201 of the information processing apparatus 101 determines whether the rotation flag 2302 of the projection table 2300 is “1” (whether it is standing). If it is determined that the rotation flag 2302 is “1”, the process advances to step S2303 to rotate the projection document. If it is determined that the rotation flag 2302 is not “1”, the process proceeds to step S2304.

ステップS2403では、情報処理装置101のCPU201は、RAM203に記憶した投影文書2301の向きを180度回転させる処理を行う。これにより、テラーの向きだった投影文書が顧客の向きになり、顧客の向きだった投影文書がテラーの向きになる。   In step S2403, the CPU 201 of the information processing apparatus 101 performs a process of rotating the orientation of the projection document 2301 stored in the RAM 203 by 180 degrees. As a result, the projection document that was the orientation of the teller becomes the customer's orientation, and the projection document that was the customer's orientation becomes the teller's orientation.

ステップS2404では、情報処理装置101のCPU201は、RAM203に記憶したPDFデータ(電子データ)の投影指示をプロジェクタ104に対して行う。   In step S2404, the CPU 201 of the information processing apparatus 101 instructs the projector 104 to project PDF data (electronic data) stored in the RAM 203.

ステップS2405では、プロジェクタ104は、情報処理装置101から投影指示を受け取る。   In step S <b> 2405, the projector 104 receives a projection instruction from the information processing apparatus 101.

ステップS2406では、プロジェクタ104は、ステップS2403で受け取った指示により、投影を指示されたPDFデータを投影面106に投影する。本処理の一連の流れにより投影された結果の投影面106の例が、図10である。図10の詳細な説明については、前述した通りである。以上で投影処理の説明を終わる。   In step S2406, the projector 104 projects the PDF data instructed to be projected onto the projection plane 106 according to the instruction received in step S2403. FIG. 10 shows an example of the projection surface 106 obtained as a result of projection according to a series of this process. The detailed description of FIG. 10 is as described above. This is the end of the description of the projection process.

次に、ステップS510におけるタッチ判定処理について、本願発明の第2の実施例を図26により説明する。   Next, the touch determination process in step S510 will be described with reference to FIG.

ステップS2501では、情報処理装置101のCPU201は、投影面106に投影されている投影画像の基となる投影文書の特定を行う。投影文書は、前述したステップS504で選択された文書データまたは画像データであるので、これに基づいて特定する。ここでは、投影画像のファイル名や保存場所、更には投影している投影元文書のページ番号を特定する。特定を行ったら、ステップS2502へと処理を移行する。   In step S <b> 2501, the CPU 201 of the information processing apparatus 101 specifies a projection document that is a basis of the projection image projected on the projection plane 106. Since the projected document is the document data or image data selected in step S504 described above, the projection document is specified based on this. Here, the file name and storage location of the projection image, and the page number of the projection source document being projected are specified. If specified, the process proceeds to step S2502.

ステップS2502では、情報処理装置101のCPU201は、ステップS2501で特定された投影画像に対応する撮像領域情報を取得する。撮像領域情報とは、投影画像に含まれる所定の領域ごとに存在する情報であり、図12に示す撮像領域情報テーブル1200に記憶された各レコードを指す。より具体的には、領域ID1201、名称1202、保存場所1203、page1204、撮像位置領域1205、属性1206のことを指す。   In step S2502, the CPU 201 of the information processing apparatus 101 acquires imaging area information corresponding to the projection image specified in step S2501. The imaging area information is information existing for each predetermined area included in the projection image, and indicates each record stored in the imaging area information table 1200 shown in FIG. More specifically, the area ID 1201, name 1202, storage location 1203, page 1204, imaging position area 1205, and attribute 1206 are indicated.

撮像領域情報テーブル1200の詳細な説明については、前述した通りである。   The detailed description of the imaging area information table 1200 is as described above.

たとえば、図10の申込書1003の撮像領域情報を取得する場合には、ステップS2501で申込書1003のファイル名や保存場所や投影しているページ番号を特定する。特定されたこれらの情報と、保存場所1203とに基づいて、必要なレコードを特定し、これを取得する。申込書1003のファイル名が「A.pdf」、保存場所が「D:¥document¥data¥」、投影しているページ番号が「2」である場合には、図12に示す領域ID1201が「1」〜「4」に該当する。よって、この4つのレコードを撮像領域情報として取得する。   For example, when acquiring the imaging area information of the application form 1003 in FIG. 10, the file name, storage location, and projected page number of the application form 1003 are specified in step S2501. Based on the identified information and the storage location 1203, a necessary record is identified and acquired. When the file name of the application form 1003 is “A.pdf”, the storage location is “D: \ document \ data \”, and the projected page number is “2”, the area ID 1201 shown in FIG. It corresponds to “1” to “4”. Therefore, these four records are acquired as imaging area information.

ステップS2503では、情報処理装置101のCPU201は、ステップS506で受信した赤外線情報に基づいて、投影面106上におけるユーザの手の位置を解析する。ユーザの手の位置の解析の方法は従来の技術を用いるものとし、赤外線センサ103が赤外線のはね返りを検知することができなかった形状を解析する。形状の解析により、ユーザの指がどの部分を指しているかを特定することが可能になる。   In step S2503, the CPU 201 of the information processing apparatus 101 analyzes the position of the user's hand on the projection plane 106 based on the infrared information received in step S506. The method for analyzing the position of the user's hand is to use a conventional technique, and the infrared sensor 103 analyzes a shape in which infrared bounce cannot be detected. By analyzing the shape, it is possible to specify which part the user's finger is pointing to.

ステップS2504では、情報処理装置101のCPU201は、ステップS2503で解析したユーザの手の位置などを基に、解析した手が誰の手なのかを特定する(ユーザ特定手段)。より具体的には、手の進入方向や手の向きなどから特定する。たとえば図10では、回転ボタン1008がある方向から手が入ってきた場合はテラーの手であると特定し、そうでない場合は顧客の手であると特定する。誰の手なのかを特定する方法はこれに限らない。ユーザの手にユーザを識別できる情報を付与しておき、これをカメラ102で撮像し、撮像された画像データを解析して特定してもよい。   In step S2504, the CPU 201 of the information processing apparatus 101 specifies who is the analyzed hand based on the position of the user's hand analyzed in step S2503 (user specifying unit). More specifically, it is specified from the approach direction of the hand and the direction of the hand. For example, in FIG. 10, when the rotation button 1008 comes in from a certain direction, it is specified as a teller's hand, and otherwise, it is specified as a customer's hand. The method of identifying who is the hand is not limited to this. Information that can identify the user may be given to the user's hand, and this may be captured by the camera 102 and analyzed to identify the captured image data.

ステップS2505では、情報処理装置101のCPU201は、ステップS2502で取得した撮像領域情報に含まれる撮像位置領域1205が示す領域にユーザの手がタッチされたかどうかを判定する(第1の判定手段)。ユーザの手が撮像位置領域1205にタッチされたと判定されれば、ステップS2506へ処理を移行する。ユーザの手が撮像位置領域1205にタッチされたと判定されなければ、ステップS2515に処理を進める。図13は、テラーが撮像位置領域1205である概要説明部分1004にタッチしている例の図である。テラーの手1301が概要説明部分1004の上をタッチしていれば、テラーが概要説明部分1004の説明を行っているということである。つまり、顧客に対して概要説明部分1004の説明を行ったということの証明のために、証跡を取る必要がある。そのため、ステップS2505では、このように撮像位置領域1205を示す領域がタッチされていれば、ステップS2506に処理を進める。撮像位置領域1205を示す領域がタッチされていないと判定されれば、回転ボタンの押下を判定すべくステップS2515に処理を進める。   In step S2505, the CPU 201 of the information processing apparatus 101 determines whether or not the user's hand has touched the area indicated by the imaging position area 1205 included in the imaging area information acquired in step S2502 (first determination unit). If it is determined that the user's hand has touched the imaging position area 1205, the process proceeds to step S2506. If it is not determined that the user's hand has touched the imaging position area 1205, the process proceeds to step S2515. FIG. 13 is a diagram of an example in which the teller is touching the outline explanation portion 1004 that is the imaging position area 1205. If the teller's hand 1301 touches the outline explanation portion 1004, it means that the teller is explaining the outline explanation portion 1004. In other words, it is necessary to take a trail to prove that the summary explanation portion 1004 has been explained to the customer. Therefore, in step S2505, if the area indicating the imaging position area 1205 is touched in this way, the process proceeds to step S2506. If it is determined that the area indicating the imaging position area 1205 is not touched, the process proceeds to step S2515 to determine whether the rotation button has been pressed.

ステップS2506では、情報処理装置101のCPU201は、タッチされた撮像位置領域1205を示す領域の属性が、テラーから顧客に対する説明義務のある領域(以下、説明証跡領域)であるのか、顧客が契約等に同意の意思を示すための領域(以下、同意証跡領域)であるのかを判定する(第2の判定手段)。タッチされた撮像位置領域1205に対応する、ステップS2502で取得した撮像領域情報の中の属性1206によって、タッチされた撮像位置領域1205の証跡の属性を特定し、特定した属性に応じて判定すればよい。撮像位置領域1205を示す領域が説明証跡領域であると判定した場合には、ステップS2507に処理を進める。撮像位置領域1205を示す領域が同意証跡領域であると判定した場合には、ステップS2517に処理を進める。このようにタッチされた部分の領域の属性を判定することにより、タッチされた領域が示す属性に応じて撮像の条件を変更することが可能となる。   In step S2506, the CPU 201 of the information processing apparatus 101 determines whether the attribute of the area indicating the touched imaging position area 1205 is an area obligated to explain to the customer from the teller (hereinafter referred to as an explanation trail area) It is determined whether it is an area for indicating the intention of consent (hereinafter referred to as consent trail area) (second determination means). If an attribute 1206 in the imaging area information acquired in step S2502 corresponding to the touched imaging position area 1205 is specified, the trail attribute of the touched imaging position area 1205 is specified, and determination is made according to the specified attribute. Good. If it is determined that the area indicating the imaging position area 1205 is an explanation trail area, the process proceeds to step S2507. If it is determined that the area indicating the imaging position area 1205 is the consent trail area, the process proceeds to step S2517. By determining the attribute of the touched area as described above, it is possible to change the imaging condition according to the attribute indicated by the touched area.

たとえば図13の概要説明部分1004の領域ID1201「1」に対応する属性1206は「説明」となっているので、概要説明部分1004が説明証跡領域であると特定する。よって、ステップS2507へ処理を進める。   For example, since the attribute 1206 corresponding to the area ID 1201 “1” of the outline explanation portion 1004 in FIG. 13 is “description”, the outline explanation portion 1004 is specified as the explanation trail area. Therefore, the process proceeds to step S2507.

一方、たとえば図16は、顧客1002が署名欄1007に顧客の手1602でサインを行っている図である。投影システム100では、署名欄1007のような所定の領域を指でタッチしたまま移動させると、その軌跡を描画することができるようになっている。赤外線センサ103から送信された赤外線情報に基づいて、情報処理装置101のCPU201が、ユーザの指が署名欄1007のような所定の領域をタッチしていると判定すると、当該タッチが継続されている間、そのタッチの軌跡を線要素で表現する。このような仕組みを用いることで、投影面106に対してタッチすることにより、サインを行うことができるようになる。   On the other hand, for example, FIG. 16 is a diagram in which the customer 1002 signs the signature field 1007 with the customer's hand 1602. In the projection system 100, when a predetermined area such as the signature field 1007 is moved while being touched with a finger, the locus can be drawn. If the CPU 201 of the information processing apparatus 101 determines that the user's finger is touching a predetermined area such as the signature field 1007 based on the infrared information transmitted from the infrared sensor 103, the touch is continued. Meanwhile, the trajectory of the touch is expressed by a line element. By using such a mechanism, a sign can be performed by touching the projection surface 106.

第1の実施例では、署名欄1007にタッチがなされると、顧客の手であるか、テラーの手であるかを判定するステップと、投影画像の向きを判定するステップは行わずに、即時、ステップS1109へ移行する。図26に示す第2の実施例では、即時ステップS2509に移行せず、投影文書の向きと顧客の手であるか否かを判定する。これにより、顧客だけの証跡を残すことが可能になるので外部メモリ211などの記憶容量の節約になる。また、テラーが顧客に対してサインの方法を説明する際などに無駄な証跡を残すことがなくなるという効果もある。   In the first embodiment, when the signature field 1007 is touched, the step of determining whether it is the customer's hand or the hand of the teller and the step of determining the direction of the projected image are performed immediately without performing the steps. The process proceeds to step S1109. In the second embodiment shown in FIG. 26, the process does not proceed to the immediate step S2509, but determines whether the direction of the projected document is the customer's hand. As a result, it is possible to leave a trail only for the customer, so that the storage capacity of the external memory 211 and the like can be saved. In addition, there is an effect that a teller does not leave a useless trail when explaining a signing method to a customer.

ステップS2507〜2608、ステップS2517〜2618の判定は、図22に示す条件テーブル2200に基づいて判定を行う。条件テーブル2200には領域の属性2201、回転フラグ2202、特定した手2203、処理内容2204が格納されている。領域の属性2201はステップS2506で判定された領域の属性を示している。回転フラグ2202は、投影テーブル2300の回転フラグ2302のフラグを示している。特定した手2203はステップS2504で特定したテラーの手か顧客の手かを模式的に示している。処理内容2204は撮像をするか否かの処理の内容が記載されている。例えば、領域の属性2201が説明証跡領域であって、回転フラグ2202が0であって、特定した手2203がテラーであれば、処理内容2204は撮像する。   The determinations in steps S2507 to 2608 and steps S2517 to 2618 are performed based on the condition table 2200 shown in FIG. The condition table 2200 stores an area attribute 2201, a rotation flag 2202, a specified hand 2203, and processing content 2204. An area attribute 2201 indicates the attribute of the area determined in step S2506. A rotation flag 2202 indicates the flag of the rotation flag 2302 of the projection table 2300. The identified hand 2203 schematically shows whether it is the teller's hand or the customer's hand identified in step S2504. The processing content 2204 describes the content of processing for determining whether or not to take an image. For example, if the region attribute 2201 is an explanation trail region, the rotation flag 2202 is 0, and the identified hand 2203 is a teller, the processing content 2204 is imaged.

ステップS2507では、情報処理装置101のCPU201は、投影画像が顧客の方を向いているのか、テラーの方を向いているのかを判定する。たとえば、回転ボタン1008が押下され、ステップS2516で投影テーブル2300の回転フラグ2302にフラグが立っていれば、投影画像がテラーの方を向いていることがわかる。一方、回転フラグ2202にフラグが立っていなければ、投影画像が顧客の方を向いていることがわかる。回転フラグ2202にフラグが立っていると判定された場合、ステップS2508へ処理を進める。回転フラグ2202にフラグが立っていないと判定された場合は、投影文書はテラー向きであるのでタッチ判定処理を終了させる。たとえば図15は、投影画像が顧客ではなく、テラーの方を向いている。この状態でテラーが説明を行ったとしても、顧客は投影画像を読むことができないため、正常に説明したとは言えない。そのため、この場合は証跡の保存は行わずに、タッチ判定処理を終了させる。   In step S2507, the CPU 201 of the information processing apparatus 101 determines whether the projected image is facing the customer or the teller. For example, if the rotation button 1008 is pressed and the rotation flag 2302 of the projection table 2300 is set in step S2516, it can be understood that the projection image faces the teller. On the other hand, if the rotation flag 2202 is not flagged, it can be seen that the projected image faces the customer. If it is determined that the flag is set in the rotation flag 2202, the process proceeds to step S2508. If it is determined that the rotation flag 2202 is not flagged, the touch determination process is terminated because the projected document is in the teller orientation. For example, in FIG. 15, the projected image is directed to the teller, not the customer. Even if the teller explained in this state, it cannot be said that the customer explained normally because the customer cannot read the projected image. Therefore, in this case, the touch determination process is terminated without saving the trail.

ステップS2508では、情報処理装置101のCPU201は、タッチされた手がテラーの手であるかどうかを判定する。ステップS2504で特定された手の人物がテラーであればステップS2509へ処理を進める。ステップS2504で特定された手の人物がテラーでなければタッチ判定処理を終了させる。たとえば、図14は、テラー1001が説明する説明証跡領域である概要説明部分1004を顧客1002がタッチしている図である。この場合には、テラー1001によるタッチではないので証跡の保存は行わずにタッチ判定処理を終了させる。説明証跡領域は、テラーが顧客に説明したということが担保できればよい。顧客が説明証跡領域をタッチした場合も証跡を保存するようにしてしまうと、外部メモリ211などの容量を圧迫してしまう。そのため、テラーからタッチされた場合のみ、証跡を取るようにしている。このように、説明証跡領域の場合には、テラーが説明証跡領域をタッチしており、かつ投影画像が顧客の方に向いている場合に、証跡が保存される。テラーが正しい方法で説明していないと、証跡が残らないので、説明したか否かを示す証拠となる。   In step S2508, the CPU 201 of the information processing apparatus 101 determines whether the touched hand is a teller's hand. If the person in the hand identified in step S2504 is a teller, the process proceeds to step S2509. If the person identified in step S2504 is not a teller, the touch determination process is terminated. For example, FIG. 14 is a diagram in which a customer 1002 touches a summary explanation portion 1004 that is an explanation trail area explained by the teller 1001. In this case, since it is not a touch by the teller 1001, the touch determination process is terminated without saving the trail. The explanation trail area only needs to guarantee that the teller explained to the customer. Even when the customer touches the explanation trail area, if the trail is saved, the capacity of the external memory 211 or the like is compressed. Therefore, the trail is taken only when touched by the teller. Thus, in the case of the explanation trail area, the trail is saved when the teller touches the explanation trail area and the projection image faces the customer. If the teller does not explain in the correct way, there will be no trail, which is evidence that it has been explained.

ステップS2509では、情報処理装置101のCPU201は、カメラ102にデジタルな撮像音の無い撮像指示を行う(撮像指示手段・撮像音出力手段)。本実施例では撮像音を無くすとしているが、聞こえないような音量の撮像音であっても構わない。また、カメラに対して撮像音のない撮像を指示しているが、カメラが撮像音を出す必要はなく情報処理装置101につながるスピーカのようなものが撮像音を出してもよい。   In step S <b> 2509, the CPU 201 of the information processing apparatus 101 issues an imaging instruction without digital imaging sound to the camera 102 (imaging instruction unit / imaging sound output unit). In this embodiment, the image pickup sound is eliminated, but the image pickup sound may be of a volume that cannot be heard. In addition, although the camera is instructed to perform imaging without imaging sound, the camera does not have to output imaging sound, and a speaker connected to the information processing apparatus 101 may output imaging sound.

ステップS2510では、カメラ102は、情報処理装置101から送信された撮像音の無い撮像指示を受信する。   In step S <b> 2510, the camera 102 receives an imaging instruction without imaging sound transmitted from the information processing apparatus 101.

ステップS2511では、カメラ102は、受信した撮像指示に従って、撮像音を出さない撮像を行う。ここでいう撮像音はデジタルな撮像音である。撮像音を出さないというのは、撮像音を出す撮像と撮像音を出さない撮像を切り替える場合や、撮像音自体の音量を少なくする場合がある。撮像音を出さない方法は上記に限定されない。デジタルな撮像音を出さないことで、顧客がいかにも証跡を取られているということを認識することを避けることができる。   In step S <b> 2511, the camera 102 performs imaging without producing an imaging sound in accordance with the received imaging instruction. The image pickup sound here is a digital image pickup sound. The imaging sound is not emitted when switching between imaging that produces imaging sound and imaging that does not produce imaging sound, or the volume of the imaging sound itself may be reduced. The method of not producing the imaging sound is not limited to the above. By not producing digital imaging sound, it is possible to avoid recognizing that the customer is taking a trail.

ステップS2512では、カメラ102は、情報処理装置に対し、撮像した画像データを送信する。   In step S2512, the camera 102 transmits captured image data to the information processing apparatus.

ステップS2513では、情報処理装置101のCPU201は、カメラから送信された画像データを受信する。   In step S2513, the CPU 201 of the information processing apparatus 101 receives image data transmitted from the camera.

ステップS2514では、情報処理装置101のCPU201は、受信した画像データを、証跡ID、撮像された年月日、顧客IDやテラーID、領域ID、画像データをひとまとめにして証跡として顧客ごとに保存する(画像データ保存手段)。証跡として保存する例として図19の証跡保存テーブル1900がある。証跡保存テーブル1900の詳細な説明については、前述した通りである。このようにテーブル形式で顧客ごとに管理することで証跡の検索もしやすく、顧客と紛争になった際の有用なリソースとなりうるものとなる。実際に投影文書に指を指している画像データが残るため、証跡として担保することが可能なデータを蓄積することが可能になる。   In step S2514, the CPU 201 of the information processing apparatus 101 stores the received image data for each customer as a trail by collecting the trail ID, the imaged date, the customer ID, the teller ID, the region ID, and the image data. (Image data storage means). As an example of saving as a trail, there is a trail saving table 1900 of FIG. The detailed description of the trail storage table 1900 is as described above. By managing each customer in the table format in this way, it is easy to search for trails, and it can be a useful resource in the event of a dispute with the customer. Since the image data actually pointing the finger remains in the projected document, it is possible to accumulate data that can be secured as a trail.

ステップS2515では、情報処理装置101のCPU201は、投影面106上に配置された回転ボタン1008がタッチされたか否かを判定する。回転ボタン1008のタッチを受け付けることにより、ユーザからの投影文書の回転指示があったことと判断することができる。回転ボタン1008がタッチされたと判定した場合処理をステップS2516に進め、回転ボタン1008がタッチされないと判定した場合、処理を終了させる。   In step S2515, the CPU 201 of the information processing apparatus 101 determines whether or not the rotation button 1008 arranged on the projection plane 106 has been touched. By accepting the touch of the rotation button 1008, it can be determined that there has been an instruction to rotate the projection document from the user. If it is determined that the rotation button 1008 has been touched, the process proceeds to step S2516. If it is determined that the rotation button 1008 has not been touched, the process ends.

ステップS2516では、情報処理装置101のCPU201は、投影テーブル2300の回転フラグ2302を反転させる。例えば「0」から「1」、「1」から「0」という具合である。フラグを反転させたのち、処理をステップS2402に進める。   In step S2516, the CPU 201 of the information processing apparatus 101 inverts the rotation flag 2302 of the projection table 2300. For example, “0” to “1”, “1” to “0”, and so on. After inverting the flag, the process proceeds to step S2402.

ステップS2517では、情報処理装置101のCPU201は、投影画像が顧客の方を向いているのか、テラーの方を向いているのかを判定する。たとえば、回転ボタン1008が押下され、ステップS2516で投影テーブル2300の回転フラグ2302にフラグが立っていれば、投影画像がテラーの方を向いていることがわかる。一方、回転フラグ2202にフラグが立っていなければ、投影画像が顧客の方を向いていることがわかる。回転フラグ2202にフラグが立っていると判定された場合、ステップS2509へ処理を進める。回転フラグ2202にフラグが立っていないと判定された場合は、投影文書はテラー向きであるのでタッチ判定処理を終了させる。   In step S2517, the CPU 201 of the information processing apparatus 101 determines whether the projected image is facing the customer or the teller. For example, if the rotation button 1008 is pressed and the rotation flag 2302 of the projection table 2300 is set in step S2516, it can be understood that the projection image faces the teller. On the other hand, if the rotation flag 2202 is not flagged, it can be seen that the projected image faces the customer. If it is determined that the rotation flag 2202 is flagged, the process advances to step S2509. If it is determined that the rotation flag 2202 is not flagged, the touch determination process is terminated because the projected document is in the teller orientation.

ステップS2518では、情報処理装置101のCPU201は、タッチされた手が顧客の手であるかどうかを判定する。ステップS2504で特定された手の人物が顧客であればステップS2509へ処理を進める。ステップS2504で特定された手の人物が顧客でなければタッチ判定処理を終了させる。ステップS2517、2518の判定を行うことによって、テラーが顧客に対してサインの説明を行う際などの無駄な証跡を残さずに適切な証跡のみを残すことを可能にする。   In step S2518, the CPU 201 of the information processing apparatus 101 determines whether the touched hand is the customer's hand. If the person of the hand specified in step S2504 is a customer, the process proceeds to step S2509. If the person in the hand specified in step S2504 is not a customer, the touch determination process is terminated. By performing the determinations in steps S2517 and 2518, it is possible to leave only an appropriate trail without leaving a useless trail such as when a teller explains a sign to a customer.

以上により同意証跡の場合でも上記の判定をすることにより、顧客が同意証跡の領域に確かにサインをしたという証跡を残すことを可能にする。例えばテラーが顧客に対してサインの説明を行う際などの無駄な証跡を残さずに適切な証跡のみを残すことを可能にする。   As described above, even in the case of consent trail, by making the above determination, it is possible to leave a trail that the customer has surely signed in the area of the consent trail. For example, it is possible to leave only an appropriate trail without leaving a useless trail such as when a teller explains a sign to a customer.

次に本願発明の第3の実施例を説明する。第1の実施例では、証跡を保存する際の撮像指示と紙文書の取り込みの際の撮像指示とで、撮像音の出力を制御する仕組みを説明した。第3の実施例では、証跡を保存する際の撮像指示と紙文書の取り込みの際の撮像指示とでそれぞれ撮像音の種類を切り替える。これにより、ユーザに対して撮像の意図を通知することが可能になるという効果がある。   Next, a third embodiment of the present invention will be described. In the first embodiment, the mechanism for controlling the output of the imaging sound by the imaging instruction when saving the trail and the imaging instruction when capturing the paper document has been described. In the third embodiment, the type of imaging sound is switched between an imaging instruction for saving a trail and an imaging instruction for capturing a paper document. As a result, it is possible to notify the user of the intention of imaging.

第3の実施例では、システム構成、機能構成、画面例、テーブルは第1の実施例と同じであり、図9が図24、図11が図27、図20が図28にそれぞれ変形したものである。   In the third embodiment, the system configuration, functional configuration, screen example, and table are the same as in the first embodiment, and FIG. 9 is modified to FIG. 24, FIG. 11 is modified to FIG. 27, and FIG. It is.

第3の実施例のハードウェア構成について図26を用いて説明する。   The hardware configuration of the third embodiment will be described with reference to FIG.

図26は図2の構成に新たにサウンドコントローラ212とスピーカ213とが追加されたものであり、共通する項目の説明は省略する。   26 is a configuration in which a sound controller 212 and a speaker 213 are newly added to the configuration of FIG. 2, and description of common items is omitted.

サウンドコントローラ212は、音声信号を処理するコントローラであり、スピーカ213による音声出力を制御する。   The sound controller 212 is a controller that processes an audio signal, and controls audio output from the speaker 213.

スピーカ213は、情報処理装置101とスピーカケーブルで接続され、サウンドコントローラ212から出力される信号を音声として出力する。   The speaker 213 is connected to the information processing apparatus 101 through a speaker cable, and outputs a signal output from the sound controller 212 as sound.

次に図27を用いて第3の実施例のタッチ判定処理を説明する。   Next, the touch determination process of the third embodiment will be described with reference to FIG.

ステップS2701では、情報処理装置101のCPU201は、投影面106に投影されている投影画像の基となる投影文書の特定を行う。投影文書は、前述したステップS504で選択された文書データまたは画像データであるので、これに基づいて特定する。ここでは、投影画像のファイル名や保存場所、更には投影している投影元文書のページ番号を特定する。特定を行ったら、ステップS2702へと処理を移行する。   In step S2701, the CPU 201 of the information processing apparatus 101 specifies a projection document that is a basis of the projection image projected on the projection plane. Since the projected document is the document data or image data selected in step S504 described above, the projection document is specified based on this. Here, the file name and storage location of the projection image, and the page number of the projection source document being projected are specified. If specified, the process proceeds to step S2702.

ステップS2702では、情報処理装置101のCPU201は、ステップS2701で特定された投影画像に対応する撮像領域情報を取得する。撮像領域情報とは、投影画像に含まれる所定の領域ごとに存在する情報であり、図12に示す撮像領域情報テーブル1200に記憶された各レコードを指す。より具体的には、領域ID1201、名称1202、保存場所1203、page1204、撮像位置領域1205、属性1206のことを指す。   In step S2702, the CPU 201 of the information processing apparatus 101 acquires imaging area information corresponding to the projection image specified in step S2701. The imaging area information is information existing for each predetermined area included in the projection image, and indicates each record stored in the imaging area information table 1200 shown in FIG. More specifically, the area ID 1201, name 1202, storage location 1203, page 1204, imaging position area 1205, and attribute 1206 are indicated.

撮像領域情報テーブル1200は、情報処理装置101の外部メモリ211に記憶されたテーブルである。撮像領域情報テーブル1200の詳細な説明については、前述した通りである。   The imaging area information table 1200 is a table stored in the external memory 211 of the information processing apparatus 101. The detailed description of the imaging area information table 1200 is as described above.

たとえば、図10の申込書1003の撮像領域情報を取得する場合には、ステップS2701で申込書1003のファイル名や保存場所や投影しているページ番号を特定する。特定されたこれらの情報と、保存場所1203とに基づいて、必要なレコードを特定し、これを取得する。申込書1003のファイル名が「A.pdf」、保存場所が「D:¥document¥data¥」、投影しているページ番号が「2」である場合には、図12に示す領域ID1201が「1」〜「4」に該当する。よって、この4つのレコードを撮像領域情報として取得する。   For example, when acquiring the imaging area information of the application form 1003 in FIG. 10, the file name, storage location, and projected page number of the application form 1003 are specified in step S2701. Based on the identified information and the storage location 1203, a necessary record is identified and acquired. When the file name of the application form 1003 is “A.pdf”, the storage location is “D: \ document \ data \”, and the projected page number is “2”, the area ID 1201 shown in FIG. It corresponds to “1” to “4”. Therefore, these four records are acquired as imaging area information.

ステップS2703では、情報処理装置101のCPU201は、ステップS506で受信した赤外線情報に基づいて、投影面106上におけるユーザの手の位置を解析する。ユーザの手の位置の解析の方法は従来の技術を用いるものとし、赤外線センサ103が赤外線のはね返りを検知することができなかった形状を解析する。形状の解析により、ユーザの指がどの部分を指しているかを特定することが可能になる。   In step S2703, the CPU 201 of the information processing apparatus 101 analyzes the position of the user's hand on the projection plane 106 based on the infrared information received in step S506. The method for analyzing the position of the user's hand is to use a conventional technique, and the infrared sensor 103 analyzes a shape in which infrared bounce cannot be detected. By analyzing the shape, it is possible to specify which part the user's finger is pointing to.

ステップS2704では、情報処理装置101のCPU201は、ステップS2703で解析したユーザの手の位置などを基に、解析した手が誰の手なのかを特定する(ユーザ特定手段)。より具体的には、手の進入方向や手の向きなどから特定する。たとえば図10では、回転ボタン1008がある方向から手が入ってきた場合はテラーの手であると特定し、そうでない場合は顧客の手であると特定する。誰の手なのかを特定する方法はこれに限らない。ユーザの手にユーザを識別できる情報を付与しておき、これをカメラ102で撮像し、撮像された画像データを解析して特定してもよい。   In step S2704, the CPU 201 of the information processing apparatus 101 specifies who is the analyzed hand based on the position of the user's hand analyzed in step S2703 (user specifying unit). More specifically, it is specified from the approach direction of the hand and the direction of the hand. For example, in FIG. 10, when the rotation button 1008 comes in from a certain direction, it is specified as a teller's hand, and otherwise, it is specified as a customer's hand. The method of identifying who is the hand is not limited to this. Information that can identify the user may be given to the user's hand, and this may be captured by the camera 102 and analyzed to identify the captured image data.

ステップS2705では、情報処理装置101のCPU201は、ステップS2702で取得した撮像領域情報に含まれる撮像位置領域1205が示す領域にユーザの手がタッチされたかどうかを判定する(第1の判定手段)。ユーザの手が撮像位置領域1205にタッチされたと判定されれば、ステップS2706へ処理を移行する。ユーザの手が撮像位置領域1205にタッチされたと判定されなければ、ステップS2720に処理を進める。図13は、テラーが撮像位置領域1205である概要説明部分1004にタッチしている例の図である。テラーの手1301が概要説明部分1004の上をタッチしていれば、テラーが概要説明部分1004の説明を行っているということである。つまり、顧客に対して概要説明部分1004の説明を行ったということの証明のために、証跡を取る必要がある。そのため、ステップS2705では、このように撮像位置領域1205を示す領域がタッチされていれば、ステップS2706に処理を進める。撮像位置領域1205を示す領域がタッチされていないと判定されれば、回転ボタンの押下を判定すべくステップS2720に処理を進める。   In step S2705, the CPU 201 of the information processing apparatus 101 determines whether the user's hand has touched the area indicated by the imaging position area 1205 included in the imaging area information acquired in step S2702 (first determination unit). If it is determined that the user's hand has touched the imaging position area 1205, the process proceeds to step S2706. If it is not determined that the user's hand has touched the imaging position area 1205, the process proceeds to step S2720. FIG. 13 is a diagram of an example in which the teller is touching the outline explanation portion 1004 that is the imaging position area 1205. If the teller's hand 1301 touches the outline explanation portion 1004, it means that the teller is explaining the outline explanation portion 1004. In other words, it is necessary to take a trail to prove that the summary explanation portion 1004 has been explained to the customer. Therefore, in step S2705, if the area indicating the imaging position area 1205 is touched in this way, the process proceeds to step S2706. If it is determined that the area indicating the imaging position area 1205 is not touched, the process proceeds to step S2720 to determine whether the rotation button has been pressed.

ステップS2706では、情報処理装置101のCPU201は、タッチされた撮像位置領域1205を示す領域の属性が、テラーから顧客に対する説明義務のある領域(以下、説明証跡領域)であるのか、顧客が契約等に同意の意思を示すための領域(以下、同意証跡領域)であるのかを判定する(第2の判定手段)。タッチされた撮像位置領域1205に対応する、ステップS2702で取得した撮像領域情報の中の属性1206によって、タッチされた撮像位置領域1205の証跡の属性を特定し、特定した属性に応じて判定すればよい。撮像位置領域1205を示す領域が説明証跡領域であると判定した(説明動作)場合には、ステップS2707に処理を進める。撮像位置領域1205を示す領域が同意証跡領域であると判定した(同意動作)場合には、ステップS2711に処理を進める。このようにタッチされた部分の領域の属性を判定することにより、タッチされた領域が示す属性に応じて撮像の条件を変更することが可能となる。   In step S <b> 2706, the CPU 201 of the information processing apparatus 101 determines whether the attribute of the area indicating the touched imaging position area 1205 is an area obligated to explain to the customer from the teller (hereinafter, an explanation trail area) It is determined whether it is an area for indicating the intention of consent (hereinafter referred to as consent trail area) (second determination means). If an attribute 1206 in the imaging area information acquired in step S2702 corresponding to the touched imaging position area 1205 is specified, the trail attribute of the touched imaging position area 1205 is specified, and determination is made according to the specified attribute. Good. If it is determined that the area indicating the imaging position area 1205 is an explanatory trail area (explanatory operation), the process proceeds to step S2707. If it is determined that the area indicating the imaging position area 1205 is the consent trail area (consent operation), the process proceeds to step S2711. By determining the attribute of the touched area as described above, it is possible to change the imaging condition according to the attribute indicated by the touched area.

たとえば図13の概要説明部分1004の領域ID1201「1」に対応する属性1206は「説明」となっているので、概要説明部分1004が説明証跡領域であると特定する。よって、ステップS2707へ処理を進める。   For example, since the attribute 1206 corresponding to the area ID 1201 “1” of the outline explanation portion 1004 in FIG. 13 is “description”, the outline explanation portion 1004 is specified as the explanation trail area. Therefore, the process proceeds to step S2707.

一方、たとえば図16は、顧客1002が署名欄1007に顧客の手1602でサインを行っている図である。投影システム100では、署名欄1007のような所定の領域を指でタッチしたまま移動させると、その軌跡を描画することができるようになっている。赤外線センサ103から送信された赤外線情報に基づいて、情報処理装置101のCPU201が、ユーザの指が署名欄1007のような所定の領域をタッチしていると判定すると、当該タッチが継続されている間、そのタッチの軌跡を線要素で表現する。このような仕組みを用いることで、投影面106に対してタッチすることにより、サインを行うことができるようになる。   On the other hand, for example, FIG. 16 is a diagram in which the customer 1002 signs the signature field 1007 with the customer's hand 1602. In the projection system 100, when a predetermined area such as the signature field 1007 is moved while being touched with a finger, the locus can be drawn. If the CPU 201 of the information processing apparatus 101 determines that the user's finger is touching a predetermined area such as the signature field 1007 based on the infrared information transmitted from the infrared sensor 103, the touch is continued. Meanwhile, the trajectory of the touch is expressed by a line element. By using such a mechanism, a sign can be performed by touching the projection surface 106.

ステップS2707〜2608、ステップS2711〜2612の判定は、図22に示す条件テーブル2200に基づいて判定を行う。条件テーブル2200には領域の属性2201、回転フラグ2202、特定した手2203、処理内容2204が格納されている。領域の属性2201はステップS2706で判定された領域の属性を示している。回転フラグ2202は、投影テーブル2300の回転フラグ2302のフラグを示している。特定した手2203はステップS2704で特定したテラーの手か顧客の手かを模式的に示している。処理内容2204は撮像をするか否かの処理の内容が記載されている。例えば、領域の属性2201が説明証跡領域であって、回転フラグ2202が0であって、特定した手2203がテラーであれば、処理内容2204は撮像する。   The determinations in steps S2707 to 2608 and steps S2711 to 2612 are performed based on the condition table 2200 shown in FIG. The condition table 2200 stores an area attribute 2201, a rotation flag 2202, a specified hand 2203, and processing content 2204. An area attribute 2201 indicates the attribute of the area determined in step S2706. A rotation flag 2202 indicates the flag of the rotation flag 2302 of the projection table 2300. The identified hand 2203 schematically indicates whether it is the teller's hand or the customer's hand identified in step S2704. The processing content 2204 describes the content of processing for determining whether or not to take an image. For example, if the region attribute 2201 is an explanation trail region, the rotation flag 2202 is 0, and the identified hand 2203 is a teller, the processing content 2204 is imaged.

ステップS2707では、情報処理装置101のCPU201は、投影画像が顧客の方を向いているのか、テラーの方を向いているのかを判定する。たとえば、回転ボタン1008が押下され、ステップS2716で投影テーブル2300の回転フラグ2302にフラグが立っていれば、投影画像がテラーの方を向いていることがわかる。一方、回転フラグ2202にフラグが立っていなければ、投影画像が顧客の方を向いていることがわかる。回転フラグ2202にフラグが立っていると判定された場合、ステップS2708へ処理を進める。回転フラグ2202にフラグが立っていないと判定された場合は、投影文書はテラー向きであるのでタッチ判定処理を終了させる。たとえば図15は、投影画像が顧客ではなく、テラーの方を向いている。この状態でテラーが説明を行ったとしても、顧客は投影画像を読むことができないため、正常に説明したとは言えない。そのため、この場合は証跡の保存は行わずに、タッチ判定処理を終了させる。   In step S <b> 2707, the CPU 201 of the information processing apparatus 101 determines whether the projected image is facing the customer or the teller. For example, if the rotation button 1008 is pressed and the rotation flag 2302 of the projection table 2300 is set in step S2716, it can be understood that the projection image faces the teller. On the other hand, if the rotation flag 2202 is not flagged, it can be seen that the projected image faces the customer. If it is determined that the rotation flag 2202 is flagged, the process advances to step S2708. If it is determined that the rotation flag 2202 is not flagged, the touch determination process is terminated because the projected document is in the teller orientation. For example, in FIG. 15, the projected image is directed to the teller, not the customer. Even if the teller explained in this state, it cannot be said that the customer explained normally because the customer cannot read the projected image. Therefore, in this case, the touch determination process is terminated without saving the trail.

ステップS2708では、情報処理装置101のCPU201は、タッチされた手がテラーの手であるかどうかを判定する。ステップS2704で特定された手の人物がテラーであればステップS2709へ処理を進める。ステップS2704で特定された手の人物がテラーでなければタッチ判定処理を終了させる。たとえば、図14は、テラー1001が説明する説明証跡領域である概要説明部分1004を顧客1002がタッチしている図である。この場合には、テラー1001によるタッチではないので証跡の保存は行わずにタッチ判定処理を終了させる。説明証跡領域は、テラーが顧客に説明したということが担保できればよい。顧客が説明証跡領域をタッチした場合も証跡を保存するようにしてしまうと、外部メモリ211などの容量を圧迫してしまう。そのため、テラーからタッチされた場合のみ、証跡を取るようにしている。このように、説明証跡領域の場合には、テラーが説明証跡領域をタッチしており、かつ投影画像が顧客の方に向いている場合に、証跡が保存される。テラーが正しい方法で説明していないと、証跡が残らないので、説明したか否かを示す証拠となる。   In step S2708, the CPU 201 of the information processing apparatus 101 determines whether the touched hand is a teller's hand. If the person of the hand specified in step S2704 is a teller, the process proceeds to step S2709. If the person identified in step S2704 is not a teller, the touch determination process is terminated. For example, FIG. 14 is a diagram in which a customer 1002 touches a summary explanation portion 1004 that is an explanation trail area explained by the teller 1001. In this case, since it is not a touch by the teller 1001, the touch determination process is terminated without saving the trail. The explanation trail area only needs to guarantee that the teller explained to the customer. Even when the customer touches the explanation trail area, if the trail is saved, the capacity of the external memory 211 or the like is compressed. Therefore, the trail is taken only when touched by the teller. Thus, in the case of the explanation trail area, the trail is saved when the teller touches the explanation trail area and the projection image faces the customer. If the teller does not explain in the correct way, there will be no trail, which is evidence that it has been explained.

ステップS2709では、情報処理装置101のCPU201は、カメラ102に撮像指示を行う(撮像指示手段)。   In step S2709, the CPU 201 of the information processing apparatus 101 issues an imaging instruction to the camera 102 (imaging instruction unit).

ステップS2710では、情報処理装置101のCPU201は、ステップS2706で説明証跡の領域であると判定されたので、説明領域の証跡を保存することを通知すべく説明領域の撮像音をスピーカ213から出力する(撮像音出力手段)。撮像音は図29にしめす撮像音データテーブル2900から判断する。撮像音データテーブル2900には撮像シーン2901、撮像音2902とが格納されており、撮像シーン2901は本実施例で撮像するシーンである、「紙文書取り込み(取り込みシーン)」「説明証跡領域(説明シーン)」「同意証跡領域(同意シーン)」とがある。それぞれに対して撮像音2902が割り当てられており、それぞれのシーンに応じて撮像音2902に保存されている音声データを出力する。例えば、ステップS2706で説明証跡のシーン(説明シーン)であると判定し当該シーンを特定しているのでこれに該当する「説明証跡領域」に対応する撮像音2902を「D:¥sound¥002.wav」と特定し、当該撮像音2902をスピーカ213から出力するよう制御する。   In step S2710, the CPU 201 of the information processing apparatus 101 determines that it is the explanation trail area in step S2706, and therefore outputs the imaging sound of the explanation area from the speaker 213 to notify that the trail in the explanation area is to be saved. (Imaging sound output means). The imaging sound is determined from the imaging sound data table 2900 shown in FIG. The image pickup sound data table 2900 stores an image pickup scene 2901 and an image pickup sound 2902. The image pickup scene 2901 is a scene picked up in the present embodiment, “paper document capture (capture scene)” “explanation trail area (description) Scene) "" consent trail area (consent scene) ". An imaging sound 2902 is assigned to each of them, and audio data stored in the imaging sound 2902 is output according to each scene. For example, since it is determined in step S2706 that the scene is an explanation trail scene (description scene) and the scene is specified, the image pickup sound 2902 corresponding to the “description trail area” corresponding to the scene is specified as “D: ¥ sound ¥ 002. “wav” is specified, and the imaging sound 2902 is controlled to be output from the speaker 213.

撮像音をスピーカ213から出力する際には、後述するステップS2716における撮像とタイミングが合うように出力されることが望ましい。そのため、ステップS2709で撮像指示をしてから後述するステップS2716で撮像がなされるまでの遅延時間をあらかじめ記憶、または従来技術で算出し、当該遅延時間の間、待機してから撮像音を出力するようにすればよい。   When the imaging sound is output from the speaker 213, it is desirable that the imaging sound be output so as to match the timing in step S2716 described later. For this reason, a delay time from when an imaging instruction is given in step S2709 until imaging is performed in step S2716 described later is stored in advance or calculated by a conventional technique, and the imaging sound is output after waiting for the delay time. What should I do?

ステップS2711では、情報処理装置101のCPU201は、投影画像が顧客の方を向いているのか、テラーの方を向いているのかを判定する。たとえば、回転ボタン1008が押下され、ステップS2716で投影テーブル2300の回転フラグ2302にフラグが立っていれば、投影画像がテラーの方を向いていることがわかる。一方、回転フラグ2202にフラグが立っていなければ、投影画像が顧客の方を向いていることがわかる。回転フラグ2202にフラグが立っていないと判定された場合、ステップS2712へ処理を進める。回転フラグ2202にフラグが立っていると判定された場合は、投影文書はテラー向きであるのでタッチ判定処理を終了させる。   In step S2711, the CPU 201 of the information processing apparatus 101 determines whether the projected image is facing the customer or the teller. For example, if the rotation button 1008 is pressed and the rotation flag 2302 of the projection table 2300 is set in step S2716, it can be understood that the projection image faces the teller. On the other hand, if the rotation flag 2202 is not flagged, it can be seen that the projected image faces the customer. If it is determined that the flag is not set in the rotation flag 2202, the process proceeds to step S2712. If it is determined that the rotation flag 2202 is flagged, the touch determination process is terminated because the projected document is in the teller orientation.

ステップS2712では、情報処理装置101のCPU201は、タッチされた手が顧客の手であるかどうかを判定する。ステップS2704で特定された手の人物が顧客であればステップS2713へ処理を進める。ステップS2704で特定された手の人物が顧客でなければタッチ判定処理を終了させる。   In step S2712, the CPU 201 of the information processing apparatus 101 determines whether the touched hand is a customer's hand. If the person of the hand specified in step S2704 is a customer, the process proceeds to step S2713. If the person identified in step S2704 is not a customer, the touch determination process is terminated.

ステップS2713では、情報処理装置101のCPU201は、カメラ102に撮像指示を行う。   In step S <b> 2713, the CPU 201 of the information processing apparatus 101 issues an imaging instruction to the camera 102.

ステップS2714では、情報処理装置101のCPU201は、同意領域の証跡を保存することを通知すべく説明領域の撮像音を特定し、当該撮像音をスピーカ213から出力する(撮像音出力手段)。ステップS2710と同様に撮像音は図29にしめす撮像音データテーブル2900から判断する。撮像音をスピーカ213から出力する際には、後述するステップS2716における撮像とタイミングが合うように出力されることが望ましい。そのため、ステップS2713で撮像指示をしてから後述するステップS2716で撮像がなされるまでの遅延時間をあらかじめ記憶、または従来技術で算出し、当該遅延時間の間、待機してから撮像音を出力するようにすればよい。   In step S2714, the CPU 201 of the information processing apparatus 101 specifies the imaging sound in the explanation area to notify that the trail of the consent area is to be stored, and outputs the imaging sound from the speaker 213 (imaging sound output unit). As in step S2710, the image pickup sound is determined from the image pickup sound data table 2900 shown in FIG. When the imaging sound is output from the speaker 213, it is desirable that the imaging sound be output so as to match the timing in step S2716 described later. For this reason, a delay time from when an imaging instruction is given in step S2713 until imaging is performed in step S2716 described later is stored in advance or calculated by a conventional technique, and the imaging sound is output after waiting for the delay time. What should I do?

ステップS2715では、カメラ102は、情報処理装置101から送信された撮像指示を受信する。   In step S2715, the camera 102 receives the imaging instruction transmitted from the information processing apparatus 101.

ステップS2716では、カメラ102は、受信した撮像指示に従って、撮像を行う。第3の実施例ではカメラ102は撮像音を出力しない。   In step S2716, the camera 102 performs imaging according to the received imaging instruction. In the third embodiment, the camera 102 does not output imaging sound.

ステップS2717では、カメラ102は、情報処理装置に対し、撮像した画像データを送信する。   In step S2717, the camera 102 transmits captured image data to the information processing apparatus.

ステップS2718では、情報処理装置101のCPU201は、カメラから送信された画像データを受信する。   In step S2718, the CPU 201 of the information processing apparatus 101 receives image data transmitted from the camera.

ステップS2719では、情報処理装置101のCPU201は、受信した画像データを、証跡ID、撮像された年月日、顧客IDやテラーID、領域ID、画像データをひとまとめにして証跡として顧客ごとに保存する。証跡として保存する例として図19の証跡保存テーブル1900がある。証跡保存テーブル1900の詳細な説明については前述したとおりである。このようにテーブル形式で顧客ごとに管理することで証跡の検索もしやすく、顧客と紛争になった際の有用なリソースとなるものとなる。実際に投影文書に指を指している画像データが残るため、証跡として担保することが可能なデータを蓄積することが可能になる。   In step S2719, the CPU 201 of the information processing apparatus 101 stores the received image data for each customer as a trail by collecting the trail ID, the imaged date, the customer ID, the teller ID, the region ID, and the image data. . As an example of saving as a trail, there is a trail saving table 1900 of FIG. The detailed description of the trail storage table 1900 is as described above. By managing each customer in the table format as described above, it is easy to search for trails, and it becomes a useful resource when a dispute occurs with a customer. Since the image data actually pointing the finger remains in the projected document, it is possible to accumulate data that can be secured as a trail.

ステップS2720では、情報処理装置101のCPU201は、投影面106上に配置された回転ボタン1008がタッチされたか否かを判定する。回転ボタン1008のタッチを受け付けることにより、ユーザからの投影文書の回転指示があったことと判断することができる。回転ボタン1008がタッチされたと判定した場合処理をステップS2721に進め、回転ボタン1008がタッチされないと判定した場合、処理を終了させる。   In step S2720, the CPU 201 of the information processing apparatus 101 determines whether or not the rotation button 1008 arranged on the projection surface 106 has been touched. By accepting the touch of the rotation button 1008, it can be determined that there has been an instruction to rotate the projection document from the user. If it is determined that the rotation button 1008 has been touched, the process proceeds to step S2721, and if it is determined that the rotation button 1008 has not been touched, the process ends.

ステップS2716では、情報処理装置101のCPU201は、投影テーブル2300の回転フラグ2302を反転させる。例えば「0」から「1」、「1」から「0」という具合である。フラグを反転させたのち、処理をステップS2402に進める。   In step S2716, the CPU 201 of the information processing apparatus 101 inverts the rotation flag 2302 of the projection table 2300. For example, “0” to “1”, “1” to “0”, and so on. After inverting the flag, the process proceeds to step S2402.

次に、第3の実施例における紙文書取り込み処理について図28を用いて説明を行う。   Next, a paper document import process in the third embodiment will be described with reference to FIG.

ステップS2801では、情報処理装置101のCPU201は、ステップS506で受信した赤外線情報を解析し、紙文書の動きを解析する。   In step S2801, the CPU 201 of the information processing apparatus 101 analyzes the infrared information received in step S506, and analyzes the movement of the paper document.

ステップS2802では、情報処理装置101のCPU201は、ステップS2801で解析した紙文書が撮像可能になったかを判定する。たとえばある一定の時間紙文書が動いていないと判定されたときに、撮像可能と判定する。撮像可能と判定された場合、ステップS2803の処理へと移行する。なお、撮像可能の判定は、ユーザからの撮像の指示を受け付けてもよい。例えば、スキャンボタンなどが投影面上に配置されており、当該スキャンボタンの押下を受け付けることで撮像可能と判定してもよい。   In step S2802, the CPU 201 of the information processing apparatus 101 determines whether the paper document analyzed in step S2801 can be imaged. For example, when it is determined that the paper document has not moved for a certain period of time, it is determined that imaging is possible. If it is determined that imaging is possible, the process proceeds to step S2803. Note that the determination that imaging is possible may be an imaging instruction from the user. For example, a scan button or the like may be arranged on the projection plane, and it may be determined that imaging can be performed by receiving a press of the scan button.

ステップS2803では、情報処理装置101のCPU201は、ステップS2802で紙文書が置かれ、動きがある一定の時間なくなったと判定された時の、投影面106上に投影されている投影画像の位置や、状態を保存しておく処理を行う。たとえば図21で表示されている表示メニュー2003などがあり、これらの状態を保存しておく。保存処理が終わったらステップS2804へと処理を移す。   In step S2803, the CPU 201 of the information processing apparatus 101 determines the position of the projection image projected on the projection plane 106 when it is determined in step S2802 that the paper document is placed and the movement has ceased for a certain period of time. Process to save the state. For example, there is a display menu 2003 displayed in FIG. 21, and these states are stored. When the storage process ends, the process moves to step S2804.

ステップS2804では、情報処理装置101のCPU201は、プロジェクタ104に対して投影しているものを消すよう、指示を行う。現在、投影面106上に投影しているものを投影しないように制御できればよい。これは、後述する処理で紙文書を取り込む際に、投影したものが写り込まないようにするためである。よって、置かれた紙文書の上に投影がされなければよく、それ以外の領域は何かしらの情報が投影されていてもよい。たとえば図21の表示メニュー2003の上に紙文書が置かれた場合、すべての投影を消してもよいし、紙文書と表示メニュー2003が重なる部分の投影だけ消してもよい。   In step S2804, the CPU 201 of the information processing apparatus 101 instructs the projector 104 to erase what is being projected. It is only necessary to be able to control so that what is currently projected on the projection surface 106 is not projected. This is to prevent the projected image from being captured when a paper document is captured in the process described later. Therefore, it is sufficient that projection is not performed on the placed paper document, and some information may be projected in other areas. For example, when a paper document is placed on the display menu 2003 in FIG. 21, all projections may be erased, or only a projection of a portion where the paper document and the display menu 2003 overlap may be erased.

ステップS2805では、プロジェクタ104は、情報処理装置101から指示された投影非表示指示を受信する。   In step S2805, the projector 104 receives a projection non-display instruction instructed from the information processing apparatus 101.

ステップS2806では、プロジェクタ104は、受信した投影非表示指示に従って、現在投影されている投影を消す。   In step S2806, projector 104 erases the currently projected projection in accordance with the received projection non-display instruction.

ステップS2807では、情報処理装置101のCPU201は、撮像の指示をカメラ102に対して行う。   In step S <b> 2807, the CPU 201 of the information processing apparatus 101 issues an imaging instruction to the camera 102.

ステップS2808では、情報処理装置101のCPU201は、紙文書取り込みの撮像音を特定し、当該撮像音をスピーカ213により出力する(撮像音出力手段)。撮像音は図29にしめす撮像音データテーブル2900から特定する。ステップS509で紙文書取り込みと特定されているので図29に示す撮像音2902は、撮像シーン2901が「紙文書取り込み」の「D:¥sound¥001.wav」となる。また、前述したステップS2714と同様に、後述するステップS2810における撮像とタイミングを合わせて出力することが望ましい。そのため、ステップS2714で前述した通り、撮像が行われるタイミングまで待機し、待機後に撮像音を出力する。   In step S <b> 2808, the CPU 201 of the information processing apparatus 101 specifies a captured sound for capturing a paper document, and outputs the captured sound through the speaker 213 (imaging sound output unit). The imaging sound is specified from the imaging sound data table 2900 shown in FIG. Since it is specified that the paper document is captured in step S509, the imaging sound 2902 shown in FIG. 29 is “D: ¥ sound ¥ 001.wav” in which the imaging scene 2901 is “paper document capturing”. Further, similarly to step S2714 described above, it is desirable to output in synchronization with the imaging in step S2810 described later. Therefore, as described above in step S2714, the process waits until imaging is performed, and the imaging sound is output after standby.

ステップS2809ではカメラ102は、情報処理装置101から送信された撮像の指示を受信する。   In step S <b> 2809, the camera 102 receives an imaging instruction transmitted from the information processing apparatus 101.

ステップS2810では、カメラ102は、受信した指示によりデジタルな撮像音を伴う撮像を行う。撮像音を伴う撮像を行うことで、顧客の住民票や戸籍謄本などの書類を画像データとして取り込んでいることを明確に認識させることができる。   In step S2810, the camera 102 performs imaging with digital imaging sound according to the received instruction. By performing imaging with imaging sound, it is possible to clearly recognize that documents such as a customer's resident's card and family register copy are taken in as image data.

ステップS2811では、カメラ102は、撮像によって得られた画像データを情報処理装置101へ送信する。   In step S <b> 2811, the camera 102 transmits image data obtained by imaging to the information processing apparatus 101.

ステップS2812では、情報処理装置101のCPU201は、カメラ102から送信された画像データを受信する。   In step S2812, the CPU 201 of the information processing apparatus 101 receives the image data transmitted from the camera 102.

ステップS2813では、情報処理装置101のCPU201は、受信した画像データを、紙文書の取り込みデータとして保存する。   In step S2813, the CPU 201 of the information processing apparatus 101 stores the received image data as paper document capture data.

ステップS2814では、情報処理装置101のCPU201は、ステップS2803で保存した状態を読み出し、投影を終了する前の状態に戻すため、読み出した投影状態をプロジェクタ104に投影させ、投影を再開させる。   In step S2814, the CPU 201 of the information processing apparatus 101 reads the state stored in step S2803 and projects the read projection state on the projector 104 to resume the projection, and resumes the projection.

ステップS2815では、プロジェクタ104は、情報処理装置101からの投影表示指示を受信する。   In step S2815, projector 104 receives a projection display instruction from information processing apparatus 101.

ステップS2816では、プロジェクタ104に、受信した投影表示指示に基づいて、ステップS2803で保存した状態を投影する。   In step S2816, the state saved in step S2803 is projected onto projector 104 based on the received projection display instruction.

以上、第3の実施例では、証跡を保存する際の撮像指示と紙文書の取り込みの際の撮像指示とでそれぞれ撮像音の種類を切り替えることでユーザに対して撮像の意図を通知することが可能になるという効果がある。   As described above, in the third embodiment, the user can be notified of the intention of imaging by switching the type of imaging sound between the imaging instruction when saving the trail and the imaging instruction when capturing the paper document. There is an effect that it becomes possible.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   Note that the present invention includes a software program that implements the functions of the above-described embodiments directly or remotely from a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 投影システム
101 情報処理装置
102 カメラ
103 センサ
104 プロジェクタ
105 反射板
106 投影面
107 プリンタ
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/F(インターフェース)コントローラ
209 入力デバイス
210 ディスプレイ
211 外部メモリ
DESCRIPTION OF SYMBOLS 100 Projection system 101 Information processing apparatus 102 Camera 103 Sensor 104 Projector 105 Reflector 106 Projection surface 107 Printer 201 CPU
202 ROM
203 RAM
204 System Bus 205 Input Controller 206 Video Controller 207 Memory Controller 208 Communication I / F (Interface) Controller 209 Input Device 210 Display 211 External Memory

Claims (15)

画像を投影する投影装置と、
前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と
通信可能に接続される情報処理装置であって、
前記オブジェクトの種類を特定するオブジェクト特定手段と、
前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御手段と
を備えることを特徴とする情報処理装置。
A projection device for projecting an image;
An information processing apparatus that is communicably connected to an imaging apparatus that images an object that is a real object existing on a projection plane projected by the projection apparatus,
An object specifying means for specifying the type of the object;
An information processing apparatus comprising: image pickup sound control means for controlling image pickup sound output in accordance with the image pickup by the image pickup apparatus in accordance with the type of the object specified by the object specifying means.
前記撮像音制御手段は、前記オブジェクト特定手段で、前記オブジェクトの種類が、ユーザが指示するために用いる物体である指示物であると特定した場合に、前記撮像音を出力しないことを特徴とする請求項1に記載の情報処理装置。   The imaging sound control means does not output the imaging sound when the object specifying means specifies that the type of the object is an indicator that is an object used for an instruction by a user. The information processing apparatus according to claim 1. 前記撮像音制御手段は、前記オブジェクト特定手段で、前記オブジェクトの種類が、ユーザが指示するために用いる物体である指示物でないと特定した場合に、前記撮像音を出力することを特徴とする請求項1または2に記載の情報処理装置。   The imaging sound control means outputs the imaging sound when the object specifying means specifies that the type of the object is not an indicator that is an object used for an instruction by a user. Item 3. The information processing device according to item 1 or 2. 前記撮像音制御手段は、前記オブジェクト特定手段で、前記オブジェクトの種類が前記指示物であると特定した場合に、前記オブジェクト特定手段で前記オブジェクトの種類が前記指示物でないと特定した場合よりも前記撮像音の音量を小さくすることを特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。   When the object specifying unit specifies that the type of the object is the indicator, the imaging sound control unit is more than the case where the object specifying unit specifies that the type of the object is not the indicator. The information processing apparatus according to claim 2, wherein the volume of the image pickup sound is reduced. 画像を投影する投影装置と、
前記投影装置で投影される投影面上のオブジェクトを撮像する撮像装置と、
通信可能に接続される情報処理装置の制御方法であって、
前記情報処理装置のオブジェクト特定手段が、前記オブジェクトの種類を特定するオブジェクト特定ステップと、
前記情報処理装置の撮像音制御手段が、前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御ステップと
を備えることを特徴とする情報処理装置の制御方法。
A projection device for projecting an image;
An imaging device for imaging an object on a projection surface projected by the projection device;
A control method for an information processing apparatus connected to be communicable,
An object specifying step in which the object specifying means of the information processing device specifies the type of the object;
The image pickup sound control means of the information processing apparatus comprises an image pickup sound control step for controlling the image pickup sound output according to the image pickup of the image pickup apparatus according to the type of the object specified by the object specifying means. A method for controlling an information processing apparatus.
画像を投影する投影装置と、
前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と、
通信可能に接続される情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
前記オブジェクトの種類を特定するオブジェクト特定手段と、
前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御手段
として機能させることを特徴とするプログラム。
A projection device for projecting an image;
An imaging device that images an object that is a real object existing on a projection plane projected by the projection device;
A program capable of executing a control method of an information processing apparatus connected to be communicable,
The information processing apparatus;
An object specifying means for specifying the type of the object;
A program that functions as imaging sound control means for controlling imaging sound that is output in response to imaging by the imaging device, in accordance with the type of object specified by the object identification means.
画像を投影する投影装置と、
前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と、
情報処理装置とを含む投影システムであって、
前記情報処理装置は、
前記オブジェクトの種類を特定するオブジェクト特定手段と、
前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御手段と
を備えることを特徴とする投影システム。
A projection device for projecting an image;
An imaging device that images an object that is a real object existing on a projection plane projected by the projection device;
A projection system including an information processing apparatus,
The information processing apparatus includes:
An object specifying means for specifying the type of the object;
A projection system comprising: imaging sound control means for controlling imaging sound output in response to imaging by the imaging device in accordance with the type of object specified by the object specifying means.
画像を投影する投影装置と、
前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と、
情報処理装置とを含む投影システムの制御方法であって、
前記情報処理装置のオブジェクト特定手段が、前記オブジェクトの種類を特定するオブジェクト特定ステップと、
前記情報処理装置の撮像音制御手段が、前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御ステップと
を備えることを特徴とする投影システムの制御方法。
A projection device for projecting an image;
An imaging device that images an object that is a real object existing on a projection plane projected by the projection device;
A control method of a projection system including an information processing device,
An object specifying step in which the object specifying means of the information processing device specifies the type of the object;
The image pickup sound control means of the information processing apparatus comprises an image pickup sound control step for controlling the image pickup sound output according to the image pickup of the image pickup apparatus according to the type of the object specified by the object specifying means. A control method of a projection system characterized by the above.
画像を投影する投影装置と、
前記投影装置で投影される投影面上に存在する現実の物体であるオブジェクトを撮像する撮像装置と、
情報処理装置とを含む投影システムの制御方法を実行可能なプログラムであって、
前記情報処理装置を、
前記オブジェクトの種類を特定するオブジェクト特定手段と、
前記オブジェクト特定手段で特定されたオブジェクトの種類に応じて、前記撮像装置の撮像に応じて出力される撮像音を制御する撮像音制御手段
として機能させることを特徴とするプログラム。
A projection device for projecting an image;
An imaging device that images an object that is a real object existing on a projection plane projected by the projection device;
A program capable of executing a projection system control method including an information processing apparatus,
The information processing apparatus;
An object specifying means for specifying the type of the object;
A program that functions as imaging sound control means for controlling imaging sound that is output in response to imaging by the imaging device, in accordance with the type of object specified by the object identification means.
電子データを投影する投影装置と、撮像指示に応じて撮像する撮像装置と通信可能に接続される情報処理装置であって、
ユーザの動作に応じて実行される処理ごとに撮像音を記憶する記憶手段と、
ユーザの動作を検知する動作検知手段と、
前記動作検知手段でユーザの動作を検知した場合に、前記撮像装置に対して撮像指示を送信する撮像指示送信手段と、
前記撮像指示送信手段によって送信される撮像指示に応じて、撮像音を出力する撮像音出力手段とを備え、
前記撮像音出力手段は、前記動作検知手段で検知した動作に応じて実行される処理に対応する撮像音を前記記憶手段から取得して出力することを特徴とする情報処理装置。
An information processing apparatus that is communicably connected to a projection apparatus that projects electronic data and an imaging apparatus that captures an image according to an imaging instruction,
Storage means for storing the picked-up sound for each process executed according to the user's operation;
Motion detection means for detecting the user's motion;
An imaging instruction transmitting means for transmitting an imaging instruction to the imaging apparatus when a user operation is detected by the operation detecting means;
In accordance with the imaging instruction transmitted by the imaging instruction transmission means, the imaging sound output means for outputting the imaging sound,
The information processing apparatus according to claim 1, wherein the imaging sound output unit acquires and outputs imaging sound corresponding to processing executed in accordance with the operation detected by the operation detection unit from the storage unit.
前記動作検知手段は、前記ユーザの紙文書の取り込みの動作である取り込み動作を検知し、
前記撮像音出力手段は、前記取り込み動作に対応する撮像音を前記記憶手段から取得して出力することを特徴とする請求項10に記載の情報処理装置。
The operation detection means detects a capture operation that is a capture operation of the user's paper document,
The information processing apparatus according to claim 10, wherein the imaging sound output unit acquires and outputs imaging sound corresponding to the capturing operation from the storage unit.
前記動作検知手段は、前記ユーザによる説明を示す動作である説明動作を検知し、
前記撮像音出力手段は、前記説明動作に対応する撮像音を前記記憶手段から取得して出力することを特徴とする請求項10又は11に記載の情報処理装置。
The operation detection means detects an explanation operation which is an operation indicating an explanation by the user,
The information processing apparatus according to claim 10, wherein the imaging sound output unit acquires and outputs imaging sound corresponding to the explanation operation from the storage unit.
前記動作検知手段は、前記ユーザによる同意を示す動作である同意動作を検知し、
前記撮像音出力手段は、前記同意動作に対応する撮像音を前記記憶手段から取得して出力することを特徴とする請求項10乃至12のいずれか1項に記載の情報処理装置。
The operation detection means detects an agreement operation that is an operation indicating consent by the user,
The information processing apparatus according to any one of claims 10 to 12, wherein the imaging sound output unit acquires and outputs imaging sound corresponding to the consent operation from the storage unit.
電子データを投影する投影装置と、撮像指示に応じて撮像する撮像装置と通信可能に接続され、ユーザの動作に応じて実行される処理ごとに撮像音を記憶する記憶手段を備える情報処理装置の制御方法であって、
前記情報処理装置の動作検知手段は、ユーザの動作を検知する動作検知ステップと、
前記情報処理装置の撮像指示送信手段は、前記動作検知ステップでユーザの動作を検知した場合に、前記撮像装置に対して撮像指示を送信する撮像指示送信ステップと、
前記情報処理装置の撮像音出力手段は、前記撮像指示送信ステップによって送信される撮像指示に応じて、撮像音を出力する撮像音出力ステップと
を備え、
前記撮像音出力ステップは、前記動作検知ステップで検知した動作に応じて実行される処理に対応する撮像音を前記記憶手段から取得して出力することを特徴とする情報処理装置の制御方法。
An information processing apparatus including a projection apparatus that projects electronic data and an imaging apparatus that captures an image according to an imaging instruction, and a storage unit that stores imaging sound for each process executed according to a user operation A control method,
The operation detection unit of the information processing apparatus includes an operation detection step of detecting a user operation,
An imaging instruction transmitting unit of the information processing apparatus transmits an imaging instruction to the imaging apparatus when a user operation is detected in the operation detection step;
The imaging sound output means of the information processing apparatus includes an imaging sound output step that outputs an imaging sound in response to the imaging instruction transmitted by the imaging instruction transmission step.
The method for controlling an information processing apparatus, wherein the imaging sound output step acquires and outputs an imaging sound corresponding to a process executed in accordance with the operation detected in the operation detection step from the storage unit.
電子データを投影する投影装置と、撮像指示に応じて撮像する撮像装置と通信可能に接続され、ユーザの動作に応じて実行される処理ごとに撮像音を記憶する記憶手段を備える情報処理装置の制御方法を実行可能なプログラムであって、
前記情報処理装置を、
ユーザの動作を検知する動作検知手段と、
前記動作検知手段でユーザの動作を検知した場合に、前記撮像装置に対して撮像指示を送信する撮像指示送信手段と、
前記撮像指示送信手段によって送信される撮像指示に応じて、撮像音を出力する撮像音出力手段として機能させ、
前記撮像音出力手段は、前記動作検知手段で検知した動作に応じて実行される処理に対応する撮像音を前記記憶手段から取得して出力することを特徴とする情報処理装置の制御方法を実行可能なプログラム。
An information processing apparatus including a projection apparatus that projects electronic data and an imaging apparatus that captures an image according to an imaging instruction, and a storage unit that stores imaging sound for each process executed according to a user operation A program capable of executing a control method,
The information processing apparatus;
Motion detection means for detecting the user's motion;
An imaging instruction transmitting means for transmitting an imaging instruction to the imaging apparatus when a user operation is detected by the operation detecting means;
In response to an imaging instruction transmitted by the imaging instruction transmission means, function as imaging sound output means for outputting imaging sound,
The image pickup sound output means executes the method of controlling the information processing apparatus, wherein the image pickup sound corresponding to the process executed in accordance with the operation detected by the action detection means is acquired from the storage means and output. Possible program.
JP2014118179A 2013-10-08 2014-06-06 Information processing apparatus, control method and program thereof, and projection system, control method and program thereof Expired - Fee Related JP5939278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014118179A JP5939278B2 (en) 2013-10-08 2014-06-06 Information processing apparatus, control method and program thereof, and projection system, control method and program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013211385 2013-10-08
JP2013211385 2013-10-08
JP2014118179A JP5939278B2 (en) 2013-10-08 2014-06-06 Information processing apparatus, control method and program thereof, and projection system, control method and program thereof

Publications (3)

Publication Number Publication Date
JP2015097074A true JP2015097074A (en) 2015-05-21
JP2015097074A5 JP2015097074A5 (en) 2015-07-02
JP5939278B2 JP5939278B2 (en) 2016-06-22

Family

ID=53374329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118179A Expired - Fee Related JP5939278B2 (en) 2013-10-08 2014-06-06 Information processing apparatus, control method and program thereof, and projection system, control method and program thereof

Country Status (1)

Country Link
JP (1) JP5939278B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045407A (en) * 2015-08-28 2017-03-02 キヤノン株式会社 Information processor

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (en) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd Input/output device and its method
JP2002063371A (en) * 2000-08-16 2002-02-28 Oki Electric Ind Co Ltd Financial product sales method
JP2005033346A (en) * 2003-07-09 2005-02-03 Hitachi Ltd Apparatus and method for processing information, and software
JP2006319550A (en) * 2005-05-11 2006-11-24 Omron Corp Imaging apparatus, portable terminal
JP2008067008A (en) * 2006-09-06 2008-03-21 Sharp Corp Photographing device, photographing method, photographing program, and recording medium
JP2011215441A (en) * 2010-04-01 2011-10-27 Canon Inc Projecting device
JP2012053545A (en) * 2010-08-31 2012-03-15 Canon Inc Image processing system, and method for controlling the same
JP2014139764A (en) * 2012-12-17 2014-07-31 Canon Marketing Japan Inc Information processing device, information processing method, program, and information processing system
JP2015026266A (en) * 2013-07-26 2015-02-05 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298544A (en) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd Input/output device and its method
JP2002063371A (en) * 2000-08-16 2002-02-28 Oki Electric Ind Co Ltd Financial product sales method
JP2005033346A (en) * 2003-07-09 2005-02-03 Hitachi Ltd Apparatus and method for processing information, and software
JP2006319550A (en) * 2005-05-11 2006-11-24 Omron Corp Imaging apparatus, portable terminal
JP2008067008A (en) * 2006-09-06 2008-03-21 Sharp Corp Photographing device, photographing method, photographing program, and recording medium
JP2011215441A (en) * 2010-04-01 2011-10-27 Canon Inc Projecting device
JP2012053545A (en) * 2010-08-31 2012-03-15 Canon Inc Image processing system, and method for controlling the same
JP2014139764A (en) * 2012-12-17 2014-07-31 Canon Marketing Japan Inc Information processing device, information processing method, program, and information processing system
JP2015026266A (en) * 2013-07-26 2015-02-05 キヤノン株式会社 Image processing apparatus, image processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015037892; 高橋 由泰 外3名: '次世代保険代理店向け保険契約システムの検討' 情報処理学会研究報告 平成22年度1 [CD-ROM] , 20100615, p.1-7, 社団法人情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045407A (en) * 2015-08-28 2017-03-02 キヤノン株式会社 Information processor
WO2017038025A1 (en) * 2015-08-28 2017-03-09 Canon Kabushiki Kaisha Imaging apparatus
US20180249055A1 (en) * 2015-08-28 2018-08-30 Canon Kabushiki Kaisha Imaging apparatus

Also Published As

Publication number Publication date
JP5939278B2 (en) 2016-06-22

Similar Documents

Publication Publication Date Title
JP5592378B2 (en) Object detection and user settings
US20090189858A1 (en) Gesture Identification Using A Structured Light Pattern
JP6504234B2 (en) INFORMATION PROCESSING APPARATUS, PROCESSING METHOD THEREOF, AND PROGRAM
US8169469B2 (en) Information processing device, information processing method and computer readable medium
CN102681870B (en) Automatically action is performed when logging in
US20210133363A1 (en) Display apparatus, display method, and image processing system
JP2008009572A (en) Document processing system, document processing method, and program
JP5939278B2 (en) Information processing apparatus, control method and program thereof, and projection system, control method and program thereof
JP5830055B2 (en) Image processing apparatus and image processing system
JP6115615B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP6291989B2 (en) Content display device and control program for content display device
US20220255975A1 (en) Text data transmission-reception system, shared terminal, and method of processing information
JP7398945B2 (en) Augmented reality document editing method, program and system
US20150302784A1 (en) Information processing system, control method, and computer-readable medium
JP2017126225A (en) Image processing device, method and program
JP5999236B2 (en) INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6083158B2 (en) Information processing system, information processing apparatus, and program
US10762344B2 (en) Method and system for using whiteboard changes as interactive directives for vectorization software
JP2019046310A (en) Information processing system, terminal device, information processing method, and information processing program
JP6705988B2 (en) Information processing system, control method thereof, and program
JP2019133559A (en) Data input device, data input program, and data input system
JP6149812B2 (en) Information processing system, control method and program thereof, and information processing apparatus, control method and program thereof
JP6634820B2 (en) Information processing apparatus, control method thereof, and program
US20210297465A1 (en) Information processing system, information processing apparatus, and method of processing information
JP6065080B2 (en) INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160502

R150 Certificate of patent or registration of utility model

Ref document number: 5939278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees