JP6705988B2 - Information processing system, control method thereof, and program - Google Patents

Information processing system, control method thereof, and program Download PDF

Info

Publication number
JP6705988B2
JP6705988B2 JP2017038866A JP2017038866A JP6705988B2 JP 6705988 B2 JP6705988 B2 JP 6705988B2 JP 2017038866 A JP2017038866 A JP 2017038866A JP 2017038866 A JP2017038866 A JP 2017038866A JP 6705988 B2 JP6705988 B2 JP 6705988B2
Authority
JP
Japan
Prior art keywords
image
information processing
read
unit
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017038866A
Other languages
Japanese (ja)
Other versions
JP2017120436A5 (en
JP2017120436A (en
Inventor
まゆみ 平川
まゆみ 平川
大 佐々木
大 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Publication of JP2017120436A publication Critical patent/JP2017120436A/en
Publication of JP2017120436A5 publication Critical patent/JP2017120436A5/ja
Application granted granted Critical
Publication of JP6705988B2 publication Critical patent/JP6705988B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

読取対象物を撮影した画像を、読取対象物を示す複数の種別の中から選択された種別と関連付けて、ユーザが任意の保存方法で容易に記憶させることが可能な情報処理システム、その制御方法、及びプログラムに関する。 Information processing system capable of allowing a user to easily store an image of an object to be read in association with a type selected from a plurality of types indicating the object to be read by an arbitrary storage method, and a control method thereof , And the program.

近年、紙媒体をイメージスキャナなどでスキャンし、電子化して管理することが一般的に行われている。 In recent years, it is common practice to scan a paper medium with an image scanner or the like, digitize it, and manage it.

例えば銀行のカウンターなどでは、顧客が持参した本人確認書類をコピーし、紙媒体によって保存するということが行われていたが、現在では本人確認書類をスキャンすることで電子的に保存するということが多く行われている。 For example, at bank counters, it was said that the identity verification document brought by the customer was copied and saved on paper media, but now it is possible to electronically save it by scanning the identity verification document. Many are done.

例えば、下記の特許文献1には、載置面に載置された書類を上方から撮像することで、書類をスキャンして保存する仕組みが開示されている。 For example, Patent Document 1 below discloses a mechanism for scanning and saving a document placed on a placement surface by imaging the document from above.

また、下記の特許文献2には、投影面上の操作可能な範囲を、ユーザの手の上に投影する仕組みが開示されている。 Further, Patent Document 2 below discloses a mechanism for projecting an operable range on a projection surface onto a user's hand.

特開2013−258612号公報JP, 2013-258612, A 特開2014−203176号公報JP, 2014-203176, A

本発明は、読取対象物を撮影した画像を、読取対象物を示す複数の種別の中からユーザにより選択された種別と関連付けて、ユーザが任意の保存方法で容易に記憶させることが可能な仕組みを提供することを目的とする。 MEANS TO SOLVE THE PROBLEM This invention relates to the image which image | photographed the to-be- readed object is linked|related with the classification selected by the user from the some classification|category which shows a to-be-readed object, and a user can memorize|store easily by arbitrary storage methods. The purpose is to provide.

上記の目的を達成するために、本発明の情報処理システムは、読取対象物を撮影部が撮影した画像を記憶させるかを制御する情報処理システムであって、読取対象物を示す複数の種別の中から前記撮影部で撮影する種別の選択をユーザにより受け付ける受付手段と、前記撮影部で前記読取対象物が撮影された場合に、当該撮影された第1の画像と重複する領域で、前記第1の画像よりも先に前記撮影部で前記読取対象物が撮影された第2の画像が記憶されている場合は、前記受付手段により選択を受け付けた種別と関連付けて前記第1の画像を前記第2の画像に上書きし、また、前記第1の画像の領域と重複しない領域で撮影された前記第2の画像が記憶されている場合は、前記第1の画像を前記第2の画像に上書きせずに、前記受付手段により選択を受け付けた種別と関連付けて前記第1の画像および前記第2の画像を記憶するよう制御する記憶制御手段と、を備えることを特徴とする。
また、本発明の情報処理システムの制御方法は、読取対象物を撮影部が撮影した画像を記憶させるかを制御する情報処理システムの制御方法であって、前記情報処理システムが、読取対象物を示す複数の種別の中から前記撮影部で撮影する種別の選択をユーザにより受け付ける受付ステップと、前記情報処理システムが、前記撮影部で前記読取対象物が撮影された場合に、当該撮影された第1の画像と重複する領域で、前記第1の画像よりも先に前記撮影部で前記読取対象物が撮影された第2の画像が記憶されている場合は、前記受付ステップにより選択を受け付けた種別と関連付けて前記第1の画像を前記第2の画像に上書きし、また、前記第1の画像の領域と重複しない領域で撮影された前記第2の画像が記憶されている場合は、前記第1の画像を前記第2の画像に上書きせずに、前記受付ステップにより選択を受け付けた種別と関連付けて前記第1の画像および前記第2の画像を記憶するよう制御する記憶制御ステップと、を含むことを特徴とする
また、本発明の情報処理システムのプログラムは、コンピュータを、上記の情報処理システムとして機能させるためのプログラムであることを特徴とする。
To achieve the above object, an information processing system of the present invention, reading an object An information processing system imaging unit controls whether to store the images taken, a plurality of types showing the object to be read A reception unit that accepts a selection of a type to be captured by the image capturing unit from a user, and an area that overlaps with the captured first image when the object to be read is captured by the image capturing unit. When the second image in which the reading object is photographed by the photographing unit is stored before the first image, the first image is stored in association with the type of which selection is accepted by the accepting unit. When the second image is overwritten on the second image and the second image captured in a region that does not overlap with the region of the first image is stored, the first image is stored in the second image. Storage control means for controlling to store the first image and the second image in association with the type of which selection is accepted by the acceptance means without overwriting.
The control method for an information processing system of the present invention is a control method of an information processing system imaging unit read object controls whether to store the image taken, the information processing system, the object to be read a receiving step of receiving the user selection of the type to be photographed by the photographing unit from among a plurality of types shown, the information processing system, when the object to be read by the imaging unit was taken was the shooting If the second image in which the reading target is photographed by the photographing unit is stored in the area overlapping the first image before the first image, the selection is accepted in the acceptance step. If the first image is overwritten on the second image in association with the type, and the second image captured in a region that does not overlap the region of the first image is stored, A storage control step of controlling to store the first image and the second image in association with the type of which selection is accepted in the accepting step without overwriting the first image on the second image ; It is characterized by including .
Further, a program of the information processing system of the present invention is a program for causing a computer to function as the above information processing system.

本発明によれば、読取対象物を撮影した画像を、読取対象物を示す複数の種別の中から選択された種別と関連付けて、ユーザが任意の保存方法で容易に記憶させることが可能な仕組みを提供できる効果を奏する。
ADVANTAGE OF THE INVENTION According to this invention, the image which image | photographed the read-out target object is linked|related with the type selected from the several type which shows a read-out target object, and a user can memorize|store easily by arbitrary storage methods. The effect of being able to provide.

本発明の実施形態における情報処理システムのシステム構成の一例を示す図である。It is a figure showing an example of a system configuration of an information processing system in an embodiment of the present invention. 投影撮像装置102の外観構造及び内部構造の概要の一例を示す図である。3 is a diagram showing an example of an outline of an external structure and an internal structure of the projection imaging device 102. FIG. 投影撮像装置102を用いて投影した投影画像を用いて、商品説明を行う場合の一例を示す図である。It is a figure which shows an example at the time of performing a product description using the projection image projected using the projection imaging device 102. 情報処理装置100及び投影撮像装置102のハードウェア構成の一例を示す図である。FIG. 1 is a diagram showing an example of a hardware configuration of an information processing device 100 and a projection imaging device 102. 情報処理装置100の機能構成の一例を示す図である。3 is a diagram showing an example of a functional configuration of the information processing device 100. FIG. 本発明の実施形態における一連の処理の流れを示すフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which shows the flow of a series of processes in embodiment of this invention. 図6の読取対象物読取処理の詳細な処理の流れを示すフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which shows the flow of a detailed process of the reading target object reading process of FIG. 図7の画像保存処理の詳細な処理の流れを示すフローチャートの一例を示す図である。FIG. 8 is a diagram showing an example of a flowchart showing a detailed processing flow of the image storage processing of FIG. 7. 読取対象物一覧画面900の画面構成の一例を示す図である。FIG. 9 is a diagram showing an example of a screen configuration of a read object list screen 900. 読取対象物を撮影する際の読取対象物読取画面1000の画面構成の一例を示す図である。It is a figure which shows an example of a screen structure of the reading target reading screen 1000 at the time of photographing a reading target. 撮影後、読取対象物をユーザが移動させた場合の読取対象物読取画面1000の一例を示す図である。It is a figure which shows an example of the reading target reading screen 1000 in case a user moves a reading target after imaging. 読取対象物の撮影を行い、撮影により得られた画像を投影している位置に読取対象物を置いて撮影を行う場合の読取対象物読取指示画面1200の一例を示す図である。It is a figure which shows an example of the reading target read instruction|indication screen 1200 at the time of imaging a reading target and putting a reading target in the position which is projecting the image obtained by photography, and imaging. 読取対象物の撮影を行い、撮影により得られた画像を投影している位置ではない位置に読取対象物を置いて撮影を行う場合の読取対象物読取指示画面1300の一例を示す図である。FIG. 13 is a diagram showing an example of a read target object reading instruction screen 1300 when a read target object is imaged and the read object is placed at a position other than the position where the image obtained by the image capture is projected. 画像テーブル1400のテーブル構成の一例を示す図である。It is a figure which shows an example of the table structure of the image table 1400. 読取対象物位置テーブル1500のテーブル構成の一例を示す図である。It is a figure which shows an example of a table structure of the reading target position table 1500. 顧客ID入力画面1600の画面構成の一例を示す図である。It is a figure which shows an example of a screen structure of a customer ID input screen 1600. 顧客IDテーブル1700のテーブル構成の一例を示す図である。It is a figure which shows an example of a table structure of a customer ID table 1700. メニュー画面1800の画面構成の一例を示す図である。It is a figure which shows an example of a screen structure of a menu screen 1800. 本発明の第2の実施形態における読取対象物読取処理の詳細な処理の流れを示すフローチャートの一例を示す図である。It is a figure which shows an example of the flowchart which shows the detailed flow of a reading target reading process in the 2nd Embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態における情報処理システムのシステム構成の一例を示す図である。情報処理システムは、情報処理装置100と投影撮像装置102とを含む。情報処理装置100は、投影撮像装置102と通信可能に接続されており、更にディスプレイ410と入力デバイス409とも通信可能に接続されている。図1では、これらの装置は有線で接続されているが、無線であってもよい。尚、図1のシステム上に接続される各種端末の構成は一例であり、用途や目的に応じて様々な構成例がある。 FIG. 1 is a diagram showing an example of a system configuration of an information processing system according to an embodiment of the present invention. The information processing system includes an information processing device 100 and a projection imaging device 102. The information processing apparatus 100 is communicatively connected to the projection imaging apparatus 102, and further communicatively connected to the display 410 and the input device 409. In FIG. 1, these devices are connected by wire, but may be wireless. Note that the configurations of various terminals connected to the system of FIG. 1 are examples, and there are various configuration examples depending on the use and purpose.

情報処理装置100は、オペレーティングシステムを搭載する汎用的な装置である。情報処理装置100は、情報処理装置100に接続された各種デバイスに対して各種動作を実行するよう指示を行う。 The information processing device 100 is a general-purpose device equipped with an operating system. The information processing apparatus 100 instructs various devices connected to the information processing apparatus 100 to execute various operations.

投影撮像装置102は、デジタルカメラ421(撮影部)とジェスチャセンサ422とプロジェクタ423(投影部)とを備える装置である。情報処理装置100からの指示に応じてプロジェクタ423で投影をし、投影された机上等の投影面をデジタルカメラ421で撮像し、また投影面上でユーザの手の動きや物体の位置を認識する。 The projection imaging device 102 is a device including a digital camera 421 (imaging unit), a gesture sensor 422, and a projector 423 (projection unit). Projection is performed by the projector 423 according to an instruction from the information processing apparatus 100, the projected projection surface such as a desk is imaged by the digital camera 421, and the movement of the user's hand and the position of the object are recognized on the projection surface. ..

投影撮像装置102の外部構造及び内部構造の概要の一例について、図2を用いて説明する。 An example of the outline of the external structure and the internal structure of the projection imaging apparatus 102 will be described with reference to FIG.

図2は、投影撮像装置102の正面図と右側面図である。内部構造の隠れ線は破線で表現している。投影撮像装置102は、デジタルカメラ421(撮影部)とジェスチャセンサ422とプロジェクタ423(投影部)とを格納する収納部203を備え、収納部203は底面201と左側面202aと右側面202bとで左右から挟みこんで固定している。 FIG. 2 is a front view and a right side view of the projection imaging device 102. The hidden lines of the internal structure are represented by broken lines. The projection imaging apparatus 102 includes a storage unit 203 that stores a digital camera 421 (imaging unit), a gesture sensor 422, and a projector 423 (projection unit). The storage unit 203 includes a bottom surface 201, a left side surface 202a, and a right side surface 202b. It is sandwiched and fixed from the left and right.

また、上面204が左側面202aと右側面202bとの上部に設置され、上面204の下側にはプロジェクタ423から照射される光を反射するための反射鏡207を備える。すなわち、プロジェクタ423は第1の開口部205を通してこの反射鏡207に向けて投影できるよう、設置されている。デジタルカメラ421も同様に、反射鏡207で反射した投影面を撮像するため、デジタルカメラ421は第2の開口部206を通して反射鏡207に向けて設置されている。 Further, the upper surface 204 is installed above the left side surface 202a and the right side surface 202b, and a reflecting mirror 207 for reflecting the light emitted from the projector 423 is provided below the upper surface 204. That is, the projector 423 is installed so that it can project toward the reflecting mirror 207 through the first opening 205. Similarly, since the digital camera 421 also captures an image of the projection surface reflected by the reflecting mirror 207, the digital camera 421 is installed toward the reflecting mirror 207 through the second opening 206.

またジェスチャセンサ422は、例えば赤外線を用いた深度センサである。これはプロジェクタ423が投影した投影面上におけるユーザの手や紙文書(以下、書類という。)等の位置や動きを特定するために、ジェスチャセンサ422からこれらの物体までの距離を算出する。ジェスチャセンサ422は、近赤外線のドットパターンを現実空間に投影し、このドットの形や間隔を取得することで物体までの距離を算出する。または、赤外線光を投影し、ジェスチャセンサ422が備えるカメラによって反射した赤外線光を読み取り、赤外線光が往復した時間を算出することで距離を算出する方式であってもよい。現実空間における物体の位置や動きを取得することができれば、ジェスチャセンサ422の距離の算出方式はどのような方式であってもよいし、ジェスチャセンサ422以外のセンサを用いてもよい。また、ジェスチャセンサ422もデジタルカメラ421と同様に、第2の開口部206を通して反射鏡207に向けて設置されている。この反射鏡207に向けて赤外線を照射する。 The gesture sensor 422 is, for example, a depth sensor that uses infrared rays. This calculates the distance from the gesture sensor 422 to these objects in order to specify the position and movement of the user's hand, paper document (hereinafter referred to as document), etc. on the projection surface projected by the projector 423. The gesture sensor 422 calculates a distance to an object by projecting a dot pattern of near infrared rays on the real space and acquiring the shape and interval of the dots. Alternatively, the distance may be calculated by projecting infrared light, reading the infrared light reflected by the camera included in the gesture sensor 422, and calculating the time when the infrared light travels back and forth. Any method may be used for calculating the distance of the gesture sensor 422 as long as the position and movement of the object in the physical space can be acquired, and a sensor other than the gesture sensor 422 may be used. Further, the gesture sensor 422 is also installed toward the reflecting mirror 207 through the second opening 206, similarly to the digital camera 421. Infrared rays are emitted toward the reflecting mirror 207.

投影撮像装置102は以上のように大きく3つの装置を内包しており、これらがそれぞれ情報処理装置100と通信可能に接続されている。本実施形態においては、情報処理装置100と投影撮像装置102とが異なる筐体であるが、同一の筐体であってもよい。すなわち、投影撮像装置102に更に情報処理装置100を内包してもよい。 As described above, the projection imaging device 102 largely includes three devices, which are connected to the information processing device 100 so that they can communicate with each other. In the present embodiment, the information processing device 100 and the projection imaging device 102 have different casings, but they may have the same casing. That is, the projection imaging device 102 may further include the information processing device 100.

次に図3を用いて、本実施形態における投影撮像装置102とユーザとの位置関係について説明する。投影撮像装置102は、机上303に設置される。本実施形態では机を挟んで二人のユーザがいる。銀行窓口で商品説明を行うテラー301と、商品説明を受ける顧客302である。 Next, the positional relationship between the projection imaging apparatus 102 and the user in this embodiment will be described with reference to FIG. The projection imaging device 102 is installed on the desk 303. In this embodiment, there are two users across the desk. A teller 301 who explains the product at a bank window and a customer 302 who receives the product description.

テラー301は、入力デバイス409を操作して情報処理装置100に画面の表示指示を行うと、情報処理装置100からプロジェクタ423に対して当該画面の投影指示が送信される。プロジェクタ423はこれを受けると反射鏡207に向かって左右を反転させた画面を投影する。これは、反射鏡207で反射することにより、投影面304に投影される像が左右反転してしまうからである。こうすると、投影面304に指示した画面が投影される。画面を左右に反転させる処理は、情報処理装置100が行ってもよいし、プロジェクタ423が行ってもよい。また投影面304は、投影される光が見やすいよう模様のない白い面であることが望ましい。 When the teller 301 operates the input device 409 to instruct the information processing apparatus 100 to display a screen, the information processing apparatus 100 transmits the screen projection instruction to the projector 423. Upon receiving this, the projector 423 projects a left-right inverted screen toward the reflecting mirror 207. This is because the image projected on the projection surface 304 is horizontally inverted by being reflected by the reflecting mirror 207. In this way, the designated screen is projected on the projection surface 304. The process of inverting the screen to the left or right may be performed by the information processing device 100 or the projector 423. The projection surface 304 is preferably a white surface without a pattern so that the projected light is easy to see.

プロジェクタ423から照射された光が反射鏡207で図3の破線の矢印で示すような方向に反射されると、その光が投影面304に投影される。この光によって表現される画面を見て、テラー301が顧客302に商品説明を行う。本実施形態では、このようにテラー301と顧客302とが机を挟んで位置しており、それぞれが投影された画面を見ながら操作していく形態を前提として説明を行う。 When the light emitted from the projector 423 is reflected by the reflecting mirror 207 in the direction indicated by the dashed arrow in FIG. 3, the light is projected on the projection surface 304. The teller 301 explains the product to the customer 302 while looking at the screen represented by this light. In the present embodiment, the description will be made on the premise that the teller 301 and the customer 302 are positioned with the desk in between, and are operated while looking at the projected screens.

図4は、情報処理装置100及び投影撮像装置102のハードウェア構成の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a hardware configuration of the information processing device 100 and the projection imaging device 102.

CPU401は、システムバス404に接続される各デバイスやコントローラを統括的に制御する。 The CPU 401 centrally controls each device and controller connected to the system bus 404.

また、ROM402あるいは外部メモリ411(記憶手段に相当する)には、CPU401の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OSという。)や、情報処理装置100の実行する機能を実現するために必要な各種プログラム等が記憶されている。RAM403は、CPU401の主メモリ、ワークエリア等として機能する。 Further, the ROM 402 or the external memory 411 (corresponding to a storage unit) executes a control program of the CPU 401 such as a BIOS (Basic Input/Output System), an operating system program (hereinafter referred to as OS), and the information processing apparatus 100. Various programs and the like necessary for realizing the function are stored. The RAM 403 functions as a main memory, a work area, etc. of the CPU 401.

CPU401は、処理の実行に際して必要なプログラム等をRAM403にロードして、プログラムを実行することで各種動作を実現するものである。 The CPU 401 loads various programs necessary for executing the processing into the RAM 403 and executes the programs to realize various operations.

また、汎用入出力コントローラ405は、キーボードやマウス等の入力デバイス409、更には投影撮像装置102のデジタルカメラ421やジェスチャセンサ422との入出力を制御する。これらは、USB(Universal Serial Bus)等のバス規格により接続される。 Further, the general-purpose input/output controller 405 controls input/output with the input device 409 such as a keyboard and a mouse, and further with the digital camera 421 and the gesture sensor 422 of the projection imaging apparatus 102. These are connected by a bus standard such as USB (Universal Serial Bus).

ビデオコントローラ406は、ディスプレイ410や投影撮像装置102のプロジェクタ423等の表示装置や投影装置への表示を制御する。ディスプレイ410は例えばCRTや液晶ディスプレイである。更にビデオコントローラ406は、ディスプレイ410と投影撮像装置102のプロジェクタ423とそれぞれに対して同じ画面または異なる画面を表示及び投影指示する。これらは、いわゆるミラーリングやマルチモニタが可能である。 The video controller 406 controls display on a display device or a projection device such as the display 410 or the projector 423 of the projection imaging device 102. The display 410 is, for example, a CRT or a liquid crystal display. Further, the video controller 406 instructs the display 410 and the projector 423 of the projection imaging apparatus 102 to display and project the same screen or different screens. These can be so-called mirroring and multi-monitor.

メモリコントローラ407は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスクやフレキシブルディスク或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ411へのアクセスを制御する。 The memory controller 407 is a card type memory connected to a hard disk or a flexible disk or a PCMCIA card slot for storing a boot program, browser software, various applications, font data, user files, edit files, various data, etc. through an adapter. Access to the external memory 411.

通信I/Fコントローラ408は、ネットワークを介して、外部機器と接続及び通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。 The communication I/F controller 408 connects and communicates with an external device via a network and executes communication control processing on the network. For example, internet communication using TCP/IP is possible.

尚、CPU401は、例えばRAM403内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ410上での表示や投影撮像装置102のプロジェクタ423での投影を可能としている。また、CPU401は、ディスプレイ410上の不図示のマウスカーソル等でのユーザ指示を可能とする。更にCPU401は、投影面304に投影された画面をユーザの手でタッチすることによっても、ユーザ指示を可能とする。すなわち、ジェスチャセンサ422で検知した現実空間におけるユーザの手の座標位置に応じて、画面のボタン等が押下されたのか否かを検知し、CPU401に動作を実行させる。 Note that the CPU 401 enables the display on the display 410 and the projection by the projector 423 of the projection imaging apparatus 102 by executing the outline font rasterization process in the display information area in the RAM 403, for example. Further, the CPU 401 enables a user instruction with a mouse cursor or the like (not shown) on the display 410. Further, the CPU 401 enables the user instruction by touching the screen projected on the projection surface 304 with the user's hand. That is, depending on the coordinate position of the user's hand in the physical space detected by the gesture sensor 422, it is detected whether a button or the like on the screen is pressed, and the CPU 401 is caused to execute the operation.

本発明の情報処理装置100が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ411(記憶手段に相当する)に記録されており、必要に応じてRAM403にロードされることによりCPU401によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ411に格納されている。 Various programs and the like used by the information processing apparatus 100 of the present invention to execute various processes described later are recorded in the external memory 411 (corresponding to a storage unit), and are loaded into the RAM 403 as necessary. It is executed by the CPU 401. Further, definition files and various information tables used by the program according to the present invention are stored in the external memory 411.

次に図5を用いて情報処理装置100のモジュール構成について説明する。なお、図5の装置のモジュール構成は一例であり、用途や目的に応じて様々な構成例がある。 Next, the module configuration of the information processing apparatus 100 will be described with reference to FIG. Note that the module configuration of the device in FIG. 5 is an example, and there are various configuration examples according to the use and purpose.

情報処理装置100は機能部として、記憶部501と、表示制御部502と、投影制御部503と、撮像制御部504と、センサ制御部505と、座標変換部506と、操作検知部507と、位置判定部508と画像管理部509とを備える。 The information processing device 100 includes, as functional units, a storage unit 501, a display control unit 502, a projection control unit 503, an imaging control unit 504, a sensor control unit 505, a coordinate conversion unit 506, an operation detection unit 507, A position determination unit 508 and an image management unit 509 are provided.

記憶部501は、後述する各種テーブルの情報や各種画面を構成する情報を記憶するための機能部である。必要に応じて、情報の追加・更新・削除を行う。 The storage unit 501 is a functional unit for storing information on various tables and information configuring various screens described below. Add/update/delete information as necessary.

表示制御部502は、情報処理装置100と通信可能に接続されたディスプレイ410の表示を制御するための機能部である。表示制御部502から画面等の表示指示がなされると、ビデオコントローラ406を介してディスプレイ410に表示指示が送信される。そして、ディスプレイ410はこの指示を受信すると、指示に従って画面等を表示する。 The display control unit 502 is a functional unit for controlling display on the display 410 communicably connected to the information processing apparatus 100. When the display control unit 502 gives a display instruction for a screen or the like, the display instruction is transmitted to the display 410 via the video controller 406. Then, when the display 410 receives this instruction, the display 410 displays a screen or the like according to the instruction.

投影制御部503は、情報処理装置100と通信可能に接続されたプロジェクタ423の投影を制御するための機能部である。投影制御部503から画面等の投影指示がなされると、表示制御部502と同様にビデオコントローラ406を介してプロジェクタ423に投影指示が送信される。そして、プロジェクタ423はこの指示を受信すると、指示に従って画面等を現実空間に投影する。 The projection control unit 503 is a functional unit that controls the projection of the projector 423 that is communicably connected to the information processing apparatus 100. When the projection control unit 503 gives a projection instruction for a screen or the like, the projection instruction is transmitted to the projector 423 via the video controller 406 similarly to the display control unit 502. When the projector 423 receives this instruction, the projector 423 projects a screen or the like on the real space according to the instruction.

撮像制御部504は、情報処理装置100と通信可能に接続されたデジタルカメラ421の撮像を制御するための機能部である。撮像制御部504から投影面304の撮像指示が出されると、汎用入出力コントローラ405を介してデジタルカメラ421に撮像指示がなされる。デジタルカメラ421はこの指示を受信すると、撮像を行い、撮像により生成された画像データを情報処理装置100に送信する。撮像制御部504は、これを受け取り、画像データを左右反転させた上で記憶部501が外部メモリ411等に記憶する。前述した通り、デジタルカメラ421は反射鏡207に写った像を撮像するため左右が反転している。これを補正するために、記憶部501で画像データを記憶する前に、撮像制御部504がこの画像データを左右反転する。 The imaging control unit 504 is a functional unit for controlling imaging of the digital camera 421 communicatively connected to the information processing apparatus 100. When the image capturing control unit 504 issues an image capturing instruction of the projection surface 304, the digital camera 421 is instructed to image capturing via the general-purpose input/output controller 405. Upon receiving this instruction, the digital camera 421 captures an image and transmits the image data generated by the capture to the information processing device 100. The imaging control unit 504 receives this, horizontally inverts the image data, and then the storage unit 501 stores it in the external memory 411 or the like. As described above, since the digital camera 421 captures the image reflected on the reflecting mirror 207, the left and right are inverted. In order to correct this, the imaging control unit 504 laterally reverses the image data before storing the image data in the storage unit 501.

センサ制御部505は、情報処理装置100と通信可能に接続されたジェスチャセンサ422から送信される、投影面304における現実空間の情報(物体の有無や位置等)を受信するための機能部である。ジェスチャセンサ422が検出した現実空間の情報は、ジェスチャセンサ422から情報処理装置100に対して逐一送信される。センサ制御部505はこれを受信し、後述する座標変換部506に渡す。 The sensor control unit 505 is a functional unit for receiving information on the real space (presence or absence of an object, position, etc.) on the projection plane 304, which is transmitted from the gesture sensor 422 communicatively connected to the information processing apparatus 100. .. The information in the physical space detected by the gesture sensor 422 is transmitted from the gesture sensor 422 to the information processing apparatus 100 one by one. The sensor control unit 505 receives this and passes it to the coordinate conversion unit 506 described later.

座標変換部506は、センサ制御部505が受信した現実空間の情報に含まれる、投影面304にある物体の位置を示す座標値を変換するための機能部である。座標変換部506は、この座標値を投影面304に投影された画面における座標値に変換する。すなわち、ジェスチャセンサ422で検知した座標値が、情報処理装置100が管理する画面のどの座標値に該当するのかを、この座標変換部506を用いて特定する。尚、座標変換の方法は従来技術を用いるため詳細な説明は省略する。 The coordinate conversion unit 506 is a functional unit for converting the coordinate value indicating the position of the object on the projection plane 304, which is included in the information on the physical space received by the sensor control unit 505. The coordinate conversion unit 506 converts this coordinate value into a coordinate value on the screen projected on the projection surface 304. That is, which coordinate value on the screen managed by the information processing device 100 corresponds to the coordinate value detected by the gesture sensor 422 is specified using the coordinate conversion unit 506. Since the method of coordinate conversion uses a conventional technique, detailed description thereof will be omitted.

操作検知部507は、ユーザからの操作を検知するための機能部である。情報処理装置100に接続された入力デバイス409を通じて送信されるユーザからの指示を検知したり、投影面304に投影された画面でユーザが行った指示を検知したりする。後者の指示の検知は、投影面304において検知した物体の座標値を座標変換部506で変換することにより画面上のどのボタンが押下されたのかを検知したり、投影面上にある物体の矩形を検知することで、読取対象物を検知したりする。 The operation detection unit 507 is a functional unit for detecting an operation from the user. It detects an instruction from the user transmitted through the input device 409 connected to the information processing apparatus 100, or detects an instruction issued by the user on the screen projected on the projection surface 304. To detect the latter instruction, the coordinate conversion unit 506 converts the coordinate value of the object detected on the projection surface 304 to detect which button on the screen is pressed, or the rectangle of the object on the projection surface. The object to be read is detected by detecting the.

位置判定部508は、操作検知部507で検知した投影面上の読取対象物の位置と外部メモリ411に記憶された画像に対応して記憶される撮影位置1404とを比較して、位置が一致するか否かを判定する機能部である。 The position determination unit 508 compares the position of the read object on the projection surface detected by the operation detection unit 507 with the shooting position 1404 stored corresponding to the image stored in the external memory 411, and the positions match. It is a functional unit that determines whether or not to do.

画像管理部509は、デジタルカメラ421で撮影することにより得られた画像を管理する機能部である。既に撮影された読取対象物の撮影時の位置と撮影を行う読取対象物の位置に応じて、既に撮影により得られた画像に上書きを行ったり、新規に画像を保存する。 The image management unit 509 is a functional unit that manages images obtained by shooting with the digital camera 421. Depending on the position of the already read object to be read and the position of the object to be read, the image already taken is overwritten or a new image is saved.

以上で情報処理装置100のモジュール構成の説明を終える。 This is the end of the description of the module configuration of the information processing apparatus 100.

次に図6に示すフローチャートを用いて本発明の実施形態の一連の処理の流れを説明する。 Next, a flow of a series of processing according to the embodiment of the present invention will be described using the flowchart shown in FIG.

ステップS601では、情報処理装置100のCPU401は、ユーザからの指示に応じて外部メモリ411等に記憶された投影アプリケーションを起動する。投影アプリケーションは、後述するステップS602乃至ステップS608の各処理を実行するためのアプリケーションである。投影アプリケーションを動作させることにより、投影面304に読取対象物読取のためのボタン等を投影したり、投影面304に載置された読取対象物を撮影することで画像を取得し、得られた画像を投影面304に投影することが可能になる。本発明の実施形態では、テラー301が顧客302に対して説明を行う処理の説明は割愛する。 In step S601, the CPU 401 of the information processing apparatus 100 activates the projection application stored in the external memory 411 or the like according to an instruction from the user. The projection application is an application for executing each processing of steps S602 to S608 described later. By operating the projection application, an image is obtained by projecting a button or the like for reading the reading target object on the projection surface 304 or capturing an image of the reading target object placed on the projection surface 304. The image can be projected on the projection surface 304. In the embodiment of the present invention, the description of the process in which the teller 301 explains to the customer 302 will be omitted.

ステップS602では、情報処理装置100のCPU401は、ディスプレイ410に顧客ID入力画面1600を表示させる。例えば、図16に示す顧客ID入力画面1600には顧客ID入力欄1601と次へボタン1602が配置されている。顧客ID入力欄1601はテラー301が対応する顧客302を識別するためのIDである顧客IDを入力するための欄である。次へボタン1602は押下を受け付けることで次の処理に移すためのボタンである。 In step S602, CPU 401 of information processing device 100 causes display 410 to display customer ID input screen 1600. For example, on the customer ID input screen 1600 shown in FIG. 16, a customer ID input field 1601 and a next button 1602 are arranged. The customer ID input field 1601 is a field for inputting a customer ID which is an ID for identifying the customer 302 to which the teller 301 corresponds. The next button 1602 is a button for moving to the next process by accepting the depression.

顧客ID1701は図17に示す顧客IDテーブル1700に格納されている。顧客IDテーブル1700には顧客ID1701と顧客名1702が対応付けて格納されており、顧客ID1701は顧客を一意に識別するIDである。顧客名1702は顧客の名前である。 The customer ID 1701 is stored in the customer ID table 1700 shown in FIG. The customer ID table 1700 stores a customer ID 1701 and a customer name 1702 in association with each other, and the customer ID 1701 is an ID for uniquely identifying the customer. Customer name 1702 is the name of the customer.

ステップS603では、情報処理装置100のCPU401は、情報処理装置100のCPU401は、顧客ID1701の入力を入力デバイス409により受け付ける。 In step S603, the CPU 401 of the information processing device 100 receives the input of the customer ID 1701 from the input device 409.

ステップS604では、情報処理装置100のCPU401は、次へボタン1602の押下を受け付ける。 In step S604, the CPU 401 of the information processing apparatus 100 accepts the press of the next button 1602.

ステップS605では、情報処理装置100のCPU401は、メニュー画面1800をディスプレイ410に表示する。図18に示すメニュー画面1800には、商品説明ボタン1801と読取対象物読取ボタン1802と終了ボタン1803が配置されており、入力デバイス409により選択を受け付けることで、それぞれに対応する処理を実行する。本発明の実施形態では商品説明の処理は割愛する。テラー301は顧客302に対して商品説明を終えたあと、顧客302が契約を結ぶために必要な読取対象物を読み取るための処理が読取対象物読取処理である。詳細は後述する。 In step S605, the CPU 401 of the information processing device 100 displays the menu screen 1800 on the display 410. On the menu screen 1800 shown in FIG. 18, a product description button 1801, a read target object read button 1802, and an end button 1803 are arranged. By accepting selection by the input device 409, processing corresponding to each is executed. In the embodiment of the present invention, the description of the product is omitted. After the product explanation to the customer 302 is finished, the teller 301 reads the read object necessary for the customer 302 to conclude a contract, which is the read object reading processing. Details will be described later.

ステップS606では、情報処理装置100のCPU401は、メニュー画面の読取対象物読取ボタン1802が押下されたか否かを判定する。読取対象物読取ボタン1802が押下されたと判定した場合は処理をステップS607に進める。読取対象物読取ボタン1802が押下されないと判定した場合は処理をステップS608に進める。 In step S606, the CPU 401 of the information processing apparatus 100 determines whether or not the read target object read button 1802 on the menu screen has been pressed. If it is determined that the read object read button 1802 is pressed, the process proceeds to step S607. If it is determined that the read object read button 1802 is not pressed, the process proceeds to step S608.

ステップS607では、情報処理装置100のCPU401は、投影面304に載置された読取対象物をデジタルカメラ421で撮影することにより読取対象物の画像を取得する読取対象物読取処理を行う。詳細は後の図7に示すフローチャートを用いて説明を行う。 In step S<b>607, the CPU 401 of the information processing apparatus 100 performs a reading target object reading process of acquiring an image of the reading target object by capturing an image of the reading target object placed on the projection surface 304 with the digital camera 421. Details will be described with reference to the flowchart shown in FIG.

ステップS608では、情報処理装置100のCPU401は、メニュー画面の終了ボタンが押下されたか否かを判定する。終了ボタンが押下されたと判定した場合には処理をステップS609に進め、押下されないと判定した場合には処理をステップS606に戻す。 In step S608, the CPU 401 of the information processing apparatus 100 determines whether the end button on the menu screen has been pressed. If it is determined that the end button has been pressed, the process proceeds to step S609, and if it is determined that the end button has not been pressed, the process returns to step S606.

ステップS609では、情報処理装置100のCPU401は、ステップS601で起動した投影アプリケーションを終了する。 In step S609, the CPU 401 of the information processing device 100 ends the projection application activated in step S601.

以上で本発明の実施形態の一連の処理の流れの説明を終了する。 This is the end of the description of the flow of the series of processes according to the embodiment of the present invention.

次に図6に示すフローチャートの読取対象物読取処理の詳細な説明を、図7に示すフローチャートを用いて説明する。 Next, a detailed description of the reading target object reading process of the flowchart shown in FIG. 6 will be given using the flowchart shown in FIG. 7.

ステップS701では、情報処理装置100のCPU401は、投影面304に読取対象物一覧画面900をプロジェクタ423に投影させて、投影面304に表示する。読取対象物一覧画面900は、例えば住宅ローンを組むために必要な読取対象物の一覧である。読取対象物を撮影することで画像データとして情報処理装置100に取り込む。図9に示す通り、テラー301側と顧客302側の双方に顧客302の提出が必要な読取対象物種別(本人確認書類等)の領域(以下、読取対象物種別欄)が表示されており、この読取対象物種別欄のいずれかに対するタッチ操作を検知すると、図10に示す読取対象物読取画面1000が投影され表示される。読取対象物読取画面1000で読取対象物の読み取り、すなわちデジタルカメラ421による撮像が行われ、撮像により生成された画像データを情報処理装置100が取得する。無事に読み取りが終了すると、再び読取対象物一覧画面900に戻り、タッチ操作を検知した読取対象物の枠に読み取った画像データを表示する。例えば図9に示すように、運転免許証欄903に対するタッチ操作を検知すると、運転免許証を読み込むために読取対象物読取画面1000が表示される。そして、顧客302が投影面304に置いた運転免許証を撮影する。撮影が完了すると、読取対象物一覧画面900に戻り、テラー301側と顧客302側の双方の運転免許証の領域に取り込んだ画像のサムネイル画像が表示される。領域に対して設定される読取対象物種別1402に対応する画像データ1403を取得してサムネイル画像を表示する。 In step S<b>701, the CPU 401 of the information processing apparatus 100 causes the projector 423 to project the read object list screen 900 on the projection surface 304 and displays it on the projection surface 304. The reading object list screen 900 is a list of reading objects necessary for, for example, making a mortgage. An image of the object to be read is captured in the information processing apparatus 100 as image data. As shown in FIG. 9, both the teller 301 side and the customer 302 side display an area (hereinafter referred to as a read object type column) of the read object type (identity confirmation document etc.) that the customer 302 needs to submit, When a touch operation on any of the read object type columns is detected, a read object reading screen 1000 shown in FIG. 10 is projected and displayed. The reading target is read on the reading target reading screen 1000, that is, the digital camera 421 captures an image, and the information processing apparatus 100 acquires the image data generated by the imaging. When the reading is successfully completed, the screen returns to the reading object list screen 900, and the read image data is displayed in the frame of the reading object for which the touch operation is detected. For example, as shown in FIG. 9, when a touch operation on the driver's license column 903 is detected, a read target object reading screen 1000 for reading the driver's license is displayed. Then, the customer 302 photographs the driver's license placed on the projection surface 304. When the shooting is completed, the screen returns to the read object list screen 900, and thumbnail images of the images captured in the driver's license areas on both the teller 301 side and the customer 302 side are displayed. Image data 1403 corresponding to the read object type 1402 set for the area is acquired and a thumbnail image is displayed.

ステップS702では、情報処理装置100のCPU401は、上述したように読取対象物種別欄における、いずれかの読取対象物種別に対する選択を受け付ける。読取対象物種別には読取対象物種別1402が対応付けられており、選択を受け付けた読取対象物種別1402をRAM403に一時記憶する。読取対象物種別1402は読取対象物種別を一意に識別するためのIDである。 In step S<b>702, the CPU 401 of the information processing apparatus 100 accepts selection for any of the read target object types in the read target object type column as described above. The read object type 1402 is associated with the read object type, and the read object type 1402 that has been selected is temporarily stored in the RAM 403. The read object type 1402 is an ID for uniquely identifying the read object type.

ステップS703では、情報処理装置100のCPU401は、読取対象物読取画面1000を投影面304に投影する。読取対象物読取画面1000には、読取対象物読取ボタン1001とキャンセルボタン1002と完了ボタン1003が配置されている。読取対象物読取画面1000に読取対象物1005が載置されると、読取対象物1005の矩形を特定し、矩形に応じて撮影位置1404を投影する。これによりユーザは情報処理装置100が読取対象物1005を認識していることを把握することができる。そして、ユーザより読取対象物読取ボタン1001を押下されると投影面304を撮影する。キャンセルボタン1002が押下されるとステップS702で選択を受け付けた読取対象物種別1402に関する画像を削除する。完了ボタン1003が押下されると、撮影処理を終了し、撮影により得られた画像を運転免許証欄903に表示させる。 In step S703, the CPU 401 of the information processing apparatus 100 projects the reading target object reading screen 1000 on the projection surface 304. On the reading target object reading screen 1000, a reading target object reading button 1001, a cancel button 1002, and a completion button 1003 are arranged. When the reading target object 1005 is placed on the reading target object reading screen 1000, a rectangle of the reading target object 1005 is specified, and the photographing position 1404 is projected according to the rectangle. This allows the user to know that the information processing apparatus 100 recognizes the reading target 1005. Then, when the user presses the reading target object reading button 1001, the projection surface 304 is photographed. When the cancel button 1002 is pressed, the image related to the read target object type 1402, the selection of which is accepted in step S702, is deleted. When the completion button 1003 is pressed, the image capturing process ends, and the image obtained by the image capturing is displayed in the driver's license column 903.

ステップS704では、情報処理装置100のCPU401は、読取対象物読取画面1000上に読取対象物が置かれたか否かを判定する。本実施形態では、矩形の物体が載置されたか否かをジェスチャセンサ422によって判定する。読取対象物が置かれたか否かの判定は、一例であって、デジタルカメラ421から取得する画像の画像処理によって判定してもよい。情報処理装置100は、読取対象物が置かれないと判定した場合は処理をステップS715に進める。読取対象物が置かれたと判定した場合、処理をステップS705に進める。 In step S704, the CPU 401 of the information processing apparatus 100 determines whether or not the reading target object is placed on the reading target object reading screen 1000. In the present embodiment, the gesture sensor 422 determines whether a rectangular object is placed. The determination as to whether or not the object to be read is placed is an example, and may be determined by image processing of an image acquired from the digital camera 421. If the information processing apparatus 100 determines that the reading target object is not placed, the process proceeds to step S715. If it is determined that the read object is placed, the process proceeds to step S705.

ステップS705では、情報処理装置100のCPU401は、ステップS704で投影面304上に置かれたと判定した読取対象物の位置と大きさを特定する(取得手段に相当する)。より具体的には、ジェスチャセンサ422から送られる情報に基づいて読取対象物の大きさと位置を規定する投影面304上の2点の座標を特定する。2点の座標は、図15に示す読取対象物位置テーブル1500に格納する。読取対象物位置テーブル1500は、読取対象物位置1501を管理するテーブルである。読取対象物位置1501は、読取対象物の位置と大きさを規定する投影面304上の2点の座標を格納している。 In step S705, the CPU 401 of the information processing apparatus 100 specifies the position and size of the read object that is determined to be placed on the projection surface 304 in step S704 (corresponding to an acquisition unit). More specifically, based on the information sent from the gesture sensor 422, the coordinates of two points on the projection surface 304 that define the size and position of the reading object are specified. The coordinates of the two points are stored in the read object position table 1500 shown in FIG. The reading object position table 1500 is a table for managing the reading object position 1501. The reading object position 1501 stores the coordinates of two points on the projection plane 304 that define the position and size of the reading object.

ステップS706では、情報処理装置100のCPU401は、ステップS705で特定した2点の座標が示す矩形を囲う枠1004を表示させる。この表示を行うことで、ユーザは情報処理装置が読取対象物を認識しているということを把握できる。 In step S706, the CPU 401 of the information processing apparatus 100 displays the frame 1004 surrounding the rectangle indicated by the coordinates of the two points specified in step S705. By performing this display, the user can know that the information processing device recognizes the reading target.

ステップS707では、情報処理装置100のCPU401は、ステップS706で表示された読取対象物読取ボタン1001が押下されたか否かを判定する。読取対象物読取ボタン1001が押下されたと判定した場合は処理をステップS708に進める。読取対象物読取ボタン1001が押下されないと判定した場合は処理をステップS704に戻す。 In step S707, the CPU 401 of the information processing device 100 determines whether or not the read target object read button 1001 displayed in step S706 has been pressed. If it is determined that the read object read button 1001 is pressed, the process proceeds to step S708. If it is determined that the read object read button 1001 is not pressed, the process returns to step S704.

ステップS708では、情報処理装置100のCPU401は、ステップS706で表示した枠1004を非表示にするよう制御する。ここで枠1004を非表示にするのは、デジタルカメラ421で撮影する際に画像のホワイトバランスに影響を及ぼさないためである。 In step S708, the CPU 401 of the information processing device 100 controls to hide the frame 1004 displayed in step S706. The frame 1004 is hidden here because it does not affect the white balance of the image when the digital camera 421 captures the image.

ステップS709では、情報処理装置100のCPU401は、投影面304をデジタルカメラ421で撮影するよう撮影指示を行う(撮影制御手段に相当する)。 In step S709, the CPU 401 of the information processing apparatus 100 issues a shooting instruction to shoot the projection surface 304 with the digital camera 421 (corresponding to a shooting control unit).

ステップS710では、情報処理装置100のCPU401は、撮影を行っていることがわかるアニメーションを投影面304に投影する。アニメーションを投影することで、撮影中であることをユーザに認識させることができる。 In step S710, the CPU 401 of the information processing device 100 projects an animation, which indicates that shooting is being performed, onto the projection surface 304. By projecting the animation, it is possible to make the user recognize that the image is being captured.

ステップS711では、情報処理装置100のCPU401は、デジタルカメラ421で撮影した画像を保存する処理である画像保存処理を行う。 In step S711, the CPU 401 of the information processing apparatus 100 performs an image saving process that is a process of saving an image captured by the digital camera 421.

ステップS712では、情報処理装置100のCPU401は、投影面304上の読取対象物の位置と大きさを特定する。特定の方法はステップS705と同様であるので説明は省略する。2点の座標は、図15に示す読取対象物位置テーブル1500に格納する。 In step S712, the CPU 401 of the information processing device 100 specifies the position and size of the reading target object on the projection surface 304. The specific method is the same as that in step S705, and thus the description is omitted. The coordinates of the two points are stored in the read object position table 1500 shown in FIG.

ステップS713では、情報処理装置100のCPU401は、読取対象物を撮影した時の位置から読取対象物が移動したか否かを判定する。より具体的には、ステップS702で特定した読取対象物種別1402に対応する撮影位置1404が示す矩形と、ステップS712で取得した読取対象物位置1501が示す矩形が重複するか否かを判定する。撮影位置1404が示す矩形と、ステップS712で取得した読取対象物位置1501が示す矩形が重複すると判断した場合は、読取対象物は移動していないとし処理をステップS712に戻す。撮影位置1404が示す矩形と、ステップS712で取得した読取対象物位置1501が示す矩形が重複しないと判定した場合には読取対象物が移動したと判定し、処理をステップS714に進める。重複の判断は2つの矩形が完全に一致している必要は無い。 In step S713, the CPU 401 of the information processing device 100 determines whether or not the reading target has moved from the position when the reading target was photographed. More specifically, it is determined whether or not the rectangle indicated by the imaging position 1404 corresponding to the read object type 1402 identified in step S702 and the rectangle indicated by the read object position 1501 acquired in step S712 overlap. If it is determined that the rectangle indicated by the photographing position 1404 and the rectangle indicated by the read target object position 1501 acquired in step S712 overlap, it is determined that the read target object has not moved, and the process returns to step S712. If it is determined that the rectangle indicated by the shooting position 1404 and the rectangle indicated by the read target position 1501 acquired in step S712 do not overlap, it is determined that the read target has moved, and the process proceeds to step S714. The determination of overlap does not require that the two rectangles be exactly the same.

ステップS714では、情報処理装置100のCPU401は、ステップS711で保存処理を行った画像を画像データ1403から取得し、撮影位置1404が示す領域に投影する(投影制御手段に相当する)。例えば、図11に示す読取対象物読取画面1000で説明する。読取対象物1005を、撮影した位置から移動させると、読取対象物1005を撮影することで得られる画像1101を撮影した位置に原寸大で投影し、表示する。そしてこのような画像1101が投影された後に、S715のようにキャンセルボタン1002と完了ボタン1003とが押下できるようになる。 In step S714, the CPU 401 of the information processing apparatus 100 acquires the image stored in step S711 from the image data 1403 and projects the image onto the area indicated by the shooting position 1404 (corresponding to a projection control unit). For example, the reading target object reading screen 1000 shown in FIG. 11 will be described. When the reading target 1005 is moved from the shooting position, the image 1101 obtained by shooting the reading target 1005 is projected and displayed at the shooting position in the actual size. Then, after such an image 1101 is projected, the cancel button 1002 and the completion button 1003 can be pressed as in S715.

このように読取対象物が撮影した時の位置から読取対象物が移動した場合に撮影を行った読取対象物を投影することで、投影面304に投影する領域を撮影を行った領域と別に確保することなく、読取対象物を投影させ、ユーザに確認させることを可能にする。さらに、読取対象物が移動してから読取対象物の画像を投影することにより投影の視認性が向上するという効果がある。また、読取対象物が移動され保存された画像が投影された後でないと、完了ボタン1003が押下できないようにすることで、保存された画像の確認をユーザに必ず行わせることもできる。 In this way, by projecting the imaged read object when the read object moves from the position at which the image was read, the area to be projected on the projection surface 304 is secured separately from the area where the image was taken. Without doing so, it is possible to project the read object and allow the user to confirm it. Furthermore, the visibility of the projection is improved by projecting the image of the reading target after the reading target moves. Further, the user cannot be sure to confirm the stored image by preventing the completion button 1003 from being pressed only after the reading object is moved and the stored image is projected.

ステップS715では、情報処理装置100のCPU401は、読取対象物読取画面1000に配置されるボタンのいずれのボタンが押下されたかを判定する。キャンセルボタン1002が押下されたと判定した場合には処理をステップS716に進める。完了ボタン1003が押下されたと判定した場合には処理をステップS717に進める。また、何もボタンが押下されない間は処理をステップS704に処理が戻り、その後読取対象物が取り除かれると、S704でNoと判定され、S715に戻ることになる。 In step S715, the CPU 401 of the information processing apparatus 100 determines which of the buttons arranged on the reading object reading screen 1000 has been pressed. If it is determined that the cancel button 1002 is pressed, the process proceeds to step S716. If it is determined that the completion button 1003 has been pressed, the process proceeds to step S717. If no button is pressed, the process returns to step S704, and if the read object is removed thereafter, it is determined No in step S704, and the process returns to step S715.

ステップS716では、情報処理装置100のCPU401は、ステップS702で選択を受け付けた読取対象物種別の読取対象物種別1402に対応する画像を削除する。 In step S716, the CPU 401 of the information processing apparatus 100 deletes the image corresponding to the read target object type 1402 of the read target object type selected in step S702.

ステップS717では、情報処理装置100のCPU401は、ディスプレイ410に表示される不図示の終了ボタンが押下されたか否かを判定する。終了ボタンが押下されたと判定した場合に処理を終了させ、終了ボタンが押下されないと判定した場合に処理をステップS701に戻す。 In step S717, the CPU 401 of the information processing device 100 determines whether or not an end button (not shown) displayed on the display 410 has been pressed. If it is determined that the end button has been pressed, the process is terminated, and if it is determined that the end button has not been pressed, the process returns to step S701.

以上で、図6に示すフローチャートの読取対象物読取処理の詳細な説明を終了する。 This is the end of the detailed description of the reading target object reading process in the flowchart shown in FIG.

次に図7に示すフローチャートのS711の画像保存処理の詳細な説明を、図8に示すフローチャートを用いて説明する。 Next, a detailed description of the image storage processing of S711 of the flowchart shown in FIG. 7 will be given using the flowchart shown in FIG.

ステップS801では、情報処理装置100のCPU401は、デジタルカメラ421から画像を取得する。 In step S801, the CPU 401 of the information processing device 100 acquires an image from the digital camera 421.

ステップS802では、情報処理装置100のCPU401は、ステップS801で取得した画像を外部メモリ411に保存する。 In step S802, the CPU 401 of the information processing device 100 stores the image acquired in step S801 in the external memory 411.

ステップS803では、情報処理装置100のCPU401は、ステップS802で保存した画像から、読取対象物位置に相当する領域の画像を切り取る。ステップS801で取得した画像は投影面304全体を写している画像であり、読取対象物のみを写したものではない。そのためこのような処理を行うことで、読取対象物のみを写した画像を生成する。読取対象物のみの画像を取得するために、デジタルカメラ421の撮影の時点でデジタルカメラ421の撮影範囲と撮影倍率を調整し読取対象物のみを写した画像を取得してもよい。 In step S803, the CPU 401 of the information processing apparatus 100 cuts out the image of the area corresponding to the position of the reading object from the image stored in step S802. The image acquired in step S801 is an image showing the entire projection surface 304, and is not an image showing only the read object. Therefore, by performing such processing, an image showing only the read object is generated. In order to acquire the image of only the read object, the shooting range and shooting magnification of the digital camera 421 may be adjusted at the time of shooting by the digital camera 421 to acquire an image of only the read object.

ステップS804では、情報処理装置100のCPU401は、ステップS803で切り取ることにより生成された画像をRAM403に保存する。 In step S804, the CPU 401 of the information processing device 100 saves the image generated by clipping in step S803 in the RAM 403.

ステップS805では、情報処理装置100のCPU401は、画像テーブル1400を参照し、ステップS702で選択した読取対象物種別1402が同一の画像のうち、撮影位置1404が重複する画像があるか否かを判定する(判定手段に相当する)。すなわち、投影面上の読取対象物の位置(領域)が重複している画像があるか否かを判定する。重複とは完全に撮影位置1404が重なっている必要はなく、一部が重複している場合であっても本発明における重複に含まれるものである。投影面上の読取対象物の位置(領域)が重複している画像があると判定した場合、処理をステップS806に進め、投影面上の読取対象物の位置(領域)が重複している画像がないと判定した場合は処理をステップS807に進める。 In step S805, the CPU 401 of the information processing apparatus 100 refers to the image table 1400, and determines whether or not there are images with the same shooting position 1404 among the images with the same read target object type 1402 selected in step S702. Yes (corresponds to the determination means). That is, it is determined whether or not there are images in which the positions (areas) of the read object on the projection surface overlap. The overlapping does not need to completely overlap the imaging positions 1404, and even if a part of them overlap, it is included in the overlapping in the present invention. If it is determined that there is an image in which the position (area) of the read object on the projection surface overlaps, the process proceeds to step S806, and an image in which the position (area) of the read object on the projection surface overlaps. If it is determined that there is none, the process proceeds to step S807.

具体的な例として図12と図13を用いて説明する。 A specific example will be described with reference to FIGS. 12 and 13.

図12では、ステップS714で既に投影されている画像1101の位置に重複するように、再度画像1101と同様の読取対象物であって実体物である読取対象物1005を顧客302が載置する。載置されると、情報処理装置100は、読取対象物1005の位置と大きさを特定し、枠1004を投影する。テラー301が読取対象物読取ボタン1001を押下すると、投影される画像1101と枠1004を非表示にし、投影面304の撮影を行う。撮影により得られた画像を投影された画像1101に上書きを行う。このように、投影された画像1101の位置と重複する位置(既に読取対象物の撮影を行った位置)に読取対象物を載置して撮影することで、簡単に画像の上書きを行うことができる。 In FIG. 12, the customer 302 places the reading object 1005, which is the same reading object as the image 1101 and is the actual object, again so as to overlap the position of the image 1101 already projected in step S714. When placed, the information processing apparatus 100 identifies the position and size of the reading target object 1005 and projects the frame 1004. When the teller 301 presses the reading target reading button 1001, the projected image 1101 and the frame 1004 are hidden, and the projection surface 304 is photographed. The image obtained by shooting is overwritten on the projected image 1101. In this way, by placing the image of the read object at a position that overlaps with the position of the projected image 1101 (position where the image of the read object has already been taken) and taking an image, it is possible to easily overwrite the image. it can.

図13では、ステップS714で既に投影されている画像1101の位置と異なる位置に、読取対象物1301を顧客302が載置する。載置されると、情報処理装置100は、読取対象物1005の位置と大きさを特定し、枠1004を投影する。テラー301が読取対象物読取ボタン1001を押下すると、投影される画像1101と枠1004を非表示にし、投影面304の撮影を行う。投影された画像1101と同一の読取対象物種別として、読取対象物1301を撮影することにより得られた画像を保存する。画像を保存する際には、図14に示すようにステップS702で選択された読取対象物種別として複数枚の画像データを対応付けて記憶することができる(図14では、読取対象物種別1402が「運転免許証」として画像データが複数枚登録されている)。例えば免許証の表面と裏面のように同一の読取対象物種別であって、複数枚の画像を読取対象物種別ごとに対応付けて保存する必要がある場合に、撮影の度に読取対象物種別の指定を受け付けることなく、簡単に対応付けて保存することが可能である。 In FIG. 13, the customer 302 places the read object 1301 at a position different from the position of the image 1101 already projected in step S714. When placed, the information processing apparatus 100 identifies the position and size of the reading target object 1005 and projects the frame 1004. When the teller 301 presses the reading target reading button 1001, the projected image 1101 and the frame 1004 are hidden, and the projection surface 304 is photographed. An image obtained by photographing the read target 1301 is stored as the same read target type as the projected image 1101. When storing the image, as shown in FIG. 14, a plurality of pieces of image data can be associated and stored as the read object type selected in step S702 (in FIG. 14, the read object type 1402 is stored). Multiple pieces of image data are registered as a "driver's license"). For example, if the same type of object to be read, such as the front and back of a license, and multiple images need to be stored in association with each type of object to be read, the type of object to be read is taken every time the image is taken. It is possible to easily associate and save them without accepting the designation of.

ステップS806では、情報処理装置100のCPU401は、ステップS805で重複していると判定した画像の画像インデックス1401に対応する画像データ1403が示す画像を上書きする(記憶制御手段に相当する)。本実施形態の上書きとは、同一のファイル名の画像を保存することを上書きとするが、画像データ1403が示す画像を削除し(削除指示に相当する)、画像データ1403を新たに保存されたファイルパスに書き換えることで上書きをしてもよい。 In step S806, the CPU 401 of the information processing apparatus 100 overwrites the image indicated by the image data 1403 corresponding to the image index 1401 of the image determined to overlap in step S805 (corresponding to a storage control unit). The overwrite of the present embodiment means that the image with the same file name is saved, but the image indicated by the image data 1403 is deleted (corresponding to the delete instruction), and the image data 1403 is newly saved. You may overwrite by rewriting to the file path.

ステップS807では、情報処理装置100のCPU401は、ステップS804でRAM403上に保存した画像を外部メモリ411上の適当なファイルパスに格納し保存する(新規画像として保存。記憶制御手段に相当する)。 In step S807, the CPU 401 of the information processing apparatus 100 stores and saves the image saved in the RAM 403 in step S804 in an appropriate file path in the external memory 411 (saved as a new image, which corresponds to a storage control unit).

ステップS808では、情報処理装置100のCPU401は、図14に示す画像テーブル1400に新たにレコードを追加する。画像テーブル1400は画像インデックス1401と、読取対象物種別1402と、画像データ1403と、撮影位置1404と、顧客ID1701を対応付けて格納する。画像インデックス1401は一意に識別するための番号であって、一番下のレコードに1を足した値を格納する。読取対象物種別1402は、ステップS702で選択を受け付けた読取対象物種別を格納する。画像データ1403は、ステップS807で画像を格納したファイルパスを保存する。撮影位置1404は、読取対象物位置1501の値を保存する。画像テーブル1400は一例であってこれに限定されない。 In step S808, the CPU 401 of the information processing apparatus 100 newly adds a record to the image table 1400 shown in FIG. The image table 1400 stores an image index 1401, a read object type 1402, image data 1403, a shooting position 1404, and a customer ID 1701 in association with each other. The image index 1401 is a number for uniquely identifying and stores a value obtained by adding 1 to the bottom record. The read object type 1402 stores the read object type selected in step S702. The image data 1403 stores the file path in which the image is stored in step S807. The shooting position 1404 stores the value of the reading target position 1501. The image table 1400 is an example and is not limited to this.

以上により、図7に示す画像保存処理の詳細な説明を終了する。 This is the end of the detailed description of the image storage process shown in FIG. 7.

このような処理を行うことで取り込み対象物が投影されている領域に、取り込み対象物を載置して撮影を行うと、投影されている画像に上書きを行い、取り込み対象物が投影されている領域とは別の領域に、取り込み対象物を載置して撮影を行うと、新規の画像として読取対象物種別1402に対応付けて保存を行うことを可能にする。 By carrying out such processing, when the capturing target is placed on the area where the capturing target is projected and the image is taken, the projected image is overwritten and the capturing target is projected. When an object to be captured is placed in an area other than the area and is photographed, it is possible to store a new image in association with the object type 1402 to be read.

そのため、ユーザは複数枚数の読取対象物を撮影する場合に、投影されている画像とは異なる領域に読取対象物を載置して撮影を行うことで次々に読取対象物の取り込みを行うことができ、取り込み結果を確認しながら撮影を行うことができる。読取結果に不具合が生じている場合にはユーザは不具合の生じている画像(投影)の上に画像に対応する読取対象物を載置して撮影指示を行うことで画像を上書きして良い結果の画像を保存することができる。このように簡単に複数ページの読取対象物を次々と撮影し、撮影結果に問題があった場合には簡単に再度撮影をし、上書き保存をすることが可能なユーザインターフェースを提供することが可能な効果を奏する。 Therefore, when capturing a plurality of objects to be read, the user can capture the objects to be read one after another by placing the objects to be read in an area different from the projected image and capturing the images. Yes, you can shoot while checking the capture result. When a problem occurs in the reading result, the user may overwrite the image by placing the reading target corresponding to the image on the image (projection) in which the problem occurs and giving a shooting instruction. Images can be saved. In this way, it is possible to provide a user interface that can easily capture multiple pages of the read object one after another, and if there is a problem with the captured result, simply re-capture and save it. Has a great effect.

以上で本発明の第1の実施形態の説明を終了する。 This is the end of the description of the first embodiment of the present invention.

次に本発明の第2の実施形態の説明を開始する。 Next, the description of the second embodiment of the present invention will be started.

第1の実施形態では、図7のステップS713における判定ステップで、ステップS702で特定した読取対象物種別1402に対応する撮影位置1404が示す矩形と、ステップS712で取得した読取対象物位置1501が示す矩形とが重複するか否かを判定する際、2つの矩形が完全に重複しているか否かを判定することにより読取対象物が移動したか否かを判定していた。第2の実施形態では、このステップS713に対応する判定ステップにおいて、重複は完全一致でなくてもよく、少なくとも一部が重複しているか否かを判定し、どこも重複していないと判定された場合に、読取対象物が撮影位置1404の示す矩形から取り除かれた(すなわち読取対象物が移動した)と判定する。 In the first embodiment, in the determination step in step S713 of FIG. 7, the rectangle indicated by the photographing position 1404 corresponding to the read target object type 1402 identified in step S702 and the read target object position 1501 acquired in step S712 are indicated. When determining whether or not the rectangle overlaps, it is determined whether or not the read object has moved by determining whether or not the two rectangles completely overlap. In the second embodiment, in the determination step corresponding to this step S713, the overlap does not have to be a complete match, it is determined whether or not at least a part of them overlap, and it is determined that there is no overlap. In this case, it is determined that the read object has been removed from the rectangle indicated by the photographing position 1404 (that is, the read object has moved).

以下詳細に説明をする。なお、第1の実施形態の図7に対応する図19以外のハードウェア構成、機能構成、フローチャート、テーブル等は第1の実施形態と同様であるため、説明は省略する。第1の実施形態と処理の異なる図19についてのみ説明を行う。 The details will be described below. Note that the hardware configuration, functional configuration, flowchart, table, and the like other than FIG. 19 corresponding to FIG. 7 of the first embodiment are the same as those of the first embodiment, so description will be omitted. Only FIG. 19 which is different in processing from the first embodiment will be described.

ステップS1901乃至ステップS1912は、図7のステップS701乃至ステップS712までの処理と同様であるため説明を省略する。 Steps S1901 to S1912 are the same as the steps S701 to S712 of FIG.

ステップS1913では、情報処理装置100のCPU401は、読取対象物を撮影した時の座標エリア内から読取対象物が移動したか否かを判定する。より具体的には、ステップS1902で特定した読取対象物種別1402に対応する撮影位置1404が示す矩形(例:(X1,Y1)(X2,Y2))と、ステップS1912で取得した読取対象物位置1501が示す矩形(例:(X7,Y7)(X8,Y8))が一部でも重複するか否かで判定する。 In step S1913, the CPU 401 of the information processing device 100 determines whether or not the reading target has moved from within the coordinate area when the reading target was photographed. More specifically, the rectangle (eg: (X1, Y1) (X2, Y2)) indicated by the shooting position 1404 corresponding to the read target object type 1402 identified in step S1902 and the read target object position acquired in step S1912. It is determined whether or not the rectangle indicated by 1501 (eg, (X7, Y7) (X8, Y8)) partially overlaps.

具体的には、以下のような条件式を用い、(X2 < X7 || X1 > X8 || Y2 < Y7 || Y1 > Y8 )の場合には、重複しないと判定し、それ以外の場合に重複すると判定することができる。なお、矩形同士の重複で判定するのみならず、撮影位置1404が示す矩形の周りに判定領域を設け、当該判定領域と読取対象物位置1501が示す矩形とが重複するか否かを判定してもよい。 Specifically, using the following conditional expressions, it is determined that (X2<X7||X1>X8||Y2<Y7||Y1>Y8) does not overlap, and in other cases, It can be determined that they overlap. It should be noted that not only determination is made by overlapping of rectangles, but a determination region is provided around the rectangle indicated by the photographing position 1404, and it is determined whether or not the determination region and the rectangle indicated by the read object position 1501 overlap. Good.

撮影位置1404が示す矩形と、ステップS1912で取得した読取対象物位置1501が示す矩形とが一部でも重複すると判定した場合には読取対象物は移動していないとして処理をステップS1912に戻す。撮影位置1404が示す矩形と、ステップS1912で取得した読取対象物位置1501が示す矩形が一部も重複していないと判定した場合には読取対象物が移動されたと判定し、処理をステップS1914に進める。 When it is determined that the rectangle indicated by the photographing position 1404 and the rectangle indicated by the reading target position 1501 acquired in step S1912 partially overlap, it is determined that the reading target has not moved, and the process returns to step S1912. If it is determined that the rectangle indicated by the photographing position 1404 and the rectangle indicated by the reading target position 1501 acquired in step S1912 do not partially overlap, it is determined that the reading target has been moved, and the process proceeds to step S1914. Proceed.

ステップS1914乃至ステップS1917は、図7に示すステップS714乃至ステップS717までの処理と同様であるため説明は省略する。 Steps S1914 to S1917 are similar to the processing of steps S714 to S717 shown in FIG.

以上、第2の実施形態によれば読取対象物が撮影された時の座標エリア外に移動したか否かを判定し読取対象物が座標エリア外に移動したと判定した場合に保存した画像を投影することで、撮影された位置から読み取り対象物を取り除くと撮影された画像データが投影されるという、ユーザの直観的な操作感を実現することを可能とする効果がある。 As described above, according to the second embodiment, it is determined whether or not the read object has moved to the outside of the coordinate area when the image was captured, and the image saved when the read object has moved to outside the coordinate area is displayed. By projecting, there is an effect that it is possible to realize the intuitive operation feeling of the user, that is, when the object to be read is removed from the imaged position, the imaged image data is projected.

以上説明したように、本発明の実施形態によれば、撮影した書類をユーザが適切に確認できるよう投影することの可能な効果を奏する。 As described above, according to the embodiments of the present invention, it is possible to project the photographed document so that the user can appropriately check the document.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。 The present invention can be embodied as, for example, a system, an apparatus, a method, a program, a storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. It may be applied to a device consisting of one device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 It should be noted that the present invention includes a software program that realizes the functions of the above-described embodiments, which directly or remotely supplies the system or device with the software program. The present invention also includes a case in which the computer of the system or the device reads and executes the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Therefore, the program code itself installed in the computer to implement the functional processing of the present invention by the computer also implements the present invention. That is, the present invention includes the computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, the program may take any form such as an object code, a program executed by an interpreter, or script data supplied to an OS as long as it has the function of the program.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of the recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, MO, a CD-ROM, a CD-R, a CD-RW, and the like. There are also magnetic tapes, non-volatile memory cards, ROMs, DVDs (DVD-ROMs, DVD-Rs), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 In addition, as a method of supplying the program, a browser of a client computer is used to connect to a home page on the Internet. The computer program itself of the present invention or a compressed file containing an automatic installation function can be supplied from the home page by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code forming the program of the present invention into a plurality of files and downloading each file from different homepages. That is, a WWW server that allows a plurality of users to download a program file for implementing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 Further, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and the key information for decrypting the encryption is downloaded from the home page via the Internet to users who have satisfied predetermined conditions. Let Then, it is also possible to execute the encrypted program by using the downloaded key information and install the program in a computer for implementation.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Moreover, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, the OS or the like running on the computer performs a part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted in the computer or a function expansion unit connected to the computer. After that, based on the instructions of the program, a CPU or the like included in the function expansion board or the function expansion unit performs a part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 Note that the above-described embodiments are merely examples of specific embodiments for carrying out the present invention, and the technical scope of the present invention should not be limitedly interpreted by these. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 情報処理装置
102 投影撮像装置
401 CPU
402 RAM
403 ROM
404 システムバス
405 汎用入出力コントローラ
406 ビデオコントローラ
407 メモリコントローラ
408 通信I/Fコントローラ
409 入力デバイス
410 ディスプレイ
411 外部メモリ
421 デジタルカメラ
422 ジェスチャセンサ
423 プロジェクタ
100 Information Processing Device 102 Projection Imaging Device 401 CPU
402 RAM
403 ROM
404 System bus 405 General-purpose input/output controller 406 Video controller 407 Memory controller 408 Communication I/F controller 409 Input device 410 Display 411 External memory 421 Digital camera 422 Gesture sensor 423 Projector

Claims (5)

読取対象物を撮影部が撮影した画像を記憶させるかを制御する情報処理システムであって、
読取対象物を示す複数の種別の中から前記撮影部で撮影する種別の選択をユーザにより受け付ける受付手段と、
前記撮影部で前記読取対象物が撮影された場合に、当該撮影された第1の画像と重複する領域で、前記第1の画像よりも先に前記撮影部で前記読取対象物が撮影された第2の画像が記憶されている場合は、前記受付手段により選択を受け付けた種別と関連付けて前記第1の画像を前記第2の画像に上書きし、また、前記第1の画像の領域と重複しない領域で撮影された前記第2の画像が記憶されている場合は、前記第1の画像を前記第2の画像に上書きせずに、前記受付手段により選択を受け付けた種別と関連付けて前記第1の画像および前記第2の画像を記憶するよう制御する記憶制御手段と、
を備えることを特徴とする情報処理システム。
An information processing system for controlling whether to store an image obtained by capturing an image of an object to be read ,
Accepting means for accepting a selection of a type to be photographed by the photographing unit from a plurality of types indicating an object to be read by a user,
When the reading target is photographed by the photographing unit, the reading target is photographed by the photographing unit before the first image in an area overlapping with the photographed first image. When the second image is stored, the first image is overwritten on the second image in association with the type of which selection is accepted by the accepting unit, and overlaps with the area of the first image. When the second image captured in the area not stored is stored, the first image is not overwritten on the second image, and the first image is associated with the type for which selection is accepted by the accepting unit. Storage control means for controlling to store one image and the second image ;
An information processing system comprising:
前記記憶制御手段は、前記受付手段で選択を受け付けた種別ごとに前記撮影部で撮影した画像を記憶するよう制御することを特徴とする請求項1に記載の情報処理システムThe information processing system according to claim 1, wherein the storage control unit controls to store an image photographed by the photographing unit for each type for which selection has been accepted by the acceptance unit . 前記情報処理システムは、投影部を備え、前記撮影部で撮影された画像を前記投影部により投影するよう制御する投影制御手段さらに備え、
前記投影制御手段は、前記記憶制御手段により記憶れた画像を前記投影面に投影するよう制御することを特徴とする請求項1または2に記載の情報処理システム
The information processing system includes a projection unit, and further includes a projection control unit that controls the projection unit to project the image captured by the imaging unit,
The information processing system according to claim 1 or 2, wherein the projection control unit controls the image stored by the storage control unit to be projected onto the projection surface.
読取対象物を撮影部が撮影した画像を記憶させるかを制御する情報処理システムの制御方法であって、
前記情報処理システムが、読取対象物を示す複数の種別の中から前記撮影部で撮影する種別の選択をユーザにより受け付ける受付ステップと、
前記情報処理システムが、前記撮影部で前記読取対象物が撮影された場合に、当該撮影された第1の画像と重複する領域で、前記第1の画像よりも先に前記撮影部で前記読取対象物が撮影された第2の画像が記憶されている場合は、前記受付ステップにより選択を受け付けた種別と関連付けて前記第1の画像を前記第2の画像に上書きし、また、前記第1の画像の領域と重複しない領域で撮影された前記第2の画像が記憶されている場合は、前記第1の画像を前記第2の画像に上書きせずに、前記受付ステップにより選択を受け付けた種別と関連付けて前記第1の画像および前記第2の画像を記憶するよう制御する記憶制御ステップと、
を含むことを特徴とする情報処理システムの制御方法。
A control method of an information processing system for controlling whether to store an image obtained by capturing an image of an object to be read ,
A reception step in which the information processing system receives a selection of a type to be photographed by the photographing unit from a plurality of types indicating an object to be read by a user,
When the object to be read is imaged by the image capturing unit, the information processing system reads the image by the image capturing unit prior to the first image in an area overlapping the imaged first image. When the second image of the object is stored, the first image is overwritten on the second image in association with the type of which the selection is accepted in the accepting step, and the first image is also stored. If the second image captured in a region that does not overlap the region of the image is stored, the selection is accepted by the accepting step without overwriting the first image with the second image . A storage control step of controlling to store the first image and the second image in association with a type ;
A method for controlling an information processing system, comprising:
コンピュータを、請求項1乃至の何れか1項に記載の情報処理システムとして機能させるためのプログラム。
A program for causing a computer to function as the information processing system according to any one of claims 1 to 3 .
JP2017038866A 2014-12-22 2017-03-02 Information processing system, control method thereof, and program Active JP6705988B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014259262 2014-12-22
JP2014259262 2014-12-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015233541A Division JP6103025B2 (en) 2014-12-22 2015-11-30 Information processing apparatus, control method thereof, and program

Publications (3)

Publication Number Publication Date
JP2017120436A JP2017120436A (en) 2017-07-06
JP2017120436A5 JP2017120436A5 (en) 2019-06-13
JP6705988B2 true JP6705988B2 (en) 2020-06-03

Family

ID=56244342

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015233541A Active JP6103025B2 (en) 2014-12-22 2015-11-30 Information processing apparatus, control method thereof, and program
JP2017038866A Active JP6705988B2 (en) 2014-12-22 2017-03-02 Information processing system, control method thereof, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015233541A Active JP6103025B2 (en) 2014-12-22 2015-11-30 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (2) JP6103025B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4618401B2 (en) * 2003-07-04 2011-01-26 富士ゼロックス株式会社 Information display system and information display method
JP2007067966A (en) * 2005-08-31 2007-03-15 Ricoh Co Ltd Image processing system
JP5517705B2 (en) * 2010-04-01 2014-06-11 キヤノン株式会社 Projection device
JP5950633B2 (en) * 2012-03-09 2016-07-13 キヤノン株式会社 Information processing apparatus, computer program, and information processing method
JP5894506B2 (en) * 2012-06-08 2016-03-30 株式会社Pfu Image processing apparatus, image reading apparatus, image processing method, and image processing program
JP5882839B2 (en) * 2012-06-13 2016-03-09 株式会社Pfu Overhead image reader
JP2014119811A (en) * 2012-12-13 2014-06-30 Canon Inc Information processing apparatus, system, information processing method, and program
JP6044426B2 (en) * 2013-04-02 2016-12-14 富士通株式会社 Information operation display system, display program, and display method

Also Published As

Publication number Publication date
JP2016119073A (en) 2016-06-30
JP6103025B2 (en) 2017-03-29
JP2017120436A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP6504234B2 (en) INFORMATION PROCESSING APPARATUS, PROCESSING METHOD THEREOF, AND PROGRAM
JP2009094868A (en) Information processing apparatus, remote indication system and program
KR102140865B1 (en) Method and device for producing an electronic signed document
JP2017126225A (en) Image processing device, method and program
JP5999236B2 (en) INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6705988B2 (en) Information processing system, control method thereof, and program
JP2017199288A (en) Image processing device, image processing method and program
JP6187547B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP7398945B2 (en) Augmented reality document editing method, program and system
JP6558145B2 (en) Information processing terminal, information processing system, processing method thereof, and program
JP6122357B2 (en) Information processing apparatus, document synthesis system, information processing method, and program
JP6083158B2 (en) Information processing system, information processing apparatus, and program
JP5445858B2 (en) Input support device, input support method, and program
JP6634820B2 (en) Information processing apparatus, control method thereof, and program
JP6065080B2 (en) INFORMATION PROCESSING SYSTEM, ITS CONTROL METHOD, AND PROGRAM, AND INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND PROGRAM
US10885366B2 (en) Input information management apparatus and input information management method
JP2016126763A (en) Information processing system, and information processing method and program thereof
JP2018109831A (en) Information processing system, control method thereof, and program, as well as information processing device, control method thereof, and program
JP6115615B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2016012107A (en) Information processing system, control method therefor, program therefor, information processing device, control method therefor, and program therefor
JP6773957B2 (en) Information processing system, its control method, and program
JP2002152668A (en) Multi-display device, multi-display display method, photographing system and photographing method
JP2018190144A (en) Information processing apparatus, control method therefor, and program
JP2018042183A (en) Information processor, control method therefor, and program, and information processing system, control method therefor, and program
JP2018098661A (en) Information processing apparatus, control method therefor, program, information processing system, control method therefor and program

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R151 Written notification of patent or utility model registration

Ref document number: 6705988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250