JP5971003B2 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP5971003B2
JP5971003B2 JP2012163526A JP2012163526A JP5971003B2 JP 5971003 B2 JP5971003 B2 JP 5971003B2 JP 2012163526 A JP2012163526 A JP 2012163526A JP 2012163526 A JP2012163526 A JP 2012163526A JP 5971003 B2 JP5971003 B2 JP 5971003B2
Authority
JP
Japan
Prior art keywords
mark
image
captured image
recording medium
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012163526A
Other languages
Japanese (ja)
Other versions
JP2014026302A (en
Inventor
達司 市川
達司 市川
耕司 西谷
耕司 西谷
文則 佐野
文則 佐野
典嘉 勝村
典嘉 勝村
山根 一快
一快 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012163526A priority Critical patent/JP5971003B2/en
Priority to US13/938,455 priority patent/US9285984B2/en
Priority to CN201310314495.0A priority patent/CN103577972B/en
Publication of JP2014026302A publication Critical patent/JP2014026302A/en
Priority to US15/008,662 priority patent/US9536140B2/en
Application granted granted Critical
Publication of JP5971003B2 publication Critical patent/JP5971003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

近年、会議やプレゼンテーションでは、PC(Personal Computer)やタブレット型端末に資料を表示させながら説明を行う機会が多い。参加者は、表示される資料を閲覧しながら、話のポイントや気付いた点等について、ノートにメモを取ることになる。   In recent years, in meetings and presentations, there are many opportunities for explanation while displaying materials on a PC (Personal Computer) or a tablet terminal. Participants take notes on notes and points they notice while browsing the displayed materials.

資料のどのページを見ながらどのメモを取ったのか、後に対応関係がわからなくなるおそれがあるため、会議中に表示される資料のスライドの切り替えに応じて、そのスライドの表示開始時点のノートの撮影画像と、表示切替時点のノートの撮影画像との差分を抽出し、その差分の領域画像データと表示切替時点の撮影画像とを含む差分情報を生成し、スライドIDと差分情報とを関連付けて登録する会議資料検索支援装置が提案されている(特許文献1参照)。   Since there is a risk that you will not know the correspondence that you took while looking at which page of the document, taking a note at the start of the display of that slide according to the slide of the document displayed during the meeting The difference between the image and the captured image of the note at the time of display switching is extracted, difference information including the difference area image data and the captured image at the time of display switching is generated, and the slide ID and the difference information are associated and registered A conference material search support apparatus has been proposed (see Patent Document 1).

特開2010−176603号公報JP 2010-176603 A

ところで、紙文書の電子化の流れに伴い、メモはノートで保存されるだけでなく、メモを撮影して得られた画像データとして保存されることが増えてきている。しかしながら、ノートに記録されたメモの内容をそのまま画像データとして保存するだけでは、後から見た時にわかりにくく、どこに何が書かれているのかを探すのも困難であった。   By the way, with the trend toward digitization of paper documents, memos are not only saved as notes, but are increasingly being saved as image data obtained by photographing the memos. However, if the contents of the memo recorded in the notebook are simply saved as image data as they are, it is difficult to understand when viewed later, and it is difficult to find out what is written.

また、メモを取っている時に、そのメモの内容をグループ内で共有しようと考えていた場合、メモを撮影した後、撮影画像を共有ストレージにアップロードする等の煩雑な操作を行わなければならなかった。あるいは、その処理を行うことを忘れてしまうおそれがあった。   Also, if you are taking notes and you want to share the contents of the note within the group, you must take a complicated operation such as uploading the shot image to the shared storage after taking the note. It was. Or there was a possibility of forgetting to perform the process.

本発明の課題は、記録媒体に記録された内容を予め定めた送信先に送信することである An object of the present invention is to transmit contents recorded on a recording medium to a predetermined transmission destination .

上記課題を解決するために、本発明の情報処理装置は、
記録媒体が配置される第1の筐体と、
前記第1の筐体と開閉可能に連結された第2の筐体と、
前記第1の筐体に対向する前記第2の筐体の位置に設けられ前記記録媒体を撮影して撮影画像を生成する撮像手段と、
前記第1の筐体と前記第2の筐体とが予め定められた角度まで閉じられたことを検出する検出手段と、
前記検出手段により前記第1の筐体と前記第2の筐体とが前記予め定められた角度まで閉じられたことが検出されたタイミングで前記撮像手段に撮影を行わせる撮影制御手段と、
前記撮像手段により生成された前記撮影画像から所定のマークを認識する認識手段と、
前記認識手段により前記所定のマークが認識された場合は予め定めた送信先に前記撮影画像を送信させる送信制御手段と、
を備える。
In order to solve the above problems, an information processing apparatus of the present invention provides:
A first housing in which a recording medium is disposed;
A second housing coupled to the first housing so as to be openable and closable;
An image pickup means provided at a position of the second case facing the first case to shoot the recording medium to generate a shot image;
Detecting means for detecting that the first casing and the second casing are closed to a predetermined angle;
Photographing control means for causing the imaging means to perform photographing at a timing when the detection means detects that the first casing and the second casing are closed to the predetermined angle;
Recognition means for recognizing a predetermined mark from said captured image generated by the image pickup means,
Transmission control means for transmitting the photographed image to a predetermined transmission destination when the predetermined mark is recognized by the recognition means;
Is provided.

本発明によれば、記録媒体に記録された内容を予め定めた送信先に送信することができる。 According to the present invention, the content recorded on the recording medium can be transmitted to a predetermined transmission destination .

第1の実施の形態における情報処理装置の外観斜視図である。1 is an external perspective view of an information processing apparatus according to a first embodiment. 第1のカバー(第1の筐体)及び第2のカバー(第2の筐体)を閉じる途中の図である。It is a figure in the middle of closing a 1st cover (1st housing | casing) and a 2nd cover (2nd housing | casing). 情報処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of information processing apparatus. 分類用マーク対応テーブルのデータ構成例を示す図である。It is a figure which shows the example of a data structure of the classification mark corresponding | compatible table. コマンドマーク対応テーブルのデータ構成例を示す図である。It is a figure which shows the data structural example of a command mark corresponding | compatible table. 撮影画像データベースのデータ構成例を示す図である。It is a figure which shows the example of a data structure of a picked-up image database. 分類リストのデータ構成例を示す図である。It is a figure which shows the data structural example of a classification | category list. マーク認識処理を示すフローチャートである。It is a flowchart which shows a mark recognition process. 手書き文字及び手書きマークが記録された記録媒体を撮影して得られた撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image obtained by image | photographing the recording medium with which the handwritten character and the handwritten mark were recorded. タグ別検索処理を示すフローチャートである。It is a flowchart which shows the search process classified by tag. 検索画面の例を示す図である。It is a figure which shows the example of a search screen. リスト表示処理を示すフローチャートである。It is a flowchart which shows a list display process. アイデアリスト画面、決定事項リスト画面、やる事リスト画面の例を示す図である。It is a figure which shows the example of an idea list screen, a decision item list screen, and a thing list screen to do. 自動投稿処理を示すフローチャートである。It is a flowchart which shows an automatic posting process. クリッピング処理を示すフローチャートである。It is a flowchart which shows a clipping process. 「クリッピング」マークが記録された記録媒体を撮影して得られた撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image obtained by image | photographing the recording medium with which the "clipping" mark was recorded. (a)は、第2の実施の形態における情報処理装置が本体カバーに収納されている状態を示す図である。(b)は、情報処理装置が本体カバーに立て掛けられた状態を示す側面図である。(c)は、情報処理装置が本体カバーに立て掛けられた状態を示す斜視図である。(A) is a figure which shows the state by which the information processing apparatus in 2nd Embodiment is accommodated in the main body cover. (B) is a side view showing a state in which the information processing apparatus is leaned against the main body cover. (C) is a perspective view showing a state in which the information processing apparatus is leaned against the main body cover. 情報処理装置の前に記録媒体が置かれた状態を示す図である。FIG. 11 is a diagram illustrating a state where a recording medium is placed in front of the information processing apparatus.

〔第1の実施の形態〕
まず、図1〜図16を参照して、本発明に係る情報処理装置の第1の実施の形態について説明する。なお、本発明は、図示例に限定されるものではない。
[First Embodiment]
First, a first embodiment of an information processing apparatus according to the present invention will be described with reference to FIGS. The present invention is not limited to the illustrated example.

図1は、第1の実施の形態における情報処理装置1の外観斜視図である。情報処理装置1は、タブレット型端末装置であり、本体部10と、バインダ30と、から構成されている。
本体部10には、画面表示及びタッチ入力のためのタッチ表示部14、撮像手段としての撮像部15等が設けられている。
FIG. 1 is an external perspective view of the information processing apparatus 1 according to the first embodiment. The information processing apparatus 1 is a tablet-type terminal device and includes a main body unit 10 and a binder 30.
The main body unit 10 is provided with a touch display unit 14 for screen display and touch input, an imaging unit 15 as an imaging unit, and the like.

バインダ30は、第1の筐体としての第1のカバー30aと第2の筐体としての第2のカバー30bとがヒンジ部30cを回転軸として開閉可能に連結されて構成されている。第1のカバー30aには記録媒体40が配置され、第2のカバー30bには本体部10が設けられている。本体部10、記録媒体40は、留め具、フック等により、バインダ30に着脱可能に装着されている。   The binder 30 is configured by connecting a first cover 30a as a first housing and a second cover 30b as a second housing so that the hinge portion 30c can be opened and closed. The recording medium 40 is disposed on the first cover 30a, and the main body 10 is provided on the second cover 30b. The main body 10 and the recording medium 40 are detachably attached to the binder 30 with fasteners, hooks, and the like.

なお、本実施の形態において、記録媒体とは、撮影すべき情報が記録されている媒体を示すものであり、情報が記録されている被写体を意味している。また、記録媒体には、情報を電子的に表示可能な電子ペーパーも含まれる。   In the present embodiment, the recording medium indicates a medium on which information to be photographed is recorded, and means a subject on which information is recorded. The recording medium also includes electronic paper that can display information electronically.

第1のカバー30a及び第2のカバー30bは、平板長方形状に構成され、ヒンジ部30cにより、本や手帳を開閉するように、開閉可能となっている。図1は、第1のカバー30aと第2のカバー30bとのなす角度が180°である状態(開いた状態)を図示している。ユーザは、この状態でタッチ表示部14に表示される画面の参照及びタッチ入力を行い、記録媒体40に文字や図表等を記入する。   The 1st cover 30a and the 2nd cover 30b are comprised by flat rectangular shape, and can be opened and closed so that a book and a notebook may be opened and closed by the hinge part 30c. FIG. 1 illustrates a state where the angle formed by the first cover 30a and the second cover 30b is 180 ° (open state). In this state, the user refers to the screen displayed on the touch display unit 14 and performs touch input, and enters characters, diagrams, and the like on the recording medium 40.

ヒンジ部30cには、第1のカバー30aと第2のカバー30bとのなす角度を検出する開閉角度センサ20が設けられている。開閉角度センサ20は、ヒンジ部30cの軸の回転を検出するロータリーエンコーダや、ホール素子等を用いて開閉状態を検出する磁気センサによって構成されている。   The hinge portion 30c is provided with an opening / closing angle sensor 20 that detects an angle formed by the first cover 30a and the second cover 30b. The opening / closing angle sensor 20 includes a rotary encoder that detects rotation of the shaft of the hinge portion 30c, and a magnetic sensor that detects an opening / closing state using a hall element or the like.

記録媒体40は、ユーザがメモを取る際に使用するノートやレポート用紙、資料が印刷されている用紙、書籍等である。ただし、記録媒体40は、撮影すべき情報が記録されている媒体であればよく、素材は紙に限定されない。記録媒体40は、1枚のシート状の用紙であってもよいし、冊子状に綴じられていてもよい。   The recording medium 40 is a notebook or report sheet, a sheet on which a document is printed, a book, or the like used when a user takes notes. However, the recording medium 40 may be any medium on which information to be photographed is recorded, and the material is not limited to paper. The recording medium 40 may be a single sheet of paper or may be bound in a booklet.

図2は、バインダ30を構成する第1のカバー30a及び第2のカバー30bを閉じる途中の図である。撮像部15は、本体部10の第1のカバー30aに対向する位置に設けられており、第1のカバー30aと第2のカバー30bとのなす角度が所定の角度(例えば、70°等)になった場合に、撮像部15により記録媒体40が撮影される。所定の角度は、撮影に最適な角度に予め設定されており、この角度に合わせてフォーカス、露出等の撮影条件が設定されている。ユーザが第1のカバー30a及び第2のカバー30bを閉じると(第1のカバー30aと第2のカバー30bとのなす角度を0°にすると)、閉じる途中で所定の角度を通過するため、ユーザが意識することなく撮影を行うことができる。   FIG. 2 is a view in the middle of closing the first cover 30 a and the second cover 30 b constituting the binder 30. The imaging unit 15 is provided at a position facing the first cover 30a of the main body unit 10, and an angle formed by the first cover 30a and the second cover 30b is a predetermined angle (for example, 70 °). In such a case, the recording medium 40 is imaged by the imaging unit 15. The predetermined angle is set in advance to an optimum angle for shooting, and shooting conditions such as focus and exposure are set in accordance with this angle. When the user closes the first cover 30a and the second cover 30b (when the angle formed by the first cover 30a and the second cover 30b is 0 °), the user passes a predetermined angle in the middle of closing, Shooting can be performed without the user being aware of it.

図3は、情報処理装置1の機能的構成を示すブロック図である。
情報処理装置1は、検索手段、実行手段、検出手段、撮影制御手段、管理手段、切り出し手段、記憶制御手段、表示制御手段、読み出し手段、コマンド実行手段、送信制御手段としてのCPU(Central Processing Unit)11と、電源部12と、操作部13と、タッチ表示部14と、撮像部15と、無線通信部16と、RAM(Random Access Memory)17と、ROM(Read Only Memory)18と、記憶部19と、開閉角度センサ20と、計時部21と、を備える。
FIG. 3 is a block diagram illustrating a functional configuration of the information processing apparatus 1.
The information processing apparatus 1 includes a CPU (Central Processing Unit) as a search means, an execution means, a detection means, an imaging control means, a management means, a clipping means, a storage control means, a display control means, a reading means, a command execution means, and a transmission control means. ) 11, power supply unit 12, operation unit 13, touch display unit 14, imaging unit 15, wireless communication unit 16, RAM (Random Access Memory) 17, ROM (Read Only Memory) 18, and storage A unit 19, an opening / closing angle sensor 20, and a timer unit 21 are provided.

CPU11は、操作部13やタッチ表示部14から入力される操作信号又は無線通信部16により受信される指示信号に応じて、情報処理装置1の各部の処理動作を統括的に制御する。具体的には、CPU11は、ROM18に記憶されている各種処理プログラムを読み出してRAM17に展開し、当該プログラムとの協働により各種処理を行う。   The CPU 11 comprehensively controls the processing operation of each unit of the information processing apparatus 1 according to an operation signal input from the operation unit 13 or the touch display unit 14 or an instruction signal received by the wireless communication unit 16. Specifically, the CPU 11 reads out various processing programs stored in the ROM 18, develops them in the RAM 17, and performs various processes in cooperation with the programs.

電源部12は、情報処理装置1を構成する各部に電力を供給する。
操作部13は、電源をオン/オフさせる電源キー等の操作キーを備え、各操作キーに対応する操作信号をCPU11に出力する。
The power supply unit 12 supplies power to each unit constituting the information processing apparatus 1.
The operation unit 13 includes operation keys such as a power key for turning on / off the power, and outputs an operation signal corresponding to each operation key to the CPU 11.

タッチ表示部14は、表示手段としての表示パネル14aにタッチパネル14bが積層されて構成されている。表示パネル14aは、LCD(Liquid Crystal Display)等で構成され、CPU11からの表示制御信号に従って画面表示を行う。タッチパネル14bは、ユーザの指等によるタッチ操作の位置を検出し、その位置に応じた操作信号をCPU11に出力する。タッチパネル14bは、ユーザによる操作指示を受け付ける。   The touch display unit 14 is configured by laminating a touch panel 14b on a display panel 14a serving as a display unit. The display panel 14a is composed of an LCD (Liquid Crystal Display) or the like, and performs screen display according to a display control signal from the CPU 11. The touch panel 14b detects the position of a touch operation with a user's finger or the like, and outputs an operation signal corresponding to the position to the CPU 11. The touch panel 14b receives an operation instruction from the user.

撮像部15は、光学レンズ、撮像素子、各種センサ等を備え、被写体の撮影を行うデジタルカメラである。撮像部15は、記録媒体40を撮影して撮影画像を生成する。
無線通信部16は、無線LAN(Local Area Network)ルータを介してインターネットに接続し、データ通信を行う無線通信モジュールである。
The imaging unit 15 is a digital camera that includes an optical lens, an imaging element, various sensors, and the like, and shoots a subject. The imaging unit 15 captures the recording medium 40 and generates a captured image.
The wireless communication unit 16 is a wireless communication module that connects to the Internet via a wireless LAN (Local Area Network) router and performs data communication.

RAM17は、揮発性のメモリである。RAM17には、CPU11により実行される各種プログラムやこれら各種プログラムに係るデータ等が一時的に格納される。
ROM18は、各種プログラム及び各種データを記憶する読み出し専用の半導体メモリである。ROM18には、マーク認識処理プログラム181等が記憶されている。
The RAM 17 is a volatile memory. The RAM 17 temporarily stores various programs executed by the CPU 11 and data related to these various programs.
The ROM 18 is a read-only semiconductor memory that stores various programs and various data. The ROM 18 stores a mark recognition processing program 181 and the like.

記憶部19は、HDD(Hard Disk Drive)や不揮発性メモリ等により構成され、情報を読み出し及び書き込み可能に記憶する。具体的には、記憶部19には、分類用マーク対応テーブル191、コマンドマーク対応テーブル192、撮影画像データベース193、分類リスト194a,194b,194c,・・・等が記憶されている。   The storage unit 19 is configured by an HDD (Hard Disk Drive), a nonvolatile memory, or the like, and stores information in a readable and writable manner. Specifically, the storage unit 19 stores a classification mark correspondence table 191, a command mark correspondence table 192, a captured image database 193, classification lists 194a, 194b, 194c,.

図4に、分類用マーク対応テーブル191のデータ構成例を示し、図5に、コマンドマーク対応テーブル192のデータ構成例を示す。
分類用マーク対応テーブル191には、分類用に予め用意されている複数種類の手書きマーク(以下、マークという。)毎に、マークに対応する画像パターン(テンプレート)と、分類項目と、が対応付けられて格納されている。
コマンドマーク対応テーブル192には、コマンドマークとして予め用意されている複数種類のマーク毎に、マークに対応する画像パターン(テンプレート)と、マークが意味するコマンドと、が対応付けられて格納されている。
マークは、他のマークや文字と区別して、容易に認識することができる形であることが望ましい。
FIG. 4 shows a data configuration example of the classification mark correspondence table 191, and FIG. 5 shows a data configuration example of the command mark correspondence table 192.
The classification mark correspondence table 191 associates image patterns (templates) corresponding to marks and classification items for each of a plurality of types of handwritten marks (hereinafter referred to as marks) prepared in advance for classification. Stored.
In the command mark correspondence table 192, for each of a plurality of types of marks prepared as command marks, an image pattern (template) corresponding to the mark and a command meaning the mark are stored in association with each other. .
It is desirable that the mark has a shape that can be easily recognized in distinction from other marks and characters.

図6に、撮影画像データベース193のデータ構成例を示す。撮影画像データベース193には、撮影により生成された撮影画像の画像データと、撮影画像に付与されたタグと、作成日時と、が対応付けられて格納される。撮影画像の画像データは、JPEG、TIFF等のデータ形式で生成される。   FIG. 6 shows a data configuration example of the captured image database 193. In the photographed image database 193, image data of a photographed image generated by photographing, a tag attached to the photographed image, and a creation date are stored in association with each other. The image data of the photographed image is generated in a data format such as JPEG or TIFF.

図7に、分類リスト194a,194b,194c,・・・のデータ構成例を示す。
分類リスト194aには、「アイデア」マーク(図4参照)が記録された撮影画像から切り出された領域の画像データと、当該領域が切り出された元画像を示す情報(ファイル名、格納場所等)と、撮影画像から切り出された領域の座標データと、が対応付けられて格納される。
分類リスト194bには、「決定事項」マーク(図4参照)が記録された撮影画像から切り出された領域の画像データと、当該領域が切り出された元画像を示す情報と、撮影画像から切り出された領域の座標データと、が対応付けられて格納される。
分類リスト194cには、「やる事」マーク(図4参照)が記録された撮影画像から切り出された領域の画像データと、当該領域が切り出された元画像を示す情報と、撮影画像から切り出された領域の座標データと、が対応付けられて格納される。
すなわち、分類リスト194a,194b,194c,・・・は、分類用マークの種類の数だけ用意されている。
FIG. 7 shows a data configuration example of the classification lists 194a, 194b, 194c,.
In the classification list 194a, image data of a region cut out from a captured image in which an “idea” mark (see FIG. 4) is recorded, and information (file name, storage location, etc.) indicating the original image from which the region is cut out And coordinate data of a region cut out from the captured image are stored in association with each other.
In the classification list 194b, image data of a region cut out from the captured image in which the “decision item” mark (see FIG. 4) is recorded, information indicating the original image from which the region is cut out, and a cut-out image from the captured image. Are stored in association with each other.
In the classification list 194c, image data of an area cut out from the captured image in which the “to do” mark (see FIG. 4) is recorded, information indicating the original image from which the area has been extracted, and an image extracted from the captured image. Are stored in association with each other.
That is, as many classification lists 194a, 194b, 194c,... Are prepared as the number of classification mark types.

また、記憶部19には、「自動投稿」マーク(図5参照)と対応付けられて、自動投稿処理(図14参照)において撮影画像の送信先となる共有ストレージを示す情報が予め記憶されている。また、記憶部19には、「クリッピング」マーク(図5参照)と対応付けられて、クリッピング処理(図15参照)において切り出し領域の送信先となる共有ストレージを示す情報が予め記憶されている。共有ストレージは、通信ネットワークと接続され、情報処理装置1との間でデータ通信可能なデータ保管装置であり、登録されたメンバーに対して保管しているデータの閲覧を許可する。送信先(共有ストレージ)は、パス、メールアドレス等により指定される。コマンドに応じて複数の送信先が設定されていてもよい。   Further, the storage unit 19 stores in advance information indicating a shared storage that is a transmission destination of a captured image in an automatic posting process (see FIG. 14) in association with an “automatic posting” mark (see FIG. 5). Yes. Further, the storage unit 19 stores in advance information indicating the shared storage that is the transmission destination of the clipping region in the clipping process (see FIG. 15) in association with the “clipping” mark (see FIG. 5). The shared storage is a data storage device connected to the communication network and capable of data communication with the information processing device 1, and allows registered members to view stored data. The transmission destination (shared storage) is specified by a path, an email address, and the like. A plurality of transmission destinations may be set according to the command.

開閉角度センサ20は、第1のカバー30aと第2のカバー30bとのなす角度を検出し、検出した角度をCPU11に出力する。   The opening / closing angle sensor 20 detects an angle formed by the first cover 30a and the second cover 30b, and outputs the detected angle to the CPU 11.

計時部21は、計時回路(RTC:Real Time Clock)を有し、この計時回路により現在日時を計時してCPU11に出力する。   The timer unit 21 has a timer circuit (RTC: Real Time Clock). The timer circuit 21 measures the current date and time and outputs it to the CPU 11.

CPU11は、開閉角度センサ20から出力された角度に基づいて、第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられたことを検出する。
CPU11は、第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられたことが検出されたタイミングで、撮像部15に撮影を行わせる。
Based on the angle output from the opening / closing angle sensor 20, the CPU 11 detects that the first cover 30a and the second cover 30b are closed to a predetermined state.
The CPU 11 causes the imaging unit 15 to perform shooting at the timing when it is detected that the first cover 30a and the second cover 30b are closed to a predetermined state.

CPU11は、撮像部15により生成された撮影画像の全領域について所定のマークが記録されているかを検索する。具体的には、CPU11は、撮影画像の画像データに対し、光学式マーク認識処理(OMR:Optical Mark Recognition)を行い、記録媒体40に記録されたマークを検出する。まず、CPU11は、撮影画像に対して二値化処理、ノイズ除去処理を行っておく。そして、CPU11は、記憶部19に記憶されている分類用マーク対応テーブル191、コマンドマーク対応テーブル192から各マークに対応するテンプレートを読み出し、撮影画像上を順次走査して、撮影画像内にテンプレートと一致する領域があるか否かを調べる。テンプレートとの比較は、一定の幅をもって行われる。テンプレートに対して拡大・縮小・回転等を施してもよい。
CPU11は、撮影画像の全領域における検索により認識されたマークに応じた所定の処理を実行する。
The CPU 11 searches whether a predetermined mark is recorded for the entire area of the captured image generated by the imaging unit 15. Specifically, the CPU 11 performs an optical mark recognition process (OMR: Optical Mark Recognition) on the image data of the captured image, and detects a mark recorded on the recording medium 40. First, the CPU 11 performs binarization processing and noise removal processing on the captured image. Then, the CPU 11 reads out the template corresponding to each mark from the classification mark correspondence table 191 and the command mark correspondence table 192 stored in the storage unit 19, scans the photographed image sequentially, and stores the template in the photographed image. Check whether there is a matching area. Comparison with the template is performed with a certain width. You may enlarge / reduce / rotate the template.
The CPU 11 executes a predetermined process corresponding to the mark recognized by the search in the entire area of the captured image.

認識されたマークが分類用マークであった場合には、CPU11は、撮影画像から認識されたマークに対応する領域を切り出し、切り出された領域をマークの種類毎に分類して記憶部19の分類リスト194a,194b,194c,・・・に記憶させる。また、CPU11は、切り出された領域をマークの種類毎にリスト化して表示パネル14aに表示させる。   If the recognized mark is a classification mark, the CPU 11 cuts out an area corresponding to the recognized mark from the captured image, classifies the cut out area for each type of mark, and classifies the classification in the storage unit 19. It memorize | stores in list | wrist 194a, 194b, 194c, .... Further, the CPU 11 makes a list of the clipped areas for each type of marks and displays them on the display panel 14a.

認識されたマークがコマンドマークであった場合には、CPU11は、認識されたマークに対応付けられたコマンドを記憶部19に記憶されているコマンドマーク対応テーブル192から読み出し、当該読み出されたコマンドを撮影画像について実行する。
認識されたコマンドマークが「自動投稿」マークであった場合には、CPU11は、無線通信部16を制御して、撮影画像を所定の共有ストレージに送信する。
認識されたコマンドマークが「クリッピング」マークであった場合には、CPU11は、撮影画像から記録媒体40に記録された線で囲まれた領域を切り出し、無線通信部16を制御して、切り出された領域を所定の共有ストレージに送信する。
If the recognized mark is a command mark, the CPU 11 reads out the command associated with the recognized mark from the command mark correspondence table 192 stored in the storage unit 19, and the read command Is executed on the captured image.
If the recognized command mark is an “automatic posting” mark, the CPU 11 controls the wireless communication unit 16 to transmit the captured image to a predetermined shared storage.
When the recognized command mark is a “clipping” mark, the CPU 11 cuts out an area surrounded by a line recorded on the recording medium 40 from the captured image, and controls the wireless communication unit 16 to cut out the area. The specified area is transmitted to a predetermined shared storage.

CPU11は、撮影画像に、当該撮影画像から認識されたマークの種類を示すタグを付与し、タグ毎に撮影画像を管理する。   The CPU 11 assigns a tag indicating the type of the mark recognized from the captured image to the captured image, and manages the captured image for each tag.

次に、情報処理装置1における動作について説明する。
図8は、情報処理装置1において実行されるマーク認識処理を示すフローチャートである。この処理は、CPU11とROM18に記憶されているマーク認識処理プログラム181との協働によるソフトウェア処理によって実現される。
Next, the operation in the information processing apparatus 1 will be described.
FIG. 8 is a flowchart showing mark recognition processing executed in the information processing apparatus 1. This processing is realized by software processing in cooperation with the CPU 11 and the mark recognition processing program 181 stored in the ROM 18.

まず、CPU11は、所定のタイミングであるか否かを判断する(ステップS1)。第1の実施の形態では、CPU11は、開閉角度センサ20により出力された第1のカバー30aと第2のカバー30bとのなす角度に基づいて、開閉角度が所定の角度(例えば、70°等)以下であるか否かを判断する。すなわち、CPU11は、バインダ30を構成する第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられたか否かを判断する。所定のタイミングでない場合には(ステップS1;NO)、ステップS1に戻る。   First, the CPU 11 determines whether or not it is a predetermined timing (step S1). In the first embodiment, the CPU 11 sets the opening / closing angle to a predetermined angle (for example, 70 °, etc.) based on the angle formed by the first cover 30a and the second cover 30b output by the opening / closing angle sensor 20. ) Determine whether or not: That is, the CPU 11 determines whether or not the first cover 30a and the second cover 30b constituting the binder 30 are closed to a predetermined state. If it is not the predetermined timing (step S1; NO), the process returns to step S1.

ステップS1において、所定のタイミングである場合(ステップS1;YES)、すなわち、第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられた場合には、CPU11は、撮像部15を制御して、記録媒体40に記録された手書きメモの撮影を行わせ、撮像部15により生成された撮影画像を取得する(ステップS2)。例えば、CPU11は、撮影画像から記録媒体40の領域を抽出し、抽出した領域に対して台形歪みを補正する処理等を行う。また、CPU11は、撮影画像の画像データを記憶部19の撮影画像データベース193に記憶させるとともに、計時部21から現在日時を取得し、取得した現在日時を作成日時として、撮影画像の画像データと対応付けて撮影画像データベース193に記憶させる。   In step S1, when it is a predetermined timing (step S1; YES), that is, when the first cover 30a and the second cover 30b are closed to a predetermined state, the CPU 11 moves the imaging unit 15 to the predetermined position. Then, the handwritten memo recorded in the recording medium 40 is photographed, and the photographed image generated by the imaging unit 15 is acquired (step S2). For example, the CPU 11 extracts a region of the recording medium 40 from the captured image, and performs a process for correcting the trapezoidal distortion on the extracted region. Further, the CPU 11 stores the image data of the captured image in the captured image database 193 of the storage unit 19, acquires the current date and time from the time measuring unit 21, and corresponds to the image data of the captured image with the acquired current date and time as the creation date and time. In addition, the captured image database 193 is stored.

次に、CPU11は、撮影画像の画像データを解析し、撮影画像の全領域について所定のマークが記録されているかを検索する(ステップS3)。具体的には、CPU11は、記憶部19に記憶されている分類用マーク対応テーブル191、コマンドマーク対応テーブル192を参照して、撮影画像からマークを認識する。   Next, the CPU 11 analyzes the image data of the photographed image and searches whether a predetermined mark is recorded for the entire region of the photographed image (step S3). Specifically, the CPU 11 recognizes the mark from the photographed image with reference to the classification mark correspondence table 191 and the command mark correspondence table 192 stored in the storage unit 19.

次に、CPU11は、処理していないマークがあるか否かを判断する(ステップS4)。処理していないマークがある場合には(ステップS4;YES)、CPU11は、撮影画像に、当該撮影画像から認識されたマークの種類を示すタグを付与する(ステップS5)。具体的には、CPU11は、この撮影画像に記録されているマークに対応するタグ(アイデア、決定事項、やる事、自動投稿、クリッピング等)を、撮影画像の画像データと対応付けて撮影画像データベース193に記憶させる。   Next, the CPU 11 determines whether there is a mark that has not been processed (step S4). When there is a mark that has not been processed (step S4; YES), the CPU 11 adds a tag indicating the type of the mark recognized from the captured image to the captured image (step S5). Specifically, the CPU 11 associates tags (ideas, determination items, things to do, automatic posting, clipping, etc.) corresponding to the marks recorded in the photographed image with the image data of the photographed image. It is memorized in 193.

次に、CPU11は、撮影画像において認識されたマークがコマンドマークであるか否かを判断する(ステップS6)。認識されたマークがコマンドマークでない場合(ステップS6;NO)、すなわち、認識されたマークが分類用マークである場合には、CPU11は、撮影画像からマークに対応する領域を切り出す(ステップS7)。マークに対応する領域は、マーク付近の線で囲まれた領域であってもよいし、マーク付近の空行で挟まれた範囲の領域であってもよい。   Next, the CPU 11 determines whether or not the mark recognized in the captured image is a command mark (step S6). When the recognized mark is not a command mark (step S6; NO), that is, when the recognized mark is a classification mark, the CPU 11 cuts out an area corresponding to the mark from the captured image (step S7). The area corresponding to the mark may be an area surrounded by a line near the mark, or an area in a range sandwiched between blank lines near the mark.

次に、CPU11は、切り出された領域をマークの種類毎のリストに追加する(ステップS8)。具体的には、CPU11は、切り出し領域の画像データを、マークに対応する分類リスト194a,194b,194c,・・・(例えば、「アイデア」マークの場合には、分類リスト194a)に記憶させるとともに、切り出し領域の元画像(1ページ分の撮影画像)を示す情報及び切り出し領域の座標データを、切り出し領域の画像データと対応付けて分類リスト194a,194b,194c,・・・に記憶させる。   Next, the CPU 11 adds the clipped area to the list for each mark type (step S8). Specifically, the CPU 11 stores the image data of the cutout area in the classification lists 194a, 194b, 194c,... (For example, the classification list 194a in the case of an “idea” mark). The information indicating the original image of the cutout area (the captured image for one page) and the coordinate data of the cutout area are associated with the image data of the cutout area and stored in the classification lists 194a, 194b, 194c,.

ステップS6において、認識されたマークがコマンドマークである場合には(ステップS6;YES)、CPU11は、記憶部19に記憶されているコマンドマーク対応テーブル192を参照して、マークに対応付けられたコマンドを読み出し(ステップS9)、読み出されたコマンドを撮影画像について実行する(ステップS10)。   In step S6, when the recognized mark is a command mark (step S6; YES), the CPU 11 refers to the command mark correspondence table 192 stored in the storage unit 19 and is associated with the mark. The command is read (step S9), and the read command is executed for the captured image (step S10).

ステップS8又はステップS10の後、ステップS4に戻り、処理が繰り返される。
ステップS4において、撮影画像に記録されている全てのマークについて処理が終了した場合には(ステップS4;NO)、マーク認識処理が終了する。
After step S8 or step S10, the process returns to step S4 and the process is repeated.
In step S4, when the process has been completed for all the marks recorded in the photographed image (step S4; NO), the mark recognition process is terminated.

図9に、手書き文字及びマークが記録された記録媒体40を撮影して得られた撮影画像41の例を示す。撮影画像41中のマークM1は、線で囲まれた領域A1を「アイデア」に分類するために記録されたものである。撮影画像41中のマークM2は、線で囲まれた領域A2を「アイデア」に分類するために記録されたものである。撮影画像41中のマークM3は、線で囲まれた領域A3を「決定事項」に分類するために記録されたものである。   FIG. 9 shows an example of a photographed image 41 obtained by photographing the recording medium 40 on which handwritten characters and marks are recorded. The mark M1 in the captured image 41 is recorded in order to classify the area A1 surrounded by the line into “ideas”. The mark M2 in the photographed image 41 is recorded in order to classify the area A2 surrounded by the line into “ideas”. The mark M3 in the captured image 41 is recorded in order to classify the area A3 surrounded by the line into “decision items”.

図9に示す例の場合、撮影画像データベース193に、撮影画像41(1ページ分)の画像データと、「アイデア」及び「決定事項」というタグと、撮影画像41の作成日時と、が対応付けられて格納される。また、「アイデア」に対応する分類リスト194aの「切り出し領域」に領域A1の画像データが格納されるとともに、領域A1の画像データと対応付けられて、「元画像」には撮影画像41を示す情報が格納され、「領域座標データ」には撮影画像41から切り出された領域A1の座標データが格納される。同様に、「アイデア」に対応する分類リスト194aの「切り出し領域」に領域A2の画像データが格納されるとともに、領域A2の画像データと対応付けられて、「元画像」には撮影画像41を示す情報が格納され、「領域座標データ」には撮影画像41から切り出された領域A2の座標データが格納される。また、「決定事項」に対応する分類リスト194bの「切り出し領域」に領域A3の画像データが格納されるとともに、領域A3の画像データと対応付けられて、「元画像」には撮影画像41を示す情報が格納され、「領域座標データ」には撮影画像41から切り出された領域A3の座標データが格納される。   In the case of the example illustrated in FIG. 9, the captured image database 193 associates the image data of the captured image 41 (for one page), the tags “idea” and “decision items”, and the creation date and time of the captured image 41. Stored. Further, the image data of the area A1 is stored in the “cutout area” of the classification list 194a corresponding to “idea”, and the captured image 41 is shown in the “original image” in association with the image data of the area A1. Information is stored, and the coordinate data of the region A1 cut out from the captured image 41 is stored in the “region coordinate data”. Similarly, the image data of the area A2 is stored in the “cutout area” of the classification list 194a corresponding to the “idea”, and the captured image 41 is associated with the image data of the area A2 and the “original image”. In the “region coordinate data”, coordinate data of the region A2 cut out from the captured image 41 is stored. Further, the image data of the area A3 is stored in the “cutout area” of the classification list 194b corresponding to the “decision item”, and the captured image 41 is associated with the image data of the area A3. In the “area coordinate data”, the coordinate data of the area A3 cut out from the captured image 41 is stored.

次に、図10を参照して、情報処理装置1において実行されるタグ別検索処理について説明する。タグ別検索処理は、マーク認識処理のステップS5において付与されたタグ毎に、撮影画像を管理する処理の一例である。   Next, with reference to FIG. 10, a tag-specific search process executed in the information processing apparatus 1 will be described. The tag-specific search process is an example of a process for managing captured images for each tag assigned in step S5 of the mark recognition process.

まず、ユーザのタッチパネル14bからの操作により、検索対象となる日付、タグが選択される(ステップS11)。
次に、CPU11は、記憶部19に記憶されている撮影画像データベース193の作成日時及びタグに基づいて、選択された日付、タグに該当する撮影画像の画像データを抽出する(ステップS12)。
次に、CPU11は、抽出された撮影画像の画像データに基づいて、検索条件に合う撮影画像を表示パネル14aに表示させる(ステップS13)。
First, the date and tag to be searched are selected by the user's operation from the touch panel 14b (step S11).
Next, the CPU 11 extracts image data of a photographed image corresponding to the selected date and tag based on the creation date and tag of the photographed image database 193 stored in the storage unit 19 (step S12).
Next, the CPU 11 causes the display panel 14a to display a photographed image that meets the search condition based on the extracted image data of the photographed image (step S13).

図11に、表示パネル14aに表示される検索画面141の例を示す。例えば、検索画面141の日付指定欄141aにおいて日付(3月14日)が選択され、タグ指定欄141bにおいてタグ(自動投稿)が選択された状態で、検索ボタンB1が押下されると、撮影画像データベース193から作成日時が「3月14日」であって、タグが「自動投稿」である撮影画像が抽出され、抽出された撮影画像が、それぞれ、検索結果表示欄141c,141d,141eに表示される。検索結果表示欄141c,141d,141eには、撮影画像の上部の領域等、画像の一部が表示される。   FIG. 11 shows an example of the search screen 141 displayed on the display panel 14a. For example, when the date (March 14) is selected in the date designation field 141a of the search screen 141 and the tag (automatic posting) is selected in the tag designation field 141b, the photographed image is pressed. A photographed image whose creation date is “March 14” and whose tag is “automatic posting” is extracted from the database 193, and the extracted photographed images are displayed in the search result display fields 141c, 141d, and 141e, respectively. Is done. In the search result display fields 141c, 141d, and 141e, a part of the image such as the area above the captured image is displayed.

次に、CPU11は、ユーザのタッチパネル14bからの操作により、表示対象となる撮影画像が選択されたか否かを判断する(ステップS14)。表示対象となる撮影画像が選択された場合には(ステップS14;YES)、CPU11は、選択された撮影画像を表示パネル14aに表示させる(ステップS15)。
例えば、図11に示す検索画面141において、検索結果表示欄141c,141d,141eに検索結果として表示されている撮影画像(の一部)のうち、いずれかの撮影画像が選択された場合には、選択された撮影画像の1ページ分が表示される。
Next, CPU11 judges whether the picked-up image used as a display target was selected by operation from a user's touch panel 14b (step S14). When the captured image to be displayed is selected (step S14; YES), the CPU 11 displays the selected captured image on the display panel 14a (step S15).
For example, in the search screen 141 shown in FIG. 11, when any one of the captured images displayed as search results in the search result display fields 141c, 141d, and 141e (a part thereof) is selected. One page of the selected photographed image is displayed.

ステップS14において、表示対象となる撮影画像が選択されない場合には(ステップS14;NO)、そのままタグ別検索処理が終了する。   In step S14, when the captured image to be displayed is not selected (step S14; NO), the tag-by-tag search process ends.

次に、図12を参照して、情報処理装置1において実行されるリスト表示処理について説明する。リスト表示処理は、記憶部19に記憶されている分類リスト194a,194b,194c,・・・に基づいて、マークの種類毎に撮影画像から切り出された領域をリスト化する処理である。   Next, with reference to FIG. 12, the list display process executed in the information processing apparatus 1 will be described. The list display process is a process of listing areas cut out from the photographed image for each mark type based on the classification lists 194a, 194b, 194c,... Stored in the storage unit 19.

まず、CPU11は、分類用マーク(アイデア、決定事項、やる事等)毎に、対応する分類リスト194a,194b,194c,・・・に含まれる切り出し領域の画像データを取得する(ステップS21)。例えば、「アイデア」マークについては、分類リスト194aに含まれる切り出し領域の画像データを取得する。CPU11は、取得した切り出し領域の画像データをRAM17に格納する。   First, the CPU 11 acquires the image data of the cutout area included in the corresponding classification list 194a, 194b, 194c,... For each classification mark (idea, decision item, action, etc.) (step S21). For example, for the “idea” mark, the image data of the cut-out area included in the classification list 194a is acquired. The CPU 11 stores the acquired image data of the cutout area in the RAM 17.

次に、CPU11は、分類用マーク毎に、取得された切り出し領域の画像データに基づいて、切り出し領域のリストを表示パネル14aに表示させる(ステップS22)。   Next, the CPU 11 displays a list of cutout areas on the display panel 14a based on the acquired image data of the cutout areas for each classification mark (step S22).

図13に、表示パネル14aに表示されるアイデアリスト画面142、決定事項リスト画面143、やる事リスト画面144の例を示す。アイデアリスト画面142のリスト表示欄142a,142bには、それぞれ、図9に示す撮影画像41から切り出された領域A1,A2が表示されている。図13の例では、図9において領域A1,A2に含まれていたマークM1,M2を除いた領域が表示されているが、マークM1,M2を含む切り出し領域を表示することとしてもよい。また、予めマークM1,M2を除いた領域を保存することとしてもよい。   FIG. 13 shows an example of an idea list screen 142, a decision item list screen 143, and a work list screen 144 displayed on the display panel 14a. In the list display fields 142a and 142b of the idea list screen 142, areas A1 and A2 cut out from the captured image 41 shown in FIG. 9 are displayed, respectively. In the example of FIG. 13, the area excluding the marks M1 and M2 included in the areas A1 and A2 in FIG. 9 is displayed, but a cutout area including the marks M1 and M2 may be displayed. In addition, an area excluding the marks M1 and M2 may be stored in advance.

次に、CPU11は、ユーザのタッチパネル14bからの操作により、表示対象となる切り出し領域が選択されたか否かを判断する(ステップS23)。表示対象となる切り出し領域が選択された場合には(ステップS23;YES)、CPU11は、選択された切り出し領域が含まれる撮影画像を表示パネル14aに表示させる(ステップS24)。具体的には、CPU11は、分類リスト194a,194b,194c,・・・において、選択された切り出し領域に対応付けられている元画像を参照することにより、切り出し領域が含まれる撮影画像を特定する。そして、CPU11は、特定された撮影画像の画像データを記憶部19に記憶されている撮影画像データベース193から読み出し、この撮影画像の画像データに基づいて、撮影画像を表示パネル14aに表示させる。   Next, the CPU 11 determines whether or not a clip region to be displayed has been selected by a user operation from the touch panel 14b (step S23). When the cutout area to be displayed is selected (step S23; YES), the CPU 11 displays a captured image including the selected cutout area on the display panel 14a (step S24). Specifically, the CPU 11 refers to the original image associated with the selected cutout area in the classification list 194a, 194b, 194c,. . Then, the CPU 11 reads out the image data of the specified captured image from the captured image database 193 stored in the storage unit 19, and displays the captured image on the display panel 14a based on the image data of the captured image.

例えば、図13に示すアイデアリスト画面142において、リスト表示欄142a,142b,・・・に表示されている切り出し領域のうち、いずれかの切り出し領域が選択された場合には、選択された切り出し領域が含まれる撮影画像の1ページ分が表示される。   For example, in the idea list screen 142 shown in FIG. 13, when any one of the cutout areas displayed in the list display fields 142a, 142b,. One page of a photographed image including is displayed.

ステップS23において、表示対象となる切り出し領域が選択されない場合には(ステップS23;NO)、そのままリスト表示処理が終了する。   In step S23, when the cut-out area to be displayed is not selected (step S23; NO), the list display process ends as it is.

次に、図14を参照して、情報処理装置1において実行される自動投稿処理について説明する。自動投稿処理は、認識されたマークが「自動投稿」を意味するコマンドマークであった場合の、マーク認識処理のステップS10に相当する処理である。   Next, automatic posting processing executed in the information processing apparatus 1 will be described with reference to FIG. The automatic posting process is a process corresponding to step S10 of the mark recognition process when the recognized mark is a command mark meaning “automatic posting”.

まず、CPU11は、記憶部19から「自動投稿」マークに対応する送信先を読み出す(ステップS31)。
次に、CPU11は、読み出した送信先に基づいて、無線通信部16を制御して、撮像部15により生成された撮影画像を所定の共有ストレージに送信する(ステップS32)。
以上で、自動投稿処理が終了する。
First, the CPU 11 reads the transmission destination corresponding to the “automatic posting” mark from the storage unit 19 (step S31).
Next, the CPU 11 controls the wireless communication unit 16 based on the read transmission destination, and transmits the captured image generated by the imaging unit 15 to a predetermined shared storage (step S32).
This completes the automatic posting process.

共有ストレージでは、情報処理装置1から送信された撮影画像を保存して管理する。撮影画像が共有ストレージに保存された後は、登録された他のメンバーからも自動投稿された撮影画像が閲覧可能となる。   In the shared storage, the captured image transmitted from the information processing apparatus 1 is stored and managed. After the photographed image is stored in the shared storage, the photographed image automatically posted from other registered members can be viewed.

次に、図15を参照して、情報処理装置1において実行されるクリッピング処理について説明する。クリッピング処理は、認識されたマークが「クリッピング」を意味するコマンドマークであった場合の、マーク認識処理のステップS10に相当する処理である。   Next, with reference to FIG. 15, the clipping process executed in the information processing apparatus 1 will be described. The clipping process is a process corresponding to step S10 of the mark recognition process when the recognized mark is a command mark meaning “clipping”.

まず、CPU11は、認識された「クリッピング」マークに基づいて、原稿の向きを決定する(ステップS41)。具体的には、CPU11は、図5のコマンドマーク対応テーブル192に示した「クリッピング」マークの上側が、原稿の上側に対応しているものと判断する。   First, the CPU 11 determines the orientation of the document based on the recognized “clipping” mark (step S41). Specifically, the CPU 11 determines that the upper side of the “clipping” mark shown in the command mark correspondence table 192 in FIG. 5 corresponds to the upper side of the document.

次に、CPU11は、撮影画像からマークに対応する領域、具体的には、マーク付近の線で囲まれた領域を切り出す(ステップS42)。   Next, the CPU 11 cuts out a region corresponding to the mark from the captured image, specifically, a region surrounded by a line near the mark (step S42).

次に、CPU11は、記憶部19から「クリッピング」マークに対応する送信先を読み出す(ステップS43)。
次に、CPU11は、読み出した送信先に基づいて、無線通信部16を制御して、ステップS42において切り出された領域を所定の共有ストレージに送信する(ステップS44)。
以上で、クリッピング処理が終了する。
Next, the CPU 11 reads out the transmission destination corresponding to the “clipping” mark from the storage unit 19 (step S43).
Next, the CPU 11 controls the wireless communication unit 16 based on the read transmission destination, and transmits the area extracted in step S42 to a predetermined shared storage (step S44).
This completes the clipping process.

図16に、「クリッピング」を意味するコマンドマークが記録された記録媒体40を撮影して得られた撮影画像42の例を示す。撮影画像42中のマークM4は、線で囲まれた領域A4をクリッピングするために記録されたものである。撮影画像42から切り出された領域A4の画像データが、所定の共有ストレージに送信される。   FIG. 16 shows an example of a photographed image 42 obtained by photographing the recording medium 40 on which a command mark meaning “clipping” is recorded. The mark M4 in the captured image 42 is recorded for clipping the area A4 surrounded by the line. The image data of the area A4 cut out from the captured image 42 is transmitted to a predetermined shared storage.

共有ストレージでは、情報処理装置1から送信された切り出し領域を保存して管理する。切り出し領域が共有ストレージに保存された後は、登録された他のメンバーからも切り出し領域が閲覧可能となる。
なお、「クリッピング」マークが記録される記録媒体40としては、手書きメモに限らず、予め印刷されている資料等であってもよい。
In the shared storage, the cutout area transmitted from the information processing apparatus 1 is saved and managed. After the cutout area is saved in the shared storage, the cutout area can be viewed from other registered members.
The recording medium 40 on which the “clipping” mark is recorded is not limited to a handwritten memo, but may be a material printed in advance.

以上説明したように、第1の実施の形態の情報処理装置1によれば、撮影画像から認識されたマークに応じた所定の処理を実行するので、記録媒体40に記録された内容を有効に活用することができる。
また、撮影画像の全領域について所定のマークが記録されているかを検索するので、ユーザは記録媒体40の任意の領域にマークを記録することができる。
As described above, according to the information processing apparatus 1 of the first embodiment, since the predetermined process corresponding to the mark recognized from the captured image is executed, the contents recorded on the recording medium 40 are effectively used. Can be used.
Further, since it is searched whether or not a predetermined mark is recorded in the entire area of the captured image, the user can record the mark in an arbitrary area of the recording medium 40.

また、撮影画像に、当該撮影画像から認識されたマークの種類を示すタグを付与することにより、タグ毎に撮影画像の検索が可能となる等、撮影画像の管理が容易になる。   In addition, by adding a tag indicating the type of mark recognized from the captured image to the captured image, the captured image can be easily managed, for example, the captured image can be searched for each tag.

また、認識されたマークが分類用マークであった場合には、撮影画像から認識されたマークに対応する領域を切り出し、切り出された領域をマークの種類毎に分類して記憶部19の分類リスト194a,194b,194c,・・・に記憶させるので、記録媒体40に記録された内容を自動で分類することができる。これにより、マークの種類毎に切り出し領域を抽出したり、検索したりすることが容易になる。
また、切り出し領域をマークの種類毎にリスト化して表示パネル14aに表示するので、マークの種類毎に記録媒体40に記録された内容を確認しやすくなる。
If the recognized mark is a classification mark, an area corresponding to the recognized mark is extracted from the captured image, and the extracted area is classified for each type of mark, and the classification list in the storage unit 19 is used. 194a, 194b, 194c,..., The contents recorded on the recording medium 40 can be automatically classified. As a result, it becomes easy to extract or search a cutout area for each type of mark.
In addition, since the cutout areas are listed for each type of mark and displayed on the display panel 14a, it is easy to check the content recorded on the recording medium 40 for each type of mark.

また、認識されたマークがコマンドマークであった場合には、マークに対応付けられたコマンドを実行するので、ユーザが直接指示する必要がなく、容易にコマンドに対応する処理を行うことができる。
例えば、「自動投稿」マークに基づいて、撮影画像を所定の共有ストレージに送信するので、ユーザが投稿処理を指示したり、送信先を指定したりする等の手間がかからない。
また、「クリッピング」マークに基づいて、線で囲まれた領域を切り出し、切り出された領域を所定の共有ストレージに送信するので、ユーザがクリッピング処理を指示したり、送信先を指定したりする等の手間がかからない。
If the recognized mark is a command mark, the command associated with the mark is executed, so that the user does not need to give a direct instruction and processing corresponding to the command can be easily performed.
For example, since the captured image is transmitted to a predetermined shared storage based on the “automatic posting” mark, there is no need for the user to instruct the posting process or to specify the transmission destination.
Further, based on the “clipping” mark, the area surrounded by the line is cut out and the cut out area is transmitted to a predetermined shared storage, so that the user instructs the clipping process, specifies the transmission destination, etc. Does not take much time.

また、第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられたことが検出されたタイミングで撮影を行うので、容易に撮影を行うことができる。   In addition, since shooting is performed at the timing when it is detected that the first cover 30a and the second cover 30b are closed to a predetermined state, it is possible to easily perform shooting.

なお、第1のカバー30aと第2のカバー30bの開閉角度の検出方法は、上記の方法に限定されない。例えば、第1のカバー30aの所定の位置に指標を付しておき、撮像部15により取り込まれた画像内の指標の位置に基づいて、第1のカバー30aと第2のカバー30bとが所定の状態まで閉じられたことを検出することとしてもよい。また、第2のカバー30b内に加速度センサを設け、加速度センサにより重力の方向を検出して、第1のカバー30aと第2のカバー30bの開閉角度を検出することとしてもよい。   In addition, the detection method of the opening / closing angle of the 1st cover 30a and the 2nd cover 30b is not limited to said method. For example, an index is attached to a predetermined position of the first cover 30a, and the first cover 30a and the second cover 30b are determined based on the position of the index in the image captured by the imaging unit 15. It is good also as detecting that it was closed to this state. In addition, an acceleration sensor may be provided in the second cover 30b, and the direction of gravity may be detected by the acceleration sensor to detect the opening / closing angles of the first cover 30a and the second cover 30b.

〔第2の実施の形態〕
次に、本発明を適用した第2の実施の形態について説明する。
図17(a)は、第2の実施の形態における情報処理装置1Aが本体カバー50に収納されている状態を示す図であり、図17(b)及び(c)は、情報処理装置1Aが本体カバー50に立て掛けられた状態を示す図である。情報処理装置1Aにおいて、第1の実施の形態に示した情報処理装置1と同様の構成については、同一の符号を付し、説明を省略する。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described.
FIG. 17A is a diagram illustrating a state in which the information processing apparatus 1A according to the second embodiment is housed in the main body cover 50. FIGS. 17B and 17C illustrate the information processing apparatus 1A. FIG. 6 is a view showing a state where the main body cover is leaned against the main body cover 50. In the information processing apparatus 1A, the same components as those of the information processing apparatus 1 shown in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図18は、情報処理装置1Aが本体カバー50に立て掛けられ、情報処理装置1Aの前に記録媒体40が置かれた状態を示す図である。第2の実施の形態では、記録媒体40は複数のページからなる冊子状に構成されており、記録媒体40のページをめくるタイミングで、撮像部15により記録媒体40が撮影される。情報処理装置1Aの下端と記録媒体40の上端とを合わせるように記録媒体40を置くと、撮像部15の画角及びピントが記録媒体40に合うように予め設定されている。   FIG. 18 is a diagram illustrating a state in which the information processing apparatus 1A is leaned against the main body cover 50 and the recording medium 40 is placed in front of the information processing apparatus 1A. In the second embodiment, the recording medium 40 is configured as a booklet composed of a plurality of pages, and the recording medium 40 is photographed by the imaging unit 15 at the timing of turning the pages of the recording medium 40. When the recording medium 40 is placed so that the lower end of the information processing apparatus 1A is aligned with the upper end of the recording medium 40, the angle of view and the focus of the imaging unit 15 are set in advance so as to match the recording medium 40.

情報処理装置1Aは、第1の実施の形態に示した情報処理装置1との比較において、開閉角度センサ20及びバインダ30が不要である点が異なるが、その他の構成については情報処理装置1と同様であるため、図3を援用し、説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。   The information processing apparatus 1A is different from the information processing apparatus 1 shown in the first embodiment in that the opening / closing angle sensor 20 and the binder 30 are not necessary. Since it is the same, FIG. 3 is used and description is abbreviate | omitted. Hereinafter, a configuration and processing characteristic of the second embodiment will be described.

CPU11は、撮像部15により連続的に撮影される動画像データを取り込み、この動画像データを解析することにより、撮影されている記録媒体40のページめくり動作を検出する。撮像部15から出力される画像データが変化しつつある間は、記録媒体40の各ページやユーザの指等が移動中であると推測される。CPU11は、撮像部15により撮影された動画像データを取り込み続け、画像が静止した場合に、ページめくり動作が行われたと判断する。
CPU11は、記録媒体40のページめくり動作が検出されたタイミングで、撮像部15に撮影を行わせる。
The CPU 11 captures moving image data continuously captured by the imaging unit 15 and analyzes the moving image data to detect a page turning operation of the recording medium 40 being captured. While the image data output from the imaging unit 15 is changing, it is estimated that each page of the recording medium 40, the user's finger, and the like are moving. The CPU 11 continues to capture the moving image data captured by the imaging unit 15 and determines that the page turning operation has been performed when the image is still.
The CPU 11 causes the imaging unit 15 to perform shooting at the timing when the page turning operation of the recording medium 40 is detected.

情報処理装置1Aにおいて実行されるマーク認識処理は、第1の実施の形態と撮影を行うタイミングが異なるのみで、それ以外の処理については、図8に示したマーク認識処理と同様であるため、図8を援用して説明する。第2の実施の形態では、CPU11は、ステップS1において、撮像部15から連続的に取り込まれた動画像データに基づいて、手書きメモ(記録媒体40)のページめくり動作を検出したか否かを判断する。   The mark recognition process executed in the information processing apparatus 1A is different from the first embodiment only in the timing of shooting, and the other processes are the same as the mark recognition process shown in FIG. This will be described with reference to FIG. In the second embodiment, the CPU 11 determines whether or not the page turning operation of the handwritten memo (recording medium 40) has been detected based on the moving image data continuously captured from the imaging unit 15 in step S1. to decide.

手書きメモのページめくり動作を検出した場合には(ステップS1;YES)、CPU11は、撮像部15を制御して、記録媒体40に記録された手書きメモの撮影を行わせ、撮像部15により生成されたメモ画像(静止画像)を取得する(ステップS2)。
ステップS3以降の処理は、第1の実施の形態と同様であるため、説明を省略する。
When the page turning operation of the handwritten memo is detected (step S <b>1; YES), the CPU 11 controls the image capturing unit 15 to photograph the handwritten memo recorded in the recording medium 40, and is generated by the image capturing unit 15. The obtained memo image (still image) is acquired (step S2).
Since the process after step S3 is the same as that of the first embodiment, the description thereof is omitted.

また、タグ別検索処理(図10参照)、リスト表示処理(図12参照)、自動投稿処理(図14参照)、クリッピング処理(図15参照)についても、第1の実施の形態と同様であるため、説明を省略する。   The tag-specific search process (see FIG. 10), list display process (see FIG. 12), automatic posting process (see FIG. 14), and clipping process (see FIG. 15) are also the same as in the first embodiment. Therefore, the description is omitted.

以上説明したように、第2の実施の形態の情報処理装置1Aによれば、第1の実施の形態と同様の効果に加え、記録媒体40のページめくり動作が検出されたタイミングで撮影を行うので、容易に撮影を行うことができる。   As described above, according to the information processing apparatus 1A of the second embodiment, in addition to the same effects as those of the first embodiment, shooting is performed at the timing when the page turning operation of the recording medium 40 is detected. Therefore, photographing can be performed easily.

なお、ページめくり動作の検出方法は、上記の方法に限定されない。例えば、予め記録媒体40の各ページの所定の位置に、ページを特定するためのページ特定用マークを付しておき、取り込んだ画像内の所定の位置からページ特定用マークが検出された場合に、ページめくり動作が行われたと判断することとしてもよい。   Note that the method of detecting the page turning operation is not limited to the above method. For example, when a page specifying mark for specifying a page is previously attached to a predetermined position of each page of the recording medium 40, and the page specifying mark is detected from a predetermined position in the captured image. Alternatively, it may be determined that the page turning operation has been performed.

なお、上記各実施の形態における記述は、本発明に係る情報処理装置の例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   The description in each of the above embodiments is an example of the information processing apparatus according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of each part constituting the apparatus can be changed as appropriate without departing from the spirit of the present invention.

例えば、記録媒体40に記録されるマークは、上記の例に限定されない。分類用マークについては、対応する分類項目とともに分類用マーク対応テーブル191に追加可能である。また、コマンドマークついては、対応するコマンドとともにコマンドマーク対応テーブル192に追加可能である。   For example, the mark recorded on the recording medium 40 is not limited to the above example. The classification mark can be added to the classification mark correspondence table 191 together with the corresponding classification item. Further, command marks can be added to the command mark correspondence table 192 together with corresponding commands.

また、自動投稿処理(図14参照)やクリッピング処理(図15参照)では、マークに対応する送信先を記憶部19から読み出して、自動的に予め設定された送信先に撮影画像や切り出し領域を送信することとしたが、送信前に送信先を設定するための設定画面を表示させ、ユーザが送信先を選択することとしてもよい。   Further, in the automatic posting process (see FIG. 14) and the clipping process (see FIG. 15), the transmission destination corresponding to the mark is read from the storage unit 19, and the captured image and the clipping region are automatically set in the transmission destination set in advance. The transmission may be performed, but a setting screen for setting the transmission destination may be displayed before transmission, and the user may select the transmission destination.

以上の説明では、各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。   In the above description, an example in which a ROM is used as a computer-readable medium storing a program for executing each process is disclosed, but the present invention is not limited to this example. As other computer-readable media, a non-volatile memory such as a flash memory and a portable recording medium such as a CD-ROM can be applied. A carrier wave may be applied as a medium for providing program data via a communication line.

本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
記録媒体を撮影して撮影画像を生成する撮像手段と、
前記撮像手段により生成された撮影画像の全領域について所定の手書きマークが記録されているかを検索する検索手段と、
当該検索により認識された手書きマークに応じた所定の処理を実行する実行手段と、
を備える情報処理装置。
<請求項2>
前記記録媒体が配置される第1の筐体と、
ヒンジ部により前記第1の筐体と開閉可能に連結され、本体部が設けられた第2の筐体と、
前記第1の筐体と前記第2の筐体とが所定の状態まで閉じられたことを検出する検出手段と、
を備え、
前記撮像手段は、前記本体部の前記第1の筐体に対向する位置に設けられており、
前記検出手段により前記第1の筐体と前記第2の筐体とが前記所定の状態まで閉じられたことが検出されたタイミングで前記撮像手段に撮影を行わせる撮影制御手段を備える、
請求項1に記載の情報処理装置。
<請求項3>
前記記録媒体は複数のページからなる冊子状に構成されており、
前記記録媒体のページめくり動作を検出する検出手段と、
前記検出手段により前記記録媒体のページめくり動作が検出されたタイミングで前記撮像手段に撮影を行わせる撮影制御手段と、
を備える、
請求項1に記載の情報処理装置。
<請求項4>
前記撮影画像に前記認識された手書きマークの種類を示すタグを付与し、タグ毎に前記撮影画像を管理する管理手段を備える、
請求項1〜3のいずれか一項に記載の情報処理装置。
<請求項5>
前記実行手段は、
前記撮影画像から前記認識された手書きマークに対応する領域を切り出す切り出し手段と、
当該切り出された領域を手書きマークの種類毎に分類して記憶手段に記憶させる記憶制御手段と、
を備える、
請求項1〜4のいずれか一項に記載の情報処理装置。
<請求項6>
前記記憶手段に記憶されている前記切り出された領域を前記手書きマークの種類毎にリスト化して表示手段に表示させる表示制御手段を備える、
請求項5に記載の情報処理装置。
<請求項7>
手書きマークの種類毎に当該手書きマークが意味するコマンドを対応付けて記憶する記憶手段を備え、
前記実行手段は、
前記認識された手書きマークに対応付けられたコマンドを前記記憶手段から読み出す読み出し手段と、
当該読み出されたコマンドを前記撮影画像について実行するコマンド実行手段と、
を備える、
請求項1〜4のいずれか一項に記載の情報処理装置。
<請求項8>
前記コマンド実行手段は、前記撮影画像を所定の共有ストレージに送信する送信制御手段を備える、
請求項7に記載の情報処理装置。
<請求項9>
前記コマンド実行手段は、
前記撮影画像から前記記録媒体に記録された線で囲まれた領域を切り出す切り出し手段と、
当該切り出された領域を所定の共有ストレージに送信する送信制御手段と、
を備える、
請求項7に記載の情報処理装置。
<請求項10>
コンピュータを、
記録媒体を撮影して撮影画像を生成する撮像手段により生成された撮影画像の全領域について所定の手書きマークが記録されているかを検索する検索手段、
当該検索により認識された手書きマークに応じた所定の処理を実行する実行手段、
として機能させるためのプログラム。
Although the embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and the equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Imaging means for capturing a recording medium and generating a captured image;
Search means for searching whether or not a predetermined handwritten mark is recorded for the entire area of the captured image generated by the imaging means;
Execution means for executing a predetermined process according to the handwritten mark recognized by the search;
An information processing apparatus comprising:
<Claim 2>
A first housing in which the recording medium is disposed;
A second housing which is connected to the first housing by a hinge portion so as to be openable and closable and provided with a main body portion;
Detecting means for detecting that the first casing and the second casing are closed to a predetermined state;
With
The imaging means is provided at a position facing the first housing of the main body,
An imaging control unit that causes the imaging unit to perform imaging at a timing when the detection unit detects that the first casing and the second casing are closed to the predetermined state;
The information processing apparatus according to claim 1.
<Claim 3>
The recording medium is configured in a booklet shape including a plurality of pages,
Detecting means for detecting a page turning operation of the recording medium;
Photographing control means for causing the imaging means to perform photographing at the timing when the page turning operation of the recording medium is detected by the detection means;
Comprising
The information processing apparatus according to claim 1.
<Claim 4>
A tag that indicates a type of the recognized handwritten mark to the captured image, and a management unit that manages the captured image for each tag;
The information processing apparatus according to any one of claims 1 to 3.
<Claim 5>
The execution means includes
Clipping means for cutting out an area corresponding to the recognized handwritten mark from the captured image;
Storage control means for classifying the cut-out area for each type of handwritten mark and storing it in the storage means;
Comprising
The information processing apparatus according to any one of claims 1 to 4.
<Claim 6>
A display control unit configured to list the clipped area stored in the storage unit for each type of the handwritten mark and display the list on the display unit;
The information processing apparatus according to claim 5.
<Claim 7>
A storage means for storing a command associated with the handwritten mark in association with each type of the handwritten mark;
The execution means includes
Reading means for reading out a command associated with the recognized handwritten mark from the storage means;
Command execution means for executing the read command on the captured image;
Comprising
The information processing apparatus according to any one of claims 1 to 4.
<Claim 8>
The command execution means includes transmission control means for transmitting the captured image to a predetermined shared storage.
The information processing apparatus according to claim 7.
<Claim 9>
The command execution means includes
Clipping means for cutting out an area surrounded by a line recorded on the recording medium from the captured image;
Transmission control means for transmitting the extracted area to a predetermined shared storage;
Comprising
The information processing apparatus according to claim 7.
<Claim 10>
Computer
Search means for searching whether or not a predetermined handwritten mark is recorded for all areas of the photographed image generated by the imaging means for photographing the recording medium and generating a photographed image;
Execution means for executing predetermined processing according to the handwritten mark recognized by the search;
Program to function as.

1 情報処理装置
1A 情報処理装置
10 本体部
11 CPU
12 電源部
13 操作部
14 タッチ表示部
14a 表示パネル
14b タッチパネル
15 撮像部
16 無線通信部
17 RAM
18 ROM
19 記憶部
20 開閉角度センサ
21 計時部
30 バインダ
30a 第1のカバー
30b 第2のカバー
30c ヒンジ部
40 記録媒体
50 本体カバー
181 マーク認識処理プログラム
191 分類用マーク対応テーブル
192 コマンドマーク対応テーブル
193 撮影画像データベース
194a,194b,194c,・・・ 分類リスト
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 1A Information processing apparatus 10 Main-body part 11 CPU
12 power supply unit 13 operation unit 14 touch display unit 14a display panel 14b touch panel 15 imaging unit 16 wireless communication unit 17 RAM
18 ROM
DESCRIPTION OF SYMBOLS 19 Memory | storage part 20 Opening / closing angle sensor 21 Time measuring part 30 Binder 30a 1st cover 30b 2nd cover 30c Hinge part 40 Recording medium 50 Main body cover 181 Mark recognition process program 191 Classification mark corresponding table 192 Command mark corresponding table 193 Photographed image Database 194a, 194b, 194c, ... Classification list

Claims (4)

記録媒体が配置される第1の筐体と、
前記第1の筐体と開閉可能に連結された第2の筐体と、
前記第1の筐体に対向する前記第2の筐体の位置に設けられ前記記録媒体を撮影して撮影画像を生成する撮像手段と、
前記第1の筐体と前記第2の筐体とが予め定められた角度まで閉じられたことを検出する検出手段と、
前記検出手段により前記第1の筐体と前記第2の筐体とが前記予め定められた角度まで閉じられたことが検出されたタイミングで前記撮像手段に撮影を行わせる撮影制御手段と、
前記撮像手段により生成された前記撮影画像から所定のマークを認識する認識手段と、
前記認識手段により前記所定のマークが認識された場合は予め定めた送信先に前記撮影画像を送信させる送信制御手段と、
を備える情報処理装置。
A first housing in which a recording medium is disposed;
A second housing coupled to the first housing so as to be openable and closable;
An image pickup means provided at a position of the second case facing the first case to shoot the recording medium to generate a shot image;
Detecting means for detecting that the first casing and the second casing are closed to a predetermined angle;
Photographing control means for causing the imaging means to perform photographing at a timing when the detection means detects that the first casing and the second casing are closed to the predetermined angle;
Recognition means for recognizing a predetermined mark from the captured image generated by the imaging means;
Transmission control means for transmitting the photographed image to a predetermined transmission destination when the predetermined mark is recognized by the recognition means;
An information processing apparatus comprising:
前記送信制御手段は、前記所定のマークに対応する送信先を読み出し、読み出した送信先に前記撮影画像を送信させる、
請求項に記載の情報処理装置。
The transmission control means reads a transmission destination corresponding to the predetermined mark, and causes the captured image to be transmitted to the read transmission destination.
The information processing apparatus according to claim 1 .
前記送信制御手段は、前記撮影画像から前記記録媒体に記録された線で囲まれた領域を切り出し、切り出された領域を予め定めた送信先に送信させる、
請求項1または2に記載の情報処理装置。
The transmission control unit cuts out an area surrounded by a line recorded on the recording medium from the captured image, and causes the cut out area to be transmitted to a predetermined transmission destination.
The information processing apparatus according to claim 1 or 2 .
記録媒体が配置される第1の筐体と、前記第1の筐体と開閉可能に連結された第2の筐体と、前記第1の筐体に対向する前記第2の筐体の位置に設けられ前記記録媒体を撮影して撮影画像を生成する撮像手段とを備える情報処理装置のコンピュータを、
前記第1の筐体と前記第2の筐体とが予め定められた角度まで閉じられたことを検出する検出手段、
前記検出手段により前記第1の筐体と前記第2の筐体とが前記予め定められた角度まで閉じられたことが検出されたタイミングで前記撮像手段に撮影を行わせる撮影制御手段、
前記撮像手段により生成された前記撮影画像から所定のマークを認識する認識手段、
前記認識手段により前記所定のマークが認識された場合は予め定めた送信先に前記撮影画像を送信させる送信制御手段、
として機能させるためのプログラム。
A first housing in which a recording medium is arranged, a second housing connected to the first housing so as to be openable and closable, and a position of the second housing facing the first housing A computer of an information processing apparatus provided with an image pickup unit that is provided on the image pickup unit and shoots the recording medium to generate a shot image;
Detecting means for detecting that the first casing and the second casing are closed to a predetermined angle;
Photographing control means for causing the imaging means to perform photographing at a timing when the detection means detects that the first casing and the second casing are closed to the predetermined angle;
Recognition means for recognizing a predetermined mark from the captured image generated by the imaging means;
Transmission control means for transmitting the photographed image to a predetermined transmission destination when the predetermined mark is recognized by the recognition means;
Program to function as.
JP2012163526A 2012-07-24 2012-07-24 Information processing apparatus and program Active JP5971003B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012163526A JP5971003B2 (en) 2012-07-24 2012-07-24 Information processing apparatus and program
US13/938,455 US9285984B2 (en) 2012-07-24 2013-07-10 Information processing apparatus and computer readable medium
CN201310314495.0A CN103577972B (en) 2012-07-24 2013-07-24 Information processor and information processing method
US15/008,662 US9536140B2 (en) 2012-07-24 2016-01-28 Information processing apparatus and computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012163526A JP5971003B2 (en) 2012-07-24 2012-07-24 Information processing apparatus and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016082603A Division JP6439738B2 (en) 2016-04-18 2016-04-18 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2014026302A JP2014026302A (en) 2014-02-06
JP5971003B2 true JP5971003B2 (en) 2016-08-17

Family

ID=50199919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012163526A Active JP5971003B2 (en) 2012-07-24 2012-07-24 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5971003B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6476732B2 (en) * 2014-10-21 2019-03-06 コニカミノルタ株式会社 Document processing apparatus, control method thereof, and program
CN111079414A (en) * 2019-07-02 2020-04-28 广东小天才科技有限公司 Dictation detection method, electronic equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173289A (en) * 2003-11-27 2004-06-17 Casio Comput Co Ltd Mobile terminal device or host device
JP2006301695A (en) * 2005-04-15 2006-11-02 Fuji Xerox Co Ltd Document processing device and program
JP2007102545A (en) * 2005-10-05 2007-04-19 Ricoh Co Ltd Electronic document creation apparatus, electronic document creation method, and electronic document creation program
JP2007257058A (en) * 2006-03-20 2007-10-04 Ricoh Co Ltd System for synthesizing and displaying information, apparatus for synthesizing and displaying information, and apparatus for controlling information synthesis
JP5129648B2 (en) * 2008-05-13 2013-01-30 株式会社Pfu Image reading apparatus and mark detection method
JP2011076267A (en) * 2009-09-29 2011-04-14 Nec Personal Products Co Ltd Information processing apparatus, material photographing method, program, and recording medium

Also Published As

Publication number Publication date
JP2014026302A (en) 2014-02-06

Similar Documents

Publication Publication Date Title
US9536140B2 (en) Information processing apparatus and computer readable medium
US9131124B2 (en) Information reading apparatus and computer-readable storage medium
CN103810471B (en) Identify the method and apparatus and its image pickup method of file and picture
CN104463103B (en) Image processing method and device
WO2014082551A1 (en) Method and device for obtaining contents in paper notebook
US9223396B2 (en) Information processing apparatus and computer readable medium
JP5971003B2 (en) Information processing apparatus and program
JP6439738B2 (en) Image processing apparatus and program
JP6019885B2 (en) Information processing apparatus and program
WO2014086266A1 (en) Professional notebook convenient for electronization and method for displaying electronic thumbnail thereof
JP6149905B2 (en) Information processing apparatus and program
JP6337934B2 (en) Information processing apparatus and program
JP6024330B2 (en) Information processing apparatus and program
JP5849886B2 (en) Information processing apparatus and program
JP6380567B2 (en) Information processing apparatus and program
JP6094660B2 (en) Information processing apparatus and program
JP5799911B2 (en) Information processing apparatus and program
JP5962975B2 (en) Information processing apparatus and program
JP2006080670A (en) Image processing apparatus and image processing method
JP6176382B2 (en) Information processing apparatus and program
JP2015181275A (en) image control device and program
JP5505092B2 (en) Portable communication terminal, portable communication terminal control method, portable communication terminal control program, and readable medium
JP2015142283A (en) Information processing terminal, data generation kit and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150616

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160418

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5971003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150