JP2014021872A - Data generating kit - Google Patents

Data generating kit Download PDF

Info

Publication number
JP2014021872A
JP2014021872A JP2012162106A JP2012162106A JP2014021872A JP 2014021872 A JP2014021872 A JP 2014021872A JP 2012162106 A JP2012162106 A JP 2012162106A JP 2012162106 A JP2012162106 A JP 2012162106A JP 2014021872 A JP2014021872 A JP 2014021872A
Authority
JP
Japan
Prior art keywords
image
information
captured
information processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012162106A
Other languages
Japanese (ja)
Other versions
JP6019872B2 (en
Inventor
Tomoko Yano
智子 矢野
Atsushi Yamazaki
篤 山崎
Takashi Omura
剛史 大村
Tomoko Kamidoi
朋子 上土井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokuyo S&T Co Ltd
Original Assignee
Kokuyo S&T Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokuyo S&T Co Ltd filed Critical Kokuyo S&T Co Ltd
Priority to JP2012162106A priority Critical patent/JP6019872B2/en
Publication of JP2014021872A publication Critical patent/JP2014021872A/en
Application granted granted Critical
Publication of JP6019872B2 publication Critical patent/JP6019872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a data generating kit in which when there are a plurality of sheets of a capture object which are intended to be converted into data for utilization, such as memorandums and name cards, troublesome for preparation for automatic processing to be conducted after capturing them is reduced.SOLUTION: By using a support member 3 equipped with an arrangement area 31 on which a capture object 2 is disposed, and an outer area 32 which adjoins the outside of the arrangement area 31 and to which information defining a content of processing to be executed for a photographic image of the capture object 2 is given, the capture object 2 is photographed with the support member 3 included. In an information processing terminal 1, having conducted the photographing, a part in which the capture object 2, disposed in the arrangement area 31 in the image, shows up is cut out to obtain the photographic image, information 34, shown in the outer area 32, is read to know a content of processing to be executed for the photographic image, and the processing is executed.

Description

本発明は、手書きのメモやノートその他種々の取込対象物を撮影してディジタルデータ化する目的で利用されるデータ化キットに関する。   The present invention relates to a data conversion kit used for the purpose of photographing handwritten memos, notebooks and other various objects to be captured and converting them into digital data.

近時、カメラモジュールが実装された高性能なスマートフォンやタブレット型コンピュータ等が、広汎に普及しつつある。これらの情報処理端末を使用して、打ち合わせや業務の内容を記録した手書きのメモやノート類、業務において交換した名刺等を撮影し、ディジタルデータとして取り込み活用したいというニーズも高まっている。   Recently, high-performance smartphones and tablet computers equipped with camera modules are becoming widespread. There is an increasing need to use these information processing terminals to photograph handwritten memos and notebooks in which meetings and business contents are recorded, business cards exchanged in business, and the like to be captured and utilized as digital data.

出願人は既に、そのようなニーズに応え得るメモパッドやノート、ルーズリーフ等の紙製品、及び情報処理端末上で実行されるアプリケーションソフトウェアを市場に供している(下記非特許文献を参照)。   The applicant has already put on the market paper products such as memo pads, notebooks and loose leaves that can meet such needs, and application software executed on information processing terminals (see the following non-patent document).

具体的に述べると、メモパッドの用紙やノートの中紙、ルーズリーフの外縁部に、「アクションマーカー」と呼称される、二進法表記で値を記入するマーク欄が設けられている。ユーザは、そのメモ用紙等に書き込みを行うとともに、「アクションマーカー」の欄に値をマークする。   More specifically, a mark field for entering a value in binary notation called “action marker” is provided on the outer edge of the memo pad paper, the middle paper of the notebook, or the loose leaf. The user writes on the memo paper and marks the value in the “action marker” field.

「アクションマーカー」の値は、書き込みをしたメモ用紙等の取込対象物を撮像して得られる撮影画像を、情報処理端末においてどのように処理するべきかを指し示すものである。例えば、
・値が1であれば、撮影画像に特定のメタ情報(タグ)を付した上で情報処理端末内に保存する
・値が2であれば、撮影画像を所定の宛先アドレスに電子メールの形で送信する
・値が3であれば、撮影画像を所定のウェブサーバにアップロードする
……
というような態様である。
The value of “action marker” indicates how the information processing terminal should process a captured image obtained by capturing an object to be captured such as a written memo paper. For example,
-If the value is 1, save the captured image with specific meta information (tag) in the information processing terminal-If the value is 2, send the captured image to a predetermined destination address in the form of an e-mail • If the value is 3, upload the shot image to a predetermined web server ...
It is an aspect like this.

ユーザは、情報処理端末上でアプリケーションソフトウェアを起動し、「アクションマーカー」の値が記入された取込対象物をカメラモジュールを介して撮影する。さすれば、情報処理端末が、撮影画像の中に含まれる「アクションマーカー」の値を読み取り、その値に対応した処理を遂行する。このものによれば、取込対象物を単にディジタルデータ化して蓄積できるだけでなく、データの分別や他のユーザとの共有までもが自動的に実現される。   The user activates the application software on the information processing terminal, and photographs the capture target in which the value of “action marker” is entered via the camera module. In this case, the information processing terminal reads the value of “action marker” included in the photographed image, and performs processing corresponding to the value. According to this, not only can the acquisition target object be simply converted into digital data, but also the separation of data and the sharing with other users are automatically realized.

しかしながら、データ化した上で一様に処理したい取込対象物が多数枚存在する場合には、それらの一枚一枚におしなべて同一の「アクションマーカー」の値をマークしなければならず、ともすれば煩瑣であった。   However, if there are many objects to be processed that are converted into data and processed uniformly, the same “action marker” value must be marked on each of them. It was annoying.

“CamiApp(登録商標)”、[online]、[平成24年7月18日検索]、インターネット<URL http://www.kokuyo-st.co.jp/stationery/camiapp/>“CamiApp (registered trademark)” [online], [searched July 18, 2012], Internet <URL http://www.kokuyo-st.co.jp/stationery/camiapp/>

本発明は、上述の問題に初めて着目してなされたものであり、データ化して活用したい取込対象物が多数枚ある場合において、その取り込み後の自動処理のための準備の煩わしさを軽減することを所期の目的としている。   The present invention has been made by paying attention to the above-mentioned problem for the first time, and when there are a large number of objects to be captured that are desired to be converted into data, the troublesome preparation for automatic processing after the capturing is reduced. That is the intended purpose.

本発明では、取込対象物を撮影して取り込む情報処理端末と、その撮影時に取込対象物を支持する支持体とを要素とするデータ化キットであって、前記支持体が、取込対象物が配置される配置領域と、前記配置領域の外側に隣接し、前記情報処理端末が取込対象物を撮影して取得する撮影画像について実行するべき処理の内容を規定する情報が付される外部領域とを具備し、前記情報処理端末が、前記支持体における前記配置領域に配置された取込対象物と前記外部領域とをともに撮影する撮像部と、前記撮像部で撮影した画像から、前記配置領域または配置領域に配置された取込対象物の写っている部分を切り出してその撮影画像を得るとともに、前記外部領域に表された情報を読み取って当該撮影画像について実行するべき処理の内容を知得し当該処理を実行する情報処理部とを具備しているデータ化キットを構成した。   The present invention is a data conversion kit including an information processing terminal that captures and captures an object to be captured and a support that supports the capture object at the time of capturing, the support being the object to be captured An arrangement area in which an object is arranged, and information that specifies the content of a process that is adjacent to the outside of the arrangement area and that should be executed on a captured image that the information processing terminal captures and acquires the capture object An external area, and the information processing terminal, from an image captured by the image capturing section, an image capturing section that captures both the capture object placed in the placement area of the support and the external area, The contents of the processing to be performed on the captured image by cutting out the arrangement area or a portion of the capture target arranged in the arrangement area to obtain the captured image and reading the information represented in the external area The Resulting Shi configured data of kits comprising an information processing unit for executing the processing.

このようなものであれば、データ化して一様に処理したい取込対象物、即ち手書きのメモや名刺等が多数枚あったとしても、それらについて事後の処理を規定する情報は支持体に表されていればよく、取込対象物の一枚一枚に同一の情報を記述する手間が省かれる。   If this is the case, even if there are many objects to be captured and processed uniformly, i.e., many handwritten memos, business cards, etc., the information that defines the subsequent processing for those objects is displayed on the support. It is sufficient that the same information is written on each of the objects to be captured.

好適な実施態様の一としては、前記支持体の前記外部領域に、処理の内容を規定するものとして、取込対象物の撮影画像に付加するメタ情報の指定、前記撮影画像の電子メールによる送信の宛先アドレスの指定、前記撮影画像のアップロード先のサーバの指定、のうち少なくとも一を規定する情報が付され、前記情報処理端末の前記情報処理部は、前記外部領域に表された情報を読み取り、当該情報により指定されたメタ情報を取込対象物の撮影画像に付加、当該情報により指定された宛先アドレスに向けて前記撮影画像を電子メールとして送信、当該情報により指定されたサーバに向けて前記撮影画像をアップロード、のうち少なくとも一の処理を実行するものが挙げられる。   As a preferred embodiment, designation of meta information to be added to the captured image of the object to be captured and transmission of the captured image by e-mail are performed in the external area of the support so as to define the content of processing. Information that specifies at least one of a destination address designation and a server to which the captured image is to be uploaded is attached, and the information processing unit of the information processing terminal reads the information represented in the external area The meta information specified by the information is added to the captured image of the object to be captured, the captured image is transmitted as an e-mail toward the destination address specified by the information, and directed to the server specified by the information Examples include uploading the photographed image and executing at least one process.

本発明によれば、データ化して活用したい取込対象物が多数枚ある場合において、その取り込み後の自動処理のための準備の煩わしさを軽減することができる。   According to the present invention, in the case where there are a large number of capture objects to be converted into data and used, it is possible to reduce the troublesome preparation for automatic processing after the capture.

本発明の一実施形態のデータ化キットを示す斜視図。The perspective view which shows the data conversion kit of one Embodiment of this invention. 同実施形態における支持体の正面図。The front view of the support body in the embodiment. 同実施形態における情報処理端末が有するハードウェア資源を示す図。The figure which shows the hardware resource which the information processing terminal in the embodiment has. 同実施形態における情報処理端末の機能ブロック図。The functional block diagram of the information processing terminal in the embodiment. 同実施形態における情報処理端末が撮影した画像の例を示す図。The figure which shows the example of the image which the information processing terminal in the embodiment image | photographed. 同実施形態における情報処理端末が撮影した画像の例を示す図。The figure which shows the example of the image which the information processing terminal in the embodiment image | photographed. 同実施形態における情報処理端末が補正した画像の例を示す図。The figure which shows the example of the image which the information processing terminal in the embodiment correct | amended. 支持体の外部領域に表された情報と、情報処理端末において実行する処理との関係を規定する設定情報の例を示す図。The figure which shows the example of the setting information which prescribes | regulates the relationship between the information represented by the external area | region of a support body, and the process performed in an information processing terminal. 同実施形態における情報処理端末による処理の手順例を示すフローチャート。6 is an exemplary flowchart illustrating a procedure example of processing by the information processing terminal according to the embodiment. 本発明の変形例の一に係る支持体を示す正面図。The front view which shows the support body which concerns on one of the modifications of this invention. 本発明の変形例の一に係る支持体を示す正面図。The front view which shows the support body which concerns on one of the modifications of this invention. 本発明の変形例の一に係る支持体を示す正面図。The front view which shows the support body which concerns on one of the modifications of this invention. 本発明の変形例の一に係る支持体を示す正面図。The front view which shows the support body which concerns on one of the modifications of this invention.

本発明の一実施形態を、図面を参照して説明する。図1に示すように、本実施形態のデータ化キットは、取込対象物2を撮影して取り込む情報処理端末1と、その撮影時に取込対象物2を支持する支持体3とを要素とする。   An embodiment of the present invention will be described with reference to the drawings. As shown in FIG. 1, the data conversion kit of the present embodiment includes an information processing terminal 1 that captures and captures the capture object 2 and a support 3 that supports the capture object 2 during the capture. To do.

本実施形態では、取込対象物として名刺(または、小形のメモ用紙等)2を想定しており、支持体3は名刺2よりも大きいカード状をなす。図2に示すように、支持体3は、取込対象物たる名刺2の一般的な形状及び寸法に合致した平面視矩形状の配置領域31と、この配置領域31の外側に隣接し配置領域31の周囲を取り囲む外部領域32とを具備する。   In the present embodiment, a business card (or small memo paper or the like) 2 is assumed as an object to be captured, and the support 3 has a larger card shape than the business card 2. As shown in FIG. 2, the support 3 includes an arrangement area 31 having a rectangular shape in plan view that matches the general shape and dimensions of the business card 2 that is an object to be captured, and an arrangement area adjacent to the outside of the arrangement area 31. And an external region 32 surrounding the periphery of 31.

配置領域31と外部領域32との境界には、その境界をユーザに視認させるための目印(図示例では、配置領域31の輪郭を表す破線)33を、印刷等により表してある。情報処理端末1を使用して名刺2を撮影する際には、図1に示しているように、その名刺2の四辺及び隅角を目印33に重ね合わせるようにして、名刺2を配置領域31に載置する。   On the boundary between the arrangement area 31 and the external area 32, a mark 33 (in the illustrated example, a broken line indicating the outline of the arrangement area 31) 33 for making the boundary visible to the user is represented by printing or the like. When the business card 2 is photographed using the information processing terminal 1, as shown in FIG. 1, the business card 2 is placed in the arrangement area 31 so that the four sides and corners of the business card 2 are superimposed on the mark 33. Placed on.

外部領域32には、配置領域31に配置された名刺2を撮影して取得される撮影画像について、情報処理端末1が実行するべき処理の内容を規定する情報34が付される。本実施形態では、その処理の内容を規定する情報として、二進法表記で値(図示例では、3ビット(十進法で0から8まで)の値)を記入するマーク欄34を設けている。このマーク欄34は、ユーザが任意の値を記入できる、即ちユーザ自身の手によって塗りつぶされたりシール片が貼り付けられたりするものであってもよいし、予め印刷等により所定の値が記入されているものであってもよい。   The external area 32 is provided with information 34 that defines the content of processing to be executed by the information processing terminal 1 for a captured image acquired by photographing the business card 2 arranged in the arrangement area 31. In the present embodiment, a mark column 34 for entering a value in binary notation (in the example shown, a value of 3 bits (0 to 8 in decimal notation)) is provided as information defining the content of the processing. The mark field 34 can be filled with an arbitrary value by the user, that is, can be filled by the user's own hand or a sticker piece can be attached, or a predetermined value can be filled in beforehand by printing or the like. It may be.

加えて、外部領域32には、情報処理端末1がカメラモジュール1iを介して撮影した画像の傾き及び/または歪みを補正するための基準35を、印刷等により表している。本実施形態では、配置領域31の四隅の近傍における、配置領域31の短手方向に沿った外方に、内部が空白な正方形35を表示している。都合四つの基準35の相互の位置関係、各基準35と配置領域31の輪郭との位置関係、及び各基準35とマーク欄34との位置関係はそれぞれ、一意に定められている。即ち、長手方向に対向する二つの基準35の外法が配置領域31の長手寸法に合致し、かつ短手方向に対向する二つの基準35の外法が配置領域31の短手寸法に対して所定の比率だけ大きくなっている。さらに、四つの基準35を線分で結ぶと、長方形が描かれる。本実施形態では、配置領域31が四つの基準35を頂点とする長方形の内に収まっているが、配置領域31をこの長方形からはみ出させ(例えば、配置領域31を長手方向に沿って、同方向に対向する二つの基準35の離間距離よりも大きく拡張させ)てもよい。これらの基準35は、情報処理端末1が撮影した画像から配置領域31(に配置された名刺2)の部分を検出して切り出すためにも、同画像からマーク欄34の部分を検出してその値を読み取るためにも参照される。   In addition, in the external area 32, a reference 35 for correcting the tilt and / or distortion of the image captured by the information processing terminal 1 via the camera module 1i is represented by printing or the like. In the present embodiment, a square 35 having a blank inside is displayed outside the four corners of the arrangement area 31 along the short direction of the arrangement area 31. The mutual positional relationship between the four standards 35, the positional relationship between the respective standards 35 and the outline of the arrangement area 31, and the positional relationship between the respective standards 35 and the mark column 34 are uniquely determined. That is, the two outer methods of the reference 35 that are opposite in the longitudinal direction match the longitudinal dimension of the placement region 31, and the two outer methods of the reference 35 that are opposed in the shorter direction are smaller than the shorter dimension of the placement region 31. It is increased by a predetermined ratio. Furthermore, when the four references 35 are connected by line segments, a rectangle is drawn. In the present embodiment, the arrangement area 31 is contained in a rectangle having four reference points 35 as vertices. However, the arrangement area 31 protrudes from the rectangle (for example, the arrangement area 31 extends in the same direction along the longitudinal direction). The distance may be larger than the distance between two reference lines 35 facing each other. In order to detect and cut out the portion of the placement area 31 (the business card 2 placed in) from the image taken by the information processing terminal 1, these criteria 35 detect the portion of the mark column 34 from the same image. Also referred to to read the value.

情報処理端末1は、例えば、携帯電話端末、スマートフォン、携帯可能なビデオゲーム機やパーソナルコンピュータ(ノートブック型コンピュータ、タブレット型コンピュータ、携帯情報端末等を含む)等といった、カメラモジュール1iを内蔵している端末または機器である。図3に示すように、情報処理端末1は、汎用的なコンピュータと同様、CPU(Central Processing Unit)1a、メインメモリ1b、補助記憶デバイス1c、操作入力デバイス1d、オーディオコーデック1e、ビデオコーデック1f、通信インタフェース1g、ディスプレイ1h、カメラ1i等のハードウェア資源を備え、これらがコントローラ(システムコントローラ、I/Oコントローラ等)1jにより制御されて連携動作するものである。   The information processing terminal 1 incorporates a camera module 1i such as a mobile phone terminal, a smartphone, a portable video game machine, a personal computer (including a notebook computer, a tablet computer, a portable information terminal, etc.). Terminal or device. As shown in FIG. 3, the information processing terminal 1 is similar to a general-purpose computer in that a CPU (Central Processing Unit) 1a, a main memory 1b, an auxiliary storage device 1c, an operation input device 1d, an audio codec 1e, a video codec 1f, Hardware resources such as a communication interface 1g, a display 1h, a camera 1i, and the like are provided, and these are controlled by a controller (system controller, I / O controller, etc.) 1j to perform a cooperative operation.

補助記憶デバイス1cは、ハードディスクドライブ、フラッシュメモリ、光学ディスクドライブ、その他である。操作入力デバイス1dは、手指で操作可能なタッチパネル、トラックパッド、マウス等のポインティングデバイスや、押下ボタン(テンキーやカーソルキー等を含む)、キーボード等である。オーディオコーデック1eは、符号化されている音声データを復号化してスピーカから音声出力したり、マイクを介して収音した音声を符号化したりする。   The auxiliary storage device 1c is a hard disk drive, a flash memory, an optical disk drive, or the like. The operation input device 1d is a touch panel that can be operated with fingers, a pointing device such as a track pad or a mouse, a push button (including a numeric keypad or a cursor key), a keyboard, and the like. The audio codec 1e decodes the encoded audio data and outputs the audio from the speaker, or encodes the audio collected via the microphone.

ビデオコーデック1fは、CPU1aより受けた描画指示をもとに表示させるべき画面を生成しその画面信号をディスプレイ1iに向けて送出するGPU(Graphics Processing Unit)、画面のデータを一時的に格納しておくビデオメモリ等を要素とする。オーディオコーデック1e、ビデオコーデック1fはそれぞれ、ハードウェアでなくソフトウェアとして実装することも可能である。   The video codec 1f generates a screen to be displayed based on a drawing instruction received from the CPU 1a, and transmits a screen signal to the display 1i. The video codec 1f temporarily stores screen data. The video memory etc. Each of the audio codec 1e and the video codec 1f can be implemented as software instead of hardware.

通信インタフェース1gは、インターネットや公衆電話網、携帯電話網、WAN(Wide Area Network)、LAN(Local Area Network)等の電気通信回線を経由したデータ通信を行うためのデバイスであり、NIC(Network Interface Card)や無線LANデバイス、bluetooth(登録商標)デバイス、携帯電話網に接続するための無線デバイス等に代表される。これら以外に、USB(Universal Serial Bus)、IEEE1394等のインタフェースを採用することもできる。   The communication interface 1g is a device for performing data communication via an electric communication line such as the Internet, a public telephone network, a mobile phone network, a WAN (Wide Area Network), a LAN (Local Area Network), and the like, and is an NIC (Network Interface). Card), a wireless LAN device, a Bluetooth (registered trademark) device, a wireless device for connecting to a mobile phone network, and the like. Other than these, an interface such as USB (Universal Serial Bus), IEEE 1394, or the like may be employed.

カメラ1iは、CCD(Cahrge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いた既知のものである。カメラ1iは、情報処理端末1に内蔵のものであってもよいし、情報処理端末1にUSB等のインタフェースを介して外付けされているものであってもよい。   The camera 1i is a known camera that uses an image sensor such as a CCD (Cahrage Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 1i may be built in the information processing terminal 1 or may be externally attached to the information processing terminal 1 via an interface such as a USB.

CPU1aによって実行されるべきプログラムは補助記憶デバイス1cに格納されており、プログラムの実行の際には補助記憶デバイス1cからメインメモリ1bに読み込まれ、CPU1aによって解読される。本実施形態では、既知のOS(Operating System)プログラムやこれに付帯する各種デバイスドライバプログラムが予めインストールされ、他のプログラムによる上記ハードウェア資源の利用を仲介する。そして、アプリケーションプログラムとして、電子メールクライアントプログラムやウェブブラウザプログラム、カメラ撮影制御プログラム等がインストールされている。その上で、本実施形態のデータ化キットを構成するために必要なプログラムがインストールされており、これらプログラムにより上記ハードウェア資源を作動して、図4に示す撮像部101及び情報処理部102としての機能を発揮する。   A program to be executed by the CPU 1a is stored in the auxiliary storage device 1c. When the program is executed, the program is read from the auxiliary storage device 1c into the main memory 1b and decoded by the CPU 1a. In this embodiment, a known OS (Operating System) program and various device driver programs attached thereto are installed in advance to mediate the use of the hardware resources by other programs. As application programs, an e-mail client program, a web browser program, a camera shooting control program, and the like are installed. In addition, necessary programs for configuring the data conversion kit of the present embodiment are installed, and the hardware resources are operated by these programs to obtain the imaging unit 101 and the information processing unit 102 shown in FIG. Demonstrate the function.

各部の機能を説明する。撮像部101は、カメラモジュール1iを利用し、支持体3における配置領域31に配置された名刺2と外部領域32とを一度に撮影する。配置領域31に配置された名刺2及び外部領域32をともに含む画像は、メインメモリ1bまたは補助記憶デバイス1cの所要の記憶領域に一時記憶される。   The function of each part will be described. The imaging unit 101 uses the camera module 1 i to photograph the business card 2 arranged in the arrangement area 31 of the support 3 and the external area 32 at a time. An image including both the business card 2 arranged in the arrangement area 31 and the external area 32 is temporarily stored in a required storage area of the main memory 1b or the auxiliary storage device 1c.

情報処理部102は、撮像部101で撮影し、メインメモリ1bまたは補助記憶デバイス1cの所要の記憶領域に一時記憶した画像から、支持体3の配置領域31の部分を切り出して、取込対象物たる名刺2の撮影画像を得る。並びに、外部領域32に表された情報即ちマーク欄34に記入された値を読み取り、当該撮影画像について実行するべき処理の内容を知得する。   The information processing unit 102 cuts out the portion of the arrangement area 31 of the support 3 from the image captured by the imaging unit 101 and temporarily stored in a required storage area of the main memory 1b or the auxiliary storage device 1c, and then acquires the target object. A captured image of the business card 2 is obtained. At the same time, the information shown in the external area 32, that is, the value entered in the mark column 34 is read to know the contents of the process to be executed on the captured image.

名刺2の撮影画像の取得及びマーク欄34の値の読み取りにあたっては、撮像部101で撮影して得た画像の傾き及び/または歪みの補正を行う必要がある。ユーザが情報処理端末1を使用して撮影した画像Fの中では、図5に例示するように、被写体である支持体3及び名刺2が画像Fのx軸(水平軸)やy軸(垂直軸)に対して傾くことがある。のみならず、図6に例示するように、撮影時のカメラ1iの光軸が支持体3及び名刺2に対し直交していなかったことに起因して、支持体3及び名刺2が画像Fの中で本来の形状である長方形状から歪んだ形に変形することもある。   In obtaining the captured image of the business card 2 and reading the value in the mark column 34, it is necessary to correct the inclination and / or distortion of the image captured by the imaging unit 101. In the image F taken by the user using the information processing terminal 1, the support 3 and the business card 2 that are subjects are the x-axis (horizontal axis) and y-axis (vertical) of the image F, as illustrated in FIG. May tilt with respect to the axis. In addition, as illustrated in FIG. 6, the support 3 and the business card 2 are displayed on the image F because the optical axis of the camera 1 i at the time of shooting is not orthogonal to the support 3 and the business card 2. In some cases, the original rectangular shape may be distorted.

これらの傾きや歪みを補正するべく、情報処理端末1は、メインメモリ1bまたは補助記憶デバイス1cに一時記憶している画像F上に存在する四つの基準35を検出する。そして、それら基準35の相互の位置関係が正しくなるように、即ち各基準35を結ぶ線分が画像のx軸やy軸に対して傾かず、かつ各基準35を結ぶ線分が所定の縦横比の長方形状を描くように、画像をアフィン変換または射影変換する演算処理、いわゆる四点補正を行う。なお、画像の傾きや歪みを補正する処理の詳細は、既存の手法と同様とすることができる。図7に、補正後の画像Pを例示する。   In order to correct these inclinations and distortions, the information processing terminal 1 detects the four references 35 present on the image F temporarily stored in the main memory 1b or the auxiliary storage device 1c. Then, so that the mutual positional relationship of these standards 35 is correct, that is, the line segments connecting the respective standards 35 are not inclined with respect to the x-axis and y-axis of the image, and the line segments connecting the respective standards 35 are predetermined vertical and horizontal. A so-called four-point correction is performed to draw an image in an affine transformation or projective transformation so as to draw a rectangular shape with a ratio. The details of the process for correcting the tilt and distortion of the image can be the same as those in the existing method. FIG. 7 illustrates the corrected image P.

支持体3及び名刺2を撮影した画像の補正が完了した後、情報処理端末1は、補正した画像の中から、各基準35に対し一定の相対位置関係にある配置領域31の部分を切り出す。これにより、名刺2の撮影画像を得ることができる。支持体3上に載置された名刺2の縁辺即ち輪郭を検出することなく、基準35の位置から配置領域31の部分を推定して切り出すこの手法は、寸法や形状が一般的なものと異なる(特に、非長方形状の)名刺2を撮影してデータ化する場合に頑健な処理方法である。   After the correction of the image obtained by photographing the support 3 and the business card 2 is completed, the information processing terminal 1 cuts out the portion of the arrangement area 31 having a certain relative positional relationship with respect to each reference 35 from the corrected image. Thereby, the picked-up image of the business card 2 can be obtained. This method of estimating and cutting out the portion of the arrangement region 31 from the position of the reference 35 without detecting the edge or outline of the business card 2 placed on the support 3 is different from a general one in size and shape. This is a robust processing method when the business card 2 (in particular, non-rectangular shape) is photographed and converted into data.

さらに、情報処理端末1は、補正した画像の中から、各基準35に対し一定の相対位置関係にあるマーク欄34の部分を検出し、当該部分のマークにより示される値を読み取る。そして、読み取った値に対応する処理内容を知得して、当該処理を実行する。   Further, the information processing terminal 1 detects a portion of the mark column 34 having a certain relative positional relationship with respect to each reference 35 from the corrected image, and reads a value indicated by the mark of the portion. Then, the processing content corresponding to the read value is obtained, and the processing is executed.

マーク欄34に記入された値と、名刺2の撮影画像について実行するべき処理の内容との関係は、設定情報(テーブル)として、またはプログラム若しくはスクリプト中に記述された命令として、予め情報処理端末1のメインメモリ1bまたは補助記憶デバイス1cに格納されている。図8に、マーク欄34の値と処理内容との関係を例示する。本実施形態では、処理の内容として、名刺2の撮影画像に付加するメタ情報の指定、名刺2の撮影画像の電子メールによる送信の宛先アドレスの指定、名刺2の撮影画像のアップロード先のサーバ(図示せず)の指定、を想定している。図8に示した例に則して述べると、
・マーク欄34の値が1であれば、名刺2の撮影画像に「保管」というメタ情報(撮影画像を分類するタグ)を付した上で情報処理端末1内(の補助記憶デバイス1c)に保存する
・マーク欄34の値が2であれば、名刺2の撮影画像に「至急」というメタ情報を付した上で情報処理端末1内に保存するとともに、同撮影画像を宛先アドレス「hogehoge@mail.xxx」に向けて電子メールの形で送信する
・マーク欄34の値が3であれば、名刺2の撮影画像に「重要」というメタ情報を付した上で情報処理端末1内に保存するとともに、同撮影画像を宛先アドレス「user@mail.yyy」に向けて電子メールの形で送信する。並びに、URI「www.xxxx.com/yy_user/」で指定される外部のサーバ(いわゆるクラウドサービスであることがある)に向けて、HyperText Transfer Protocol等の所定の通信プロトコルに則り、同撮影画像をアップロード送信する
・マーク欄34の値が4であれば、名刺2の撮影画像に「保管」及び「友人」というメタ情報を付した上で情報処理端末1内に保存するとともに、URI「www.zzzz.jp/yy_user/」で指定される外部のサーバに向けて、所定の通信プロトコルに則り、同撮影画像をアップロード送信する
……
というような態様である。
The relationship between the value entered in the mark field 34 and the content of the process to be executed on the captured image of the business card 2 is previously set as information (table) or as an instruction described in a program or script. 1 main memory 1b or auxiliary storage device 1c. FIG. 8 illustrates the relationship between the value in the mark column 34 and the processing content. In the present embodiment, as processing contents, designation of meta information to be added to the captured image of the business card 2, designation of a destination address for transmission of the captured image of the business card 2 by e-mail, upload server of the captured image of the business card 2 ( (Not shown) is assumed. In accordance with the example shown in FIG.
If the value in the mark column 34 is 1, meta information (tag for classifying the photographed image) “storage” is attached to the photographed image of the business card 2 and the information processing terminal 1 (the auxiliary storage device 1c) If the value in the mark column 34 is 2, the captured image of the business card 2 is stored in the information processing terminal 1 with the meta information “urgent”, and the captured image is stored in the destination address “hogehoge @ Send to “mail.xxx” in the form of an e-mail. If the value in the mark column 34 is 3, add the meta information “important” to the captured image of the business card 2 and save it in the information processing terminal 1 At the same time, the photographed image is transmitted to the destination address “user@mail.yyy” in the form of an e-mail. In addition, for the external server (which may be a so-called cloud service) specified by the URI “www. If the value in the upload / send mark field 34 is 4, the captured image of the business card 2 is added with meta information of “storage” and “friend” and stored in the information processing terminal 1, and the URI “www. "zzz.jp/yy_user/" is sent to the external server specified in accordance with a predetermined communication protocol.
It is an aspect like this.

名刺2の撮影画像を情報処理端末1の補助記憶デバイス1cに保存する際には、一定の保存先ディレクトリまたはフォルダ(OSまたはアプリケーションプログラムが提供するファイルシステムによる)に保存してもよい(いわば、「名刺フォルダ」に複数枚の名刺2を取り込んだ画像を蓄積する態様)し、当該撮影画像に付されるメタ情報または当該撮影画像に係るマーク欄34の値に応じて、保存先のディレクトリまたはフォルダを決定するようにしてもよい。後者の場合、撮影画像のメタ情報またはマーク欄34の値に応じて保存先が異なることとなり、複数の名刺2の撮影画像を情報処理端末1内でメタ情報またはマーク欄34の値毎に分別することが可能となる。   When the captured image of the business card 2 is stored in the auxiliary storage device 1c of the information processing terminal 1, it may be stored in a certain storage destination directory or folder (depending on the file system provided by the OS or application program) (in other words, A mode in which an image obtained by capturing a plurality of business cards 2 is stored in the “business card folder”), and depending on the meta information attached to the captured image or the value of the mark column 34 related to the captured image, A folder may be determined. In the latter case, the storage destination differs depending on the meta information of the photographed image or the value of the mark field 34, and the photographed images of a plurality of business cards 2 are sorted by the meta information or the value of the mark field 34 in the information processing terminal 1. It becomes possible to do.

名刺2の撮影画像を電子メールとして送信、またはサーバにアップロードする際には、当該撮影画像に付されるメタ情報または当該撮影画像に係るマーク欄34の値をも、当該撮影画像とともに送信してよい。   When the captured image of the business card 2 is transmitted as an e-mail or uploaded to the server, the meta information attached to the captured image or the value of the mark column 34 related to the captured image is also transmitted together with the captured image. Good.

名刺2の撮影画像をサーバにアップロードする際には、アクセス権限を認証するためのユーザアカウント情報、典型的にはユーザID及びパスワードが必要となることがある。そのようなユーザアカウント情報もまた、設定情報として、またはプログラム若しくはスクリプト中に記述された命令として、予め情報処理端末1のメインメモリ1bまたは補助記憶デバイス1cに格納されている。   When uploading a captured image of the business card 2 to the server, user account information for authenticating access authority, typically a user ID and password may be required. Such user account information is also stored in advance in the main memory 1b or the auxiliary storage device 1c of the information processing terminal 1 as setting information or as an instruction described in a program or script.

マーク欄34の値と処理内容とを関係づける設定情報(サーバにアクセスするためのユーザアカウント情報を含む)は、ユーザ自身の手によって設定されることがある。その設定の際には、ユーザが操作入力デバイス1dを介して設定情報の内容を入力し、その入力を受け付けた情報処理端末1がこれをメインメモリ1bまたは補助記憶デバイス1cに記憶保持することとなる。   The setting information (including user account information for accessing the server) that associates the value in the mark column 34 with the processing content may be set by the user's own hand. At the time of the setting, the user inputs the contents of the setting information via the operation input device 1d, and the information processing terminal 1 that has received the input stores the information in the main memory 1b or the auxiliary storage device 1c. Become.

図9に、情報処理端末1がプログラムに従い実行する処理の手順例を示す。情報処理端末1は、カメラモジュール1iにより支持体3及び名刺2を撮像した画像を取得した後(ステップS1)、その画像の傾き及び/または歪みを補正する(ステップS2)。そして、補正した画像から、名刺2が写っている部分を切り出して名刺2の撮影画像を得(ステップS3)、かつマーク欄34の写っている部分を検出してマーク欄34に記入された値を得る(ステップS4)。その上で、名刺2の撮影画像について、マーク欄34の値に対応した処理、例えばメタ情報の付加、電子メールの形での送信、サーバへのアップロード等を実施する(ステップS5)。   FIG. 9 shows a procedure example of processing executed by the information processing terminal 1 according to the program. The information processing terminal 1 acquires an image obtained by capturing the support 3 and the business card 2 with the camera module 1i (step S1), and then corrects the inclination and / or distortion of the image (step S2). Then, from the corrected image, a portion where the business card 2 is captured is cut out to obtain a photographed image of the business card 2 (step S3), and a portion where the mark column 34 is detected is detected and entered in the mark column 34 Is obtained (step S4). Then, processing corresponding to the value in the mark column 34 is performed on the captured image of the business card 2, for example, addition of meta information, transmission in the form of an e-mail, uploading to a server, etc. (step S5).

尤も、ステップS2以降の処理は、名刺2の撮影ステップS1の直後に実行されるとは限られない。撮影ステップS1にて得た画像をメインメモリ1bまたは補助記憶デバイス1cに一旦保存しておき、時間を経過した後に(特に、ユーザの手により操作入力デバイス1dを介した明示的な指令がなされた後に)ステップS2以降の処理を実行開始するようにしても構わない。複数の名刺2を撮影した画像を蓄積し、それら複数の画像に対するステップS2以降の処理を、バッチ処理として一括して行ってもよい。   However, the processing after step S2 is not necessarily executed immediately after the photographing step S1 of the business card 2. The image obtained in the shooting step S1 is temporarily stored in the main memory 1b or the auxiliary storage device 1c, and after an elapse of time (especially, an explicit command is given through the operation input device 1d by the user's hand). You may make it start performing the process after step S2 later. Images obtained by photographing a plurality of business cards 2 may be accumulated, and the processing from step S2 on the plurality of images may be collectively performed as batch processing.

まとめると、取込対象物2をデータ化して活用することを目論むユーザは、支持体3に取込対象物2を支持させた状態で、支持体3もろとも取込対象物2を撮影する。その撮影を実行した情報処理端末1では、画像内の配置領域31に配置された取込対象物2の写っている部分を切り出して取込対象物2の撮影画像を得るとともに、外部領域32に表された情報34を読み取って当該撮影画像について実行するべき処理の内容を知得し、当該処理を実施するのである。   In summary, a user who intends to use the capture object 2 as data captures the capture object 2 together with the support 3 while the support 3 supports the capture object 2. In the information processing terminal 1 that has performed the shooting, the captured image of the capture target object 2 arranged in the layout area 31 in the image is cut out to obtain a captured image of the capture target object 2, and in the external area 32. By reading the represented information 34, the contents of the process to be executed on the captured image are obtained, and the process is executed.

本実施形態では、取込対象物2を撮影して取り込む情報処理端末1と、その撮影時に取込対象物2を支持する支持体3とを要素とするデータ化キットであって、前記支持体3が、取込対象物2が配置される配置領域31と、前記配置領域31の外側に隣接し、前記情報処理端末1が取込対象物2を撮影して取得する撮影画像について実行するべき処理の内容を規定する情報34が付される外部領域32とを具備し、前記情報処理端末1が、前記支持体3における前記配置領域31に配置された取込対象物2と前記外部領域32とをともに撮影する撮像部101と、前記撮像部101で撮影した画像から、前記配置領域31の部分を切り出して取込対象物2の撮影画像を得るとともに、前記外部領域32に表された情報34を読み取って当該撮影画像について実行するべき処理の内容を知得し当該処理を実行する情報処理部102とを具備しているデータ化キットを構成した。   In this embodiment, the data processing kit includes the information processing terminal 1 that captures and captures the capture target object 2 and the support body 3 that supports the capture target object 2 at the time of capturing the image. 3 is to be executed with respect to a placement area 31 where the capture target object 2 is placed, and a captured image that is adjacent to the outside of the placement area 31 and that the information processing terminal 1 captures and captures the capture target object 2. An external area 32 to which information 34 defining the content of the process is attached, and the information processing terminal 1 includes the capture object 2 arranged in the arrangement area 31 of the support 3 and the external area 32. And an image captured by the image capturing unit 101, and a portion of the arrangement area 31 is cut out to obtain a captured image of the capture target 2 and information represented in the external area 32 34 Become known the contents of processing to be performed on an image constituted of data of a kit that includes an information processing unit 102 for executing the process.

本実施形態によれば、データ化して一様に処理したい取込対象物2が多数枚あったとしても、それらについて事後の処理を規定する情報34は支持体3に表されていればよく、取込対象物2の一枚一枚に同一の情報を記述する手間が省かれる。従って、多数枚の取込対象物2が多数枚ある場合において、その取り込み後の自動処理のための準備の煩わしさを軽減することができる。   According to the present embodiment, even if there are a large number of capture objects 2 that are to be converted into data and processed uniformly, the information 34 that defines the subsequent processing for them may be represented on the support 3. The trouble of describing the same information on each of the capture objects 2 is saved. Therefore, when there are a large number of capture objects 2, it is possible to reduce the troublesome preparation for the automatic processing after the capture.

前記支持体3の前記外部領域32に、処理の内容を規定するものとして、取込対象物2の撮影画像に付加するメタ情報の指定、前記撮影画像の電子メールによる送信の宛先アドレスの指定、前記撮影画像のアップロード先のサーバの指定、のうち少なくとも一を規定する情報34が付され、前記情報処理端末1の前記情報処理部102は、前記外部領域32に表された情報34を読み取り、当該情報34により指定されたメタ情報を取込対象物2の撮影画像に付加、当該情報34により指定された宛先アドレスに向けて前記撮影画像を電子メールとして送信、当該情報34により指定されたサーバに向けて前記撮影画像をアップロード、のうち少なくとも一の処理を実行するものであるため、取込対象物2を撮影して得た撮影画像をユーザの任意に応じて分別して保存したり、送信の形態や送信先を制御したりすることが可能であり、高い利便性を提供できる。   Specifying the meta information to be added to the captured image of the capture object 2, specifying the destination address for sending the captured image by e-mail, as defining the content of processing in the external region 32 of the support 3 Information 34 that defines at least one of the designation of the upload destination server of the captured image is attached, and the information processing unit 102 of the information processing terminal 1 reads the information 34 represented in the external area 32, The meta information designated by the information 34 is added to the photographed image of the object 2 to be captured, the photographed image is sent as an e-mail to the destination address designated by the information 34, and the server designated by the information 34 The captured image is uploaded, and at least one of the processes is executed. Therefore, the captured image obtained by capturing the capture target object 2 is displayed by the user. You can save and fractionated in accordance with the intention, it is possible to and control the transmission mode and the destination, provide a quality experience.

なお、本発明は以上に詳述した実施形態に限られるものではない。以下、本発明の変形例に関して列挙する。まず、取込対象物2は、名刺に限定されないことは言うまでもない。手書きで書き込みをしたメモ用紙、ノートの中紙、ルーズリーフ等や、葉書、手紙、覚書等の類が取込対象物2となることは当然に考えられる。ゲームや遊技等に用いられるカード類や、宝くじ、勝馬投票券等のような取込対象物2もあり得よう。   The present invention is not limited to the embodiment described in detail above. Hereafter, it enumerates regarding the modification of this invention. First, it goes without saying that the capture object 2 is not limited to a business card. Naturally, it is conceivable that memo paper, handwritten note paper, loose leaf, etc., postcards, letters, memorandums, and the like become the capture object 2. There may be cards 2 used for games and games, and objects 2 to be captured such as lotteries and winning betting tickets.

取込対象物2の寸法も、名刺やメモ用紙の大きさから、A4、A3(ともに、ISO 216による紙の規格寸法)の用紙等まで多岐に亘る。故に、支持体3の寸法も、上記実施形態のようなカードサイズには限定されない。   The size of the object 2 to be captured also varies from the size of business cards and memo papers to A4 and A3 papers (both are standard paper sizes according to ISO 216). Therefore, the dimension of the support 3 is not limited to the card size as in the above embodiment.

続いて、支持体3について述べる。配置領域31と外部領域32との境界を示し、取込対象物2を支持体3上に配置するための目印は、取込対象物2の四隅を置くべき位置を表す点またはL字型(カギ括弧様)の記号でもよい。   Subsequently, the support 3 will be described. The mark for indicating the boundary between the placement area 31 and the external area 32 and for placing the capture target 2 on the support 3 is a point or L-shaped ( It may be a sign in the bracket.

また、支持体3にエンボス加工等により凹凸を形成してもよい。例えば、図10に示すように、配置領域31の外縁に接する箇所に、支持体3の表面側に向けて突出する土手(または、凸条)36を形成し、その土手36の内側に取込対象物2を収めることができるようにしてもよい。あるいは逆に、配置領域31そのものを支持体3の裏面側に向けて凹ませた凹部とし、その凹部に取込対象物2を収めることができるようにしてもよい。   Moreover, you may form an unevenness | corrugation in the support body 3 by embossing etc. FIG. For example, as shown in FIG. 10, a bank (or ridge) 36 protruding toward the surface side of the support 3 is formed at a position in contact with the outer edge of the arrangement region 31, and taken into the bank 36. You may enable it to accommodate the target object 2. FIG. Alternatively, conversely, the arrangement region 31 itself may be a recess that is recessed toward the back side of the support 3 so that the object 2 to be captured can be accommodated in the recess.

図11に示すように、取込対象物2の隅角を差し入れることができるスリット37を、支持体3に形成してもよい。さすれば、このスリット37が目印となって、取込対象物2を配置する配置領域31を観念することができる。   As shown in FIG. 11, slits 37 into which the corners of the object 2 to be taken in can be inserted may be formed in the support 3. Then, the slit 37 can be used as a mark, and the arrangement area 31 in which the capturing object 2 is arranged can be considered.

また、支持体3は、いわゆるクリアホルダ、クリアファイル、ポケット付きホルダの如きものであることがある。例えば、図12に示すように、その内に取込対象物2を収容するポケット38を支持体3に設けてあれば、そのポケット38の所在する箇所が取込対象物2を配置する配置領域31となる。ポケット38を構成し、取込対象物2の表面側に覆い被さる部材は、透明とすることが望ましい。   The support 3 may be a so-called clear holder, a clear file, or a holder with a pocket. For example, as shown in FIG. 12, if a pocket 38 that accommodates the capture object 2 is provided in the support 3, an arrangement area where the capture object 2 is disposed is located in the pocket 38. 31. The member that forms the pocket 38 and covers the surface side of the object 2 to be taken in is preferably transparent.

支持体3の素材は、紙(厚紙、ボール紙等)には限定されない。支持体3は、ポリプロピレンその他の樹脂(または、プラスチック)製のシートや薄板等として構成されてもよいし、木製でも布製でもよい。   The material of the support 3 is not limited to paper (thick paper, cardboard, etc.). The support 3 may be configured as a sheet or thin plate made of polypropylene or other resin (or plastic), and may be made of wood or cloth.

取込対象物2が、メモパットとして綴じられたメモ用紙やノートとして綴じられた中紙である場合、そのメモパッドまたはノートの表表紙または裏表紙が本発明に係る支持体3となっていることがある。この場合の支持体3は、メモ用紙または中紙よりも寸法が大きく、メモ用紙または中紙の外縁よりも外方に張り出した部位が外部領域32となる。   When the capture object 2 is a memo paper bound as a memo pad or a middle paper bound as a notebook, the front cover or back cover of the memo pad or notebook may be the support 3 according to the present invention. . In this case, the support 3 has a size larger than that of the memo paper or the middle paper, and a portion projecting outward from the outer edge of the memo paper or the middle paper becomes the external region 32.

支持体3は、机の天板等の水平な台の上に載せ置いて使用するものであるとは限られない。支持体3が、取込対象物2の撮影時に、スタンド等に立て掛けられて傾斜した姿勢で起立するものであったり、壁面やホワイトボード等に取り付けられて直立するものであったりすることがある。   The support 3 is not necessarily used by being placed on a horizontal table such as a table top. At the time of photographing the object 2 to be captured, the support 3 may stand on a stand or the like and stand upright, or may be mounted upright on a wall surface or a whiteboard. .

支持体3及び取込対象物2を撮影した画像の傾き及び/または歪みを補正するために参照される基準の形態は、上記実施形態のような四点の基準35には限定されない。支持体3の外部領域32に、格子目や市松模様(チェック)その他の模様、網点その他のパターン等を表示して、画像の補正のための基準として役立ててもよい。   The form of the reference referred to for correcting the tilt and / or distortion of the image obtained by photographing the support 3 and the capture object 2 is not limited to the four-point reference 35 as in the above embodiment. A lattice pattern, checkered pattern (check), other patterns, halftone dots, or other patterns may be displayed on the external region 32 of the support 3 to serve as a reference for correcting the image.

支持体3において、配置領域31と外部領域32との境界を示す目印は、存在しないことがある。例えば、図13に示すように、支持体3を、取込対象物2たるメモ用紙等の紙色とは明確に異なる濃色(特に、黒色等)のものとする場合、配置領域31と外部領域32との厳密な境界を明確に表示する必要がない。この支持体3及び支持体3上に配置された取込対象物2を撮影した情報処理端末1(の情報処理部102)において、撮影して得た画像の各画素の画素値(色)から、取込対象物2の縁辺即ち輪郭を比較的精確に検出可能であり、その輪郭に沿って取込対象物2の写っている部分のみを画像から切り出すことができるからである。   In the support 3, there may be no mark indicating the boundary between the arrangement region 31 and the external region 32. For example, as shown in FIG. 13, when the support 3 has a dark color (particularly black, etc.) that is clearly different from the paper color of the memo paper or the like to be captured 2, the arrangement area 31 and the external area There is no need to clearly display the exact boundary with 32. From the pixel value (color) of each pixel of the image obtained by photographing in the information processing terminal 1 (the information processing unit 102 thereof) that has photographed the support 3 and the capture object 2 arranged on the support 3. This is because the edge, that is, the contour of the capture object 2 can be detected relatively accurately, and only the portion where the capture object 2 is captured can be cut out from the image along the contour.

さらに、情報処理端末1(の情報処理部102)において、撮影して得た画像から、取込対象物2の輪郭である四辺を検出できるのであれば、その検出した各縁辺の画像のx軸及びy軸に対する傾きを基に、被写体である支持体3及び取込対象物2の画像の中での傾き及び歪みを補正することもできるようになる。このときの情報処理端末1は、画像上で検出された取込対象物2の各縁辺が画像のx軸やy軸に対して傾かず、かつ各縁辺が取込対象物2の寸法に対応した所定の縦横比の長方形状を描くように、画像をアフィン変換または射影変換する演算処理を行う。つまり、支持体3の外部領域32に画像の傾きや歪みを補正するための基準35が表示されていなくとも、画像の補正及び取込対象物2の写っている部分の切り出しは可能であって、基準35の表示は必須ではない。   Further, if the information processing terminal 1 (the information processing unit 102) can detect the four sides, which are the outlines of the capture object 2, from the image obtained by photographing, the x-axis of the detected image of each edge. In addition, based on the inclination with respect to the y-axis, the inclination and distortion in the image of the support 3 and the capture object 2 that are subjects can be corrected. At this time, the information processing terminal 1 is such that each edge of the capture object 2 detected on the image is not inclined with respect to the x-axis or y-axis of the image, and each edge corresponds to the size of the capture object 2. An arithmetic process for performing affine transformation or projective transformation on the image is performed so as to draw a rectangular shape having a predetermined aspect ratio. That is, even if the reference 35 for correcting the tilt and distortion of the image is not displayed in the external region 32 of the support 3, it is possible to correct the image and cut out the portion where the capture target 2 is reflected. The display of the reference 35 is not essential.

上記実施形態では、取込対象物2の撮影画像について実行するべき処理の内容を規定する情報を表現するものとして、支持体3の外部領域32にマーク欄34を設けていた。これ以外に、バーコードや二次元コード(QRコード(登録商標)等)、模様やドットパターン、色彩、情報処理端末1においてOCR(Optical Character Recognition)読み取り可能な数字その他の文字列等を、実行するべき処理の内容を規定する情報を表現するものとして、支持体3の外部領域32に付してもよい。例えば、支持体3の色が異なると、情報処理端末1において実行される処理が異なる、というようなことである。   In the embodiment described above, the mark column 34 is provided in the external region 32 of the support 3 to express information that defines the content of the process to be executed on the captured image of the capture object 2. In addition to this, barcodes, two-dimensional codes (QR codes (registered trademark), etc.), patterns, dot patterns, colors, OCR (Optical Character Recognition) numbers that can be read by the information processing terminal 1, and other character strings are executed. You may attach | subject to the external area | region 32 of the support body 3 as what expresses the information which prescribes | regulates the content of the process which should be performed. For example, when the color of the support 3 is different, the processing executed in the information processing terminal 1 is different.

支持体3の外部領域32に付されている情報34に従って決定される、情報処理端末1が実行するべき処理についても、種々の変形例が考えられる。例えば;
<取込対象物2の撮影画像への処理として>
撮影画像のファイル形式(BMP、JPEG、GIF、PDF、PIX、等々)の選択または変更、解像度の選択または変更、色数の変更(白黒(モノクロ)の二値化、グレースケール化等)、色調の変更、シャープ化その他のフィルタによる画像処理、タイムスタンプ(情報処理端末1の計時機能から取得できる)または印影のようなシンボル画像(シンボル画像は予め、情報処理端末1のメインメモリ1bまたは補助記憶デバイス1cに保持している)を撮影画像に付加または重畳した上で当該撮影画像を保存。支持体3の外部領域32に付されている情報34が、保存または送信される撮影画像のファイル形式、解像度、色数、色調の変更やフィルタ処理の内容等を指定する識別子を含んでおり、情報処理端末1において当該識別子に対応したファイル形式、解像度、色数の画像を生成し、必要な場合には色調補正やフィルタ処理その他の処理を当該画像に施す。支持体3の外部領域32にある特定の情報(または、値)34が付されている場合には、当該支持体3を使用して撮影された複数の取込対象物2に係る複数枚の撮影画像を、つなぎ合わせて一枚の画像ファイルにしたり、複数のページ(各撮影画像が各ページとなる)を包有する一つのPDFまたは文書ファイルの形にまとめたりする、ということも考えられる
<取込対象物2そのものに関連する処理として>
取込対象物2の表面に文字列の一部または全部のテキストデータのOCR読み取りによる抽出、取込対象物2の表面に表された特徴的な画像やパターン(会社名のロゴマーク等)の抽出、さらには、抽出したテキストデータ、画像またはパターンに基づいた取込対象物2の撮影画像の分類(メタ情報の付与、保存先ディレクトリの選定、送信先の指定等)処理
<取込対象物2の撮影画像に付加するメタ情報の内容として>
撮影者や撮影場所その他撮影条件を示す情報の指定。支持体3の外部領域32に付されている情報34が、撮影者や撮影場所等を識別する識別子を含んでおり、情報処理端末1において当該識別子に対応したメタ情報を撮影画像に付加する
<取込対象物2の撮影画像の出力処理として>
印刷、特定の記録媒体への書き込み、撮影画像のデータファイルを他のアプリケーションソフトウェア(例えば、画像レタッチソフトや文書管理ソフト、PDF編集ソフト等。ウェブアプリケーションやSaaS(Software as a Service)であることがある)にオープンさせる等。支持体3の外部領域32に付されている情報34が、撮影画像を出力するハードウェアまたは撮影画像をオープンするアプリケーションを指定する識別子を含んでおり、情報処理端末1において当該識別子に対応したハードウェアを介して撮影画像を出力させるか、当該識別子に対応したアプリケーションを起動して撮影画像をオープンさせる
等を挙げることができる。
Various modifications can be considered for the processing to be executed by the information processing terminal 1 determined according to the information 34 attached to the external region 32 of the support 3. For example;
<As processing of captured object 2 to captured image>
Select or change the file format of the captured image (BMP, JPEG, GIF, PDF, PIX, etc.), select or change the resolution, change the number of colors (monochrome (monochrome) binarization, gray scale, etc.), color tone Change, sharpening and other image processing by filters, symbol images such as time stamps (which can be obtained from the time measuring function of the information processing terminal 1) or imprints (symbol images are stored in advance in the main memory 1b of the information processing terminal 1 or auxiliary storage (Stored in the device 1c) is added to or superimposed on the captured image, and the captured image is saved. The information 34 attached to the external area 32 of the support 3 includes an identifier that specifies the file format, resolution, number of colors, color tone change, filter processing, etc. of the captured image to be stored or transmitted, The information processing terminal 1 generates an image having a file format, resolution, and number of colors corresponding to the identifier, and performs color tone correction, filter processing, and other processes on the image as necessary. When specific information (or value) 34 in the external region 32 of the support 3 is attached, a plurality of images related to a plurality of capture objects 2 photographed using the support 3 It is also conceivable to combine the captured images into a single image file, or to combine them into a single PDF or document file containing multiple pages (each captured image becomes each page) < As processing related to the import object 2 itself>
Extraction of part or all of text data by OCR reading on the surface of the object 2 to be captured, characteristic images and patterns (such as company name logo marks) displayed on the surface of the object 2 to be captured Extraction, and further, classification of captured images of the capture object 2 based on the extracted text data, image, or pattern (addition of meta information, selection of a save destination directory, designation of a transmission destination, etc.) processing <capture object As content of meta information to be added to 2 shot images>
Specification of information indicating the photographer, shooting location and other shooting conditions. The information 34 attached to the external region 32 of the support 3 includes an identifier for identifying a photographer, a shooting location, and the like, and the information processing terminal 1 adds meta information corresponding to the identifier to the captured image < As an output process of a captured image of the capture object 2>
Printing, writing to a specific recording medium, and taking a captured image data file with other application software (for example, image retouching software, document management software, PDF editing software, etc. Web application or SaaS (Software as a Service)) Open). The information 34 attached to the external area 32 of the support 3 includes an identifier that designates hardware that outputs a captured image or an application that opens the captured image, and the information processing terminal 1 corresponds to the hardware corresponding to the identifier. For example, the photographed image is output via the wear, or the photographed image is opened by starting an application corresponding to the identifier.

情報処理端末1は、スマートフォンやパーソナルコンピュータ等のような汎用的な機器ではなく、専用機であっても構わない。   The information processing terminal 1 may be a dedicated device instead of a general-purpose device such as a smartphone or a personal computer.

その他、各部の具体的構成や処理の手順等は、本発明の趣旨を逸脱しない範囲で種々変形が可能である。   In addition, the specific configuration of each unit, the processing procedure, and the like can be variously modified without departing from the spirit of the present invention.

1…情報処理端末
101…撮像部
102…情報処理部
2…取込対象物
3…支持体
31…配置領域
32…外部領域
34…処理の内容を規定する情報(マーク欄)
DESCRIPTION OF SYMBOLS 1 ... Information processing terminal 101 ... Imaging part 102 ... Information processing part 2 ... Acquisition object 3 ... Support body 31 ... Arrangement area 32 ... External area 34 ... Information which prescribes | regulates the content of processing (mark column)

Claims (5)

取込対象物を撮影して取り込む情報処理端末と、その撮影時に取込対象物を支持する支持体とを要素とするデータ化キットであって、
前記支持体が、
取込対象物が配置される配置領域と、
前記配置領域の外側に隣接し、前記情報処理端末が取込対象物を撮影して取得する撮影画像について実行するべき処理の内容を規定する情報が付される外部領域と
を具備し、前記情報処理端末が、
前記支持体における前記配置領域に配置された取込対象物と前記外部領域とをともに撮影する撮像部と、
前記撮像部で撮影した画像から、前記配置領域または配置領域に配置された取込対象物の写っている部分を切り出してその撮影画像を得るとともに、前記外部領域に表された情報を読み取って当該撮影画像について実行するべき処理の内容を知得し当該処理を実行する情報処理部と
を具備しているデータ化キット。
A data conversion kit including an information processing terminal that captures and captures an object to be captured, and a support that supports the object to be captured at the time of capturing,
The support is
A placement area where the capture object is placed; and
An external area that is adjacent to the outside of the arrangement area and is attached with information that defines the content of processing to be performed on a captured image acquired by the information processing terminal by capturing a capture target, and the information Processing terminal
An image capturing unit that captures an image of the object to be captured and the external region arranged in the arrangement region of the support;
From the image photographed by the imaging unit, the arrangement area or a portion where the capture target object arranged in the arrangement area is cut out is obtained to obtain the photographed image, and the information represented in the external area is read to A data conversion kit including an information processing unit that knows the contents of a process to be executed on a captured image and executes the process.
前記支持体の前記外部領域には、処理の内容を規定するものとして、取込対象物の撮影画像に付加するメタ情報の指定、前記撮影画像の電子メールによる送信の宛先アドレスの指定、前記撮影画像のアップロード先のサーバの指定、のうち少なくとも一を規定する情報が付され、
前記情報処理端末の前記情報処理部は、前記外部領域に表された情報を読み取り、当該情報により指定されたメタ情報を取込対象物の撮影画像に付加、当該情報により指定された宛先アドレスに向けて前記撮影画像を電子メールとして送信、当該情報により指定されたサーバに向けて前記撮影画像をアップロード、のうち少なくとも一の処理を実行する請求項1記載のデータ化キット。
In the external area of the support, the meta information to be added to the captured image of the object to be captured is specified, the destination address of the captured image is transmitted by e-mail, Information specifying at least one of server designations for uploading images is attached,
The information processing unit of the information processing terminal reads information represented in the external area, adds meta information specified by the information to the captured image of the target object, and sets the destination address specified by the information. 2. The data conversion kit according to claim 1, wherein at least one of the process of transmitting the captured image as an e-mail and uploading the captured image toward a server specified by the information is executed.
請求項1または2記載のデータ化キットを構成するために用いられるものであって、
取込対象物が配置される配置領域と、
前記配置領域の外側に隣接し、前記情報処理端末が取込対象物を撮影して取得する撮影画像について実行するべき処理の内容を規定する情報が付される外部領域と
を具備する支持体。
It is used for constituting the data conversion kit according to claim 1 or 2,
A placement area where the capture object is placed; and
A support body comprising an external area adjacent to the outside of the arrangement area and to which information defining the content of processing to be executed on a captured image acquired by the information processing terminal by capturing an object to be captured is attached.
請求項1または2記載のデータ化キットを構成するために用いられるものであって、
前記支持体における前記配置領域に配置された取込対象物と前記外部領域とをともに撮影する撮像部と、
前記撮像部で撮影した画像から、前記配置領域または配置領域に配置された取込対象物の写っている部分を切り出してその撮影画像を得るとともに、前記外部領域に表された情報を読み取って当該撮影画像について実行するべき処理の内容を知得し当該処理を実行する情報処理部と
を具備する情報処理端末。
It is used for constituting the data conversion kit according to claim 1 or 2,
An image capturing unit that captures an image of the object to be captured and the external region arranged in the arrangement region of the support;
From the image photographed by the imaging unit, the arrangement area or a portion where the capture target object arranged in the arrangement area is cut out is obtained to obtain the photographed image, and the information represented in the external area is read to An information processing terminal comprising: an information processing unit that learns the content of a process to be executed on a captured image and executes the process.
請求項1または2記載のデータ化キットを構成するために用いられるものであって、コンピュータを、
前記支持体における前記配置領域に配置された取込対象物を前記外部領域とともに撮影した画像から、前記配置領域に配置された取込対象物の写っている部分を切り出してその撮影画像を得るとともに、前記外部領域に表された情報を読み取って当該撮影画像について実行するべき処理の内容を知得し当該処理を実行する情報処理部
として機能させるためのプログラム。
A computer used for configuring the data conversion kit according to claim 1 or 2,
From the image obtained by photographing the capture object placed in the placement area of the support together with the external area, a portion where the capture target placed in the placement area is cut out to obtain a photographed image thereof A program for reading the information represented in the external area to know the content of the process to be executed on the captured image and to function as an information processing unit that executes the process.
JP2012162106A 2012-07-20 2012-07-20 Data kit Active JP6019872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012162106A JP6019872B2 (en) 2012-07-20 2012-07-20 Data kit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012162106A JP6019872B2 (en) 2012-07-20 2012-07-20 Data kit

Publications (2)

Publication Number Publication Date
JP2014021872A true JP2014021872A (en) 2014-02-03
JP6019872B2 JP6019872B2 (en) 2016-11-02

Family

ID=50196642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012162106A Active JP6019872B2 (en) 2012-07-20 2012-07-20 Data kit

Country Status (1)

Country Link
JP (1) JP6019872B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033353A (en) * 2015-08-03 2017-02-09 重仁 久万 Information delivery system
KR101809054B1 (en) 2016-03-03 2017-12-14 오종현 Score results interlocking system of providing questions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006237937A (en) * 2005-02-24 2006-09-07 Casio Comput Co Ltd Image recording method and camera device
JP2013161425A (en) * 2012-02-08 2013-08-19 Seitosha Co Ltd Trimming program for mobile phone, mobile phone, and method for storing image
JP2013235343A (en) * 2012-05-07 2013-11-21 Elecom Co Ltd Image recognition tool

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006237937A (en) * 2005-02-24 2006-09-07 Casio Comput Co Ltd Image recording method and camera device
JP2013161425A (en) * 2012-02-08 2013-08-19 Seitosha Co Ltd Trimming program for mobile phone, mobile phone, and method for storing image
JP2013235343A (en) * 2012-05-07 2013-11-21 Elecom Co Ltd Image recognition tool

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033353A (en) * 2015-08-03 2017-02-09 重仁 久万 Information delivery system
KR101809054B1 (en) 2016-03-03 2017-12-14 오종현 Score results interlocking system of providing questions

Also Published As

Publication number Publication date
JP6019872B2 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
KR100664421B1 (en) Portable terminal and method for recognizing name card using having camera
US8085440B2 (en) Method and apparatus for selecting an operation to be performed on an image stored in a printer
US20060209333A1 (en) Next-generation facsimile machine of internet terminal type
US8577148B2 (en) Image combining apparatus and image combining program
WO2014086287A1 (en) Text image automatic dividing method and device, method for automatically dividing handwriting entries
TWI551472B (en) Image reproducing method and digital processing machine using such method
CN104079730B (en) Document processing device, document processing and method and the multi-function printer including this device
WO2016010054A1 (en) Handwritten content processing system, information processing device, program, reading device, and notebook
JP2020057186A5 (en)
JP5942640B2 (en) Image processing apparatus and computer program
JP4706844B2 (en) Album creating system, server, album creating method and program
JP2009006572A (en) Image input/output device and image input/output method
JP6019872B2 (en) Data kit
JP2010205138A (en) Document management device and program
JP2007005950A (en) Image processing apparatus and network system
US9948795B2 (en) Image processing apparatus recognizing a partial image recorded in a specified region, and corresponding image processing method, and non-transitory computer readable medium
CN1459073A (en) Method and arrangement for identifying and processing commands in digital images, where user marks the command, for example by encircling it
JP5794476B2 (en) Image processing system, image processing apparatus, image processing method, image processing program, and printed matter
JP5878004B2 (en) Multiple document recognition system and multiple document recognition method
JP2013161143A (en) Character text making system
TW201327424A (en) A method of finger-point image reading and cloud information recommended
CN111669478A (en) Image processing apparatus, image processing system, storage medium, and image processing method
JP2012049860A (en) Image processor, image processing method and program
US20190095708A1 (en) System and method for conversion between tangible and electronic calendaring systems
JP2017021654A (en) Document management server and system

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20150615

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20151109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R150 Certificate of patent or registration of utility model

Ref document number: 6019872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250