JP5979976B2 - Information processing apparatus and control method thereof - Google Patents

Information processing apparatus and control method thereof Download PDF

Info

Publication number
JP5979976B2
JP5979976B2 JP2012115759A JP2012115759A JP5979976B2 JP 5979976 B2 JP5979976 B2 JP 5979976B2 JP 2012115759 A JP2012115759 A JP 2012115759A JP 2012115759 A JP2012115759 A JP 2012115759A JP 5979976 B2 JP5979976 B2 JP 5979976B2
Authority
JP
Japan
Prior art keywords
document
operator
processing apparatus
information processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012115759A
Other languages
Japanese (ja)
Other versions
JP2013242715A5 (en
JP2013242715A (en
Inventor
亙 鈴木
亙 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012115759A priority Critical patent/JP5979976B2/en
Publication of JP2013242715A publication Critical patent/JP2013242715A/en
Publication of JP2013242715A5 publication Critical patent/JP2013242715A5/ja
Application granted granted Critical
Publication of JP5979976B2 publication Critical patent/JP5979976B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、操作者のいる方向を推定する技術に関するものである。   The present invention relates to a technique for estimating a direction in which an operator is present.

従来、原稿台に置かれた原稿を読み取って画像を形成するような装置は、読み取る原稿を原稿台の下に向けて原稿内容を読み取らせるものが主流であった。このような装置は操作パネルが備え付けられていることが多く、操作者が操作する位置が限定される。そのため装置が操作者の位置を認識する必要はなかった。しかし、近年では原稿の読み取り操作に関する操作性向上のため、書画カメラのように原稿台の上部から原稿台に置かれた原稿を撮影するものがある。さらに投影装置を原稿台の上部に設け、操作するためのユーザインターフェースとして利用可能な映像を原稿台上の任意の場所や向きに投影できるものがある。これらの機能を備えた装置は、様々な方向から操作が可能となるため、装置が操作者の位置を認識する必要性が生じる。
そのような課題を解決するために、従来、操作者が操作している手や手の動きなどを撮影した画像や映像から操作者の位置を推定するものがあった。例えば、操作のために投影台に差し出した手の移動方向を検出し、検出した方向に応じてユーザインターフェースの表示位置又は表示方向を決定して投影させるものがある(特許文献1)。
2. Description of the Related Art Conventionally, apparatuses that read an original placed on a platen and form an image mainly use the original to be read under the platen to read the content of the original. Such an apparatus is often provided with an operation panel, and the position where the operator operates is limited. Therefore, it is not necessary for the apparatus to recognize the position of the operator. However, in recent years, in order to improve operability related to a document reading operation, there is a document camera such as a document camera that photographs a document placed on the document table from the top of the document table. In addition, there is a projector that is provided on the top of the document table and can project an image that can be used as a user interface for operation to an arbitrary place or orientation on the document table. Since an apparatus having these functions can be operated from various directions, the apparatus needs to recognize the position of the operator.
In order to solve such a problem, conventionally, there has been a technique for estimating the position of the operator from an image or a video obtained by photographing the hand operated by the operator or the movement of the hand. For example, there is an apparatus that detects a moving direction of a hand that is pushed out to a projection table for operation, determines a display position or a display direction of a user interface according to the detected direction, and projects it (Patent Document 1).

特開2009−64109号公報JP 2009-64109 A

しかしながら、特許文献1は、操作者と装置を結ぶ軸線に対して水平方向に手を移動させた場合、操作者のいる方向とユーザインターフェースを表示させる方向とでは少なくとも90°のずれが生じる。そのため、操作者のいる方向を誤って推定してしまうことがあった。そこで本発明では操作者のいる方向を高い精度で推測することを目的とする。   However, in Patent Document 1, when a hand is moved in a horizontal direction with respect to an axis connecting the operator and the apparatus, a deviation of at least 90 ° occurs between the direction in which the operator is present and the direction in which the user interface is displayed. For this reason, the direction in which the operator is present may be erroneously estimated. Accordingly, an object of the present invention is to estimate the direction in which the operator is present with high accuracy.

上記課題を解決するために、本発明にかかる情報処理装置は、原稿台に置かれた原稿を撮像することで前記原稿の画像データを取得する情報処理装置であって、原稿台の上部から原稿台上を撮像する撮像手段により得られる画像データを解析して、前記原稿と前記原稿をセットする操作者の腕の位置情報を取得する画像解析手段と、前記画像解析手段によって取得された前記原稿と前記操作者の腕の位置情報に基づいて、前記操作者のいる方向を推定する方向推定手段と、前記方向推定手段によって推定された前記操作者のいる方向に応じて前記原稿台に表示させる画像の方向を制御する表示制御手段と、を有することを特徴とする。 In order to solve the above problems, an information processing apparatus according to the present invention is an information processing apparatus that acquires image data of the document by imaging a document placed on a document table, a document from the top of the platen analyzes the image data obtained by the imaging means for capturing an upper base, and an image analysis means that acquires position information of the operator's arm to set the document and the document, the document obtained by the image analysis unit And direction estimation means for estimating the direction in which the operator is present based on the position information of the operator's arm, and display on the document table in accordance with the direction in which the operator is estimated as estimated by the direction estimation means. And display control means for controlling the direction of the image .

本発明により、原稿を原稿台にセットする操作者に向けて画像を表示させることができる。 According to the present invention, an image can be displayed for an operator who sets a document on a document table .

情報処理装置100のハードウェア構成図とその外観図。The hardware block diagram of the information processing apparatus 100, and its external view. 情報処理装置100の機能構成図。2 is a functional configuration diagram of the information processing apparatus 100. FIG. 原稿セット時の原稿台上を撮像した画像データの一例を示した図The figure which showed an example of the image data which imaged on the original stand at the time of original setting 情報処理装置100の処理フローの一例を示した図。The figure which showed an example of the processing flow of the information processing apparatus.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施の形態は特許請求の範囲に関る本発明を限定するものではなく、また、本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一な構成については、同じ符号を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention related to the scope of claims, and all combinations of features described in the present embodiments are essential to the solution means of the present invention. Not necessarily. In addition, about the same structure, the same code | symbol is attached | subjected and demonstrated.

<第1の実施形態>
図1(a)は、本実施形態における情報処理装置100のハードウェア構成図である。
<First Embodiment>
FIG. 1A is a hardware configuration diagram of the information processing apparatus 100 according to the present embodiment.

図1(a)において、CPU101はシステム制御部であり情報処理装置100全体を制御する。ROM102は変更を必要としないプログラムやパラメータを格納する読み取り専用のメモリである。RAM103は外部装置などから供給されるプログラムやデータを一時記憶する書き換え可能なメモリである。センサ104は、情報処理装置100の原稿台上に物体が進入したことを検知できるものが好ましく、例えば赤外線センサなどでもよい。撮像部105は原稿台の上部に設置され、原稿台上を撮像する。なお、本実施形態では、センサ104の検知範囲および撮像部105の撮像範囲は原稿台を包含する最小矩形領域上とする。画像解析部106は撮像部105により得られる画像の解析、編集を行う。センサ104により、物体の進入を検知した際に撮像された画像データが、画像解析部106における解析の対象となる。方向推定部107は、撮像された画像データから原稿および原稿を持つ手を識別し、操作者のいる方向を推定する。表示部108は撮像した画像データやユーザインターフェースを表示するためのモニタやプロジェクタとのインターフェースである。108は101〜108の各ユニットを通信可能に接続するシステムバスである。説明した構成に対して、プログラムコードを供給するための記憶媒体としてROMのほかに以下のものがある。例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、メモリカード、DVDなどが本実施形態の情報処理装置の構成に加わってもよい。また、ユーザの操作を受け、データを入力するポインティングデバイスやキーボードなどの入力デバイスとのインターフェースである入力部があっても構わない。   In FIG. 1A, a CPU 101 is a system control unit and controls the information processing apparatus 100 as a whole. The ROM 102 is a read-only memory that stores programs and parameters that do not need to be changed. The RAM 103 is a rewritable memory that temporarily stores programs and data supplied from an external device. The sensor 104 is preferably one that can detect that an object has entered the document table of the information processing apparatus 100, and may be an infrared sensor, for example. The imaging unit 105 is installed on the upper part of the document table, and images the document table. In the present embodiment, the detection range of the sensor 104 and the imaging range of the imaging unit 105 are on the minimum rectangular area including the document table. The image analysis unit 106 analyzes and edits the image obtained by the imaging unit 105. The image data picked up when the sensor 104 detects the entry of an object is an analysis target in the image analysis unit 106. The direction estimation unit 107 identifies the document and the hand holding the document from the captured image data, and estimates the direction in which the operator is present. A display unit 108 is an interface with a monitor or a projector for displaying captured image data and a user interface. A system bus 108 connects the units 101 to 108 so that they can communicate with each other. In addition to the ROM as the storage medium for supplying the program code to the configuration described above, there are the following. For example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, memory card, DVD, and the like may be added to the configuration of the information processing apparatus of this embodiment. Further, there may be an input unit that is an interface with an input device such as a pointing device or a keyboard that receives data from a user and inputs data.

図2は、本実施形態における情報処理装置100の機能構成図である。   FIG. 2 is a functional configuration diagram of the information processing apparatus 100 according to the present embodiment.

処理対象となる原稿が原稿台にセットされる際、検知部201により原稿台上に原稿が進入したことを検知する。検知部201により検知したことを受けて、撮像部202により、原稿台上の撮像を開始する。撮像部202により得られた画像データを画像解析部203により解析する。解析により、原稿と原稿を持つ手の識別が完了するか、前の時間の画像データとの差分がなければ撮像を中止させ、解析結果をもとに方向推定部204が操作者のいる方向を推定する。そして表示部205により、推定した方向に、ユーザインターフェースや画像データを表示する。   When a document to be processed is set on the document table, the detection unit 201 detects that the document has entered the document table. Upon receiving the detection by the detection unit 201, the imaging unit 202 starts imaging on the document table. The image analysis unit 203 analyzes the image data obtained by the imaging unit 202. If the analysis identifies the original and the hand holding the original or if there is no difference from the previous time image data, the imaging is stopped, and the direction estimation unit 204 determines the direction of the operator based on the analysis result. presume. The display unit 205 displays the user interface and image data in the estimated direction.

図1(b)は、本実施形態における情報処理装置100の外観図である。   FIG. 1B is an external view of the information processing apparatus 100 according to this embodiment.

原稿台301は円形となっており、操作者は全方向から原稿をセットする。撮像部202であるカメラ302は原稿台の上部に設置されており、原稿台に置かれた原稿303などを撮像する。尚、カメラ302の撮像範囲は、原稿台301を包含する最小矩形領域を撮像できるものとし、原稿台301の外側にいる操作者までは撮像できない。また、カメラ302が撮像できるデータ形式は、画像解析部203が解析できる画像データを生成できれば静止画、動画を問わない。表示部205に相当するプロジェクタ304は、ユーザインターフェースやカメラ302により撮像されたデータを原稿台の任意の位置、方向に投影する。図1(b)の例では、原稿台301に操作ボタン305を投影した様子を示している。   The document table 301 has a circular shape, and the operator sets the document from all directions. A camera 302 serving as an imaging unit 202 is installed on the upper part of the document table, and images a document 303 and the like placed on the document table. It should be noted that the imaging range of the camera 302 can capture an image of a minimum rectangular area including the document table 301 and cannot capture images of an operator outside the document table 301. The data format that can be captured by the camera 302 may be a still image or a moving image as long as the image data that can be analyzed by the image analysis unit 203 can be generated. A projector 304 corresponding to the display unit 205 projects data captured by the user interface and the camera 302 to an arbitrary position and direction on the document table. In the example of FIG. 1B, a state in which the operation button 305 is projected on the document table 301 is shown.

尚、本実施形態では、プロジェクタ304により、操作ボタン305を投影するようにしたが、ディスプレイに表示しても構わない。また、本実施形態では、原稿台が円形である例を示したが、円形でなくてもよい。しかしながら、原稿台が円形である場合、原稿台が長方形である場合に比べて、操作者は、原稿をいろんな方向からセットすることが考えられる。   In the present embodiment, the operation button 305 is projected by the projector 304, but may be displayed on a display. In the present embodiment, an example in which the document table is circular has been described, but the document table may not be circular. However, when the document table is circular, the operator can set the document from various directions as compared with the case where the document table is rectangular.

図4は、本実施形態における情報処理装置100の処理フローである。はじめに操作者が原稿台に原稿を置こうとすると、検知部201が、原稿台上の空間に原稿が進入したことを検知する(ステップ401)。原稿の進入を検知すると、撮像部202が、原稿台上の撮像を開始する(ステップ402)。尚、撮像は動画でもよく、一定の時間間隔で静止画を撮像しても構わない。画像解析部203が、撮像して得られた画像データを解析して、原稿と原稿をセットする手や腕を認識する(ステップ403)。また、原稿の位置情報、手の形状、腕の位置情報も取得する。尚、認識に成功したタイミングでカメラ302による撮像を終了してもよいし、直前に撮像して得られた画像データとの差分がなくなったときに撮像を終了してもよい。   FIG. 4 is a processing flow of the information processing apparatus 100 in the present embodiment. First, when the operator attempts to place a document on the document table, the detection unit 201 detects that the document has entered the space on the document table (step 401). When the entry of the document is detected, the imaging unit 202 starts imaging on the document table (step 402). Note that the imaging may be a moving image, or still images may be taken at regular time intervals. The image analysis unit 203 analyzes the image data obtained by imaging, and recognizes the document and the hand or arm that sets the document (step 403). Also, document position information, hand shape, and arm position information are acquired. Note that the imaging by the camera 302 may be terminated at the timing when the recognition is successful, or the imaging may be terminated when there is no difference from the image data obtained immediately before imaging.

ステップ404は、画像解析部203が、画像データに写っている原稿をセットする手が、右手か左手かを判別する。判別方法は特徴抽出したパターンマッチングなどで構わない。また、手が、原稿をセットする手であるかどうかの判定は、原稿と接しているか、あるいは、原稿と重なっているか場合、原稿をセットする手であると判定する。ステップ404で、原稿をセットする手が、右手か左手かが判別できた場合、ステップ405に進む。   In step 404, the image analysis unit 203 determines whether the hand for setting the document shown in the image data is the right hand or the left hand. The discrimination method may be pattern matching with feature extraction. Whether the hand is a hand for setting a document is determined to be a hand for setting a document if it is in contact with the document or overlaps the document. If it is determined in step 404 whether the hand setting the document is the right hand or the left hand, the process proceeds to step 405.

ステップ405は、方向推定部204が、右手左手の情報から、操作者のいる方向を推定する。ステップ405の具体的な推定方法について図3(a)と図3(b)を用いて説明する。図3(a)は操作者が右手で原稿504をセットしている時の原稿台501上を図1(b)のカメラ302により撮像した画像データの一例を示したものである。図3(b)は操作者が左手で原稿504をセットしているときの原稿台501上を図1(b)のカメラ302により撮像した画像データの一例を示したものである。図3(a)の502はカメラ302の撮像領域を示している。画像データに写っている原稿をセットする手(図3(a)では503、図3(b)では509)の先端505である点Aと、先端から最も遠い手領域の座標506である点Bの2点を検出する。腕まで画像データに写っていれば腕も前記2点の検出に考慮する。操作者のいる位置(ここでは操作者の視点位置)508を点Pとし、線分ABに対して手のひらを原稿台の面に向けて置いたときの親指側を内側と呼ぶことにする。直線507は点Aを通り線分ABに対して垂直な直線である。操作者が原稿台501に原稿504を置くという行為において不自然な態勢でない限り、点B、A、Pの順でなす角θが0°<θ<90°、かつ線分ABに対し内側の領域に点Pは存在する。このことから、実際に操作者のいる方向と推定方向のズレが少なくなるような期待値を考慮して、線分ABに対して内側かつ点Aから見て角θ=45°の方向を操作者のいる方向と推定する。尚、θ=45°は一例であって、0°<θ<90°であればよい。   In step 405, the direction estimation unit 204 estimates the direction in which the operator is present from the information on the right hand and the left hand. A specific estimation method in step 405 will be described with reference to FIGS. 3 (a) and 3 (b). FIG. 3A shows an example of image data captured by the camera 302 in FIG. 1B on the document table 501 when the operator is setting the document 504 with the right hand. FIG. 3B shows an example of image data captured by the camera 302 in FIG. 1B on the document table 501 when the operator is setting the document 504 with the left hand. Reference numeral 502 in FIG. 3A denotes an imaging area of the camera 302. A point A that is the tip 505 of the hand (503 in FIG. 3A and 509 in FIG. 3B) that sets the document in the image data, and a point B that is the coordinates 506 of the hand region farthest from the tip 2 points are detected. If the arm is in the image data, the arm is also taken into account for the detection of the two points. A position where the operator is present (here, the viewpoint position of the operator) 508 is a point P, and the thumb side when the palm is placed on the surface of the document table with respect to the line segment AB is referred to as the inside. A straight line 507 is a straight line passing through the point A and perpendicular to the line segment AB. Unless the operator is unnatural in the act of placing the document 504 on the document table 501, the angle θ formed in the order of the points B, A, and P is 0 ° <θ <90 ° and is inward of the line segment AB. A point P exists in the region. Therefore, in consideration of the expected value that the deviation between the direction in which the operator is actually present and the estimated direction is reduced, the direction of the angle θ = 45 ° as viewed from the inside and the point A with respect to the line segment AB is operated. It is estimated that the person is in the direction. Note that θ = 45 ° is an example, and it may be 0 ° <θ <90 °.

ステップ404において右手か左手かの判別に失敗すると、ステップ406に進む。尚、右手か左手かの判別に失敗する理由としては、手で原稿を持っていると手の一部が原稿に隠れてしまうため、判別できないことが考えられる。   If it is determined in step 404 that the right hand or left hand has failed, the process proceeds to step 406. The reason why the determination of whether the right hand or the left hand is unsuccessful may be that a part of the hand is hidden by the original when the original is held by the hand, so that the determination cannot be made.

ステップ406は、腕に対して、左右どちらかの方向に原稿があるかを判別する。図3(c)と図3(d)は、ステップ406でYesと判定される場合の一例を示したものである。図3(c)は腕に対し右側に原稿604を持った状態を、原稿台601上を図1(b)のカメラ302により撮像した画像データを示したものである。図3(d)は左側に原稿604を持った状態を、原稿台601上を図1(b)のカメラ302により撮像した画像データを示したものである。図3(c)の602はカメラ302の撮像領域を示している。手や腕と認識された部分(図3(c)では603、図3(d)では609)の先端605の点Aおよび点Aから最も遠い手領域の座標606である点Bの2点を検出する。腕まで画像データに写っていれば腕も前記2点の検出に考慮する。直線607は点Aを通り線分ABに対して垂直な直線である。原稿604と認識された領域が線分ABに対し、図3(c)のように右側にあるか、図3(d)のように左側にあれば、ステップ406でYesと判定される。ステップ406で、Yesと判定された場合、ステップ407に進む。   In step 406, it is determined whether the document is in the left or right direction with respect to the arm. FIGS. 3C and 3D show an example of a case where Yes is determined in step 406. FIG. 3C shows image data obtained by capturing the document 604 on the right side of the arm with the camera 302 of FIG. 1B on the document table 601. FIG. 3 (d) shows image data obtained by capturing the document 604 on the left side with the camera 302 of FIG. 1 (b) on the document table 601. FIG. Reference numeral 602 in FIG. 3C denotes an imaging area of the camera 302. Two points, point A at the tip 605 and point B which is the coordinate 606 of the hand region farthest from point A of the part recognized as a hand or arm (603 in FIG. 3C and 609 in FIG. 3D) To detect. If the arm is in the image data, the arm is also taken into account for the detection of the two points. A straight line 607 is a straight line passing through the point A and perpendicular to the line segment AB. If the area recognized as the document 604 is on the right side as shown in FIG. 3C or the left side as shown in FIG. 3D with respect to the line segment AB, it is determined as Yes in step 406. If it is determined as Yes in step 406, the process proceeds to step 407.

ステップ407は、方向推定部204が、原稿と腕との相対的位置情報から、操作者のいる方向を推定する。図3(c)と図3(d)を用いて、ステップ407の具体的な推定方法について説明する。操作者のいる位置(ここでは操作者の視点位置)606を点Pとし、線分ABに対して原稿604と認識された領域が存在する側を内側と呼ぶことにする。操作者が原稿台601に原稿を置くという行為において不自然な態勢でない限り、点B、A、Pの順でなす角θが0°<θ<90°、かつ線分ABに対し内側の領域に点Pは存在する。このことから、実際に操作者のいる方向と推定方向のズレが少なくなるような期待値を考慮して、線分ABに対して内側かつ点Aから見て角θ=45°の方向を操作者のいる方向と推定する。   In step 407, the direction estimation unit 204 estimates the direction in which the operator is present from the relative position information between the document and the arm. A specific estimation method in step 407 will be described with reference to FIG. 3C and FIG. A position where the operator is present (here, the viewpoint position of the operator) 606 is a point P, and the side where the area recognized as the document 604 exists with respect to the line segment AB is called the inside. Unless the operator is unnatural in the act of placing the document on the document table 601, the angle θ formed in the order of the points B, A, and P is 0 ° <θ <90 °, and the area inside the line segment AB There is a point P. Therefore, in consideration of the expected value that the deviation between the direction in which the operator is actually present and the estimated direction is reduced, the direction of the angle θ = 45 ° as viewed from the inside and the point A with respect to the line segment AB is operated. It is estimated that the person is in the direction.

図3(e)は、腕の延長方向に原稿を持った状態を、原稿台701上を図1(b)のカメラ302により撮像した画像データを示したものである。例えば原稿台の横に原稿置き場を設けて、原稿置き場から1枚ずつ原稿を横にスライドさせて撮像するような場合に、図3(e)のような原稿の持ち方になり得る。図3(e)の702はカメラ302の撮像領域を示している。このような場合、ステップ406でNoと判定される。   FIG. 3E shows image data obtained by capturing the document on the document table 701 with the camera 302 in FIG. For example, when an original place is provided next to the original stage and images are taken by sliding the originals horizontally one by one from the original place, the original can be held as shown in FIG. Reference numeral 702 in FIG. 3E denotes an imaging area of the camera 302. In such a case, it is determined No in step 406.

ステップ406でNoと判定された場合、画像解析部203が、原稿704の内容を解析する(ステップ408)。原稿内容を解析した結果、画像解析部203が、原稿の向きを識別できたか否か判別する(ステップ409)。本実施形態では、原稿内容を解析して文字や画像を認識し、文字や画像の向きから原稿の向きを判別することを想定しているが、文字や画像に限定されない。また、原稿内の文字と画像のうち少なくともいずれか1つの領域を解析し、解析された文字と画像のうち少なくともいずれか1つの向きを判別し、判別した向きを、原稿の向きとしてもよい。ステップ409で原稿の向きを判別できた場合、ステップ410に進む。   If it is determined No in step 406, the image analysis unit 203 analyzes the contents of the document 704 (step 408). As a result of analyzing the document content, the image analysis unit 203 determines whether or not the orientation of the document has been identified (step 409). In this embodiment, it is assumed that the document content is analyzed to recognize characters and images, and the orientation of the document is determined from the orientation of the characters and images. However, the present invention is not limited to characters and images. Further, it is possible to analyze at least one of the characters and images in the document, determine the orientation of at least one of the analyzed characters and images, and use the determined orientation as the orientation of the document. If the orientation of the document can be determined in step 409, the process proceeds to step 410.

ステップ410は、方向推定部204が、原稿と腕との相対的位置情報と原稿の向きから、操作者のいる方向を推定する。図3(e)を用いて、ステップ410の具体的な推定方法について説明する。画像データに写っている原稿704を持つ手703の先端705である点Aと、先端705から最も遠い手領域の座標706である点Bの2点を検出する。腕まで画像データに写っていれば腕も前記2点の検出に考慮する。直線707は点Aを通り線分ABに対して垂直な直線である。操作者が原稿台701に原稿を置くという行為において不自然な態勢でない限り、先端705から見て直線707に対して手703と逆の方向に操作者がいる可能性は少ない。そしてかつ操作者が原稿の内容を確認できるように原稿台にセットする可能性が高いことを考慮すると原稿の向き708に対して±45°を満たす方向に操作者の視点があると推定する。先端705から見たこれらの条件を満たす角度の中間値となる方向を操作者のいる方向と推定する。ステップ409でNoと判定された場合、すなわち、原稿内容の解析に失敗するか、原稿の向きを識別できなかった場合は、ステップ411に進む。   In step 410, the direction estimation unit 204 estimates the direction in which the operator is present from the relative position information of the document and the arm and the orientation of the document. A specific estimation method in step 410 will be described with reference to FIG. Two points are detected: a point A which is the tip 705 of the hand 703 holding the document 704 shown in the image data, and a point B which is the coordinates 706 of the hand region farthest from the tip 705. If the arm is in the image data, the arm is also taken into account for the detection of the two points. A straight line 707 is a straight line passing through the point A and perpendicular to the line segment AB. Unless the operator is unnatural in the act of placing the document on the document table 701, it is unlikely that the operator is in the direction opposite to the hand 703 with respect to the straight line 707 when viewed from the front end 705. In consideration of the high possibility that the operator can set the document on the document table, it is estimated that the operator's viewpoint is in a direction satisfying ± 45 ° with respect to the document orientation 708. A direction that is an intermediate value of angles satisfying these conditions viewed from the tip 705 is estimated as the direction in which the operator is present. If it is determined No in step 409, that is, if the analysis of the document content fails or the orientation of the document cannot be identified, the process proceeds to step 411.

ステップ411は、方向推定部204が、腕がある方向が操作者のいる方向と推定する。具体的には、図3(e)における、線分ABに対し点Bの延長方向に操作者がいると推定する。   In step 411, the direction estimation unit 204 estimates that the direction in which the arm is present is the direction in which the operator is present. Specifically, it is estimated that there is an operator in the extending direction of the point B with respect to the line segment AB in FIG.

ステップ412は、ステップ405、ステップ407、ステップ410、ステップ411のいずれかから推定された操作者のいる方向に、操作のためのユーザインターフェースを表示部205に表示する。表示方法としては、本実施形態では、図1(b)のプロジェクタ304より投影する。   In step 412, a user interface for operation is displayed on the display unit 205 in the direction in which the operator is estimated from any one of steps 405, 407, 410, and 411. As a display method, in this embodiment, the image is projected from the projector 304 in FIG.

なお、ステップ404において右手左手の識別に成功した場合、識別した手が操作者の利き手と推定し、原稿に対して利き手側の原稿台上にユーザインターフェースを投影してもよい。また、本などを原稿台において撮像するとき、ページがめくれないように手で押さえた状態で撮像する場合が考えられる。このとき操作する手はもう片方の手である可能性が高いため、右手で本を抑えていれば本の左側に、左手で本を抑えていれば本の右側に操作のためのユーザインターフェースを投影してもよい。本実施形態では投影する情報として操作のためのユーザインターフェースを一例にあげたが、これに限定されず、操作者に対して何かを表示する場合、推定された操作者のいる方向に表示する。   If the right hand and left hand are successfully identified in step 404, the identified hand may be presumed to be the dominant hand of the operator, and the user interface may be projected on the document table on the dominant hand side with respect to the document. In addition, when a book or the like is imaged on the document table, it is conceivable that the image is captured with the hand held so as not to turn the page. The user's hand is likely to be the other hand, so if you hold the book with your right hand, the left side of the book, and if you hold the book with your left hand, the user interface on the right side of the book. You may project. In this embodiment, the user interface for operation is given as an example of information to be projected. However, the present invention is not limited to this, and when something is displayed to the operator, it is displayed in the estimated direction of the operator. .

以上本発明にかかる実施形態を説明したが、先に説明したように、情報処理装置は、通常のパーソナルコンピュータ等の汎用情報処理装置であって、それ上で動作するコンピュータプログラムで実現できるものである。よって、本発明はコンピュータプログラムをその範疇とすることは明らかである。その際は、情報処理装置101が有する各手段として機能させる。また、通常、コンピュータプログラムは、CDROM等のコンピュータ読み取り可能な記憶媒体に格納されており、それをコンピュータの対応するドライブにセットしてシステムにコピーやインストール処理することで実行可能となる。よって、本発明は当然にそのようなコンピュータ可読記憶媒体をもその範疇とすることも明らかである。   Although the embodiment according to the present invention has been described above, as described above, the information processing apparatus is a general-purpose information processing apparatus such as a normal personal computer and can be realized by a computer program that operates on the general-purpose information processing apparatus. is there. Therefore, it is obvious that the present invention falls within the category of computer programs. In that case, the information processing apparatus 101 functions as each unit. In general, the computer program is stored in a computer-readable storage medium such as a CDROM, and can be executed by setting it in a corresponding drive of the computer and copying or installing it in the system. Therefore, it is obvious that the present invention includes such a computer-readable storage medium as a category.

Claims (15)

原稿台に置かれた原稿を撮像することで前記原稿の画像データを取得する情報処理装置であって、
原稿台の上部から原稿台上を撮像する撮像手段により得られる画像データを解析して、前記原稿と前記原稿をセットする操作者の腕の位置情報を取得する画像解析手段と、
前記画像解析手段によって取得された前記原稿と前記操作者の腕の位置情報に基づいて、前記操作者のいる方向を推定する方向推定手段と、
前記方向推定手段によって推定された前記操作者のいる方向に応じて前記原稿台に表示させる画像の方向を制御する表示制御手段、
を有することを特徴とする情報処理装置。
An information processing apparatus for acquiring image data of a document by imaging a document placed on a document table,
Image analysis means for analyzing the image data obtained by the image pickup means for picking up an image on the document table from the upper part of the document table, and obtaining position information of the arm of the operator who sets the document and the document;
Direction estimation means for estimating a direction in which the operator is present based on position information of the manuscript and the operator's arm acquired by the image analysis means;
Display control means for controlling the direction of an image to be displayed on the document table in accordance with the direction of the operator estimated by the direction estimation means;
An information processing apparatus comprising:
前記画像解析手段は、さらに、前記原稿の向きを解析し、
前記方向推定手段は、前記位置情報と前記原稿の向きとに基づいて、前記操作者のいる方向を推定することを特徴とする請求項1に記載の情報処理装置。
The image analysis means further analyzes the orientation of the document,
The information processing apparatus according to claim 1, wherein the direction estimation unit estimates a direction in which the operator is present based on the position information and a direction of the document.
前記表示制御手段は、前記前記原稿台上に、前記方向推定手段で推定された方向に向けて、ユーザインターフェースを表示させることを特徴とする請求項1又は請求項2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the display control unit displays a user interface on the document table in a direction estimated by the direction estimation unit. 前記原稿台上に原稿が進入したことを検知する検知手段を有し、
前記撮像手段は、前記検知手段により原稿の進入が検知されたときに撮像を開始することを特徴とする請求項1乃至3何れか1項に記載の情報処理装置。
Detecting means for detecting that a document has entered the document table;
4. The information processing apparatus according to claim 1, wherein the image pickup unit starts image pickup when an entry of a document is detected by the detection unit. 5.
前記方向推定手段は、前記原稿と前記操作者の腕の相対的な位置に応じて、前記原稿台に対して前記操作者のいる方向を推定することを特徴とする請求項1乃至4何れか1項に記載の情報処理装置。   5. The direction estimation unit estimates a direction in which the operator is located with respect to the document table in accordance with a relative position between the document and the operator's arm. The information processing apparatus according to item 1. 前記方向推定手段は、前記画像解析手段による解析の結果、前記操作者の腕が右手か左手かが識別可能な場合、前記操作者の腕が右手か左手かに応じて、前記原稿台に対して前記操作者のいる方向を推定し、前記画像解析手段による解析の結果、前記操作者の腕が右手か左手かが識別可能ではない場合、前記原稿と前記操作者の腕の相対的な位置に応じて、前記原稿台に対して前記操作者のいる方向を推定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。   The direction estimating means determines whether the operator's arm is a right hand or a left hand as a result of the analysis by the image analysis means, depending on whether the operator's arm is a right hand or a left hand. If the direction of the operator is estimated and the result of the analysis by the image analysis means is that it is not possible to identify whether the operator's arm is a right hand or a left hand, the relative position of the manuscript and the operator's arm 5. The information processing apparatus according to claim 1, wherein a direction in which the operator is located with respect to the document table is estimated in accordance with the information processing apparatus. 前記方向推定手段は、前記画像解析手段による解析の結果、前記操作者の腕に対する前記原稿の位置が左右何れかに特定可能な場合、前記原稿と前記操作者の腕の相対的な位置に応じて、前記原稿台に対して前記操作者のいる方向を推定し、前記画像解析手段による解析の結果、前記操作者の腕に対する前記原稿の位置が左右何れかに特定可能ではない場合、前記原稿の内容を解析した結果が表す前記原稿の向きを用いて、前記原稿台に対して前記操作者のいる方向を推定することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 If the position of the document relative to the operator's arm can be specified as either the right or left as a result of the analysis by the image analysis unit, the direction estimating unit is responsive to the relative position of the document and the operator's arm. If the direction of the operator with respect to the document table is estimated and the position of the document relative to the operator's arm is not identifiable as either left or right as a result of the analysis by the image analysis means, the document 7. The information according to claim 1, wherein a direction in which the operator is located with respect to the document table is estimated using an orientation of the document represented by an analysis result of the content of the document. Processing equipment. 前記方向推定手段は、さらに、前記画像解析手段による解析の結果から得られる、前記操作者の腕の方向を用いて、前記原稿台に対して前記操作者のいる方向を推定することを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。   The direction estimating means further estimates the direction of the operator with respect to the document table using the direction of the operator's arm obtained from the result of the analysis by the image analyzing means. The information processing apparatus according to any one of claims 1 to 7. 前記情報処理装置は、前記原稿台の上部から原稿台上を撮像する撮像手段と、前記原稿台の上部から原稿台上に画像を投影するプロジェクタを備え、
前記表示制御手段は、前記プロジェクタを制御することによって、前記原稿台上に前記画像を表示させることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
The information processing apparatus includes an imaging unit that captures an image on the document table from the top of the document table, and a projector that projects an image on the document table from the top of the document table.
The information processing apparatus according to claim 1, wherein the display control unit displays the image on the document table by controlling the projector.
原稿台に置かれた原稿を撮像することで前記原稿の画像データを取得する情報処理装置の制御方法であって、
画像解析手段が、原稿台の上部から原稿台上を撮像する撮像手段により得られる画像データを解析して、前記原稿と前記原稿をセットする操作者の腕の位置情報を取得する画像解析工程と、
方向推定手段が、前記原稿と前記操作者の腕の位置情報に基づいて、前記操作者のいる方向を推定する方向推定工程と、
表示制御手段が、推定された前記操作者のいる方向に応じて前記原稿台に表示させる画像の方向を制御する表示制御工程、
を有することを特徴とする情報処理装置の制御方法。
A control method of an information processing apparatus for acquiring image data of a document by imaging a document placed on a document table,
An image analysis step in which image analysis means analyzes image data obtained by an image pickup means for picking up an image on the original platen from above the original platen, and acquires position information of the manuscript and the arm of the operator who sets the original document; ,
A direction estimating unit that estimates a direction in which the operator is present based on position information of the manuscript and the operator's arm; and
A display control step for controlling a direction of an image to be displayed on the document table in accordance with the estimated direction of the operator;
A method for controlling an information processing apparatus, comprising:
前記画像解析工程は、前記撮像手段により得られる画像データを解析して、前記原稿と前記原稿をセットする操作者の腕との位置情報と、前記原稿の向きを解析し、
前記方向推定工程は、前記位置情報と前記原稿の向きとに基づいて、前記操作者のいる方向を推定することを特徴とする請求項10に記載の情報処理装置の制御方法。
The image analysis step analyzes image data obtained by the imaging means, analyzes position information of the manuscript and an operator's arm for setting the manuscript, and an orientation of the manuscript,
The method according to claim 10, wherein the direction estimating step estimates a direction in which the operator is present based on the position information and the orientation of the document.
前記表示制御工程は、前記方向推定工程で推定された方向に向けて、ユーザインターフェースを表示させる表示工程を有することを特徴とする請求項10又は請求項11に記載の情報処理装置の制御方法。   The method for controlling an information processing apparatus according to claim 10, wherein the display control step includes a display step of displaying a user interface in a direction estimated in the direction estimation step. 検知手段が、前記原稿台上に原稿が進入したことを検知する検知工程を有し、前記検知工程で原稿の進入が検知されたときに、前記原稿台上の撮像を開始することを特徴とする請求項10に記載の情報処理装置の制御方法。   The detection means has a detection step of detecting that a document has entered the document table, and starts imaging on the document table when entry of the document is detected in the detection step. The control method of the information processing apparatus according to claim 10. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit included in the information processing apparatus according to claim 1 by being read and executed by a computer. 請求項14に記載のプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 14.
JP2012115759A 2012-05-21 2012-05-21 Information processing apparatus and control method thereof Expired - Fee Related JP5979976B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012115759A JP5979976B2 (en) 2012-05-21 2012-05-21 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012115759A JP5979976B2 (en) 2012-05-21 2012-05-21 Information processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013242715A JP2013242715A (en) 2013-12-05
JP2013242715A5 JP2013242715A5 (en) 2015-07-09
JP5979976B2 true JP5979976B2 (en) 2016-08-31

Family

ID=49843543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012115759A Expired - Fee Related JP5979976B2 (en) 2012-05-21 2012-05-21 Information processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5979976B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164681A (en) * 2003-11-28 2005-06-23 Kyocera Mita Corp Operation display device and image forming apparatus
JP5407381B2 (en) * 2009-02-04 2014-02-05 セイコーエプソン株式会社 Image input device, image display device, and image display system

Also Published As

Publication number Publication date
JP2013242715A (en) 2013-12-05

Similar Documents

Publication Publication Date Title
US8405626B2 (en) Image projection apparatus and control method for same
KR101514169B1 (en) Information processing device, information processing method, and recording medium
JP5480777B2 (en) Object display device and object display method
US10310675B2 (en) User interface apparatus and control method
KR20160117207A (en) Image analyzing apparatus and image analyzing method
US9213410B2 (en) Associated file
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US10694098B2 (en) Apparatus displaying guide for imaging document, storage medium, and information processing method
CN103916592A (en) Apparatus and method for photographing portrait in portable terminal having camera
JP6028589B2 (en) Input program, input device, and input method
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
KR101514170B1 (en) Input device, input method and recording medium
JP2009295031A (en) Image projection device and its control method
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
JP2015212897A5 (en)
JP6201282B2 (en) Portable electronic device, its control method and program
JP5979976B2 (en) Information processing apparatus and control method thereof
JP6207211B2 (en) Information processing apparatus and control method thereof
JP2014102183A (en) Image processing apparatus and image processing system
JP2020071739A (en) Image processing apparatus
US20160188856A1 (en) Authentication device, authentication method, and non-transitory computer readable medium
KR20150043149A (en) Method for controlling digital apparatus and photographing method by recognition of hand shape, and apparatus thereof
JP6312488B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R151 Written notification of patent or utility model registration

Ref document number: 5979976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees