JP2018010578A - Image processing apparatus, image processing system and image processing method - Google Patents

Image processing apparatus, image processing system and image processing method Download PDF

Info

Publication number
JP2018010578A
JP2018010578A JP2016140507A JP2016140507A JP2018010578A JP 2018010578 A JP2018010578 A JP 2018010578A JP 2016140507 A JP2016140507 A JP 2016140507A JP 2016140507 A JP2016140507 A JP 2016140507A JP 2018010578 A JP2018010578 A JP 2018010578A
Authority
JP
Japan
Prior art keywords
image processing
point
state
processing apparatus
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016140507A
Other languages
Japanese (ja)
Inventor
えん 西田
En Nishida
えん 西田
優 児玉
Masaru Kodama
優 児玉
康宏 小野
Yasuhiro Ono
康宏 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016140507A priority Critical patent/JP2018010578A/en
Publication of JP2018010578A publication Critical patent/JP2018010578A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve a detection accuracy of coordinates.SOLUTION: An image processing apparatus is connected to an imaging apparatus that photographs a plurality of operation devices and to a display device. The image processing apparatus generates an observation point showing a present position of an operation device according to image data inputted from the imaging apparatus, generates a prediction point to be a next position of the present position according to a movement of the operation device, determines states of the observation point and the prediction point, and makes the display device display a line connecting observation points according to the states.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing system, and an image processing method.

従来、タッチパネル及び電子ペン等を用いて、いわゆるホワイトボードのように、ユーザが書き込んだ文字及び図形、記号、絵又はこれらの組み合わせ(以下単に「文字等」という。)を表示装置に表示する方法が知られている。   2. Description of the Related Art Conventionally, a method of displaying characters and figures written by a user, symbols, pictures, or a combination thereof (hereinafter simply referred to as “characters”) on a display device using a touch panel, an electronic pen, or the like, as in a so-called whiteboard. It has been known.

この方法では、ユーザが書き込み等の操作を行う点の座標を検出する方法が行われる。
また、操作を行う点の状態を「clear」と「merged」に分け、異なる重み付けを行う方法が知られている(例えば、特許文献1等)。
In this method, a method of detecting the coordinates of a point where the user performs an operation such as writing is performed.
Also, a method is known in which the state of the point at which the operation is performed is divided into “clear” and “merged”, and different weighting is performed (eg, Patent Document 1).

しかしながら、複数の電子ペンが用いられると、各電子ペンの軌跡が誤認識される場合がある。そのため、誤認識によって、座標の検出精度が悪くなることが課題となる。   However, when a plurality of electronic pens are used, the locus of each electronic pen may be erroneously recognized. Therefore, the problem is that the accuracy of coordinate detection deteriorates due to erroneous recognition.

本発明の1つの側面は、座標の検出精度を良くすることを目的とする。   One aspect of the present invention aims to improve the accuracy of coordinate detection.

一態様における、複数の操作器を撮像する撮像装置と、表示装置とに接続される画像処理装置は、
前記撮像装置から画像データを入力する入力部と、
前記画像データに基づいて、前記操作器の現在位置を示す観測点を生成する観測点生成部と、
前記操作器の運動に基づいて、前記現在位置の次の位置となる予測点を生成する予測点生成部と、
前記観測点及び前記予測点の状態を判定する判定部と、
前記状態に基づいて、前記観測点を結ぶ線を前記表示装置に表示させる出力部と
を備える。
In one aspect, an image processing apparatus that images a plurality of operating devices and an image processing apparatus connected to the display apparatus are
An input unit for inputting image data from the imaging device;
Based on the image data, an observation point generation unit that generates an observation point indicating a current position of the controller,
A prediction point generation unit that generates a prediction point that is the next position of the current position based on the motion of the operation unit;
A determination unit for determining a state of the observation point and the prediction point;
An output unit that displays a line connecting the observation points on the display device based on the state.

座標の検出精度を良くすることができる。   Coordinate detection accuracy can be improved.

本発明の一実施形態に係る画像処理システムの全体構成例を示す概念図である。1 is a conceptual diagram illustrating an example of the overall configuration of an image processing system according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理装置による座標の計算例を示す概念図である。It is a conceptual diagram which shows the example of calculation of the coordinate by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る操作器のハードウェア構成例を示す模式図である。It is a schematic diagram which shows the hardware structural example of the operating device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置による全体処理の一例を示すフローチャートである。It is a flowchart which shows an example of the whole process by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る観測点の生成例を示す図である。It is a figure which shows the example of a production | generation of the observation point which concerns on one Embodiment of this invention. 本発明の一実施形態に係る観測点及び予測点の一例を示す図である。It is a figure which shows an example of the observation point and prediction point which concern on one Embodiment of this invention. 本発明の一実施形態に係る複数の観測点がある場合の一例を示す図である。It is a figure showing an example in case there are a plurality of observation points concerning one embodiment of the present invention. 本発明の一実施形態に係る画像処理装置によるノード化処理の一例を示すフローチャートである。It is a flowchart which shows an example of the node-ization process by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置によるリンクの一例を示す図である。It is a figure which shows an example of the link by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置による判定処理の一例を示す図である。It is a figure which shows an example of the determination process by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置によるIDの振り分け方法の一例を示す図である。It is a figure which shows an example of the allocation method of ID by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理装置による「状態5」におけるリンクの一例を示す図である。It is a figure which shows an example of the link in the "state 5" by the image processing apparatus which concerns on one Embodiment of this invention. 誤認識の一例を示す図である。It is a figure which shows an example of misrecognition. 「併合状態」の一例を示す図である。It is a figure which shows an example of the "merged state." 本発明の一実施形態に係る画像処理装置による効果の一例を示す図である。It is a figure which shows an example of the effect by the image processing apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る光遮断方式の一例を示す図である。It is a figure which shows an example of the light-blocking system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る画像処理システム及び画像処理装置の機能構成例を示す機能ブロック図である。1 is a functional block diagram illustrating an example functional configuration of an image processing system and an image processing apparatus according to an embodiment of the present invention.

以下、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below.

<第1実施形態>
図1は、本発明の一実施形態に係る画像処理システムの全体構成例を示す概念図である。図示するように、画像処理システム1は、複数の第1撮像装置の例である4台のカメラと、PC(Personal Computer)等の画像処理装置10とを備える。なお、第1撮像装置は、3つ以上であればよい。
<First Embodiment>
FIG. 1 is a conceptual diagram showing an example of the overall configuration of an image processing system according to an embodiment of the present invention. As illustrated, the image processing system 1 includes four cameras, which are examples of a plurality of first imaging devices, and an image processing device 10 such as a PC (Personal Computer). Note that there may be three or more first imaging devices.

図示するように、例えば、それぞれのカメラの視野角が約90°であるとすると、表示装置の例であるディスプレイDISの平面全体を撮像しやすいように、各カメラは、四隅等に設置される。以下、図において、4台のカメラのうち、左上に図示するカメラを左上カメラCAM11という。同様に、4台のカメラのうち、右上に図示するカメラを右上カメラCAM12という。さらに、4台のカメラのうち、右下に図示するカメラを右下カメラCAM13という。さらにまた、4台のカメラのうち、左下に図示するカメラを左下カメラCAM14という。   As shown in the figure, for example, if the viewing angle of each camera is about 90 °, each camera is installed at four corners or the like so as to easily capture the entire plane of the display DIS as an example of the display device. . Hereinafter, in the figure, among the four cameras, the camera illustrated in the upper left is referred to as the upper left camera CAM11. Similarly, of the four cameras, the camera shown in the upper right is called the upper right camera CAM12. Further, of the four cameras, the camera illustrated in the lower right is referred to as a lower right camera CAM13. Furthermore, of the four cameras, the camera illustrated in the lower left is referred to as a lower left camera CAM14.

図示するように、画像処理装置10は、左上カメラCAM11、右上カメラCAM12、右下カメラCAM13及び左下カメラCAM14が撮像したそれぞれの画像データを入力し、画像データに基づいて、電子ペンPE等の被写体が位置する座標、すなわち、位置を計算する。   As shown in the figure, the image processing apparatus 10 inputs image data captured by the upper left camera CAM11, upper right camera CAM12, lower right camera CAM13, and lower left camera CAM14, and based on the image data, a subject such as an electronic pen PE Is calculated, ie the position.

画像処理システム1及びディスプレイDISは、例えば、以下のように用いられる。例えば、ユーザは、操作器の例である電子ペンPEを用いて、タッチ操作及び手書きで文字等を書き込む等の操作を行う。具体的には、ディスプレイDIS上の任意の点に文字等を書き込む場合には、ユーザは、文字等を書き込む位置に、電子ペンPEをディスプレイDISに接触させる。そして、各カメラは、電子ペンPEを撮像して画像データをそれぞれ生成する。このようにして生成されるそれぞれの画像データに基づいて、電子ペンPE又は電子ペンPEの所定の箇所の座標が計算される。   The image processing system 1 and the display DIS are used as follows, for example. For example, the user performs an operation such as writing a character or the like by a touch operation or handwriting, using the electronic pen PE which is an example of an operation device. Specifically, when writing a character or the like at an arbitrary point on the display DIS, the user brings the electronic pen PE into contact with the display DIS at a position where the character or the like is written. Each camera captures the electronic pen PE to generate image data. Based on each image data generated in this manner, the coordinates of the electronic pen PE or a predetermined portion of the electronic pen PE are calculated.

また、座標は、例えば、以下のように計算される。   The coordinates are calculated as follows, for example.

図2は、本発明の一実施形態に係る画像処理装置による座標の計算例を示す概念図である。まず、以下の説明では、いわゆる電子ペンPEのペン先が所定の箇所である例で説明する。すなわち、図示するように、この例は、電子ペンPEのペン先が位置する座標が計算結果として出力される例である。なお、所定の箇所は、電子ペンの位置を示す電子ペンのペン先以外の箇所でもよい。   FIG. 2 is a conceptual diagram illustrating a coordinate calculation example by the image processing apparatus according to the embodiment of the present invention. First, in the following description, an example in which the pen tip of the so-called electronic pen PE is a predetermined location will be described. That is, as illustrated, this example is an example in which coordinates where the pen tip of the electronic pen PE is positioned are output as a calculation result. The predetermined location may be a location other than the pen tip of the electronic pen indicating the position of the electronic pen.

なお、以下の説明では、電子ペンPEの所定の箇所を示す3次元の座標系を「世界座標系」という。図示する例では、図において横方向がX軸となり、図において奥行き方向がY軸となる。そして、図において縦方向がZ軸となる。また、ディスプレイDIS上の世界座標系は、Z軸の値が一定であるとし、Z軸の値の記載を省略して、世界座標(Xworld,Yworld)と示す。さらに、カメラの主点、すなわち、カメラが有する撮像素子の中心位置等を主点CAMORとする。 In the following description, a three-dimensional coordinate system indicating a predetermined portion of the electronic pen PE is referred to as a “world coordinate system”. In the illustrated example, the horizontal direction is the X axis in the figure, and the depth direction is the Y axis in the figure. In the drawing, the vertical direction is the Z axis. In the world coordinate system on the display DIS, the value of the Z axis is assumed to be constant, the description of the value of the Z axis is omitted, and the world coordinate (X world , Y world ) is indicated. Further, the principal point of the camera, that is, the center position of the image pickup element of the camera is defined as the principal point CAMOR.

一方で、各カメラによって撮像された画像における座標を以下の説明では「カメラ座標系」(「イメージ座標系」という場合もある。)という。   On the other hand, the coordinates in an image captured by each camera are referred to as “camera coordinate system” (also referred to as “image coordinate system” in the following description).

世界座標(Xworld,Yworld)を計算するには、図示するように、まず、複数のカメラが撮像した画像データのうち、2つの画像データ(以下「左画像データIMGL」及び「右画像データIMGR」という。)が画像処理装置によって選択される。なお、左画像データIMGLにおけるカメラ座標を「(x,y)」とし、一方で、右画像データIMGRにおけるカメラ座標を「(x,y)」とする。図示するように、各カメラは、主点CAMORを基点に撮像するため、被写体は、図示するように、主点CAMORと、被写体とを結んだ線がカメラ座標系の平面と交わる位置の画素に撮像される。 In order to calculate the world coordinates (X world , Y world ), as shown in the drawing, first, two pieces of image data (hereinafter referred to as “left image data IMGL” and “right image data” out of image data captured by a plurality of cameras are used. IMGR ") is selected by the image processing apparatus. The camera coordinates in the left image data IMGL are “(x 1 , y 1 )”, while the camera coordinates in the right image data IMGR are “(x 2 , y 2 )”. As shown in the figure, since each camera captures images with the principal point CAMOR as a base point, as shown in FIG. Imaged.

そして、(x,y)及び(x,y)が求まると、画像処理装置は、三角測量等によって、世界座標(Xworld,Yworld)を計算することができる。なお、三角測量は、公知の技術等で実現される。 When (x 1 , y 1 ) and (x 2 , y 2 ) are obtained, the image processing apparatus can calculate the world coordinates (X world , Y world ) by triangulation or the like. Note that triangulation is realized by a known technique or the like.

<画像処理装置のハードウェア構成例>
図3は、本発明の一実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。例えば、画像処理装置10は、CPU(Central Processing Unit)10H1、ROM(Read−Only Memory)10H2、RAM(Random Access Memory)10H3、キーボード10H4及びマウス10H5を有する。さらに、画像処理装置10は、ハードディスク10H6、グラフィックボード10H7、ネットワークカード10H8、I/F(interface)10H9及びプログラム読取装置10H10を有する。
<Hardware configuration example of image processing apparatus>
FIG. 3 is a block diagram illustrating a hardware configuration example of the image processing apparatus according to the embodiment of the present invention. For example, the image processing apparatus 10 includes a CPU (Central Processing Unit) 10H1, a ROM (Read-Only Memory) 10H2, a RAM (Random Access Memory) 10H3, a keyboard 10H4, and a mouse 10H5. The image processing apparatus 10 further includes a hard disk 10H6, a graphic board 10H7, a network card 10H8, an I / F (interface) 10H9, and a program reading apparatus 10H10.

CPU10H1は、各処理を実現させるための演算及びデータ加工を行う演算装置である。また、CPU10H1は、各ハードウェアを制御する制御装置である。さらに、CPU10H1は、プログラムに基づいて動作する装置である。   The CPU 10H1 is an arithmetic device that performs calculations and data processing for realizing each process. The CPU 10H1 is a control device that controls each hardware. Further, the CPU 10H1 is a device that operates based on a program.

ROM10H2は、プログラム及びパラメータ等を含むデータを記憶する記憶装置である。   The ROM 10H2 is a storage device that stores data including programs, parameters, and the like.

RAM10H3は、プログラム及びパラメータ等を含むデータを記憶する主記憶装置である。そして、RAM10H3は、CPU10H1が処理を行う際に作業領域を提供する装置である。   The RAM 10H3 is a main storage device that stores data including programs and parameters. The RAM 10H3 is a device that provides a work area when the CPU 10H1 performs processing.

キーボード10H4及びマウス10H5は、入力装置の一例である。すなわち、キーボード10H4及びマウス10H5は、ユーザが画像処理装置10に対して、コマンド及びクリック等の操作を入力するためのインタフェースとなる。   The keyboard 10H4 and the mouse 10H5 are examples of input devices. That is, the keyboard 10 </ b> H <b> 4 and the mouse 10 </ b> H <b> 5 serve as interfaces for the user to input operations such as commands and clicks to the image processing apparatus 10.

ハードディスク10H6は、補助記憶装置の一例である。図示するように、ハードディスク10H6は、OS(Operating System)、デバイスドライバ及び各種アプリケーションプログラム等のデータを記憶する。   The hard disk 10H6 is an example of an auxiliary storage device. As illustrated, the hard disk 10H6 stores data such as an OS (Operating System), device drivers, and various application programs.

グラフィックボード10H7は、画像及びCPU10H1による処理結果等を表示する出力装置である。なお、グラフィックボード10H7には、ディスプレイ等の外部装置が接続され、グラフィックボード10H7が画像等を外部装置に出力して、外部装置が画像等をユーザに表示する。   The graphic board 10H7 is an output device that displays images, processing results by the CPU 10H1, and the like. An external device such as a display is connected to the graphic board 10H7, the graphic board 10H7 outputs an image or the like to the external device, and the external device displays the image or the like to the user.

ネットワークカード10H8は、有線又は無線によって、ネットワークを介して、外部装置とデータを送受信するためのインタフェースである。例えば、ネットワークカード10H8は、コネクタ及び処理IC(Integrated Circuit)等である。   The network card 10H8 is an interface for transmitting and receiving data to and from an external device via a network by wire or wireless. For example, the network card 10H8 is a connector and a processing IC (Integrated Circuit).

I/F(interface)10H9は、外部装置をケーブル等を介して接続させるインタフェースである。例えば、I/F(interface)10H9は、コネクタ及び処理IC等である。   The I / F (interface) 10H9 is an interface for connecting an external device via a cable or the like. For example, an I / F (interface) 10H9 is a connector and a processing IC.

プログラム読取装置10H10は、記録媒体11等に記憶されるプログラムを読み取る装置である。例えば、記録媒体11が光学ディスクである場合には、プログラム読取装置10H10は、光学ディスクドライブ等である。   The program reading device 10H10 is a device that reads a program stored in the recording medium 11 or the like. For example, when the recording medium 11 is an optical disk, the program reading device 10H10 is an optical disk drive or the like.

このように、画像処理装置10は、プログラム等に基づいて動作するPC、サーバ、ワークステーション又はモバイル機器等の情報処理装置である。すなわち、画像処理装置10は、コンピュータである。   As described above, the image processing apparatus 10 is an information processing apparatus such as a PC, a server, a workstation, or a mobile device that operates based on a program or the like. That is, the image processing apparatus 10 is a computer.

なお、画像処理装置10は、図示する構成に限られない。例えば、画像処理装置10は、CPU等を補助する補助装置を更に有する構成でもよい。   Note that the image processing apparatus 10 is not limited to the illustrated configuration. For example, the image processing apparatus 10 may further include an auxiliary device that assists the CPU and the like.

<操作器のハードウェア構成例>
図4は、本発明の一実施形態に係る操作器のハードウェア構成例を示す模式図である。例えば、電子ペンPEは、図示するように、発光部PEH1と、支持部PEH2とを有する構成であるのが望ましい。以下、図示する構成を例に説明する。
<Hardware configuration example of the controller>
FIG. 4 is a schematic diagram illustrating a hardware configuration example of the operation device according to the embodiment of the present invention. For example, as shown in the drawing, the electronic pen PE desirably has a light emitting unit PEH1 and a support unit PEH2. Hereinafter, the configuration shown in the figure will be described as an example.

発光部PEH1は、筆記用具においてインクが滲み出る箇所、すなわち、ペン先等の位置が望ましい。また、発光部PEH1は、図示するように、ディスプレイDISの表面に接触する箇所に近い箇所であるのが望ましい。なお、発光部PEH1は、例えば、LED(Light Emitting Diode)又は有機EL(Electro−Luminescence)等によって実現される。また、発光部PEH1は、カメラが有する撮像素子が感知する可視光及び赤外光を発光する。   The light emitting part PEH1 is preferably a part where ink oozes out in the writing instrument, that is, a position of a pen tip or the like. Further, as shown in the drawing, the light emitting portion PEH1 is desirably a location close to a location that contacts the surface of the display DIS. The light emitting unit PEH1 is realized by, for example, an LED (Light Emitting Diode) or an organic EL (Electro-Luminescence). In addition, the light emitting unit PEH1 emits visible light and infrared light that are sensed by the image pickup device of the camera.

支持部PEH2は、電子ペンPEを用いる際に、ユーザが手で持つ箇所である。つまり、ユーザは、支持部PEH2を握って、電子ペンPEによる操作を行う。   The support part PEH2 is a part that the user has with his hand when using the electronic pen PE. That is, the user holds the support part PEH2 and performs an operation with the electronic pen PE.

また、所定の箇所は、例えば、発光部PEH1が設置される位置である。   Moreover, a predetermined location is a position where light emission part PEH1 is installed, for example.

<全体処理例>
図5は、本発明の一実施形態に係る画像処理装置による全体処理の一例を示すフローチャートである。
<Example of overall processing>
FIG. 5 is a flowchart showing an example of overall processing by the image processing apparatus according to the embodiment of the present invention.

<撮像例>(ステップS101)
ステップS101では、画像処理装置は、各カメラに操作器を撮像させる。そして、カメラが操作器を撮像した画像データを生成し、画像処理装置に入力する。
<Imaging Example> (Step S101)
In step S101, the image processing apparatus causes each camera to capture an image of the operation device. And the camera produces | generates the image data which imaged the operation device, and inputs it into an image processing apparatus.

<撮像された画像に基づく観測点の生成例>(ステップS102)
ステップS102では、画像処理装置は、入力された画像データが示す画像に基づいて、観測点を生成する。例えば、観測点は、以下のように生成される。
<Example of Generating Observation Point Based on Captured Image> (Step S102)
In step S102, the image processing apparatus generates an observation point based on the image indicated by the input image data. For example, the observation point is generated as follows.

図6は、本発明の一実施形態に係る観測点の生成例を示す図である。   FIG. 6 is a diagram illustrating an example of generation of observation points according to an embodiment of the present invention.

図9は、本発明の一実施形態に係る画像データの一例を示す図である。図示するように、ディスプレイDISの表面における任意の点が電子ペンのペン先で指示されるとすると、例えば、左上カメラCAM11が撮像する画像データIMGに、電子ペンのペン先を示すblobBLが写る。なお、ペン先で指示される点が観測点TPの例である。また、図示するように、観測点TPと、blobBLとは、投影関係となる。したがって、blobBLの位置、すなわち、blobBLを追跡すると、画像処理装置は、逆投影から観測点TPを算出することができる。   FIG. 9 is a diagram illustrating an example of image data according to an embodiment of the present invention. As shown in the drawing, if an arbitrary point on the surface of the display DIS is indicated by the pen tip of the electronic pen, for example, blobBL indicating the pen tip of the electronic pen is captured in the image data IMG captured by the upper left camera CAM11. The point indicated by the pen tip is an example of the observation point TP. Moreover, as shown in the figure, the observation point TP and blobBL have a projection relationship. Therefore, when the position of blobBL, that is, blobBL is tracked, the image processing apparatus can calculate the observation point TP from the back projection.

なお、blob(Binary Large Object)は、例えば、"http://www.eizojoho.co.jp/i/i_pdf/0004.pdf"等に記載される通り、画像内に存在する特定のグレイスケールの値又は値の範囲を持ったピクセルの「かたまり」のことを指す。   Note that blob (Binary Large Object) is a specific gray scale in an image as described in, for example, “http://www.eizojoho.co.jp/i/i_pdf/0004.pdf”. Refers to a “chunk” of pixels having a value or range of values.

<今回の予測点の生成例>(ステップS103)
図5に戻り、ステップS103では、画像処理装置は、今回の予測点を生成する。予測点は、現在位置を示す観測点より以前に生成された観測点に基づいて生成される。つまり、予測点は、電子ペンの運動を分析して生成される。なお、予測点は、例えば、速度又は加速度等に基づいて算出する。また、予測点は、カルマンフィルタ等によって予測されてもよい。
<Prediction point generation example> (step S103)
Returning to FIG. 5, in step S <b> 103, the image processing device generates a current prediction point. The predicted point is generated based on the observation point generated before the observation point indicating the current position. That is, the prediction point is generated by analyzing the movement of the electronic pen. The predicted point is calculated based on, for example, speed or acceleration. Further, the prediction point may be predicted by a Kalman filter or the like.

図7は、本発明の一実施形態に係る観測点及び予測点の一例を示す図である。例えば、以前の観測点及び以前の予測点を含む各点を結ぶと、図示するように、各点を結ぶ線は、電子ペンによる筆記の軌跡となる。以下の説明では、現在位置、すなわち、最新の時点を時刻tと示す。また、時刻tより、1つ前に生成された各点は、時刻t−1に生成されたと示し、同様に、2つ前の各点は、時刻t−2に生成されたと示す。具体的には、時刻tに生成された観測点は、第1観測点PO1である。   FIG. 7 is a diagram illustrating an example of observation points and prediction points according to an embodiment of the present invention. For example, when connecting each point including the previous observation point and the previous prediction point, as shown in the figure, the line connecting the points becomes a writing locus with the electronic pen. In the following description, the current position, that is, the latest time point is indicated as time t. Further, each point generated one time before time t is shown to have been generated at time t-1, and similarly, each point two times before is shown to have been generated at time t-2. Specifically, the observation point generated at time t is the first observation point PO1.

そして、時刻tに生成される予測点は、第1予測点PC1である。第1予測点PC1は、次の位置、すなわち、時刻t+1における位置を予測した結果である。また、第1観測点PO1より、1つ前、すなわち、時刻t−1に生成された観測点は、PO2である。同様に、第1予測点PC1より、1つ前、すなわち、時刻t−1に生成された予測点は、PC2である。   And the prediction point produced | generated at the time t is 1st prediction point PC1. The first predicted point PC1 is a result of predicting the next position, that is, the position at time t + 1. In addition, the observation point generated immediately before the first observation point PO1, that is, at the time t−1 is PO2. Similarly, the prediction point generated immediately before the first prediction point PC1, that is, at time t−1 is PC2.

<今回の予測点に今回の観測点と同じID(Identification)及びタグの設定例>(ステップS104)
図5に戻り、ステップS104では、画像処理装置は、今回の予測点に、今回の観測点と同じID及びタグを設定する。まず、複数の電子ペンには、それぞれの電子ペンを認識できるIDが設定される。
<Setting Example of ID (Identification) and Tag Same as Current Observation Point for Current Prediction Point> (Step S104)
Returning to FIG. 5, in step S104, the image processing apparatus sets the same ID and tag as the current observation point as the current prediction point. First, ID which can recognize each electronic pen is set to a plurality of electronic pens.

なお、タグは、以前の判定処理等によってあらかじめ設定されている状態である。初期値は、例えば「併合なし」とする値等である。IDは、各電子ペンを識別できるデータである。また、タグは、判定処理によって定まる電子ペンの状態を示すデータである。   The tag is in a state set in advance by a previous determination process or the like. The initial value is, for example, a value indicating “no merge”. The ID is data that can identify each electronic pen. The tag is data indicating the state of the electronic pen determined by the determination process.

<ノード化例>(ステップS105)
ステップS105では、画像処理装置は、ノード化を行う。まず、以下のように、複数の観測点が時刻tに生成されたとする。
<Example of nodeization> (Step S105)
In step S105, the image processing apparatus performs nodalization. First, assume that a plurality of observation points are generated at time t as follows.

図8は、本発明の一実施形態に係る複数の観測点がある場合の一例を示す図である。複数の電子ペンを用いて操作が行われると、例えば、図7に示すような第1観測点PO1とは別に、時刻tにおいて、第3観測点PO3が生成される場合がある。このような場合には、まず、以下のようなノード化の処理が行われる。   FIG. 8 is a diagram illustrating an example when there are a plurality of observation points according to an embodiment of the present invention. When an operation is performed using a plurality of electronic pens, for example, a third observation point PO3 may be generated at time t separately from the first observation point PO1 as shown in FIG. In such a case, first, the following node processing is performed.

図9は、本発明の一実施形態に係る画像処理システムによるノード化処理の一例を示すフローチャートである。   FIG. 9 is a flowchart showing an example of node processing by the image processing system according to the embodiment of the present invention.

<所定距離内に今回の観測点があるか否かの判断例>(ステップS201)
ステップS201では、画像処理装置は、今回生成した予測点、すなわち、第1予測点について判断を行う。具体的には、ステップS201では、画像処理装置は、第1予測点から所定距離内に今回の観測点、すなわち、時刻tに生成された観測点があるか否かを判断する。例えば、図8に示すように、第1予測点PC1から所定距離DST内に、第1観測点PO1があるか否かが判断される。なお、所定処理DSTは、あらかじめ設定される距離である。
<Judgment example of whether or not there is a current observation point within a predetermined distance> (step S201)
In step S <b> 201, the image processing apparatus determines the currently generated prediction point, that is, the first prediction point. Specifically, in step S201, the image processing apparatus determines whether there is a current observation point, that is, an observation point generated at time t, within a predetermined distance from the first prediction point. For example, as shown in FIG. 8, it is determined whether or not there is a first observation point PO1 within a predetermined distance DST from the first prediction point PC1. The predetermined process DST is a preset distance.

所定距離内に第1観測点があると判断されると(ステップS201でYES)、画像処理装置は、ステップS202に進む。一方で、所定距離内に第1観測点がないと判断されると(ステップS201でNO)、画像処理装置は、ステップS203に進む。   If it is determined that the first observation point is within the predetermined distance (YES in step S201), the image processing apparatus proceeds to step S202. On the other hand, when it is determined that there is no first observation point within the predetermined distance (NO in step S201), the image processing apparatus proceeds to step S203.

<予測点に最も近い観測点をリンクさせる例>(ステップS202)
ステップS202では、画像処理装置は、予測点に最も近い観測点をリンクさせる。例えば、リンクは、以下のような処理である。
<Example of Linking Observation Point Closest to Prediction Point> (Step S202)
In step S202, the image processing apparatus links the observation point closest to the prediction point. For example, the link is the following process.

図10は、本発明の一実施形態に係る画像処理装置によるリンクの一例を示す図である。例えば、図示するように、観測点及び予測点をノードとすると、各ノードがリンクされると、各ノードを結ぶ線LKが生成される。なお、図示する例は、第1観測点PO1及び第1予測点PC1が1対1の関係でリンクされる例である。   FIG. 10 is a diagram illustrating an example of a link by the image processing apparatus according to the embodiment of the present invention. For example, as shown in the drawing, assuming that the observation point and the prediction point are nodes, when the nodes are linked, a line LK connecting the nodes is generated. In the example shown in the figure, the first observation point PO1 and the first prediction point PC1 are linked in a one-to-one relationship.

<リンクが未設定の今回の観測点があるか否かの判断例>(ステップS203)
図9に戻り、ステップS203では、画像処理装置は、リンクが未設定の今回の観測点があるか否かを判断する。後段のステップS204では、各今回の観測点から所定距離内に予測点があると、観測点及び予測点は、リンクされ、図10に示すように、各ノードを結ぶ線LKが生成される。このように、すべての今回の観測点について、予測点とリンクできるか否かの判断が行われたか否かが画像処理装置に判断される。
<Judgment example of whether or not there is a current observation point with no link> (step S203)
Returning to FIG. 9, in step S203, the image processing apparatus determines whether there is a current observation point for which no link is set. In the subsequent step S204, if there is a predicted point within a predetermined distance from each current observation point, the observation point and the predicted point are linked to generate a line LK connecting the nodes as shown in FIG. In this way, the image processing apparatus determines whether or not it has been determined whether or not all the current observation points can be linked to the prediction points.

リンクが未設定の今回の観測点があると画像処理装置に判断されると(ステップS203でYES)、画像処理装置は、ステップS204に進む。一方で、リンクが未設定の今回の観測点があると画像処理装置に判断されると(ステップS203でNO)、画像処理装置は、処理を終了する。   If the image processing apparatus determines that there is a current observation point with no link set (YES in step S203), the image processing apparatus proceeds to step S204. On the other hand, when the image processing apparatus determines that there is a current observation point with no link set (NO in step S203), the image processing apparatus ends the process.

<リンクが未設定の今回の観測点に、所定距離内にあって、最も近い今回の予測点をリンクさせる例>(ステップS204)
ステップS204では、画像処理装置は、リンクが未設定の今回の観測点に、所定距離内にあって、最も近い今回の予測点をリンクさせる。例えば、画像処理装置は、まず、今回の観測点から、所定距離内に今回の予測点があるか否かを判断する。そして、所定距離内に、今回の予測点があると、画像処理装置は、観測点と、予測点とを図10と同様にリンクさせる。
<Example of linking the nearest predicted point within a predetermined distance to the current observation point with no link> (step S204)
In step S204, the image processing apparatus links the latest predicted point that is within a predetermined distance to the current observation point for which no link is set. For example, the image processing apparatus first determines whether or not there is a current predicted point within a predetermined distance from the current observation point. Then, when there is a current prediction point within a predetermined distance, the image processing apparatus links the observation point and the prediction point in the same manner as in FIG.

<判定処理例>(ステップS106)
図5に戻り、ステップS106では、画像処理装置は、判定処理を行う。判定処理は、ノード化された各観測点及び各予測点が、以下のどのような状態であるか判定する。
<Example of determination process> (step S106)
Returning to FIG. 5, in step S106, the image processing apparatus performs determination processing. The determination process determines the following states of each observation point and each prediction point that are nodeized.

図11は、本発明の一実施形態に係る画像処理装置による判定処理の一例を示す図である。例えば、各ノードは、図示するように、観測点又は観測点とリンクされた予測点の単位(以下「判定単位」という。)ごとに、それぞれの状態が判定される。すなわち、画像処理装置は、ノードが複数リンクしている場合には、判定単位となるように、観測点及び予測点を分割する。次に、画像処理装置は、ノードの数に基づいて以下のように状態を判定する。   FIG. 11 is a diagram illustrating an example of determination processing by the image processing apparatus according to an embodiment of the present invention. For example, as shown in the figure, each node is determined for each observation point or a unit of a prediction point linked to the observation point (hereinafter referred to as “determination unit”). That is, when a plurality of nodes are linked, the image processing apparatus divides observation points and prediction points so as to be a determination unit. Next, the image processing apparatus determines the state based on the number of nodes as follows.

「状態1」は、観測点が1点のみで存在している状態である。このような状態は、時刻tから新しく加えられた観測点である。すなわち、「状態1」と判定される観測点は、電子ペンによる書き始めの点等である。次に、「状態1」と判定されると、判定処理後、画像処理装置は、観測点に、新しいIDを設定する。また、画像処理装置は、観測点に、「併合なし」のタグを設定する。そして、次の時刻t+1について、図5に示す処理を開始する。   “State 1” is a state in which there is only one observation point. Such a state is an observation point newly added from time t. That is, the observation point determined as “state 1” is a point at which writing with the electronic pen is started. Next, when it is determined as “state 1”, after the determination process, the image processing apparatus sets a new ID at the observation point. In addition, the image processing apparatus sets a tag “no merge” at the observation point. Then, for the next time t + 1, the processing shown in FIG. 5 is started.

「状態2」は、観測点と予測点が1対1の関係でリンクされている状態である。このような状態は、追跡が成功の状態である。次に、「状態2」と判定されると、判定処理後、画像処理装置は、観測点に、予測点と同じIDを設定する。また、画像処理装置は、観測点に、「併合なし」のタグを設定する。   “State 2” is a state in which the observation point and the prediction point are linked in a one-to-one relationship. Such a state is a state in which tracking is successful. Next, when it is determined as “state 2”, after the determination process, the image processing apparatus sets the same ID as the prediction point at the observation point. In addition, the image processing apparatus sets a tag “no merge” at the observation point.

「状態2」のように、追跡が成功している状態では、以前から今回までの観測点を結べば、電子ペンによる描画の軌跡が精度良く表示される状態となる。したがって、画像処理装置は、時刻tから以前の観測点を結ぶ線をディスプレイDIS(図1)等に表示する。なお、結ばれる観測点は、同一のIDが設定された観測点同士である。また、1点だけを追跡する場合は、「状態2」と同様の処理が行われる。   In the state where the tracking is successful as in “State 2”, if the observation points from before to this time are connected, the trace of drawing with the electronic pen is displayed with high accuracy. Therefore, the image processing apparatus displays a line connecting the previous observation points from time t on the display DIS (FIG. 1) or the like. Note that the observation points to be connected are observation points to which the same ID is set. When only one point is tracked, the same processing as “state 2” is performed.

「状態3」は、1つの観測点に対して複数の予測点がリンクされている状態である。例えば、図示するように、1つの観測点に対して2つの予測点がリンクされる場合がある。このような状態は、「併合状態」である。   “State 3” is a state in which a plurality of prediction points are linked to one observation point. For example, as shown in the drawing, two prediction points may be linked to one observation point. Such a state is a “merged state”.

このように、「併合状態」とは、センサー受光により形成された画像中のポインター(ペン)位置が重合する状態(分離が困難な状態)である。したがって、画像処理装置は、「併合状態」であることをタグで保存する。また、観測点には、図示する「予測点B1」及び「予測点B2」の2つのIDを設定する。このように、観測点に2つ以上のIDが設定されていると、画像処理装置は、「併合状態」であることを認識できる。さらに、「併合状態」の場合は、次の時刻t+1で、「併合状態」を分離するため、時刻t−1の観測点に係るデータを使うので、画像処理装置は、次の時刻t+1の処理のために、時刻t−1の観測点に係るデータを記憶する。   Thus, the “merged state” is a state in which the positions of the pointers (pens) in the image formed by sensor light reception overlap (a state where separation is difficult). Therefore, the image processing apparatus stores the “merged state” as a tag. In addition, two IDs of “prediction point B1” and “prediction point B2” shown in the figure are set for the observation point. Thus, when two or more IDs are set for the observation point, the image processing apparatus can recognize that it is in the “merged state”. Further, in the “merged state”, since the data related to the observation point at time t−1 is used to separate the “merged state” at the next time t + 1, the image processing apparatus performs processing at the next time t + 1. Therefore, the data related to the observation point at time t−1 is stored.

そして、時刻tまでは、「併合なし」の状態であるため、「状態2」と同様に、時刻tまでは、追跡が成功している状態である。したがって、時刻tまでは、「状態2」と同様に、画像処理装置は、時刻tから以前の観測点を結ぶ線をディスプレイDIS(図1)等に表示する。   Since the state is “no merge” until time t, the tracking is successful until time t as in “state 2”. Therefore, until time t, the image processing apparatus displays a line connecting the previous observation points from time t on the display DIS (FIG. 1) or the like as in “state 2”.

「状態4」は、複数の観測点に対して1つの予測点がリンクされている状態である。このような状態は、例えば、図示するように、1つの予測点に対して2つの観測点がリンクされている状態である。したがって、このような状態は、1つの予測点が2つのIDを持つ状態である。すなわち、「状態4」は、「併合状態」の観測点又は予測点に対して分離処理を行い、「併合状態」を「併合なし」の状態にする処理を行う「分離状態」である。ゆえに、画像処理装置は、2つのIDを2つの観測点に振り分ける。   “State 4” is a state in which one prediction point is linked to a plurality of observation points. Such a state is, for example, a state in which two observation points are linked to one prediction point as shown in the figure. Therefore, such a state is a state in which one prediction point has two IDs. That is, the “state 4” is a “separation state” in which the separation process is performed on the observation point or the prediction point in the “merged state” and the process of changing the “merged state” to the “no merge” state. Therefore, the image processing apparatus distributes the two IDs to the two observation points.

IDを振り分ける方法は、例えば、以前に「状態3」等と判定されると、あらかじめ記憶される「併合状態」となる前の観測点に係るデータ、すなわち、時刻t−1の観測点に係るデータ等を用いて行われる。具体的には、以下のような処理である。   The method for assigning IDs is related to, for example, the data related to the observation point before the “merged state” stored in advance, that is, the observation point at time t−1, when it is previously determined as “state 3” or the like. This is done using data. Specifically, the processing is as follows.

図12は、本発明の一実施形態に係る画像処理装置によるIDの振り分け方法の一例を示す図である。例えば、図12(A)に示す状態(「併合なし」の状態)から、図12(B)に示すような状態となり(「併合状態」)、図12(C)に示す状態で、IDを振り分ける処理が行われる例で説明する。なお、図示するように、この例では、2つの観測点のそれぞれのIDは、「ID=3」と、「ID=4」であるとする。まず、図12(B)に示す状態と判定されると、時刻t−1において、時刻t−2等の「併合なし」の観測点に係るデータが記憶される。   FIG. 12 is a diagram showing an example of an ID distribution method by the image processing apparatus according to the embodiment of the present invention. For example, the state shown in FIG. 12A (“no merge” state) changes to the state shown in FIG. 12B (“merged state”), and the ID shown in FIG. An example in which the sorting process is performed will be described. As shown in the figure, in this example, the IDs of the two observation points are “ID = 3” and “ID = 4”. First, when the state shown in FIG. 12B is determined, at time t−1, data related to an observation point “no merge” such as time t-2 is stored.

そして、IDを振り分ける時刻tでは、各観測点の時刻t−2の観測点に係るデータを用いて、振り分けが行われる。具体的には、図12(C)に示すように、時刻t−2の観測点に近い方のIDがそれぞれの観測点に振り分けられる。   Then, at the time t at which the ID is distributed, the distribution is performed using the data related to the observation point at the time t-2 of each observation point. Specifically, as shown in FIG. 12C, the ID closer to the observation point at time t-2 is assigned to each observation point.

他に、IDを振り分ける方法は、例えば、米国特許US8692768等に記載されている方法等でもよい。   In addition, as a method of assigning IDs, for example, a method described in US Pat. No. 8,869,768 may be used.

図11に戻り、「状態5」は、図示するように、複数の予測点と複数の観測点とがリンクされた状態である。このような状態では、予測点と観測点とを、例えば、以下のようにリンクする。   Returning to FIG. 11, "state 5" is a state in which a plurality of prediction points and a plurality of observation points are linked, as shown. In such a state, a prediction point and an observation point are linked as follows, for example.

図13は、本発明の一実施形態に係る画像処理装置による「状態5」におけるリンクの一例を示す図である。例えば、図13(A)に示すような「状態5」の状態である場合を例に説明する。そして、画像処理装置は、図13(B)に示すような状態にリンクする。   FIG. 13 is a diagram illustrating an example of a link in “state 5” by the image processing apparatus according to the embodiment of the present invention. For example, the case of “state 5” as shown in FIG. 13A will be described as an example. Then, the image processing apparatus is linked to a state as shown in FIG.

例えば、リンクした予測点及び観測点のそれぞれの距離の平方和が最小かつ重複がないように、画像処理装置は、観測点及び予測点を分離する。図13(B)に示すように、分離が行われると、各リンクされた予測点及び観測点は、「状態2」と同様の状態である。そのため、各リンクされた予測点及び観測点に対して、画像処理装置は、「状態2」の場合と同様に、時刻tから以前の観測点を結ぶ線をディスプレイDIS(図1)等に表示する。   For example, the image processing apparatus separates the observation point and the prediction point so that the sum of squares of the distances of the linked prediction point and the observation point is minimum and does not overlap. As shown in FIG. 13B, when separation is performed, each linked prediction point and observation point are in the same state as “state 2”. Therefore, for each linked prediction point and observation point, the image processing apparatus displays a line connecting the previous observation points from time t on the display DIS (FIG. 1), etc., as in the case of “state 2”. To do.

このように、複数の電子ペンが用いられる場合には、判定処理によって状態を判定し、「併合状態」であるか否かが判定されると(上記「状態3」であるか否かが判定されると)、画像処理装置は、IDを振り分ける等によって、「併合状態」であっても、精度良く各観測点を分離できる。例えば、画像処理装置は、以下のような誤認識を少なくすることができる。   As described above, when a plurality of electronic pens are used, the state is determined by the determination process, and when it is determined whether the state is the “merge state” or not (the state 3 is determined). Then, the image processing apparatus can separate the observation points with high accuracy even in the “merged state” by distributing IDs or the like. For example, the image processing apparatus can reduce the following erroneous recognition.

図14は、誤認識の一例を示す図である。例えば、複数の電子ペンを用いて図14(A)に示すように、筆記が行われているとする。このような場合等では、図14(B)に示すように、「併合状態」となると、一方の電子ペンによる軌跡と、他方の電子ペンによる軌跡とが誤認識され、図14(B)に示すように、図14(A)に示す「実際の筆記」とは異なる軌跡が表示ディスプレイDIS上に表示される場合がある。この原因は、以下のような「併合」が原因である場合が多い。   FIG. 14 is a diagram illustrating an example of erroneous recognition. For example, it is assumed that writing is performed using a plurality of electronic pens as shown in FIG. In such a case, as shown in FIG. 14B, when the “merged state” is entered, the locus of one electronic pen and the locus of the other electronic pen are erroneously recognized, and FIG. As shown in the figure, a trajectory different from “actual writing” shown in FIG. 14A may be displayed on the display DIS. This is often caused by the following “merging”.

図15は、「併合状態」の一例を示す図である。例えば、複数の電子ペンを用いる場合であって、2点の観測点が左上カメラCAM11によって認識される場合を例に説明する。まず、「併合なし」、すなわち、上記「状態2」の場合には、図15(A)に示すように、2点の観測点は、それぞれ異なるIDであると、分離して認識される。一方で、「併合状態」では、図15(B)に示すように、異なる電子ペンで入力された観測点であっても、2点の観測点は、同一のIDであると認識される場合である。このような「併合状態」が起きると、図14に示すような誤認識の原因となる場合がある。一方で、判定処理によって、誤認識が少ないと、画像処理装置は、以下のような表示をさせることができる。   FIG. 15 is a diagram illustrating an example of the “merged state”. For example, a case where a plurality of electronic pens are used and two observation points are recognized by the upper left camera CAM11 will be described as an example. First, in the case of “no merging”, that is, in the above “state 2”, as shown in FIG. 15A, two observation points are recognized separately as different IDs. On the other hand, in the “merged state”, as shown in FIG. 15B, even when the observation points are input with different electronic pens, the two observation points are recognized as having the same ID. It is. When such a “merged state” occurs, it may cause a recognition error as shown in FIG. On the other hand, if there are few misrecognitions by a determination process, the image processing apparatus can display as follows.

図16は、本発明の一実施形態に係る画像処理装置による効果の一例を示す図である。例えば、「ID=3」の観測点と、「ID=4」の観測点とによる軌跡が図示するように、連続して、それぞれ表示されるようにすることができる。すなわち、「ID=3」の観測点と、「ID=4」の観測点が、混ざらずに、軌跡が表示できる。   FIG. 16 is a diagram illustrating an example of the effect of the image processing apparatus according to the embodiment of the present invention. For example, the trajectory by the observation point of “ID = 3” and the observation point of “ID = 4” can be continuously displayed as shown in the figure. That is, the trajectory can be displayed without mixing the observation point “ID = 3” and the observation point “ID = 4”.

<変形例>
電子ペンを用いて、いわゆる光遮断方式が行われる場合がある。例えば、光遮断方式は、以下のような構成である。
<Modification>
A so-called light blocking method may be performed using an electronic pen. For example, the light blocking method has the following configuration.

図17は、本発明の一実施形態に係る光遮断方式の一例を示す図である。図示するように、電子ペンPEを用いる場合には、入力の際に、資料、ユーザの手又は衣類等がディスプレイに触れると、接触位置が、電子ペンPEによる指示位置と認識されてしまう場合がある。そこで、図4に示すような発光部分のある電子ペンが用いられる。このような発光部分がある電子ペンが用いられると、発光部分の座標を検出することができる。しかしながら、発光部分を検出するだけでは、ジェスチャー等の指による操作を検出できない場合がある。そこで、例えば、特開2016−038902に示す方法等が用いられる。   FIG. 17 is a diagram illustrating an example of a light blocking method according to an embodiment of the present invention. As shown in the figure, when the electronic pen PE is used, when a document, a user's hand or clothing touches the display at the time of input, the contact position may be recognized as an instruction position by the electronic pen PE. is there. Therefore, an electronic pen having a light emitting portion as shown in FIG. 4 is used. When an electronic pen having such a light emitting portion is used, the coordinates of the light emitting portion can be detected. However, there are cases where an operation with a finger such as a gesture cannot be detected only by detecting the light emitting portion. Therefore, for example, a method disclosed in JP-A-2006-038902 is used.

このような方法が用いられると、指示器の発光に基づく座標検出と、光遮断に基づく座標検出とを組み合わせ、図示するように、座標を検出することができる。このような光遮断方式が用いられてもよい。   When such a method is used, coordinates can be detected as shown in the figure by combining coordinate detection based on light emission of the indicator and coordinate detection based on light blocking. Such a light blocking method may be used.

<機能構成例>
図18は、本発明の一実施形態に係る画像処理システム及び画像処理装置の機能構成例を示す機能ブロック図である。例えば、画像処理システム1は、複数の撮像装置CAMと、表示装置OUTと、観測点生成部1F1と、予測点生成部1F2と、判定部1F3と、出力部1F4とを備える。なお、図示する例は、撮像装置CAMを4つとする例である。
<Functional configuration example>
FIG. 18 is a functional block diagram illustrating a functional configuration example of an image processing system and an image processing apparatus according to an embodiment of the present invention. For example, the image processing system 1 includes a plurality of imaging devices CAM, a display device OUT, an observation point generation unit 1F1, a prediction point generation unit 1F2, a determination unit 1F3, and an output unit 1F4. Note that the illustrated example is an example in which there are four imaging devices CAM.

観測点生成部1F1は、撮像装置CAMから入力される画像データに基づいて、操作器IFの現在位置を示す観測点を生成する。例えば、観測点生成部1F1は、CPU10H1(図3)等によって実現される。   The observation point generation unit 1F1 generates an observation point indicating the current position of the operation unit IF based on image data input from the imaging device CAM. For example, the observation point generator 1F1 is realized by the CPU 10H1 (FIG. 3) or the like.

予測点生成部1F2は、操作器IFの運動に基づいて、現在位置の次の位置となる予測点を生成する。例えば、予測点生成部1F2は、CPU10H1(図3)等によって実現される。   The predicted point generation unit 1F2 generates a predicted point that is the next position of the current position based on the motion of the operation unit IF. For example, the predicted point generation unit 1F2 is realized by the CPU 10H1 (FIG. 3) or the like.

判定部1F3は、観測点及び予測点の状態を判定する。例えば、判定部1F3は、CPU10H1(図3)等によって実現される。   The determination unit 1F3 determines the state of the observation point and the prediction point. For example, the determination unit 1F3 is realized by the CPU 10H1 (FIG. 3) or the like.

出力部1F4は、判定部1F3によって判定される状態に基づいて、観測点を結ぶ線を表示装置OUTに表示させる。例えば、出力部1F4は、CPU10H1(図3)及びグラフィックボード10H7(図3)等によって実現される。   The output unit 1F4 displays a line connecting the observation points on the display device OUT based on the state determined by the determination unit 1F3. For example, the output unit 1F4 is realized by the CPU 10H1 (FIG. 3), the graphic board 10H7 (FIG. 3), and the like.

まず、画像処理システム1が有する画像処理装置は、撮像装置CAMから、操作器IFを撮像した画像データを入力する。次に、画像処理装置は、観測点生成部1F1及び予測点生成部1F2によって、観測点及び予測点をそれぞれ生成する。   First, the image processing apparatus included in the image processing system 1 inputs image data obtained by imaging the operation unit IF from the imaging apparatus CAM. Next, the image processing apparatus generates an observation point and a prediction point by the observation point generation unit 1F1 and the prediction point generation unit 1F2, respectively.

そして、画像処理装置は、判定部1F3によって、図11に示すように、「状態1」乃至「状態5」のように、観測点及び予測点の状態を判定する。このような判定が行われると、例えば、「状態3」のような「併合状態」を判定することができる。   Then, the image processing apparatus determines the state of the observation point and the prediction point as shown in “state 1” to “state 5” by the determination unit 1F3 as illustrated in FIG. When such a determination is made, for example, a “merged state” such as “state 3” can be determined.

「併合状態」は、例えば、「状態3」のように、観測点に対して複数の予測点がリンクされた状態である。また、「併合状態」は、例えば、「状態3」のように、予測点に対して複数の観測点がリンクされた状態である。このように、「併合状態」と判定された後、「併合状態」であることを示すデータ及び以前の観測点に係るデータ等が記憶されると、画像処理装置は、「併合状態」の観測点に、IDを振り分ける等を行うことができる。   The “merged state” is a state in which a plurality of prediction points are linked to the observation point, for example, “state 3”. Further, the “merged state” is a state in which a plurality of observation points are linked to the prediction point, for example, “state 3”. As described above, after the data indicating the “merged state” and the data relating to the previous observation point are stored after the determination of the “merged state”, the image processing apparatus observes the “merged state”. For example, IDs can be assigned to points.

このようにすると、図14に示すような誤認識を少なくし、画像処理装置は、座標の検出精度を良くすることができる。   In this way, erroneous recognition as shown in FIG. 14 is reduced, and the image processing apparatus can improve the coordinate detection accuracy.

<その他の実施形態>
なお、本発明に係る実施形態は、アセンブラ言語、C言語等の低水準言語又はオブジェクト指向プログラミング言語等の高水準言語で記述されるコンピュータに画像処理方法を実行させるためのプログラムによって実現されてもよい。また、プログラムは、補助記憶装置、フラッシュメモリ又はブルーレイディスク等の光学ディスク等のコンピュータで読み取り可能な記録媒体に格納して頒布することができる。さらに、プログラムは、電気通信回線を通じて頒布することができる。
<Other embodiments>
The embodiment according to the present invention may be realized by a program for causing a computer described in a low-level language such as an assembler language or C language or a high-level language such as an object-oriented programming language to execute an image processing method. Good. The program can be stored and distributed in a computer-readable recording medium such as an auxiliary storage device, a flash memory, or an optical disc such as a Blu-ray disc. Furthermore, the program can be distributed through a telecommunication line.

画像処理装置は、1つの情報処理装置でなくともよい。つまり、本発明に係る実施形態は、1以上の情報処理装置を有する画像処理システムによって実現されてもよい。すなわち、ネットワーク等で接続される複数の情報処理装置によって、各処理は、冗長、分散又は並列に実行されてもよい。   The image processing apparatus may not be a single information processing apparatus. That is, the embodiment according to the present invention may be realized by an image processing system having one or more information processing apparatuses. In other words, each process may be executed redundantly, in a distributed manner or in parallel by a plurality of information processing devices connected via a network or the like.

また、各処理の一部又は全部は、例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)又はASIC(Application Specific Integrated Circuit)等の電子回路で実現されてもよい。さらに、各処理の一部又は全部は、例えば、ファームウェア等で実現されてもよい。   Moreover, a part or all of each process may be implement | achieved by electronic circuits, such as a field programmable gate array (FPGA) or ASIC (Application Specific Integrated Circuit). Furthermore, a part or all of each process may be realized by, for example, firmware.

以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Can be changed.

1 画像処理システム
10 画像処理装置
CAM11 左上カメラ
CAM12 右上カメラ
CAM13 右下カメラ
CAM14 左下カメラ
DIS ディスプレイ
PE 電子ペン
DESCRIPTION OF SYMBOLS 1 Image processing system 10 Image processing apparatus CAM11 Upper left camera CAM12 Upper right camera CAM13 Lower right camera CAM14 Lower left camera DIS Display PE Electronic pen

米国特許第8692768号明細書US Pat. No. 8,692,768

Claims (6)

複数の操作器を撮像する撮像装置と、表示装置とに接続される画像処理装置であって、
前記撮像装置から入力される画像データに基づいて、前記操作器の現在位置を示す観測点を生成する観測点生成部と、
前記操作器の運動に基づいて、前記現在位置の次の位置となる予測点を生成する予測点生成部と、
前記観測点及び前記予測点の状態を判定する判定部と、
前記状態に基づいて、前記観測点を結ぶ線を前記表示装置に表示させる出力部と
を備える画像処理装置。
An image processing device connected to a display device and an imaging device that images a plurality of operation devices,
Based on image data input from the imaging device, an observation point generator that generates an observation point indicating the current position of the controller,
A prediction point generation unit that generates a prediction point that is the next position of the current position based on the motion of the operation unit;
A determination unit for determining a state of the observation point and the prediction point;
An image processing apparatus comprising: an output unit configured to display a line connecting the observation points on the display device based on the state.
前記判定部は、少なくとも、前記観測点及び前記予測点が併合状態であるか否かを判定する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the determination unit determines whether at least the observation point and the prediction point are in a merged state. 前記判定部は、前記観測点に対して複数の前記予測点がリンクされると、前記併合状態であると判定する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the determination unit determines that the merged state is established when a plurality of the prediction points are linked to the observation point. 前記判定部によって複数の前記予測点と、複数の前記観測点がリンクされた状態であると判定されると、複数の前記予測点及び複数の前記観測点を分離する請求項2又は3に記載の画像処理装置。   The plurality of prediction points and the plurality of observation points are separated from each other when the determination unit determines that the plurality of prediction points and the plurality of observation points are linked. Image processing apparatus. 複数の操作器を撮像する撮像装置と、表示装置と、前記撮像装置及び前記表示装置に接続される画像処理装置とを有する画像処理システムであって、
前記撮像装置から入力される画像データに基づいて、前記操作器の現在位置を示す観測点を生成する観測点生成部と、
前記操作器の運動に基づいて、前記現在位置の次の位置となる予測点を生成する予測点生成部と、
前記観測点及び前記予測点の状態を判定する判定部と、
前記状態に基づいて、前記観測点を結ぶ線を前記表示装置に表示させる出力部と
を備える画像処理システム。
An image processing system having an imaging device that images a plurality of operating devices, a display device, and the image processing device and an image processing device connected to the display device,
Based on image data input from the imaging device, an observation point generator that generates an observation point indicating the current position of the controller,
A prediction point generation unit that generates a prediction point that is the next position of the current position based on the motion of the operation unit;
A determination unit for determining a state of the observation point and the prediction point;
An image processing system comprising: an output unit configured to display a line connecting the observation points on the display device based on the state.
複数の操作器を撮像する撮像装置と、表示装置とに接続される画像処理装置が行う画像処理方法であって、
前記撮像装置から入力される画像データに基づいて、前記操作器の現在位置を示す観測点を生成する観測点生成手順と、
前記画像処理装置が、前記操作器の運動に基づいて、前記現在位置の次の位置となる予測点を生成する予測点生成手順と、
前記画像処理装置が、前記観測点及び前記予測点の状態を判定する判定手順と、
前記画像処理装置が、前記状態に基づいて、前記観測点を結ぶ線を前記表示装置に表示させる出力手順と
を含む画像処理方法。
An image processing method performed by an imaging device that images a plurality of operation devices and an image processing device connected to a display device,
Based on image data input from the imaging device, an observation point generation procedure for generating an observation point indicating the current position of the controller,
A prediction point generation procedure in which the image processing device generates a prediction point that is the next position of the current position based on the motion of the operation unit;
A determination procedure in which the image processing apparatus determines the state of the observation point and the prediction point;
An image processing method including: an output procedure for causing the display device to display a line connecting the observation points based on the state.
JP2016140507A 2016-07-15 2016-07-15 Image processing apparatus, image processing system and image processing method Pending JP2018010578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016140507A JP2018010578A (en) 2016-07-15 2016-07-15 Image processing apparatus, image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140507A JP2018010578A (en) 2016-07-15 2016-07-15 Image processing apparatus, image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2018010578A true JP2018010578A (en) 2018-01-18

Family

ID=60994430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140507A Pending JP2018010578A (en) 2016-07-15 2016-07-15 Image processing apparatus, image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2018010578A (en)

Similar Documents

Publication Publication Date Title
JP6950692B2 (en) People flow estimation device, people flow estimation method and program
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
WO2013161182A1 (en) Image processing apparatus, image processing method, and program
EP2891961A2 (en) Input apparatus
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
US9984335B2 (en) Data processing device
KR20160063163A (en) Method and apparatus for recognizing touch gesture
US20170017303A1 (en) Operation recognition device and operation recognition method
JP2015172887A (en) Gesture recognition device and control method of gesture recognition device
JP2014157515A (en) Touch determination device, touch determination method, and touch determination program
US7999957B2 (en) Input position setting method, input position setting device, input position setting program, and information input system
US20160139693A9 (en) Electronic apparatus, correction method, and storage medium
KR20180096606A (en) Information processing apparatus and information processing method
JP6229554B2 (en) Detection apparatus and detection method
KR20160072306A (en) Content Augmentation Method and System using a Smart Pen
JP2018005543A (en) Image processing device, image processing system and image processing method
JP2017162054A (en) Information processing apparatus and output device
JP2018010578A (en) Image processing apparatus, image processing system and image processing method
JP2010086367A (en) Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment
JP2015032264A (en) Touch panel device, display device, and display control method
CN103547982A (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features
JP6417939B2 (en) Handwriting system and program
JP6373664B2 (en) Electronic device, method and program
CN104281381B (en) The device and method for controlling the user interface equipped with touch screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200721