JP2014110029A - Pointing system, pointing method, display device and electronic apparatus - Google Patents

Pointing system, pointing method, display device and electronic apparatus Download PDF

Info

Publication number
JP2014110029A
JP2014110029A JP2012265728A JP2012265728A JP2014110029A JP 2014110029 A JP2014110029 A JP 2014110029A JP 2012265728 A JP2012265728 A JP 2012265728A JP 2012265728 A JP2012265728 A JP 2012265728A JP 2014110029 A JP2014110029 A JP 2014110029A
Authority
JP
Japan
Prior art keywords
unit
pointing
display
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012265728A
Other languages
Japanese (ja)
Inventor
Edward Murakami
エドワード 村上
Yoshiaki Okuno
好章 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung R&D Institute Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung R&D Institute Japan Co Ltd filed Critical Samsung R&D Institute Japan Co Ltd
Priority to JP2012265728A priority Critical patent/JP2014110029A/en
Publication of JP2014110029A publication Critical patent/JP2014110029A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve user's convenience at the time of pointing.SOLUTION: A pointing system including a display device for displaying video and an electronic apparatus provided with an imaging part for imaging the display device displaying video includes: a motion sensor part for measuring a measurement value that represents a posture of the electronic apparatus; a posture calculation part for calculating a point at which an optical axis of the imaging part crosses a plane including a display area of the display device as a pointing position on the basis of the measurement value measured by the motion sensor part; a determination part for determining whether the pointing position is located within the display area; and a correction part for correcting the pointing position in the case where the determination part determines that the pointing position is located within the display area.

Description

本発明は、ポインティングシステム、ポインティング方法、表示装置および電子装置に関する。   The present invention relates to a pointing system, a pointing method, a display device, and an electronic device.

ポインティングとは、図などを指し示すことであり、例えば、レーザーポインターのようにレーザー光線を用いて図などを指し示すものがある。特許文献1に記載の技術は、ユーザインタフェース装置が同一平面上にない配置で設けられた少なくとも4つの加速度計装置を具備し、前記少なくとも4つの加速度計装置の各々はそれぞれの加速度計データを出力する。ユーザインタフェース装置は、前記少なくとも4つの加速度計装置の各々からの前記加速度計データを2次元のポインタの動きに変換するアルゴリズムをさらに具備するものである。   Pointing refers to pointing to a figure or the like. For example, there is a pointing device such as a laser pointer using a laser beam. The technique described in Patent Document 1 includes at least four accelerometer devices provided in an arrangement in which user interface devices are not on the same plane, and each of the at least four accelerometer devices outputs respective accelerometer data. To do. The user interface device further comprises an algorithm for converting the accelerometer data from each of the at least four accelerometer devices into a two-dimensional pointer movement.

特表2007−509448号公報Special table 2007-509448

しかしながら、特許文献1に記載の技術を用いても装置の姿勢を計測する加速度計において、誤差が累積され、正確にポインティング位置を推定できないという欠点があった。また、表示装置に表示される映像をカメラで撮影することによるポインティング方法においては、カメラの撮像範囲から離れる、すなわち、映像を表示する表示装置と該映像を撮像するカメラとが遠い距離にある場合に、ポインタをポインティングさせる位置を推定できないという欠点があった。このように、ポインティング位置の推定ができない場合があり、ユーザの利便性が十分でないという問題があった。   However, the accelerometer that measures the attitude of the apparatus even using the technique described in Patent Document 1 has a drawback in that errors are accumulated and the pointing position cannot be estimated accurately. Further, in the pointing method by photographing the video displayed on the display device with the camera, the camera is separated from the imaging range of the camera, that is, the display device that displays the video and the camera that captures the video are at a long distance. In addition, there is a drawback that it is impossible to estimate the position where the pointer is pointed. As described above, there are cases where the pointing position cannot be estimated, and there is a problem that the convenience for the user is not sufficient.

本発明は上記の点に鑑みてなされたものであり、ポインティングの際のユーザの利便性を向上させることができるポインティングシステム、ポインティング方法、表示装置および電子装置を提供することを課題とする。   The present invention has been made in view of the above points, and an object thereof is to provide a pointing system, a pointing method, a display device, and an electronic device that can improve user convenience during pointing.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムであって、前記電子装置の姿勢を表す測定値を測定するモーションセンサ部と、前記モーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する姿勢算出部と、前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、を備えることを特徴とするポインティングシステムである。   (1) The present invention has been made to solve the above problems, and one aspect of the present invention includes a display device that displays an image and an imaging unit that captures the display device that displays the image. A pointing system comprising: an electronic device comprising: a motion sensor that measures a measurement value representing an attitude of the electronic device; and an optical axis of the imaging unit based on the measurement value measured by the motion sensor unit Is an attitude calculation unit that calculates a point that intersects a plane including a display area of the display device as a pointing position, a determination unit that determines whether the pointing position is within the display area, and the determination unit that performs the display And a correction unit that corrects the pointing position when it is determined to be within the region.

(2)また、本発明の一態様は、上記のポインティングシステムであって、前記補正部は、前記撮像部が撮像して得た前記画像と、前記映像との比較に基づいて、前記ポインティング位置を補正することを特徴とする記載のポインティングシステムである。   (2) One embodiment of the present invention is the pointing system described above, in which the correction unit is configured to compare the pointing position based on a comparison between the image obtained by the imaging unit and the video. The pointing system according to claim 1, wherein the pointing system is corrected.

(3)また、本発明の一態様は、上記のポインティングシステムであって、前記映像と、前記撮像部が撮像して得た前記画像とに基づいて、前記画像の座標系から前記映像の座標系への変換規則を生成する変換規則生成部と、前記変換規則を参照して、前記撮像部の光軸が、前記表示装置が備える表示部と交わる点を前記表示部に表示させるポインタの位置を決定するための情報として推定する推定部と、をさらに備えることを特徴とするポインティングシステムである。   (3) One embodiment of the present invention is the pointing system described above, in which the coordinates of the video are determined from the image coordinate system based on the video and the image obtained by the imaging unit. A conversion rule generating unit that generates a conversion rule for a system, and a position of a pointer that causes the display unit to display a point at which the optical axis of the imaging unit intersects a display unit included in the display device with reference to the conversion rule And an estimation unit that estimates the information as information for determining the pointing system.

(4)また、本発明の一態様は、上記のポインティングシステムであって、前記変換規則生成部は、前記撮像部が取得した前記画像から前記表示部における前記コーナーを検出するコーナー検出部と、前記コーナー検出部が検出した前記画像における前記表示部の前記コーナーの座標を推定する撮像面コーナー座標算出部と、前記撮像面コーナー座標算出部が推定した前記コーナーの座標に基づいて前記画像の中心座標を前記表示部の中心座標に射影変換する射影変換部と、をさらに備えることを特徴とするポインティングシステムである。   (4) One aspect of the present invention is the pointing system described above, in which the conversion rule generation unit detects the corner of the display unit from the image acquired by the imaging unit; An imaging surface corner coordinate calculation unit that estimates coordinates of the corner of the display unit in the image detected by the corner detection unit, and a center of the image based on the coordinates of the corner estimated by the imaging surface corner coordinate calculation unit The pointing system further comprising: a projective conversion unit that performs projective conversion of the coordinates to the center coordinates of the display unit.

(5)また、本発明の一態様は、上記のポインティングシステムであって、前記表示部に前記ポインタをポインティングさせることを制御する制御部をさらに備え、前記モーションセンサ部は、加速度を測定する加速度センサと、地球の磁界の向きを測定する地磁気センサと、から構成され、前記制御部は、前記加速度センサが測定した加速度と、前記地磁気センサが測定した前記磁界の向きとから前記表示部の表示領域外において、前記ポインタの動きを推定し、前記表示部の前記表示領域に戻った際に、推定した前記ポインタの動きと、前記撮像部が撮像して得た画像から推定した前記ポインタの前記位置と、に基づいて、前記表示部に前記ポインタをポインティングさせることを特徴とするポインティングシステムである。   (5) One embodiment of the present invention is the pointing system described above, further including a control unit that controls the display unit to point the pointer, and the motion sensor unit is an acceleration that measures acceleration. A sensor and a geomagnetic sensor that measures the direction of the earth's magnetic field, and the control unit displays the display unit based on the acceleration measured by the acceleration sensor and the direction of the magnetic field measured by the geomagnetic sensor. Outside the area, the movement of the pointer is estimated, and when returning to the display area of the display unit, the estimated movement of the pointer and the pointer estimated from the image captured by the imaging unit The pointing system is characterized in that the pointer is pointed to the display unit based on the position.

(6)また、本発明の一態様は、上記のポインティングシステムであって、前記モーションセンサ部は、加速度および角速度を測定するジャイロセンサであり、前記制御部は、前記ジャイロセンサが測定した加速度と、角速度とから前記表示部の表示領域外において、前記ポインタの動きを推定し、前記表示部の前記表示領域に戻った際に、推定した前記ポインタの動きと、前記撮像部が撮像して得た画像から推定した前記ポインタの前記位置と、に基づいて、前記表示部に前記ポインタをポインティングさせることを特徴とするポインティングシステムである。   (6) One embodiment of the present invention is the pointing system described above, wherein the motion sensor unit is a gyro sensor that measures acceleration and angular velocity, and the control unit is configured to detect acceleration measured by the gyro sensor. The movement of the pointer is estimated outside the display area of the display unit from the angular velocity, and the estimated movement of the pointer and the imaging unit are imaged when returning to the display area of the display unit. The pointing system is characterized in that the pointer is pointed to the display unit based on the position of the pointer estimated from an image.

(7)また、本発明の一態様は、上記のポインティングシステムであって、前記ポインタの動きを平滑化する平滑化部をさらに備え、前記制御部は、前記加速度に応じて平滑化部に平滑化させるか否かを制御することを特徴とするポインティングシステムである。   (7) One embodiment of the present invention is the pointing system described above, further including a smoothing unit that smoothes the movement of the pointer, and the control unit smoothes the smoothing unit according to the acceleration. It is a pointing system characterized by controlling whether or not to make it.

(8)また、本発明の一態様は、映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおけるポインティング方法であって、前記電子装置の姿勢を表す測定値を測定する第1の過程と、前記第1の過程において測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する第2の過程と、前記ポインティング位置が前記表示領域内であるか否かを判定する第3の過程と、前記第3の過程において前記表示領域内であると判定した場合、前記ポインティング位置を補正する第4の過程と、を有することを特徴とするポインティング方法である。   (8) One embodiment of the present invention is a pointing method in a pointing system including a display device that displays an image and an electronic device that includes an imaging unit that images the display device that displays the image. A first step of measuring a measurement value representing the attitude of the electronic device, and a plane in which an optical axis of the imaging unit includes a display region of the display device based on the measurement value measured in the first step A second step of calculating a point that intersects with a pointing position, a third step of determining whether or not the pointing position is within the display region, and being within the display region in the third step And a fourth step of correcting the pointing position when the determination is made.

(9)また、本発明の一態様は、映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおける表示装置であって、前記電子装置のモーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する姿勢算出部と、前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、を備えることを特徴とする表示装置である。   (9) One embodiment of the present invention is a display device in a pointing system including a display device that displays an image and an electronic device that includes an imaging unit that images the display device that displays the image. An attitude calculation unit that calculates, as a pointing position, a point where an optical axis of the imaging unit intersects a plane including a display area of the display device based on the measurement value measured by the motion sensor unit of the electronic device; and the pointing A determination unit that determines whether or not a position is within the display area; and a correction unit that corrects the pointing position when the determination unit determines that the position is within the display area. It is a display device.

(10)また、本発明の一態様は、映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおける電子装置であって、前記撮像部が撮像して得た画像から表示装置が備える表示部のコーナーを推定し、推定した前記コーナーから前記表示部にポインタをポインティングさせる位置を算出するポインティング部と、前記電子装置の姿勢を表す測定値を測定するモーションセンサ部と、前記モーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する姿勢算出部と、前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、を備えることを特徴とする電子装置である。   (10) One embodiment of the present invention is an electronic device in a pointing system including a display device that displays an image and an electronic device that includes an imaging unit that images the display device that displays the image. A pointing unit that estimates a corner of the display unit included in the display device from an image captured by the imaging unit, calculates a position at which the pointer is pointed to the display unit from the estimated corner, and an attitude of the electronic device Based on the measured value measured by the motion sensor unit that measures the measured value that represents the point, the point where the optical axis of the imaging unit intersects the plane including the display area of the display device is calculated as the pointing position A posture calculation unit that performs determination, a determination unit that determines whether or not the pointing position is within the display area, and the determination unit includes: If it is determined that 示領 a region, which is an electronic device characterized by comprising a correction unit for correcting the pointing position.

本発明によれば、ポインティングの際のユーザの利便性を向上させることができる。   According to the present invention, it is possible to improve user convenience during pointing.

本発明の第1の実施形態に係るポインティングシステムの構成の一例を示す概略図である。It is the schematic which shows an example of a structure of the pointing system which concerns on the 1st Embodiment of this invention. 本実施形態に係る電子装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the electronic device which concerns on this embodiment. 本実施形態に係る表示装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置のポインティング部のコーナー検出部において入力されたカメラ画像の一例を示す説明図である。It is explanatory drawing which shows an example of the camera image input in the corner detection part of the pointing part of the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置のポインティング部のコーナー検出部におけるコントラスト強調処理の一例を示す説明図である。It is explanatory drawing which shows an example of the contrast enhancement process in the corner detection part of the pointing part of the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置のポインティング部のコーナー検出部における二値化処理の一例を示す説明図である。It is explanatory drawing which shows an example of the binarization process in the corner detection part of the pointing part of the display apparatus which concerns on this embodiment. 本実施形態に係る本実施形態に係る表示装置のポインティング部の射影変換部における射影変換処理の一例を説明する説明図である。It is explanatory drawing explaining an example of the projection conversion process in the projection conversion part of the pointing part of the display apparatus which concerns on this embodiment concerning this embodiment. 本実施形態に係る本実施形態に係る表示装置のポインティング部の射影変換部における射影変換処理の一例を説明する説明図である。It is explanatory drawing explaining an example of the projection conversion process in the projection conversion part of the pointing part of the display apparatus which concerns on this embodiment concerning this embodiment. 本実施形態に係る表示装置の制御部の姿勢算出部における電子装置の姿勢算出手段の一例を示す説明図である。It is explanatory drawing which shows an example of the attitude | position calculation means of the electronic device in the attitude | position calculation part of the control part of the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置の制御部の切替判定部におけるカメラ画像に基づくポインティング座標と推定部に基づくポインティング座標の切り替え処理を説明する説明図である。It is explanatory drawing explaining the switching process of the pointing coordinate based on the camera image in the switching determination part of the control part of the display apparatus which concerns on this embodiment, and the pointing coordinate based on an estimation part. 本発明の第2の実施形態に係る表示装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the display apparatus which concerns on the 2nd Embodiment of this invention. 本実施形態に係る表示装置の画面分割部の動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of the screen division part of the display apparatus which concerns on this embodiment. 本実施形態に係る表示装置の画面分割部の動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of the screen division part of the display apparatus which concerns on this embodiment. 本実施形態に係る電子装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the electronic device which concerns on this embodiment. 本実施形態に係る電子装置のポインティング部の特徴点比較部おけるマッチング処理の一例を説明する説明図である。It is explanatory drawing explaining an example of the matching process in the feature point comparison part of the pointing part of the electronic device which concerns on this embodiment. 本実施形態に係る電子装置のポインティング部のコーナー推定部におけるコーナー推定手段の一例を説明する説明図である。It is explanatory drawing explaining an example of the corner estimation means in the corner estimation part of the pointing part of the electronic device which concerns on this embodiment.

(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。
図1は、本実施形態に係るポインティングシステムS1の構成の一例を示す概略図である。
ポインティングシステムS1は、表示装置1と、電子装置2とを含んで構成される。表示装置1は、例えば、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイなどの表示部101を備える。電子装置2は、表示部101に表示された表示映像をカメラ(撮像部)201を用いて撮影する。ポインティングシステムS1は、カメラ201が撮像して得た撮影画像(カメラ画像)における表示部のコーナー(角)を推定する。ポインティングシステムS1は、推定したカメラ画像のコーナーから変換行列を生成し、生成した変換行列から電子装置2におけるカメラ201の光軸が表示装置1における表示部101と交わる点をポインティング位置として推定する。ここで、変換行列は、後述するカメラ画像の座標系から表示映像の座標系に変換するための行列である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram illustrating an example of a configuration of a pointing system S1 according to the present embodiment.
The pointing system S <b> 1 includes a display device 1 and an electronic device 2. The display device 1 includes a display unit 101 such as a liquid crystal display, an organic EL display, or a plasma display. The electronic device 2 captures a display image displayed on the display unit 101 using a camera (imaging unit) 201. The pointing system S1 estimates a corner (corner) of the display unit in a captured image (camera image) obtained by the camera 201. The pointing system S1 generates a transformation matrix from the estimated corner of the camera image, and estimates a point where the optical axis of the camera 201 in the electronic device 2 intersects the display unit 101 in the display device 1 as a pointing position from the generated transformation matrix. Here, the conversion matrix is a matrix for converting a camera image coordinate system, which will be described later, to a display video coordinate system.

図2は、本実施形態に係る電子装置2の構成の一例を示す概略ブロック図である。
電子装置2は、カメラ201と、通信部203と、モーションセンサ部211とを含んで構成される。電子装置2は、その他、一般的に公知の電子装置の機能を備えるが、図示および説明は省略する。
カメラ201は、例えば、赤外線カメラ(IRカメラ)である。カメラ201は、表示装置1の表示部101に表示された表示映像を撮影し、撮像して得たカメラ画像を、通信部203を介して、表示装置1に送信する。
FIG. 2 is a schematic block diagram illustrating an example of the configuration of the electronic device 2 according to the present embodiment.
The electronic device 2 includes a camera 201, a communication unit 203, and a motion sensor unit 211. The electronic device 2 has other generally known electronic device functions, but illustration and description thereof are omitted.
The camera 201 is, for example, an infrared camera (IR camera). The camera 201 captures a display video displayed on the display unit 101 of the display device 1 and transmits a camera image obtained by imaging to the display device 1 via the communication unit 203.

モーションセンサ部211は、電子装置2の姿勢を表す測定値を測定する。ここで、モーションセンサ部211は、加速度センサ2111と、地磁気センサ2112とを含んで構成される。   The motion sensor unit 211 measures a measurement value representing the attitude of the electronic device 2. Here, the motion sensor unit 211 includes an acceleration sensor 2111 and a geomagnetic sensor 2112.

加速度センサ2111は、電子装置2の加速度を測定する、加速度センサ2111は、例えば、加速による錘(マス、質量)の位置変化により加速度を測定する。加速度センサ2111は、測定した加速度の値を、通信部203を介し、表示装置1に送信する。
地磁気センサ2112は、電子装置2の傾きを測定する。地磁気センサ2112は、地球の磁界の向きを検出する。地磁気センサ2112は、検出した磁界の向きから電子装置2の傾きを測定する。地磁気センサ2112は、測定した電子装置2の傾きを、通信部203を介し、表示装置1に送信する。
The acceleration sensor 2111 measures the acceleration of the electronic device 2. The acceleration sensor 2111 measures the acceleration based on, for example, a change in the position of a weight (mass, mass) due to acceleration. The acceleration sensor 2111 transmits the measured acceleration value to the display device 1 via the communication unit 203.
The geomagnetic sensor 2112 measures the tilt of the electronic device 2. The geomagnetic sensor 2112 detects the direction of the earth's magnetic field. The geomagnetic sensor 2112 measures the inclination of the electronic device 2 from the detected direction of the magnetic field. The geomagnetic sensor 2112 transmits the measured inclination of the electronic device 2 to the display device 1 via the communication unit 203.

通信部203は、各種通信処理を行う。通信部203は、データの符号化/復号化、変調/復調、AD(Anatog to Digital)変換/DA(Digital to Analog)変換、周波数変換、無線波によるデータ信号の送受信などの通信処理を行う。通信部203は、Bluetooth(登録商標)や、無線LAN(Local Area Network)、などの各種通信方式を用いて表示装置1と通信を行う。   The communication unit 203 performs various communication processes. The communication unit 203 performs communication processing such as data encoding / decoding, modulation / demodulation, AD (analog to digital) conversion / DA (digital to analog) conversion, frequency conversion, and transmission / reception of data signals by radio waves. The communication unit 203 communicates with the display device 1 using various communication methods such as Bluetooth (registered trademark) and wireless LAN (Local Area Network).

図3は、本実施形態に係る表示装置1の構成の一例を示す概略ブロック図である。
表示装置1は、表示部101と、ポインティング部11と、制御部12とを含んで構成される。また、ポインティング部11は、通信部110と、コーナー検出部111と撮像面コーナー座標算出部112と、射影変換部113とを含んで構成される。また、制御部12は、姿勢算出部121と、推定部122と、切替判定部123と重み付け部124と、出力指示部125とを含んで構成される。表示装置1は、その他、公知の表示装置の機能を備えるが、図示および説明は省略する。
FIG. 3 is a schematic block diagram illustrating an example of the configuration of the display device 1 according to the present embodiment.
The display device 1 includes a display unit 101, a pointing unit 11, and a control unit 12. The pointing unit 11 includes a communication unit 110, a corner detection unit 111, an imaging surface corner coordinate calculation unit 112, and a projection conversion unit 113. The control unit 12 includes an attitude calculation unit 121, an estimation unit 122, a switching determination unit 123, a weighting unit 124, and an output instruction unit 125. Although the display device 1 has other functions of a known display device, illustration and description thereof are omitted.

表示部101は、例えば、液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイなどである。表示部101は、映像(表示映像)を表示する。
ポインティング部11は、通信部110を介し、電子装置2のカメラ201が撮像して得たカメラ画像が入力されると、該カメラ画像における表示部101のコーナーを推定し、推定したコーナーから表示部101にポインタを表示させる位置をポインティング位置として算出する。
The display unit 101 is, for example, a liquid crystal display, an organic EL display, a plasma display, or the like. The display unit 101 displays a video (display video).
When a camera image obtained by the camera 201 of the electronic device 2 is input via the communication unit 110, the pointing unit 11 estimates a corner of the display unit 101 in the camera image, and displays the display unit from the estimated corner. The position at which the pointer is displayed on 101 is calculated as the pointing position.

通信部110は、各種通信処理を行う。通信部110は、データの符号化/復号化、変調/復調、AD(Anatog to Digital)変換/DA(Digital to Analog)変換、周波数変換、無線波によるデータ信号の送受信などの通信処理を行う。通信部110は、Bluetooth(登録商標)や、無線LAN(Local Area Network)、などの各種通信方式を用いて電子装置2と通信を行う。   The communication unit 110 performs various communication processes. The communication unit 110 performs communication processing such as data encoding / decoding, modulation / demodulation, AD (analog to digital) conversion / DA (digital to analog) conversion, frequency conversion, and transmission / reception of data signals by radio waves. The communication unit 110 communicates with the electronic device 2 using various communication methods such as Bluetooth (registered trademark) and wireless LAN (Local Area Network).

コーナー検出部111は、通信部110を介し、電子装置2のカメラ201からカメラ画像が入力されると、該カメラ画像内における表示部101のコーナー又は表示装置のコーナーを検出する。
図4は、本実施形態に係る表示装置1のポインティング部11のコーナー検出部111において入力されたカメラ画像Ga1の一例を示す説明図である。また、図5は、本実施形態に係る表示装置1のポインティング部11のコーナー検出部111におけるコントラスト調整処理の一例を示す説明図である。
When a camera image is input from the camera 201 of the electronic device 2 via the communication unit 110, the corner detection unit 111 detects a corner of the display unit 101 or a corner of the display device in the camera image.
FIG. 4 is an explanatory diagram illustrating an example of the camera image Ga1 input in the corner detection unit 111 of the pointing unit 11 of the display device 1 according to the present embodiment. FIG. 5 is an explanatory diagram illustrating an example of contrast adjustment processing in the corner detection unit 111 of the pointing unit 11 of the display device 1 according to the present embodiment.

具体的には、コーナー検出部111は、図4に示すようなカメラ201により撮像されて得たカメラ画像に少なくともコントラスト強調処理を行い、図5に示すようなコントラストが強調された画像Ga2を生成する。コントラスト強調は、例えば、カメラ画像に対して、ヒストグラム均等化やコントラストストレッチ等のアルゴリズムを用いることにより行われる。本実施形態では、後述する二値化に適しているコントラストストレッチを用いる。   Specifically, the corner detection unit 111 performs at least contrast enhancement processing on a camera image obtained by imaging with the camera 201 as illustrated in FIG. 4 to generate an image Ga2 with enhanced contrast as illustrated in FIG. To do. The contrast enhancement is performed by using an algorithm such as histogram equalization or contrast stretch on the camera image, for example. In the present embodiment, a contrast stretch suitable for binarization described later is used.

コーナー検出部111は、コントラスト強調処理が終了した後、二値化処理を行う。
図6は、本実施形態に係る表示装置1のポインティング部11のコーナー検出部111における二値化処理の一例を示す説明図である。
コーナー検出部111は、コントラスト強調処理を行った図5に示したコントラストが強調された画像Ga2に対し、二値化処理を行うことで、図6に示すような二値化後の画像Ga3を生成する。ここで、二値化処理として用いるアルゴリズムとしては、適応二値化や自動二値化などが挙げられる。本実施形態におけるコーナー検出部111は、図6に示すような表示装置1の背景と表示部101を明確に分離しやすい自動二値化を用いてコーナー検出用画像(二値化後の画像Ga3)を生成している。
The corner detection unit 111 performs binarization processing after the contrast enhancement processing is completed.
FIG. 6 is an explanatory diagram illustrating an example of binarization processing in the corner detection unit 111 of the pointing unit 11 of the display device 1 according to the present embodiment.
The corner detection unit 111 performs binarization processing on the image Ga2 with enhanced contrast shown in FIG. 5 that has been subjected to contrast enhancement processing, thereby obtaining a binarized image Ga3 as shown in FIG. Generate. Here, examples of the algorithm used as the binarization process include adaptive binarization and automatic binarization. The corner detection unit 111 according to the present embodiment uses the automatic binarization that easily separates the background of the display device 1 and the display unit 101 as shown in FIG. ) Is generated.

図3に戻って、コーナー検出部111は、二値化後の画像Ga3における背景から分離された明領域についてポリゴン近似を行い、明領域の縁部を構成する直線を推定する。さらに、コーナー検出部111は、この推定された直線から最も表示部101の形状を表している可能性が高い四辺を選択する。そして、コーナー検出部111は、二値化後の画像Ga3において選択された四辺に基づいてコーナーCo1、Co2、Co3、Co4を検出する。コーナー検出部111は、検出したコーナーCo1、Co2、Co3、Co4の情報を撮像面コーナー座標算出部112に出力する。   Returning to FIG. 3, the corner detection unit 111 performs polygon approximation on the bright area separated from the background in the binarized image Ga3, and estimates a straight line that forms the edge of the bright area. Furthermore, the corner detection unit 111 selects four sides that are most likely to represent the shape of the display unit 101 from the estimated straight line. The corner detection unit 111 detects corners Co1, Co2, Co3, and Co4 based on the four sides selected in the binarized image Ga3. The corner detection unit 111 outputs information on the detected corners Co1, Co2, Co3, and Co4 to the imaging surface corner coordinate calculation unit 112.

撮像面コーナー座標算出部112は、コーナー検出部111から入力されたコーナーの情報が示すカメラ201のカメラ画像における表示部101のコーナー座標を算出する。すなわち、撮像面コーナー座標算出部112は、検出された各コーナーCo1、Co2、Co3、Co4があるカメラ画像の画素の座標に基づいて、カメラ画像における表示部101のコーナー座標を算出する。撮像面コーナー座標算出部112は、該コーナー座標を用いて、ホモグラフィ行列(mat)を推定する。ここで、ホモグラフィ行列とは、空間内の平面と、画像(平面)の投影を調べることで得られる行列であり、2次元の点の対応が与えられると、一般的に3行3列の行列である。   The imaging surface corner coordinate calculation unit 112 calculates the corner coordinates of the display unit 101 in the camera image of the camera 201 indicated by the corner information input from the corner detection unit 111. That is, the imaging surface corner coordinate calculation unit 112 calculates the corner coordinates of the display unit 101 in the camera image based on the coordinates of the pixels of the camera image in which the detected corners Co1, Co2, Co3, and Co4 are present. The imaging surface corner coordinate calculation unit 112 estimates a homography matrix (mat) using the corner coordinates. Here, the homography matrix is a matrix obtained by examining the plane in the space and the projection of the image (plane), and given a correspondence between two-dimensional points, it is generally 3 rows by 3 columns. It is a matrix.

撮像面コーナー座標算出部112は、推定したホモグラフィ行列(mat)を用いてカメラ画像中の表示装置1の表示部101のコーナー(角)を算出する。撮像面コーナー座標算出部112は、推定したホモグラフィ行列を用いて表示映像座標系のコーナーの座標を射影変換することによりカメラ画像座標系のコーナーの座標の算出を行う。ここで、表示映像座標系は、表示映像平面における座標系であり、カメラ画像座標系は、カメラ画像平面における座標系である。撮像面コーナー座標算出部112は、算出したカメラ画像における表示部101のコーナー座標を射影変換部113に出力する。   The imaging surface corner coordinate calculation unit 112 calculates the corner (corner) of the display unit 101 of the display device 1 in the camera image using the estimated homography matrix (mat). The imaging plane corner coordinate calculation unit 112 calculates the coordinates of the corners of the camera image coordinate system by performing projective transformation of the coordinates of the corners of the display video coordinate system using the estimated homography matrix. Here, the display video coordinate system is a coordinate system on the display video plane, and the camera image coordinate system is a coordinate system on the camera image plane. The imaging surface corner coordinate calculation unit 112 outputs the corner coordinates of the display unit 101 in the calculated camera image to the projection conversion unit 113.

射影変換部113は、透視変換行列(PMat)と、撮像面コーナー座標算出部112から入力されたカメラ画像座標系のコーナー座標とに基づいて、カメラ画像座標系の中心の座標を表示映像座標系の中心へと射影変換した座標をポインティング座標として算出する。より具体的には、算出されたカメラ画像座標系における各コーナー座標と、表示映像座標系における表示部101の各コーナーの座標とに基づいて、カメラ画像座標系における各座標から表示映像座標系における座標へと変換するための透視変換行列(PMat)を算出する。   The projective transformation unit 113 displays the coordinates of the center of the camera image coordinate system based on the perspective transformation matrix (PMat) and the corner coordinates of the camera image coordinate system input from the imaging surface corner coordinate calculation unit 112. The coordinates obtained by projective transformation to the center of the are calculated as pointing coordinates. More specifically, based on the calculated corner coordinates in the camera image coordinate system and the coordinates of the corners of the display unit 101 in the display video coordinate system, the coordinates in the display video coordinate system are changed from the coordinates in the camera image coordinate system. A perspective transformation matrix (PMat) for transformation into coordinates is calculated.

図7は、本実施形態に係る表示装置1のポインティング部11の撮射影変換部113における射影変換処理一例を説明する説明図である。
撮像面コーナー座標算出部112は、表示映像座標系のコーナー座標Mと、算出したカメラ画像座標系のコーナー座標mとから透視変換行列PMatを式(1)により算出する。
FIG. 7 is an explanatory diagram for explaining an example of the projection conversion process in the projection conversion unit 113 of the pointing unit 11 of the display device 1 according to the present embodiment.
The imaging plane corner coordinate calculation unit 112 calculates a perspective transformation matrix PMat from the corner coordinates M of the display video coordinate system and the calculated corner coordinates m of the camera image coordinate system by Expression (1).

ここで、Mが(tx、ty、t)であるときの例である。また、mが(x、y、1)であるときの例である。   Here, it is an example when M is (tx, ty, t). Moreover, it is an example when m is (x, y, 1).

次に、射影変換部113は、図7に示すように求められた透視変換行列PMatを用いて、カメラ画像座標系の中心座標cに対応する表示映像座標系の座標Cを算出する。この算出された座標Cがユーザにより電子装置2のカメラ201の光軸と表示装置1の表示部101と交わる点であり、該点に基づいてポインティング位置を決定する。   Next, the projective transformation unit 113 calculates the coordinates C of the display video coordinate system corresponding to the center coordinates c of the camera image coordinate system, using the perspective transformation matrix PMat obtained as shown in FIG. The calculated coordinate C is a point where the user intersects the optical axis of the camera 201 of the electronic device 2 and the display unit 101 of the display device 1, and the pointing position is determined based on the point.

図8は、本実施形態に係る電子装置2のポインティング部11の射影変換部113における射影変換処理の一例を説明する説明図である。
射影変換部113は、カメラ201の光軸と表示装置1の表示部101の交わる点を推定する。具体的には、マッピング部208は、変換行列生成部207から入力された透視変換行列PMatに基づいて、カメラ画像座標系の中心座標cを表示映像座標系の座標Cに変換する。例えば、カメラ201の解像度が640×480ピクセルであるとすると、カメラ画像座標系の中心座標cは、(320、240、1)となる。その行列において、射影変換部113は、透視変換行列PMatを用いてカメラ画像座標系の中心座標c(320、240、1)を表示映像座標系の座標C(X、Y、Z)に変換する。射影変換部113は、算出した座標Cを制御部12に出力する。
FIG. 8 is an explanatory diagram illustrating an example of the projective transformation process in the projective transformation unit 113 of the pointing unit 11 of the electronic device 2 according to the present embodiment.
The projective transformation unit 113 estimates a point where the optical axis of the camera 201 and the display unit 101 of the display device 1 intersect. Specifically, the mapping unit 208 converts the center coordinate c of the camera image coordinate system to the coordinate C of the display video coordinate system based on the perspective conversion matrix PMat input from the conversion matrix generation unit 207. For example, assuming that the resolution of the camera 201 is 640 × 480 pixels, the center coordinates c of the camera image coordinate system are (320, 240, 1). In the matrix, the projective transformation unit 113 transforms the center coordinates c (320, 240, 1) of the camera image coordinate system into coordinates C (X, Y, Z) of the display video coordinate system using the perspective transformation matrix PMat. . The projective transformation unit 113 outputs the calculated coordinates C to the control unit 12.

制御部12は、電子装置2のモーションセンサ部211が測定した測定値に基づいて、表示部101の表示領域外において、ポインタが表示部101の表示領域に戻った際に、表示部101にポインタをポインティングさせる位置を算出する。
姿勢算出部121は、通信部110を介して電子装置2のモーションセンサ部211から入力された加速度と角速度から電子装置2の姿勢を算出する。図9を参照して、姿勢算出部121の電子装置2の姿勢算出手段について詳述する。
Based on the measurement value measured by the motion sensor unit 211 of the electronic device 2, the control unit 12 moves the pointer to the display unit 101 when the pointer returns to the display region of the display unit 101 outside the display region of the display unit 101. The position where the point is pointed is calculated.
The attitude calculation unit 121 calculates the attitude of the electronic device 2 from the acceleration and angular velocity input from the motion sensor unit 211 of the electronic device 2 via the communication unit 110. With reference to FIG. 9, the posture calculation means of the electronic device 2 of the posture calculation unit 121 will be described in detail.

図9は、本実施形態に係る表示装置1の制御部12の姿勢算出部121における電子装置2の姿勢算出手段の一例を示す説明図である。
姿勢算出部121は、通信部110を介して電子装置2のモーションセンサ部211から入力された加速度と角速度から、3軸(X、Y、Z)方向の加速度および角度を次式(2)から(6)を用いて算出する。
FIG. 9 is an explanatory diagram illustrating an example of a posture calculation unit of the electronic device 2 in the posture calculation unit 121 of the control unit 12 of the display device 1 according to the present embodiment.
The posture calculation unit 121 calculates the acceleration and angle in the three-axis (X, Y, Z) directions from the following equation (2) from the acceleration and angular velocity input from the motion sensor unit 211 of the electronic device 2 via the communication unit 110. Calculate using (6).

ここで、a、a、およびaは、各々X、Y、Z軸方向の加速度センサ2111が測定した加速度を表す。そして、θyawは、式(4)、(5)および(6)を用いて算出される。 Here, a x , a y , and a z represent accelerations measured by the acceleration sensor 2111 in the X, Y, and Z axis directions, respectively. Θ yaw is calculated using equations (4), (5), and (6).

ここで、M、M、およびMは、各々地磁気センサ2112におけるX、Y、Z軸方向の出力信号を表す。
姿勢算出部121は、算出した電子装置2の角度を表す情報(θpitch、θroll、θyaw)を推定部122に出力する。
Here, M x , M y , and M z represent output signals in the X, Y, and Z axis directions of the geomagnetic sensor 2112, respectively.
The posture calculation unit 121 outputs information (θ pitch , θ roll , θ yaw ) representing the calculated angle of the electronic device 2 to the estimation unit 122.

推定部122は、姿勢算出部121から入力された電子装置2の姿勢を表す情報(θpitch、θroll、θyaw)に基づいて、例えば、電子装置2のカメラ201が表示部101以外の方向を向いている、電子装置2のカメラ201が表示部101の左右方向を向いている、電子装置2のカメラ201が表示部101の正面方向を向いているなど、電子装置2の姿勢を推定する。具体的には、推定部122は、ポインティング部11からの出力、および姿勢算出部121から入力された電子装置2の角度を表す情報に基づいて、電子装置2の動きを常に推定する。推定部122は、推定した電子装置2の動きを表す情報、例えば、電子装置2の姿勢を表す情報(θpitch、θroll、θyaw)から表示装置1の表示部101の表示領域を含む平面上におけるポインティング座標を切替判定部123に出力する。図10を参照して、上記ポインティング座標について詳述する。 Based on the information (θ pitch , θ roll , θ yaw ) representing the posture of the electronic device 2 input from the posture calculation unit 121, the estimation unit 122, for example, the direction in which the camera 201 of the electronic device 2 is other than the display unit 101 The camera 201 of the electronic device 2 is facing the left-right direction of the display unit 101, the camera 201 of the electronic device 2 is facing the front direction of the display unit 101, and so on. . Specifically, the estimation unit 122 always estimates the movement of the electronic device 2 based on the output from the pointing unit 11 and the information representing the angle of the electronic device 2 input from the posture calculation unit 121. The estimation unit 122 includes a plane including the display area of the display unit 101 of the display device 1 based on information indicating the estimated movement of the electronic device 2, for example, information indicating the posture of the electronic device 2 (θ pitch , θ roll , θ yaw ). The above pointing coordinates are output to the switching determination unit 123. The pointing coordinates will be described in detail with reference to FIG.

図10は、本実施形態に係る表示装置1の制御部12の切替判定部123におけるカメラ画像に基づくポインティング座標と、推定部122に基づくポインティング座標の切り替え処理を説明する説明図である。
図10において、表示部101の表示領域内にあるポインタが破線矢印が示す方向に移動したとき、すなわち、表示部101の表示領域外にポインタが示している可能性のあるポインティング座標がある場合、切替判定部123は、ポインティング部11のポインティング座標から推定部122のポインティング座標に切り替える。このとき推定部122は、常にポインタが示す可能性のあるポインティング座標を姿勢算出部121からの電子装置2の角度を表す情報から推定している。
FIG. 10 is an explanatory diagram for explaining the switching process between the pointing coordinate based on the camera image and the pointing coordinate based on the estimation unit 122 in the switching determination unit 123 of the control unit 12 of the display device 1 according to the present embodiment.
In FIG. 10, when the pointer in the display area of the display unit 101 moves in the direction indicated by the dashed arrow, that is, when there are pointing coordinates that the pointer may indicate outside the display area of the display unit 101, The switching determination unit 123 switches from the pointing coordinates of the pointing unit 11 to the pointing coordinates of the estimation unit 122. At this time, the estimation unit 122 always estimates the pointing coordinates that may be indicated by the pointer from the information indicating the angle of the electronic device 2 from the posture calculation unit 121.

再度ポインタが表示部101の表示領域内に戻ったとき、切替判定部123は、ポインティング座標を推定部122のものからポインティング部のものに切り替え、重み付け部124は、重みを付けて段階的に変更していく。これにより、ポインタが表示部101の表示領域内に戻った際のポインティング座標の推定誤差を軽減できる。   When the pointer returns to the display area of the display unit 101 again, the switching determination unit 123 switches the pointing coordinates from that of the estimation unit 122 to that of the pointing unit, and the weighting unit 124 changes the weighting step by step. I will do it. Thereby, the estimation error of the pointing coordinate when the pointer returns to the display area of the display unit 101 can be reduced.

切替判定部123は、推定部122から入力された電子装置2の動きを表す情報と、ポインティング部11から入力されたポインティング座標とに基づいて、表示部101の表示領域内にポインティング座標があるか否かを判定する。ポインティング座標が表示部101の表示領域内にない場合、切替判定部123は、ポインティング部11から入力されるポインティング座標から推定部122において推定されたポインティング座標に切り替える。   Based on the information indicating the movement of the electronic device 2 input from the estimation unit 122 and the pointing coordinates input from the pointing unit 11, the switching determination unit 123 has a pointing coordinate in the display area of the display unit 101. Determine whether or not. When the pointing coordinates are not within the display area of the display unit 101, the switching determination unit 123 switches from the pointing coordinates input from the pointing unit 11 to the pointing coordinates estimated by the estimation unit 122.

表示装置1の表示部101の表示領域内にポインティング座標が入った場合、切替判定部123は、推定部122において推定されたポインティング座標からポインティング部11において推定されたポインティング座標に切り替え、重み付け部124にポインティング座標を出力する。このとき、切替判定部123は、推定部122が用いるモーションセンサ部211の測定値を初期化させる。一方、切替判定部123は、ポインティング部11から入力されたポインティング座標が表示部101の表示領域内に存在しているとき、出力指示部125にポインティング座標を出力する。   When the pointing coordinate is in the display area of the display unit 101 of the display device 1, the switching determination unit 123 switches from the pointing coordinate estimated by the estimation unit 122 to the pointing coordinate estimated by the pointing unit 11, and the weighting unit 124. Output pointing coordinates. At this time, the switching determination unit 123 initializes the measurement value of the motion sensor unit 211 used by the estimation unit 122. On the other hand, the switching determination unit 123 outputs the pointing coordinates to the output instruction unit 125 when the pointing coordinates input from the pointing unit 11 are present in the display area of the display unit 101.

重み付け部124(補正部)は、切替判定部123から推定部122が推定したポインティング座標が入力されると、該ポインティング座標とポインティング部11から入力されたポインティング座標とに基づいて、ポインティング座標の補正を行う。
具体的には、重み付け部124は、切替判定部123から推定部122が推定したポインティング座標が入力されると、該ポインティング座標とポインティング部11から入力されたポインティング座標とに、加重平均化(重み付け)を行うことで、重み付け後のポインティング座標を算出し、表示部101にポインティング座標が表す領域にポインタを表示させる。具体的には、推定部122が推定したポインティング座標と、ポインティング部11が推定したポインティング座標とに、0から1の間の重み付けを段階的に行い、表示部101にポインタを表示させる際のポインティング座標の推定誤差の影響を軽減する。重み付け部124は、重み付けしたポインティング座標を表示部101に表示させる。
When the pointing coordinates estimated by the estimation unit 122 are input from the switching determination unit 123, the weighting unit 124 (correction unit) corrects the pointing coordinates based on the pointing coordinates and the pointing coordinates input from the pointing unit 11. I do.
Specifically, when the pointing coordinates estimated by the estimation unit 122 are input from the switching determination unit 123, the weighting unit 124 performs weighted averaging (weighting) on the pointing coordinates and the pointing coordinates input from the pointing unit 11. ) To calculate the weighted pointing coordinates and cause the display unit 101 to display a pointer in the area represented by the pointing coordinates. Specifically, the pointing coordinates estimated by the estimating unit 122 and the pointing coordinates estimated by the pointing unit 11 are weighted in a stepwise manner from 0 to 1, and pointing is performed when the pointer is displayed on the display unit 101. Reduce the effects of coordinate estimation errors. The weighting unit 124 displays the weighted pointing coordinates on the display unit 101.

出力指示部125は、表示部101において切替判定部123から入力されたポインティング座標が表す領域にポインタをそのまま表示させる。   The output instruction unit 125 causes the display unit 101 to display the pointer as it is in the area represented by the pointing coordinates input from the switching determination unit 123.

このように、本実施形態によれば、映像を表示する表示装置1と映像を表示している表示装置1を撮像する撮像部(カメラ201)を備える電子装置2とを具備するポインティングシステムS1であって、電子装置の姿勢を表す測定値を測定するモーションセンサ部211と、モーションセンサ部211が測定した測定値に基づいて、撮像部(カメラ201)の光軸が表示装置1の表示領域を含む平面と交わる点をポインティング位置として算出する姿勢算出部121と、ポインティング位置が表示領域内であるか否かを判定する判定部(切替判定部123)と、判定部(切替判定部123)が表示領域内であると判定した場合、ポインティング位置を補正する補正部(重み付け部124)と、を備える。   As described above, according to the present embodiment, the pointing system S1 includes the display device 1 that displays video and the electronic device 2 that includes the imaging unit (camera 201) that images the display device 1 that displays video. The motion sensor unit 211 that measures the measurement value representing the attitude of the electronic device, and the optical axis of the imaging unit (camera 201) determines the display area of the display device 1 based on the measurement value measured by the motion sensor unit 211. A posture calculation unit 121 that calculates a point that intersects the plane including the pointing position, a determination unit (switch determination unit 123) that determines whether or not the pointing position is within the display area, and a determination unit (switch determination unit 123). A correction unit (weighting unit 124) that corrects the pointing position when it is determined that it is within the display area;

これにより、ポインティングシステムS1は、モーションセンサ部211で得られたポインティング位置を補正することで、ポインティング位置の精度が向上するので、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 corrects the pointing position obtained by the motion sensor unit 211, thereby improving the accuracy of the pointing position. Therefore, it is possible to improve the convenience of the user when pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

また、補正部(重み付け部124)は、撮像部(カメラ201)が撮像して得た画像と、映像との比較に基づいて、ポインティング位置を補正する。   The correction unit (weighting unit 124) corrects the pointing position based on the comparison between the image obtained by the imaging unit (camera 201) and the video.

これにより、ポインティングシステムS1は、モーションセンサ部211で得られたポインティング位置を補正することで、ポインティング位置の精度が向上するので、ポインティングの際のユーザの利便性を向上させることができる。   Thus, the pointing system S1 corrects the pointing position obtained by the motion sensor unit 211, thereby improving the accuracy of the pointing position. Therefore, it is possible to improve the convenience of the user when pointing.

また、ポインティングシステムS1は、映像と、撮像部(カメラ201)が撮像して得た画像とに基づいて、画像の座標系から映像の座標系への変換規則を生成する変換規則生成部(撮像面コーナー座標算出部112)と、変換規則を参照して、撮像部(カメラ201)の光軸が、表示装置1が備える表示部101と交わる点を表示部101に表示させるポインタの位置を決定するための情報として推定する推定部(ポインティング部11)と、をさらに備える。   The pointing system S1 also generates a conversion rule generation unit (imaging) that generates a conversion rule from the image coordinate system to the video coordinate system based on the video and the image obtained by the imaging unit (camera 201). The position of the pointer that causes the display unit 101 to display the point where the optical axis of the imaging unit (camera 201) intersects the display unit 101 included in the display device 1 is determined with reference to the surface corner coordinate calculation unit 112) and the conversion rule. And an estimation unit (pointing unit 11) that estimates as information to be performed.

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

また、変換規則生成部(ポインティング部11)は、撮像部(カメラ201)が取得した画像から表示部101におけるコーナーを検出するコーナー検出部111と、コーナー検出部111が検出した画像における表示部101のコーナーの座標を推定する撮像面コーナー座標算出部112と、撮像面コーナー座標算出部112が推定したコーナーの座標に基づいて画像の中心座標cを表示部101の座標Cに射影変換する射影変換部113と、をさらに備える。   In addition, the conversion rule generation unit (pointing unit 11) includes a corner detection unit 111 that detects a corner in the display unit 101 from an image acquired by the imaging unit (camera 201), and a display unit 101 in the image detected by the corner detection unit 111. An imaging surface corner coordinate calculation unit 112 that estimates the coordinates of the corner of the image, and a projective transformation that performs projective conversion of the center coordinates c of the image to the coordinates C of the display unit 101 based on the corner coordinates estimated by the imaging surface corner coordinate calculation unit 112. And a unit 113.

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

モーションセンサ部211は、加速度を測定する加速度センサ2111と、地球の磁界の向きを測定する地磁気センサ2112と、から構成される。制御部12は、加速度センサ2111が測定した加速度と、地磁気センサ2112が測定した磁界の向きとから表示部101の表示領域外において、ポインタの動きを推定し、表示部101の表示領域に戻った際に、推定したポインタの動きと、撮像部(カメラ201)が撮像して得た画像から推定したポインタの位置と、に基づいて、表示部101にポインタをポインティングさせる。   The motion sensor unit 211 includes an acceleration sensor 2111 that measures acceleration and a geomagnetic sensor 2112 that measures the direction of the earth's magnetic field. The control unit 12 estimates the movement of the pointer outside the display area of the display unit 101 from the acceleration measured by the acceleration sensor 2111 and the direction of the magnetic field measured by the geomagnetic sensor 2112, and returns to the display area of the display unit 101. At this time, the pointer is pointed on the display unit 101 based on the estimated pointer movement and the pointer position estimated from the image obtained by the imaging unit (camera 201).

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

(第2の実施形態)
以下、図面を参照しながら本発明の第2の実施形態について詳しく説明する。
図11は、本発明の第2の実施形態に係る表示装置1aの構成の一例を示す概略ブロック図である。
表示装置1aは、表示部101と、画面抽出部13とを含んで構成される。画面抽出部13は、画面取得部100と、画面特徴点抽出部102と、画面分割部103と、画面特徴点カウント部104と、エリア選択部105と、画面圧縮部106と、記憶部107と、制御部108と、通信部109と、を含んで構成される。表示装置1aは、その他、公知の表示装置の機能を備えるが図示および説明は省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 11 is a schematic block diagram showing an example of the configuration of the display device 1a according to the second embodiment of the present invention.
The display device 1 a includes a display unit 101 and a screen extraction unit 13. The screen extraction unit 13 includes a screen acquisition unit 100, a screen feature point extraction unit 102, a screen division unit 103, a screen feature point count unit 104, an area selection unit 105, a screen compression unit 106, and a storage unit 107. The control unit 108 and the communication unit 109 are configured. Although the display device 1a has other functions of a known display device, illustration and description thereof are omitted.

画面取得部100は、表示部101に表示させる表示映像を取得する。画面取得部100は、取得した表示映像を表示部101に表示させる。画面取得部100は、取得した表示映像を画面特徴点抽出部102に出力する。画面特徴点抽出部102は、表示映像から特徴点を抽出する。具体的には、画面特徴点抽出部102は、例えば、表示映像における画素ごとの輝度値を比較し、該輝度値に基づいて特徴点を抽出し、該特徴点の特徴量を抽出する。ここで、特徴点の特徴量とは、特徴点を含む周辺領域の輝度勾配情報を用いた特有の性質のことであり、64次元や128次元などの多次元のベクトルで表されるものである。画面特徴点抽出部102は、抽出した表示映像の特徴点および該特徴点の特徴量と、表示映像とを記憶部107に記憶させる。画面特徴点抽出部102は、表示映像の特徴点および該特徴点の特徴量の抽出を完了すると、抽出完了信号を画面分割部103に出力する。   The screen acquisition unit 100 acquires a display video to be displayed on the display unit 101. The screen acquisition unit 100 causes the display unit 101 to display the acquired display video. The screen acquisition unit 100 outputs the acquired display video to the screen feature point extraction unit 102. The screen feature point extraction unit 102 extracts feature points from the display video. Specifically, the screen feature point extraction unit 102 compares, for example, luminance values for each pixel in the display video, extracts feature points based on the luminance values, and extracts feature amounts of the feature points. Here, the feature amount of a feature point is a unique property using luminance gradient information of a peripheral region including the feature point, and is represented by a multidimensional vector such as 64 dimensions or 128 dimensions. . The screen feature point extraction unit 102 causes the storage unit 107 to store the extracted feature points of the display video, the feature amounts of the feature points, and the display video. When the screen feature point extraction unit 102 completes the extraction of the feature points of the display video and the feature amount of the feature points, the screen feature point extraction unit 102 outputs an extraction completion signal to the screen division unit 103.

画面分割部103は、画面特徴点抽出部102から抽出完了信号が入力されると、記憶部107から表示映像を読み出す。画面分割部103は、表示映像を複数のエリアに分割する。図12および図13は、本実施形態に係る表示装置1aの画面分割部103の動作の一例を説明する説明図である。画面分割部103は、図12に示すように表示映像G1を例えば4つのエリアA1、A2、A3、A4に分割する。そして、画面分割部103は、図13に示すように分割したエリアA1をさらに4つのサブエリアA1a、A1b、A1c、A1dに分割する。画面分割部103は、エリアA2、A3、A4に対しても同様に各々4つのサブエリアに分割する。すなわち、画面分割部103は、表示映像G1を4つのエリアに分割し、さらに各エリアを4つのサブエリアに分割することで表示映像を16分割する。画面分割部103は、分割したサブエリアを示す情報を記憶部107に記憶させ、該情報を画面特徴点カウント部104に出力する。   When the extraction completion signal is input from the screen feature point extraction unit 102, the screen division unit 103 reads the display video from the storage unit 107. The screen dividing unit 103 divides the display video into a plurality of areas. 12 and 13 are explanatory diagrams illustrating an example of the operation of the screen dividing unit 103 of the display device 1a according to the present embodiment. The screen dividing unit 103 divides the display video G1 into, for example, four areas A1, A2, A3, and A4 as shown in FIG. Then, the screen dividing unit 103 further divides the divided area A1 into four sub areas A1a, A1b, A1c, and A1d as shown in FIG. Similarly, the screen dividing unit 103 divides each of the areas A2, A3, and A4 into four subareas. That is, the screen dividing unit 103 divides the display video G1 into four areas, and further divides each display area into four subareas to divide the display video into sixteen. The screen dividing unit 103 stores information indicating the divided subareas in the storage unit 107 and outputs the information to the screen feature point counting unit 104.

画面特徴点カウント部104は、画面分割部103からサブエリアを示す情報が入力されると、記憶部107から表示映像の特徴点を読み出し、サブエリアを示す情報に基づいてサブエリアごとの特徴点の数をカウントする。画面特徴点カウント部104は、サブエリアごとにカウントした特徴点の数をエリア選択部105に出力する。エリア選択部105は、画面特徴点カウント部104から入力されたサブエリアごとの特徴点の数に基づいて、各々のサブエリアに、例えば1〜16位と順位付けを行う。エリア選択部105は、各エリアにおけるサブエリアの順位を比較し、エリアごとに最も順位の高いサブエリアを、例えば、一つずつ、計4つのサブエリアを選択する。エリア選択部105は、選択した4つのサブエリアを有効領域として設定する。エリア選択部105は、有効領域を示す情報を記憶部107に記憶させ、該情報を画面圧縮部106に出力する。   When the information indicating the sub area is input from the screen dividing unit 103, the screen feature point counting unit 104 reads the feature point of the display video from the storage unit 107, and the feature point for each sub area based on the information indicating the sub area. Count the number of The screen feature point counting unit 104 outputs the number of feature points counted for each sub-area to the area selection unit 105. Based on the number of feature points for each sub-area input from the screen feature point counting unit 104, the area selection unit 105 ranks each sub-area with, for example, 1st to 16th ranks. The area selection unit 105 compares the ranks of the subareas in each area, and selects, for example, one subarea having the highest rank for each area, for example, a total of four subareas. The area selection unit 105 sets the selected four sub areas as effective areas. The area selection unit 105 stores information indicating the effective area in the storage unit 107 and outputs the information to the screen compression unit 106.

画面圧縮部106は、エリア選択部105から有効領域を示す情報が入力されると、表示映像を記憶部107から読み出し、表示映像を任意の倍率、例えば1/4に圧縮する。画面圧縮部106は、記憶部107から表示映像の特徴点および該特徴点の特徴量を読み出し、任意の倍率で圧縮した表示映像に対し、圧縮前の表示映像の特徴点および該特徴点の特徴量を対応付け、記憶部107に記憶させる。画面圧縮部106は、記憶部107から有効領域を示す情報を読み出し、任意の倍率で圧縮した表示映像に対し、圧縮前の有効領域を示す情報を対応付け、記憶部107に記憶させる。
記憶部107は、表示映像、特徴点および該特徴点の特徴量、サブエリアを示す情報、有効領域を示す情報、圧縮された表示映像および該表示映像の特徴点および該特徴点の特徴量、圧縮された表示映像の有効領域を示す情報を記憶する。
When the information indicating the effective area is input from the area selection unit 105, the screen compression unit 106 reads the display video from the storage unit 107, and compresses the display video to an arbitrary magnification, for example, 1/4. The screen compression unit 106 reads the feature points of the display image and the feature values of the feature points from the storage unit 107, and displays the feature points of the display image before compression and the features of the feature points with respect to the display image compressed at an arbitrary magnification. The amounts are associated and stored in the storage unit 107. The screen compression unit 106 reads information indicating the effective area from the storage unit 107, associates information indicating the effective area before compression with the display image compressed at an arbitrary magnification, and causes the storage unit 107 to store the information.
The storage unit 107 includes a display image, a feature point and a feature amount of the feature point, information indicating a sub area, information indicating an effective area, a compressed display image, a feature point of the display image, and a feature amount of the feature point, Information indicating the effective area of the compressed display image is stored.

制御部108は、記憶部107から圧縮された表示映像の有効領域を示す情報と、圧縮された表示映像および該表示映像の特徴点および該特徴点の特徴量とを読み出し、通信部109を介して電子装置2に送信する。制御部108は、通信部109を介して電子装置2から受信したポインティング位置を示す情報、例えば、ポインティング座標に基づいてポインタを表示部101に表示させる。
通信部109は、制御部108から入力された圧縮された表示映像の有効領域を示す情報と、圧縮された表示映像および該表示映像の特徴点および該特徴点の特徴量とを電子装置2に送信する。通信部109は、電子装置2からポインティング位置を示す情報、例えばポインティング座標を受信すると、制御部108に出力する。
The control unit 108 reads out the information indicating the effective area of the compressed display video, the compressed display video, the feature point of the display video, and the feature amount of the feature point from the storage unit 107, and transmits the information through the communication unit 109. To the electronic device 2. The control unit 108 causes the display unit 101 to display a pointer based on information indicating the pointing position received from the electronic apparatus 2 via the communication unit 109, for example, pointing coordinates.
The communication unit 109 sends the information indicating the effective area of the compressed display video input from the control unit 108, the compressed display video, the feature points of the display video, and the feature quantities of the feature points to the electronic device 2. Send. When the communication unit 109 receives information indicating the pointing position from the electronic device 2, for example, pointing coordinates, the communication unit 109 outputs the information to the control unit 108.

図14は、本実施形態に係る電子装置2aの構成の一例を示す概略ブロック図である。
電子装置2aは、カメラ201と、画像特徴点抽出部202と、通信部203と、制御部210と、モーションセンサ部211と、閾値記憶部212と、フィルタ部(平滑化部)213と、ポインティング部220とを含んで構成される。モーションセンサ部211は、加速度センサ2111と、地磁気センサ2112とを含んで構成される。ポインティング部220は、取得部204と、マッピング部208と、変換規則生成部209と、を含んで構成される。また、変換規則生成部209は、特徴点比較部205と、コーナー推定部206と、変換行列生成部207と、を含んで構成させる。制御部210は、姿勢算出部2101と、推定部2102と、切替判定部2103と、重み付け部2104と、出力指示部2105とを含んで構成される。電子装置2は、その他、一般的な電子装置の機能を有するが図示および説明は省略する。
FIG. 14 is a schematic block diagram showing an example of the configuration of the electronic device 2a according to this embodiment.
The electronic device 2a includes a camera 201, an image feature point extraction unit 202, a communication unit 203, a control unit 210, a motion sensor unit 211, a threshold storage unit 212, a filter unit (smoothing unit) 213, and pointing Part 220. The motion sensor unit 211 includes an acceleration sensor 2111 and a geomagnetic sensor 2112. The pointing unit 220 includes an acquisition unit 204, a mapping unit 208, and a conversion rule generation unit 209. Also, the conversion rule generation unit 209 includes a feature point comparison unit 205, a corner estimation unit 206, and a conversion matrix generation unit 207. The control unit 210 includes an attitude calculation unit 2101, an estimation unit 2102, a switching determination unit 2103, a weighting unit 2104, and an output instruction unit 2105. The electronic device 2 has other functions of a general electronic device, but illustration and description thereof are omitted.

カメラ201は、可視光カメラであり、表示装置1aの表示部101に表示された表示映像を撮影し、カメラ画像を取得する。カメラ201は、取得したカメラ画像を画像特徴点抽出部202に出力する。画像特徴点抽出部202は、カメラ201から入力されたカメラ画像から特徴点を抽出する。具体的には、画像特徴点抽出部202は、例えば、カメラ画像における画素ごとの輝度値を比較し、該輝度値に基づいて特徴点を抽出し、該特徴点の特徴量を抽出する。画像特徴点抽出部202は、抽出したカメラ画像の特徴点および該特徴点の特徴量を特徴点比較部205に出力する。   The camera 201 is a visible light camera, captures a display image displayed on the display unit 101 of the display device 1a, and acquires a camera image. The camera 201 outputs the acquired camera image to the image feature point extraction unit 202. The image feature point extraction unit 202 extracts feature points from the camera image input from the camera 201. Specifically, for example, the image feature point extraction unit 202 compares the luminance values for each pixel in the camera image, extracts the feature points based on the luminance values, and extracts the feature amounts of the feature points. The image feature point extraction unit 202 outputs the extracted feature points of the camera image and the feature amounts of the feature points to the feature point comparison unit 205.

通信部203は、表示装置1aから受信した表示映像の特徴点および該特徴点の特徴量と、有効領域を示す情報とを取得部204に出力する。通信部203は、フィルタ部(平滑化部)213から入力されたポインティング位置を示す情報を表示装置1aに送信する。
取得部204は、通信部203を介して表示映像の特徴点および該特徴点の特徴量と、有効領域とを示す情報を表示装置1aから取得する。取得部204は、取得した表示映像の特徴点のおよび該特徴点の特徴量と、有効領域を示す情報とを特徴点比較部205に出力する。
The communication unit 203 outputs to the acquisition unit 204 the feature points of the display image received from the display device 1a, the feature amounts of the feature points, and information indicating the effective area. The communication unit 203 transmits information indicating the pointing position input from the filter unit (smoothing unit) 213 to the display device 1a.
The acquisition unit 204 acquires information indicating the feature point of the display image, the feature amount of the feature point, and the effective area from the display device 1a via the communication unit 203. The acquisition unit 204 outputs the feature points of the acquired display video, the feature amounts of the feature points, and information indicating the effective area to the feature point comparison unit 205.

特徴点比較部205は、画像特徴点抽出部202から入力されたカメラ画像の特徴点および該特徴点の特徴量と、取得部204から入力された表示映像の特徴点および該特徴点の特徴量と、有効領域を示す情報とに基づいて、カメラ画像の特徴点の特徴量と、有効領域における表示映像の特徴点の特徴量とを比較し、有効領域における表示映像の特徴点にカメラ画像の特徴点を対応付けるマッチング処理を行う。具体的には、特徴点比較部205は、有効領域を示す情報を参照し、該有効領域における表示映像の特徴点の特徴量と、カメラ画像の特徴点の特徴量とが最も多く一致するように表示映像の特徴点にカメラ画像の特徴点を対応付けた特徴点の対を生成する。特徴点比較部205は、生成した特徴点の対をコーナー推定部206に出力する。図15を参照して、特徴点比較部205のマッチング処理の一例を詳述する。   The feature point comparison unit 205 includes a feature point of the camera image input from the image feature point extraction unit 202 and a feature amount of the feature point, a feature point of the display image input from the acquisition unit 204, and a feature amount of the feature point. And the feature value of the feature point of the camera image is compared with the feature value of the feature point of the display image in the effective region based on the information indicating the effective region, and the feature point of the display image in the effective region is compared A matching process for associating feature points is performed. Specifically, the feature point comparison unit 205 refers to the information indicating the effective area, and the feature amount of the feature point of the display image in the effective area matches the feature amount of the feature point of the camera image most frequently. A pair of feature points in which the feature points of the camera image are associated with the feature points of the display video is generated. The feature point comparison unit 205 outputs the generated feature point pair to the corner estimation unit 206. An example of the matching process of the feature point comparison unit 205 will be described in detail with reference to FIG.

図15は、本実施形態に係る電子装置2aのポインティング部220の特徴点比較部205におけるマッチング処理の一例を説明する説明図である。
表示映像G2における有効領域を示す情報が、図13におけるA1aと、A2dと、A3bと、A4cとを表す場合、各サブエリアに含まれる特徴点が、例えば4つずつ存在するとき、特徴点比較部205は、表示映像G2の特徴点の特徴量とカメラ画像G3の特徴点の特徴量が最も多く一致するように表示映像G2の特徴点にカメラ画像G3の特徴点を対応付ける。図15は、表示映像G2に対応するカメラ画像G3の特徴点を線で結んで図示したものである。特徴点比較部205は、図15における線で結ばれた表示映像G2の特徴点と、カメラ画像G3の特徴点とを特徴点の対としてコーナー推定部206に出力する。
FIG. 15 is an explanatory diagram illustrating an example of matching processing in the feature point comparison unit 205 of the pointing unit 220 of the electronic device 2a according to the present embodiment.
When the information indicating the effective area in the display video G2 represents A1a, A2d, A3b, and A4c in FIG. 13, when there are four feature points included in each sub-area, for example, feature point comparison The unit 205 associates the feature points of the camera image G3 with the feature points of the display image G2 so that the feature amounts of the feature points of the display image G2 and the feature points of the camera image G3 most closely match. FIG. 15 illustrates the feature points of the camera image G3 corresponding to the display video G2 connected by lines. The feature point comparison unit 205 outputs the feature points of the display video G2 connected by the lines in FIG. 15 and the feature points of the camera image G3 to the corner estimation unit 206 as feature point pairs.

コーナー推定部206は、特徴点比較部205から入力された特徴点の対の中から部分集合、例えば、任意の4つの特徴点の対からなる特徴点の組を繰り返し生成する。コーナー推定部206は、繰り返し生成した4つの特徴点の組および最小二乗法を用いて、ホモグラフィ行列(mat)を推定する。ここで、ホモグラフィ行列とは、空間内の平面と、画像(平面)の投影を調べることであり、2次元の点の対応が与えられると、一般的に3行3列の行列である。   The corner estimation unit 206 repeatedly generates a subset of feature points input from the feature point comparison unit 205, for example, a set of feature points including arbitrary four feature point pairs. The corner estimation unit 206 estimates a homography matrix (mat) using a set of four feature points generated repeatedly and a least square method. Here, the homography matrix is to examine the plane in the space and the projection of the image (plane), and is generally a matrix of 3 rows and 3 columns when given a correspondence of two-dimensional points.

コーナー推定部206は、推定したホモグラフィ行列(mat)を用いてカメラ画像中の表示装置1aの表示部101のコーナー(角)の座標を算出する。コーナー推定部206は、推定したホモグラフィ行列を用いて表示映像座標系のコーナーの座標を透視変換することによりカメラ画像座標系のコーナーの座標の算出を行う。ここで、表示映像座標系は、表示映像平面における座標系であり、カメラ画像座標系は、カメラ画像平面における座標系である。コーナー推定部206は、算出したカメラ画像座標系のコーナーの座標を変換行列生成部207に出力する。図16を参照して、コーナー推定部206のコーナー推定手段の一例を詳述する。   The corner estimation unit 206 calculates the coordinates of the corners (corners) of the display unit 101 of the display device 1a in the camera image using the estimated homography matrix (mat). The corner estimation unit 206 calculates the corner coordinates of the camera image coordinate system by perspective-transforming the corner coordinates of the display video coordinate system using the estimated homography matrix. Here, the display video coordinate system is a coordinate system on the display video plane, and the camera image coordinate system is a coordinate system on the camera image plane. The corner estimation unit 206 outputs the calculated corner coordinates of the camera image coordinate system to the transformation matrix generation unit 207. With reference to FIG. 16, an example of the corner estimation means of the corner estimation unit 206 will be described in detail.

図16は、本実施形態に係る電子装置2aのポインティング部220のコーナー推定部206におけるコーナー推定手段の一例を説明する説明図である。
図16に示す表示映像G4における有効領域を示す情報が、図13におけるA1aと、A2dと、A3bと、A4cとを表す場合、各サブエリアに含まれる特徴点が、例えば、4つずつ存在するとき、コーナー推定部206は、特徴点比較部205において図16における表示映像G4の特徴点と対応付けられた図16におけるカメラ画像G5の特徴点との任意の4つの特徴点の対を抽出し、4対の特徴点からなる部分集合(組)を繰り返し生成する。コーナー推定部206は、生成した部分集合と最小二乗法とを用いてホモグラフィ行列を推定する。コーナー推定部206は、推定したホモグラフィ行列を用いて透視変換することにより、図16における表示映像G4のコーナーC1に対応する図16におけるカメラ画像G5のコーナーC2の座標を算出する。コーナー推定部206は、算出したコーナーC2の座標を変換行列生成部207に出力する。
FIG. 16 is an explanatory diagram illustrating an example of a corner estimation unit in the corner estimation unit 206 of the pointing unit 220 of the electronic device 2a according to the present embodiment.
When the information indicating the effective area in the display video G4 shown in FIG. 16 represents A1a, A2d, A3b, and A4c in FIG. 13, there are, for example, four feature points included in each subarea. Then, the corner estimation unit 206 extracts any four feature point pairs with the feature points of the camera image G5 in FIG. 16 associated with the feature points of the display video G4 in FIG. 16 in the feature point comparison unit 205. A subset (set) composed of four pairs of feature points is repeatedly generated. The corner estimation unit 206 estimates a homography matrix using the generated subset and the least square method. The corner estimation unit 206 calculates the coordinates of the corner C2 of the camera image G5 in FIG. 16 corresponding to the corner C1 of the display video G4 in FIG. 16 by performing perspective transformation using the estimated homography matrix. The corner estimation unit 206 outputs the calculated coordinates of the corner C2 to the conversion matrix generation unit 207.

変換行列生成部207は、表示映像座標系のコーナーの座標Mと、コーナー推定部206から入力されたカメラ画像座標系のコーナーの座標mとから透視変換行列PMatを式(1)により算出する。   The transformation matrix generation unit 207 calculates the perspective transformation matrix PMat from the corner coordinates M of the display video coordinate system and the corner coordinates m of the camera image coordinate system input from the corner estimation unit 206 by Expression (1).

変換行列生成部207は、図7に示すカメラ画像G6におけるカメラ画像座標系のコーナーの座標m(x、y、1)と、図7に示す表示映像G7における表示映像座標系のコーナーの座標M(tx、ty、t)とから透視変換行列(PMat)を算出する。変換行列生成部207は、算出した透視変換行列をマッピング部208に出力する。
マッピング部208は、変換行列生成部207から入力された透視変換行列に基づいてマッピング処理を行う。図8を参照して、マッピング部208のマッピング処理について詳述する。
The transformation matrix generation unit 207 performs the coordinate m (x, y, 1) of the corner of the camera image coordinate system in the camera image G6 shown in FIG. 7 and the coordinate M of the corner of the display video coordinate system in the display video G7 shown in FIG. A perspective transformation matrix (PMat) is calculated from (tx, ty, t). The transformation matrix generation unit 207 outputs the calculated perspective transformation matrix to the mapping unit 208.
The mapping unit 208 performs a mapping process based on the perspective transformation matrix input from the transformation matrix generation unit 207. The mapping process of the mapping unit 208 will be described in detail with reference to FIG.

マッピング部208は、カメラ201の光軸と表示装置1aの表示部101の交わる点を推定する。具体的には、マッピング部208は、変換行列生成部207から入力された透視変換行列に基づいて、カメラ画像座標系の中心座標cを表示映像座標系の座標Cに変換する。例えば、カメラ201の解像度が640×480ピクセルであるとすると、カメラ画像座標系の中心座標cは、(320、240、1)となる。その行列において、マッピング部208は、透視変換行列を用いてカメラ画像座標系の中心座標c(320、240、1)を表示映像座標系の座標C(X、Y、Z)に変換する。マッピング部208は、算出した座標Cを制御部210に出力する。   The mapping unit 208 estimates a point where the optical axis of the camera 201 intersects with the display unit 101 of the display device 1a. Specifically, the mapping unit 208 converts the center coordinate c of the camera image coordinate system to the coordinate C of the display video coordinate system based on the perspective conversion matrix input from the conversion matrix generation unit 207. For example, assuming that the resolution of the camera 201 is 640 × 480 pixels, the center coordinates c of the camera image coordinate system are (320, 240, 1). In the matrix, the mapping unit 208 converts the center coordinates c (320, 240, 1) of the camera image coordinate system into coordinates C (X, Y, Z) of the display video coordinate system using the perspective transformation matrix. The mapping unit 208 outputs the calculated coordinates C to the control unit 210.

本実施形態に係る電子装置2aのモーションセンサ部211の動作は、第1の実施形態に係る電子装置2のモーションセンサ部211と同様であるので説明は省略する。また、本実施形態に係る電子装置2aの制御部210動作は、第1の実施形態に係る表示装置1の制御部12と同様であるので説明は省略する。   Since the operation of the motion sensor unit 211 of the electronic device 2a according to the present embodiment is the same as that of the motion sensor unit 211 of the electronic device 2 according to the first embodiment, the description thereof is omitted. The operation of the control unit 210 of the electronic device 2a according to the present embodiment is the same as that of the control unit 12 of the display device 1 according to the first embodiment, and a description thereof will be omitted.

閾値記憶部212は、加速度センサに関する加速度の閾値を記憶している。
制御部210は、加速度センサ2111から入力された加速度と閾値記憶部212から読み出した加速度の閾値とを比較する。制御部210は、加速度の値が閾値未満である場合、出力指示部2105または重み付け部2104が出力するポインティング座標に対しフィルタ部(平滑化部)213に平滑化させる。一方、加速度の値が閾値以上である場合、制御部210は、フィルタ部(平滑化部)213に平滑化させずにから出力指示部2105または重み付け部2104から入力されたポインティング座標を、通信部203を介し、表示装置1aに送信する。
The threshold storage unit 212 stores an acceleration threshold related to the acceleration sensor.
The control unit 210 compares the acceleration input from the acceleration sensor 2111 with the acceleration threshold value read from the threshold value storage unit 212. When the acceleration value is less than the threshold value, the control unit 210 causes the filter unit (smoothing unit) 213 to smooth the pointing coordinates output from the output instruction unit 2105 or the weighting unit 2104. On the other hand, when the acceleration value is equal to or greater than the threshold value, the control unit 210 converts the pointing coordinates input from the output instruction unit 2105 or the weighting unit 2104 without being smoothed by the filter unit (smoothing unit) 213 into the communication unit. The data is transmitted to the display device 1a via 203.

フィルタ部(平滑化部)213は、制御部210から入力されたポインティング座標および加速度の値が閾値未満であることを示す信号が入力されると、平滑化、例えば、2次元のローパスフィルタや移動平均を用いてユーザの生理振動でポインタのポインティング位置が振動することを軽減する。フィルタ部(平滑化部)213は、平滑化したポインティング座標を、ポインティング位置を示す情報として通信部203を介し表示装置1aに送信する。フィルタ部(平滑化部)213は、制御部210から入力されたポインティング座標および加速度の値が閾値以上であることを示す信号が入力されると平滑化をせずに通信部203を介し、表示装置1aにポインティング位置を示す情報としてポインティング座標を送信する。   The filter unit (smoothing unit) 213 performs smoothing, for example, a two-dimensional low-pass filter or movement, when a signal indicating that the pointing coordinates and acceleration values input from the control unit 210 are less than a threshold value is input. The average is used to reduce the vibration of the pointing position of the pointer due to the physiological vibration of the user. The filter unit (smoothing unit) 213 transmits the smoothed pointing coordinates to the display device 1a via the communication unit 203 as information indicating the pointing position. The filter unit (smoothing unit) 213 displays the pointing coordinate and the acceleration value input from the control unit 210 via the communication unit 203 without performing smoothing when a signal indicating that the acceleration value is equal to or greater than a threshold value is input. Pointing coordinates are transmitted to the device 1a as information indicating the pointing position.

このように、本実施形態によれば、映像を表示する表示装置1aと映像を表示している表示装置1を撮像する撮像部(カメラ201)を備える電子装置2aとを具備するポインティングシステムS1であって、電子装置2aの姿勢を表す測定値を測定するモーションセンサ部211と、モーションセンサ部211が測定した測定値に基づいて、撮像部(カメラ201)の光軸が表示装置1aの表示領域を含む平面と交わる点をポインティング位置として算出する姿勢算出部2101と、ポインティング位置が表示領域内であるか否かを判定する判定部(切替判定部2103)と、判定部(切替判定部2103)が表示領域内であると判定した場合、前記ポインティング位置を補正する補正部(重み付け部2104)と、を備えることを特徴とする。   As described above, according to the present embodiment, the pointing system S1 includes the display device 1a that displays video and the electronic device 2a that includes the imaging unit (camera 201) that images the display device 1 that displays video. Then, based on the measurement value measured by the motion sensor unit 211 that measures the measured value representing the attitude of the electronic device 2a, the optical axis of the imaging unit (camera 201) is the display area of the display device 1a. A posture calculation unit 2101 that calculates a point that intersects a plane including a pointing position, a determination unit that determines whether or not the pointing position is within the display area (switch determination unit 2103), and a determination unit (switch determination unit 2103) And a correction unit (weighting unit 2104) that corrects the pointing position when it is determined that it is within the display area. That.

これにより、ポインティングシステムS1は、モーションセンサ部211で得られたポインティング位置を補正することで、ポインティング位置の精度が向上するので、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 corrects the pointing position obtained by the motion sensor unit 211, thereby improving the accuracy of the pointing position. Therefore, it is possible to improve the convenience of the user when pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

また、補正部(重み付け部2104)は、撮像部(カメラ201)が撮像して得た画像と、映像との比較に基づいて、ポインティング位置を補正する。   The correction unit (weighting unit 2104) corrects the pointing position based on the comparison between the image obtained by the imaging unit (camera 201) and the video.

これにより、ポインティングシステムS1は、モーションセンサ部211で得られたポインティング位置を補正することで、ポインティング位置の精度が向上するので、ポインティングの際のユーザの利便性を向上させることができる。   Thus, the pointing system S1 corrects the pointing position obtained by the motion sensor unit 211, thereby improving the accuracy of the pointing position. Therefore, it is possible to improve the convenience of the user when pointing.

また、ポインティングシステムS1は、映像と、撮像部(カメラ201)が撮像して得た画像とに基づいて、画像の座標系から映像の座標系への変換規則を生成する変換規則生成部209と、変換規則を参照して、撮像部(カメラ201)の光軸が、表示装置1aが備える表示部101と交わる点を表示部101に表示させるポインタの位置を決定するための情報として推定する推定部(ポインティング部220)と、をさらに備える。   Further, the pointing system S1 includes a conversion rule generation unit 209 that generates a conversion rule from the image coordinate system to the video coordinate system based on the video and the image obtained by the imaging unit (camera 201). Referring to the conversion rule, estimation that estimates the point at which the optical axis of the imaging unit (camera 201) intersects with the display unit 101 included in the display device 1a as the information for determining the position of the pointer to be displayed on the display unit 101 Unit (pointing unit 220).

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

また、変換規則生成部209は、撮像部(カメラ201)が取得した画像から表示部101におけるコーナーを検出するコーナー検出部(コーナー推定部206)と、コーナー検出部(コーナー推定部206)が検出した画像における表示部101のコーナーの座標を推定する撮像面コーナー座標算出部(コーナー推定部206)と、撮像面コーナー座標算出部(コーナー推定部206)が推定したコーナーの座標に基づいて画像の中心座標cを表示部101の座標Cに射影変換する射影変換部(変換行列生成部207)と、をさらに備える。   Also, the conversion rule generation unit 209 is detected by a corner detection unit (corner estimation unit 206) that detects a corner in the display unit 101 from an image acquired by the imaging unit (camera 201), and a corner detection unit (corner estimation unit 206). An imaging plane corner coordinate calculation unit (corner estimation unit 206) that estimates the corner coordinates of the display unit 101 in the obtained image and the corner coordinates estimated by the imaging plane corner coordinate calculation unit (corner estimation unit 206). A projection conversion unit (conversion matrix generation unit 207) that performs projective conversion of the center coordinates c into the coordinates C of the display unit 101;

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

モーションセンサ部211は、加速度を測定する加速度センサ2111と、地球の磁界の向きを測定する地磁気センサ2112と、から構成される。制御部210は、加速度センサ2111が測定した加速度と、地磁気センサ2112が測定した磁界の向きとから表示部101の表示領域外において、ポインタの動きを推定し、表示部101の表示領域に戻った際に、推定したポインタの動きと、撮像部(カメラ201)が撮像して得た画像から推定したポインタの位置と、に基づいて、表示部101にポインタをポインティングさせる。   The motion sensor unit 211 includes an acceleration sensor 2111 that measures acceleration and a geomagnetic sensor 2112 that measures the direction of the earth's magnetic field. The control unit 210 estimates the movement of the pointer outside the display area of the display unit 101 from the acceleration measured by the acceleration sensor 2111 and the direction of the magnetic field measured by the geomagnetic sensor 2112, and returns to the display area of the display unit 101. At this time, the pointer is pointed on the display unit 101 based on the estimated pointer movement and the pointer position estimated from the image obtained by the imaging unit (camera 201).

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

モーションセンサ部211は、加速度を測定する加速度センサ2111と、地球の磁界の向きを測定する地磁気センサ2112と、から構成される。制御部12は、加速度センサ2111が測定した加速度と、地磁気センサ2112が測定した磁界の向きとから表示部101の表示領域外において、ポインタの動きを推定し、表示部101の表示領域に戻った際に、推定したポインタの動きと、撮像部(カメラ201)が撮像して得た画像から推定したポインタの位置と、に基づいて、表示部101にポインタをポインティングさせる。   The motion sensor unit 211 includes an acceleration sensor 2111 that measures acceleration and a geomagnetic sensor 2112 that measures the direction of the earth's magnetic field. The control unit 12 estimates the movement of the pointer outside the display area of the display unit 101 from the acceleration measured by the acceleration sensor 2111 and the direction of the magnetic field measured by the geomagnetic sensor 2112, and returns to the display area of the display unit 101. At this time, the pointer is pointed on the display unit 101 based on the estimated pointer movement and the pointer position estimated from the image obtained by the imaging unit (camera 201).

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

モーションセンサ部211は、加速度および角速度を測定するジャイロセンサであり、制御部210は、ジャイロセンサが測定した加速度と、角速度とから表示部101の表示領域外において、ポインタの動きを推定し、表示部101の表示領域に戻った際に、推定したポインタの動きと、撮像部(カメラ201)が撮像して得た画像から推定したポインタの位置と、に基づいて、表示部101にポインタをポインティングさせる。   The motion sensor unit 211 is a gyro sensor that measures acceleration and angular velocity, and the control unit 210 estimates the movement of the pointer outside the display area of the display unit 101 from the acceleration and angular velocity measured by the gyro sensor, and displays them. When returning to the display area of the unit 101, the pointer is pointed to the display unit 101 based on the estimated pointer movement and the position of the pointer estimated from the image obtained by the imaging unit (camera 201). Let

これにより、ポインティングシステムS1は、撮影画像における表示部101のコーナーおよびその座標を推定でき、推定したコーナーの座標に基づいて画像の中心座標を表示部101の座標に射影変換することでポインタを表示部101にポインティングさせることができる。さらに、ポインティングシステムS1は、ポインティングの際のユーザの利便性を向上させることができる。さらに、ポインティングシステムS1は、撮像部(カメラ201)において撮像して得た画像から算出したポインティング位置と、モーションセンサから算出したポインティング位置とから表示部101にポインタを表示させることができるため、表示部101の表示領域からポインタが外れた場合においても、ポインタの動きを推定し、ポインティングさせることができる。   Thus, the pointing system S1 can estimate the corner of the display unit 101 and its coordinates in the captured image, and displays the pointer by projective conversion of the center coordinates of the image to the coordinates of the display unit 101 based on the estimated corner coordinates. The part 101 can be pointed. Furthermore, the pointing system S1 can improve the convenience of the user at the time of pointing. Further, the pointing system S1 can display a pointer on the display unit 101 from the pointing position calculated from the image obtained by imaging with the imaging unit (camera 201) and the pointing position calculated from the motion sensor. Even when the pointer deviates from the display area of the unit 101, the movement of the pointer can be estimated and pointing can be performed.

ポインティングシステムS1は、ポインタの動きを平滑化する平滑化部213をさらに備える。制御部210は、加速度に応じて平滑化部210に平滑化させるか否かを制御する。   The pointing system S1 further includes a smoothing unit 213 that smoothes the movement of the pointer. The control unit 210 controls whether or not the smoothing unit 210 performs smoothing according to the acceleration.

これにより、ポインティングシステムS1は、ユーザの生理振動によるポインティング位置の振動を防ぐことができる。   Thereby, pointing system S1 can prevent the vibration of the pointing position by a user's physiological vibration.

なお、各実施形態において、ポインティング部11または220は、電子装置2、2aが備えてもよいし、表示装置1、1aが備えてもよい。表示装置1、1aがポインティング部11または220を備える場合、第1の実施形態の表示装置1および電子装置2のように構成すればよい。また、電子装置2、2aがポインティング部11および220を備える場合、第2の実施形態における表示装置1a、電子装置2aのように構成すればよい。   In each embodiment, the pointing unit 11 or 220 may be included in the electronic devices 2 and 2a, or may be included in the display devices 1 and 1a. When the display device 1 or 1a includes the pointing unit 11 or 220, the display device 1 or 1a may be configured like the display device 1 or the electronic device 2 of the first embodiment. Further, when the electronic devices 2 and 2a include the pointing units 11 and 220, they may be configured as the display device 1a and the electronic device 2a in the second embodiment.

また、各実施形態において、モーションセンサ部211は、加速度センサ2111と、地磁気センサ2112とを備えるとしているが、加速度センサ2111や地磁気センサ2112の代わりに、ジャイロセンサを用いてもよい。この場合、ジャイロセンサが電子装置2、2aの角度および加速度を測定すればよい。   In each embodiment, the motion sensor unit 211 includes the acceleration sensor 2111 and the geomagnetic sensor 2112, but a gyro sensor may be used instead of the acceleration sensor 2111 or the geomagnetic sensor 2112. In this case, the gyro sensor may measure the angle and acceleration of the electronic devices 2 and 2a.

なお、各実施形態において、特徴点の抽出は、輝度値により行っているが、SIFT、SURF、ORBなどを用いて特徴点の抽出を行ってもよい。さらに、表示装置1aのエリア選択部105は、4つのサブエリアを選択しているが、1つのサブエリアのみを選択してもよいし、1つ以上の複数のサブエリアを選択してもよい。エリア選択部105は、少数、例えば1つのエリアを選択することで高速な処理演算を行うことができ、複数エリアを選択することでコーナー推定部206におけるコーナー推定精度を向上させることができる。また、特徴点比較部205において、複数の特徴点の対を抽出し、部分集合を繰り返し生成しているが、少なくとも4対(1組)の特徴点の対があればよい。特徴点比較部205は、複数の特徴点の対を用いることでコーナー推定部206やマッピング部208における座標Cの算出する精度を向上することができ、ポインティング位置の推定を向上させることができる。   In each embodiment, feature points are extracted based on luminance values, but feature points may be extracted using SIFT, SURF, ORB, or the like. Furthermore, although the area selection unit 105 of the display device 1a selects four subareas, only one subarea may be selected, or one or more subareas may be selected. . The area selection unit 105 can perform high-speed processing calculation by selecting a small number, for example, one area, and can improve corner estimation accuracy in the corner estimation unit 206 by selecting a plurality of areas. The feature point comparison unit 205 extracts a plurality of feature point pairs and repeatedly generates a subset. However, it is sufficient that there are at least four pairs (one set) of feature point pairs. The feature point comparison unit 205 can improve the accuracy of calculating the coordinates C in the corner estimation unit 206 and the mapping unit 208 by using a plurality of pairs of feature points, and can improve the estimation of the pointing position.

さらに、画面圧縮部106は、任意の倍率で表示映像を圧縮するとしているが、圧縮率が異なる複数の倍率で表示映像を圧縮し、記憶部107に記憶させておいてもよい。これにより、電子装置2aが表示装置1aと遠い距離にある場合においても、カメラ201が取得したカメラ画像において適切に特徴点の抽出およびポインティング位置の算出ができる。   Furthermore, although the screen compression unit 106 compresses the display video at an arbitrary magnification, the display video may be compressed at a plurality of magnifications with different compression rates and stored in the storage unit 107. Thereby, even when the electronic device 2a is at a distance from the display device 1a, it is possible to appropriately extract feature points and calculate the pointing position in the camera image acquired by the camera 201.

なお、上述した実施形態における表示装置1、1a、および電子装置2、2aの一部、または全部をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、表示装置1、1a、および電子装置2、2aに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。   In addition, you may make it implement | achieve a part or all of the display apparatuses 1 and 1a and the electronic devices 2 and 2a in embodiment mentioned above with a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. Here, the “computer system” is a computer system built in the display devices 1 and 1a and the electronic devices 2 and 2a and includes hardware such as an OS and peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time.

また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

また、上述した実施形態における表示装置1、1a、および電子装置2、2aの一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。表示装置1、1a、および電子装置2、2aの各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。   Moreover, you may implement | achieve part or all of the display apparatuses 1 and 1a and the electronic devices 2 and 2a in embodiment mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each functional block of the display devices 1 and 1a and the electronic devices 2 and 2a may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

S1 ポインティングシステム
1、1a 表示装置
2、2a 電子装置
100 画面取得部
101 表示部
102 画面特徴点抽出部
103 画面分割部
104 画面特徴点カウント部
105 エリア選択部
106 画面圧縮部
107 記憶部
108 制御部
109 通信部
110 通信部
11 ポインティング部(変換規則生成部)
111 コーナー検出部
112 撮像面コーナー座標算出部
113 射影変換部
12 制御部
121 姿勢算出部(算出部)
122 推定部
123 切替判定部(判定部)
124 重み付け部(補正部)
125 出力指示部
13 画面抽出部
201 カメラ(撮像部)
202 画像特徴点抽出部
203 通信部
204 取得部
205 特徴点比較部
206 コーナー推定部
207 変換行列生成部
208 マッピング部
209 変換規則生成部
210 制御部
2101 姿勢算出部(算出部)
2102 推定部
2103 切替判定部(判定部)
2104 重み付け部(補正部)
2105 出力指示部
211 モーションセンサ部
2111 加速度センサ
2112 地磁気センサ
212 閾値記憶部
213 フィルタ部(平滑化部)
220 ポインティング部(推定部)
S1 Pointing system 1, 1a Display device 2, 2a Electronic device 100 Screen acquisition unit 101 Display unit 102 Screen feature point extraction unit 103 Screen division unit 104 Screen feature point count unit 105 Area selection unit 106 Screen compression unit 107 Storage unit 108 Control unit 109 communication unit 110 communication unit 11 pointing unit (conversion rule generation unit)
111 Corner detection unit 112 Imaging surface corner coordinate calculation unit 113 Projection conversion unit 12 Control unit 121 Posture calculation unit (calculation unit)
122 estimation unit 123 switching determination unit (determination unit)
124 Weighting unit (correction unit)
125 Output instruction unit 13 Screen extraction unit 201 Camera (imaging unit)
202 Image feature point extraction unit 203 Communication unit 204 Acquisition unit 205 Feature point comparison unit 206 Corner estimation unit 207 Transformation matrix generation unit 208 Mapping unit 209 Conversion rule generation unit 210 Control unit 2101 Posture calculation unit (calculation unit)
2102 estimation unit 2103 switching determination unit (determination unit)
2104 Weighting unit (correction unit)
2105 Output instruction unit 211 Motion sensor unit 2111 Acceleration sensor 2112 Geomagnetic sensor 212 Threshold storage unit 213 Filter unit (smoothing unit)
220 Pointing part (estimator)

Claims (10)

映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムであって、
前記電子装置の姿勢を表す測定値を測定するモーションセンサ部と、
前記モーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する算出部と、
前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、
前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、
を備えること
を特徴とするポインティングシステム。
A pointing system comprising: a display device that displays video; and an electronic device that includes an imaging unit that images the display device displaying the video,
A motion sensor unit for measuring a measurement value representing the posture of the electronic device;
Based on the measurement value measured by the motion sensor unit, a calculation unit that calculates a point where the optical axis of the imaging unit intersects a plane including the display area of the display device as a pointing position;
A determination unit that determines whether or not the pointing position is within the display area;
A correction unit that corrects the pointing position when the determination unit determines that it is within the display area;
A pointing system characterized by comprising:
前記補正部は、前記撮像部が撮像して得た画像と、前記映像との比較に基づいて、前記ポインティング位置を補正すること
を特徴とする請求項1に記載のポインティングシステム。
The pointing system according to claim 1, wherein the correction unit corrects the pointing position based on a comparison between an image obtained by the imaging unit and the video.
前記映像と、前記撮像部が撮像して得た前記画像とに基づいて、前記画像の座標系から前記映像の座標系への変換規則を生成する変換規則生成部と、
前記変換規則を参照して、前記撮像部の光軸が、前記表示装置が備える表示部と交わる点を前記表示部に表示させるポインタの位置を決定するための情報として推定する推定部と、
をさらに備え、
前記補正部は前記推定部が推定した前記情報を用いて前記ポインティング位置を補正すること
を特徴とする請求項2に記載のポインティングシステム。
A conversion rule generating unit that generates a conversion rule from the coordinate system of the image to the coordinate system of the video based on the video and the image obtained by imaging by the imaging unit;
With reference to the conversion rule, an estimation unit that estimates, as information for determining a position of a pointer to be displayed on the display unit, a point at which the optical axis of the imaging unit intersects the display unit included in the display device;
Further comprising
The pointing system according to claim 2, wherein the correction unit corrects the pointing position using the information estimated by the estimation unit.
前記変換規則生成部は、
前記撮像部が取得した前記画像から前記表示部におけるコーナーを検出するコーナー検出部と、
前記コーナー検出部が検出した前記画像における前記表示部の前記コーナーの座標を推定する撮像面コーナー座標算出部と、
前記撮像面コーナー座標算出部が推定した前記コーナーの座標に基づいて前記画像の中心座標を前記表示部の座標に射影変換する射影変換部と、
をさらに備えること
を特徴とする請求項3に記載のポインティングシステム。
The conversion rule generation unit
A corner detection unit for detecting a corner in the display unit from the image acquired by the imaging unit;
An imaging surface corner coordinate calculation unit that estimates the coordinates of the corner of the display unit in the image detected by the corner detection unit;
A projective conversion unit for projectively converting the center coordinates of the image to the coordinates of the display unit based on the coordinates of the corners estimated by the imaging surface corner coordinate calculation unit;
The pointing system according to claim 3, further comprising:
前記モーションセンサ部は、
加速度を測定する加速度センサと、
地球の磁界の向きを測定する地磁気センサと、
を備え、
前記補正部は、前記加速度センサが測定した加速度と、前記地磁気センサが測定した前記磁界の向きとから表示部の表示領域外において、前記ポインタの動きを推定し、前記表示部の前記表示領域に戻った際に、推定したポインタの動きと、前記撮像部が撮像して得た画像から推定した前記ポインタの位置と、に基づいて、前記ポインティング位置を補正すること
を特徴とする請求項1から請求項4のいずれか一項に記載のポインティングシステム。
The motion sensor unit is
An acceleration sensor for measuring acceleration;
A geomagnetic sensor that measures the direction of the earth's magnetic field;
With
The correction unit estimates the movement of the pointer outside the display area of the display unit from the acceleration measured by the acceleration sensor and the direction of the magnetic field measured by the geomagnetic sensor, and moves the correction unit to the display area of the display unit. When returning, the pointing position is corrected based on the estimated movement of the pointer and the position of the pointer estimated from the image captured by the imaging unit. The pointing system according to claim 4.
前記モーションセンサ部は、加速度および角速度を測定するジャイロセンサであり、
前記補正部は、前記ジャイロセンサが測定した加速度と、角速度とから前記表示部の表示領域外において、ポインタの動きを推定し、前記表示部の前記表示領域に戻った際に、推定した前記ポインタの動きと、前記撮像部が撮像して得た画像から推定した前記ポインタの位置と、に基づいて、前記ポインティング位置を補正すること
を特徴とする請求項1から請求項4のいずれか一項に記載のポインティングシステム。
The motion sensor unit is a gyro sensor that measures acceleration and angular velocity,
The correction unit estimates the pointer movement outside the display area of the display unit from the acceleration and angular velocity measured by the gyro sensor, and returns the estimated pointer when the display unit returns to the display area of the display unit. 5. The pointing position is corrected based on the movement of the image and the position of the pointer estimated from the image obtained by the imaging unit. 5. The pointing system described in.
ポインタの動きを平滑化する平滑化部
をさらに備え、
制御部は、モーションセンサ部が測定した加速度に応じて平滑化部を制御すること
を特徴とする請求項1から請求項6のいずれか一項に記載のポインティングシステム。
A smoothing unit for smoothing the movement of the pointer;
The pointing system according to any one of claims 1 to 6, wherein the control unit controls the smoothing unit in accordance with the acceleration measured by the motion sensor unit.
映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおけるポインティング方法であって、
前記電子装置の姿勢を表す測定値を測定する第1の過程と、
前記第1の過程において測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する第2の過程と、
前記ポインティング位置が前記表示領域内であるか否かを判定する第3の過程と、
前記第3の過程において前記表示領域内であると判定した場合、前記ポインティング位置を補正する第4の過程と、
を有すること
を特徴とするポインティング方法。
A pointing method in a pointing system, comprising: a display device that displays an image; and an electronic device that includes an imaging unit that images the display device that displays the image,
A first step of measuring a measurement value representing the attitude of the electronic device;
A second step of calculating, as a pointing position, a point where an optical axis of the imaging unit intersects a plane including a display area of the display device based on the measurement value measured in the first step;
A third step of determining whether the pointing position is within the display area;
A fourth step of correcting the pointing position when it is determined in the third step that the region is within the display area;
A pointing method characterized by comprising:
映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおける表示装置であって、
前記電子装置のモーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する算出部と、
前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、
前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、
を備えること
を特徴とする表示装置。
A display device in a pointing system, comprising: a display device that displays a video; and an electronic device that includes an imaging unit that images the display device that displays the video,
Based on the measurement value measured by the motion sensor unit of the electronic device, a calculation unit that calculates a point where the optical axis of the imaging unit intersects a plane including the display area of the display device as a pointing position;
A determination unit that determines whether or not the pointing position is within the display area;
A correction unit that corrects the pointing position when the determination unit determines that it is within the display area;
A display device comprising:
映像を表示する表示装置と前記映像を表示している前記表示装置を撮像する撮像部を備える電子装置とを具備するポインティングシステムにおける電子装置であって、
前記撮像部が撮像して得た画像から表示装置が備える表示部のコーナーを推定し、推定した前記コーナーから前記表示部にポインタをポインティングさせる位置を算出するポインティング部と、
前記電子装置の姿勢を表す測定値を測定するモーションセンサ部と、
前記モーションセンサ部が測定した前記測定値に基づいて、前記撮像部の光軸が前記表示装置の表示領域を含む平面と交わる点をポインティング位置として算出する算出部と、
前記ポインティング位置が前記表示領域内であるか否かを判定する判定部と、
前記判定部が前記表示領域内であると判定した場合、前記ポインティング位置を補正する補正部と、
を備えること
を特徴とする電子装置。
An electronic device in a pointing system comprising: a display device that displays an image; and an electronic device that includes an imaging unit that images the display device that displays the image,
A pointing unit that estimates a corner of the display unit included in the display device from an image obtained by imaging by the imaging unit, and calculates a position at which the pointer is pointed to the display unit from the estimated corner;
A motion sensor unit for measuring a measurement value representing the posture of the electronic device;
Based on the measurement value measured by the motion sensor unit, a calculation unit that calculates a point where the optical axis of the imaging unit intersects a plane including the display area of the display device as a pointing position;
A determination unit that determines whether or not the pointing position is within the display area;
A correction unit that corrects the pointing position when the determination unit determines that it is within the display area;
An electronic device comprising:
JP2012265728A 2012-12-04 2012-12-04 Pointing system, pointing method, display device and electronic apparatus Pending JP2014110029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012265728A JP2014110029A (en) 2012-12-04 2012-12-04 Pointing system, pointing method, display device and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012265728A JP2014110029A (en) 2012-12-04 2012-12-04 Pointing system, pointing method, display device and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2014110029A true JP2014110029A (en) 2014-06-12

Family

ID=51030595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265728A Pending JP2014110029A (en) 2012-12-04 2012-12-04 Pointing system, pointing method, display device and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2014110029A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123090A (en) * 2006-11-09 2008-05-29 Casio Comput Co Ltd Camera pointer device, labeling method and program
WO2009072583A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method, and handheld device
JP2010097429A (en) * 2008-10-16 2010-04-30 Nintendo Co Ltd Information processing apparatus and information processing program
JP2011145744A (en) * 2010-01-12 2011-07-28 Nintendo Co Ltd Information processing apparatus, information processing program, information processing system, and method of selecting object to be selected

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123090A (en) * 2006-11-09 2008-05-29 Casio Comput Co Ltd Camera pointer device, labeling method and program
WO2009072583A1 (en) * 2007-12-07 2009-06-11 Sony Corporation Input device, control device, control system, control method, and handheld device
JP2010097429A (en) * 2008-10-16 2010-04-30 Nintendo Co Ltd Information processing apparatus and information processing program
JP2011145744A (en) * 2010-01-12 2011-07-28 Nintendo Co Ltd Information processing apparatus, information processing program, information processing system, and method of selecting object to be selected

Similar Documents

Publication Publication Date Title
JP6824433B2 (en) Camera posture information determination method, determination device, mobile terminal and computer program
CN108615248B (en) Method, device and equipment for relocating camera attitude tracking process and storage medium
JP6125100B2 (en) Robust tracking using point and line features
US10846936B2 (en) Image display method and device
US7554575B2 (en) Fast imaging system calibration
JP6609640B2 (en) Managing feature data for environment mapping on electronic devices
KR20130051501A (en) Online reference generation and tracking for multi-user augmented reality
JP5901447B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
CN111444748B (en) Sitting posture detection method, device, equipment and storage medium
JP2017092756A (en) Image processing system, image processing method, image projecting system and program
KR20210010930A (en) Method, system and computer program for remote control of a display device via head gestures
JP3702260B2 (en) Target angular velocity measuring device and target angular velocity measuring method
JP2008148237A (en) Posture detecting device
CN108370412B (en) Control device, control method, and recording medium
JP6447521B2 (en) Information processing apparatus, information processing method, and program
JP5478520B2 (en) People counting device, people counting method, program
CN107704106B (en) Attitude positioning method and device and electronic equipment
CN104937608B (en) Road area detection
JP2019149119A (en) Image processing device, image processing method, and program
JP2009302731A (en) Image processing apparatus, image processing program, image processing method, and electronic device
CN106663412B (en) Information processing apparatus, information processing method, and program
JP2008217330A (en) Speed estimation method and speed estimation program
JP2014110029A (en) Pointing system, pointing method, display device and electronic apparatus
CN113432620A (en) Error estimation method, error estimation device, vehicle-mounted terminal and storage medium
JP2012173858A (en) Omnidirectional image generation method, image generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321