JP5772540B2 - Portable terminal device, area designation method, and area designation program - Google Patents
Portable terminal device, area designation method, and area designation program Download PDFInfo
- Publication number
- JP5772540B2 JP5772540B2 JP2011255644A JP2011255644A JP5772540B2 JP 5772540 B2 JP5772540 B2 JP 5772540B2 JP 2011255644 A JP2011255644 A JP 2011255644A JP 2011255644 A JP2011255644 A JP 2011255644A JP 5772540 B2 JP5772540 B2 JP 5772540B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- portable terminal
- terminal device
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000001133 acceleration Effects 0.000 claims description 57
- 238000000605 extraction Methods 0.000 claims description 43
- 230000005484 gravity Effects 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 description 35
- 230000002093 peripheral effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Description
開示の技術は、例えば携帯型端末装置、エリア指定方法及びエリア指定プログラムに関する。 The disclosed technology relates to, for example, a portable terminal device, an area designation method, and an area designation program.
例えばスマートフォンなどの携帯型端末装置を周辺機器と連携させる場合、携帯型端末装置に周辺機器のIPアドレスやMACアドレス等を入力して、ターゲットとなる周辺機器を指定しなければならない。このような作業を省略するために、利用者が実世界で見ている物体、即ち周辺機器を直接ポインティングし、物体に紐づいた情報を取得する物体指定技術が開発されている。 For example, when a portable terminal device such as a smartphone is linked with a peripheral device, the peripheral device to be targeted must be specified by inputting the IP address or MAC address of the peripheral device into the portable terminal device. In order to omit such work, an object designation technique has been developed in which an object that a user sees in the real world, that is, a peripheral device is directly pointed and information associated with the object is acquired.
物体指定技術としては、例えば、物体に貼り付けられた光IDタグに光ビームを照射し、光IDタグでの光ビームの反射光に基づき、光IDタグの識別情報を読み取るIDリーダが開示されている。従来技術にかかる光IDタグは、光IDリーダから放射された光ビームを、光IDタグのメモリに記憶された識別情報で変調することで、光IDタグの反射光に識別情報を付加する。このため、IDリーダは、光IDタグの反射光を受信することで、光IDタグの識別情報を取得することができる。 As an object designating technique, for example, an ID reader is disclosed that irradiates an optical ID tag attached to an object with a light beam and reads identification information of the optical ID tag based on reflected light of the optical ID tag. ing. The optical ID tag according to the prior art modulates the light beam emitted from the optical ID reader with the identification information stored in the memory of the optical ID tag, thereby adding the identification information to the reflected light of the optical ID tag. For this reason, the ID reader can acquire the identification information of the optical ID tag by receiving the reflected light of the optical ID tag.
ところで、従来技術にかかるIDリーダによれば、光IDタグに光ビームを照射しなければならない。しかし、遠隔地にある光IDタグに光ビームを正確に照射することは容易ではない。 By the way, according to the ID reader according to the prior art, the optical ID tag must be irradiated with a light beam. However, it is not easy to accurately irradiate a light beam to a remote optical ID tag.
開示の技術は、撮影画像からターゲットのエリアを指定できる携帯型端末装置、エリア指定方法及びエリア指定プログラムを提供する。 The disclosed technology provides a portable terminal device, an area designation method, and an area designation program that can designate a target area from a captured image.
開示の技術の一観点によれば、携帯型端末装置に於いて、カメラにより撮影された複数の撮影画像のうち、表示画面に表示する表示画像を決定する決定部と、前記携帯型端末装置の、前記表示画面の法線に交差する平面内に規定される第1の軸及び第2の軸を中心とする第1の角速度及び第2の角速度を取得する第1の取得部と、前記第1の角速度及び前記第2の角速度に基づき、前記携帯型端末装置の前記第1の軸及び前記第2の軸を中心とする第1の回転量及び第2の回転量を算出する第1の算出部と、前記第1の回転量及び前記第2の回転量に基づき、前記表示画面の範囲に包含され、前記カメラの光軸に連動する座標を算出する第2の算出部と、前記表示画像の前記座標にポインタを重畳する重畳部と、前記ポインタが重畳された前記表示画像を前記表示画面に表示する表示部と、前記表示画像から前記ポインタを包含する画像領域を抽出する抽出部と、を備える携帯型端末装置が提供される。 According to one aspect of the disclosed technology, a determination unit that determines a display image to be displayed on a display screen among a plurality of captured images captured by a camera in a portable terminal device; A first acquisition unit that acquires a first angular velocity and a second angular velocity centered on a first axis and a second axis defined in a plane intersecting a normal line of the display screen; A first rotation amount and a second rotation amount about the first axis and the second axis of the portable terminal device are calculated based on an angular velocity of 1 and the second angular velocity. A calculation unit; a second calculation unit that calculates coordinates that are included in the range of the display screen and that are linked to the optical axis of the camera based on the first rotation amount and the second rotation amount; and the display A superimposing unit that superimposes a pointer on the coordinates of the image, and before the pointer is superimposed A display unit for displaying a display image on the display screen, an extraction unit that extracts an image area including the pointer from the display image, the portable terminal device with a provided.
開示の技術によれば、撮影画像からターゲットのエリアを指定することができる。 According to the disclosed technology, a target area can be designated from a captured image.
[第1の実施形態]
以下、図1−図12を参照しながら、第1の実施形態を説明する。
[First Embodiment]
The first embodiment will be described below with reference to FIGS.
(スマートフォン10の概略)
図1は、第1の実施形態にかかるスマートフォン10の斜視図である。
(Outline of smartphone 10)
FIG. 1 is a perspective view of a
図1に示すように、本実施形態にかかるスマートフォン10は、矩形箱型の筺体11と、長方形型の表示画面12と、丸型の操作ボタン13と、を備える。なお、本実施形態では、スマートフォン10を説明するが、カメラ機能を搭載する携帯性端末であれば、スマートフォン10に限定されるものではない。
As shown in FIG. 1, the
本実施形態にかかるスマートフォン10は、相互に直交する3軸、即ちx軸、y軸、z軸が規定されている。なお、図示するように、x軸は、表示画面12の長手方向に、y軸は、表示画面12の短手方向に、z軸は、表示画面12の直交方向に、それぞれ延在している。
The
(スマートフォン10のハードウェア)
図2は、第1の実施形態にかかるスマートフォン10のハードウェアの概略図である。
(
FIG. 2 is a schematic diagram of hardware of the
図2に示すように、本実施形態にかかるスマートフォン10は、コントローラ21、メモリ22、フラッシュメモリ23、通信モジュール24、リアルタイムクロック25、ディスプレイ26、カメラ27、慣性センサ28を備える。
As shown in FIG. 2, the
コントローラ21、メモリ22、フラッシュメモリ23、通信モジュール24、リアルタイムクロック25、ディスプレイ26、カメラ27、慣性センサ28は、例えばバスBにより相互に接続されている。 The controller 21, the memory 22, the flash memory 23, the communication module 24, the real time clock 25, the display 26, the camera 27, and the inertial sensor 28 are connected to each other by a bus B, for example.
コントローラ21は、フラッシュメモリ23に格納された各種プログラムを読み出して、メモリ22に展開するとともに、該メモリ22に展開された各種プログラムを実行することで、各種機能を実現する。各種機能の詳細は、後述することとする。 The controller 21 reads out various programs stored in the flash memory 23 and develops them in the memory 22, and implements various functions by executing the various programs developed in the memory 22. Details of the various functions will be described later.
メモリ22は、コントローラ21によりフラッシュメモリ23から読み出された各種プログラムを記憶する。さらに、メモリ22は、例えば画像記憶部250、テンプレート記憶部251、表示画像記憶部252、特徴量記憶部253、として機能して、コントローラ21により各種機能が実行されるときに使用される各種データなどを記憶する。画像記憶部250、テンプレート記憶部251、表示画像記憶部252、特徴量記憶部253の詳細は、後述することとする。
The memory 22 stores various programs read from the flash memory 23 by the controller 21. Furthermore, the memory 22 functions as, for example, the
フラッシュメモリ23は、スマートフォン10の動作を制御するための各種プログラムを記憶する。本実施形態にかかるエリア指定プログラムもフラッシュメモリ23に記憶されている。なお、本実施形態では、フラッシュメモリ23を使用しているが、不揮発性メモリであれば、これに限定されるものではない。
The flash memory 23 stores various programs for controlling the operation of the
通信モジュール24は、後述する表示画像Iから抽出された画像領域Rの画像情報を、例えばスマートフォン10の通信機能により、例えば外部のサーバSに送信する。さらに、通信モジュール24は、周辺機器A、B…のそれぞれに紐づけられた情報、例えば周辺機器A、B…の識別情報や、周辺機器A、B…の操作プログラムなどを、例えば外部のサーバSから受信する。
The communication module 24 transmits the image information of the image region R extracted from the display image I described later to, for example, an external server S by using the communication function of the
リアルタイムクロック25は、例えば、コントローラ21のイベントタイマ(図示しない)の校正や、例えば複数の撮影画像から表示画像Iを取得するために使用される。 The real-time clock 25 is used, for example, to calibrate an event timer (not shown) of the controller 21 and to acquire the display image I from a plurality of captured images, for example.
ディスプレイ26は、筺体11の内部に配置され、筺体11の前面から表示画面12を露出させている。ディスプレイ26の種類は、特に限定されるものではないが、表示画面12には、タッチスクリーン(図示しない)が貼り付けられている。
The display 26 is disposed inside the
カメラ27は、筺体11の内部に配置され、筺体11の後面からレンズユニット(図示しない)を露出させ、筺体11の後側、即ち該ディスプレイ26の表示画面12とは逆側を撮影する。但し、本実施形態は、これに限定されるものではなく、例えば筺体11の前面からカメラ27のレンズユニット(図示しない)を露出させ、筺体11の前側を撮影させても良い。
The camera 27 is disposed inside the
慣性センサ28は、加速度センサ28a及びジャイロセンサ28bを備える。本実施形態では、加速度センサ28a及びジャイロセンサ28bを、慣性センサ28の1パッケージに組み込んでいるが、別々のパッケージとしても良い。 The inertial sensor 28 includes an acceleration sensor 28a and a gyro sensor 28b. In this embodiment, the acceleration sensor 28a and the gyro sensor 28b are incorporated in one package of the inertial sensor 28, but may be separate packages.
加速度センサ28aは、スマートフォン10のx軸、y軸、z軸の軸方向の加速度、即ち第1の加速度ax、第2の加速度ay、第3の加速度azを、それぞれ検知する。但し、スマートフォン10の姿勢によっては、第1の加速度ax、第2の加速度ay、第3の加速度azが、スマートフォン10の動きに由来する動き成分のほかに、地球の重力成分を含むこともある。
The acceleration sensor 28a detects the x-axis, y-axis, and z-axis accelerations of the
ジャイロセンサ28bは、スマートフォン10のx軸、y軸、z軸を中心とする角速度、即ち第1の角速度ωx、第2の角速度ωy、第3の角速度ωzを検出する。なお、第1の角速度ωx、第2の角速度ωy、第3の角速度ωzは、スマートフォン10の動きに由来する動き成分の他に、ジャイロセンサ28bのドリフトに由来するドリフト成分を含むこともある。
The gyro sensor 28b detects angular velocities around the x-axis, y-axis, and z-axis of the
(コントローラ21の機能ブロック)
図3は、第1の実施形態にかかるコントローラ21の機能ブロックの概略図である。
(Function block of controller 21)
FIG. 3 is a schematic diagram of functional blocks of the controller 21 according to the first embodiment.
図3に示すように、本実施形態にかかるコントローラ21は、加速度取得部211、角速度取得部212、角度算出部213、座標算出部214、画像取得部215、表示画像決定部216、ポインタ重畳部217、画像表示部218、画像領域抽出部219、画像比較部220、情報取得部221、時間管理部222、画像記憶部250、テンプレート記憶部251、表示画像記憶部252、特徴量記憶部253を備える。
As shown in FIG. 3, the controller 21 according to the present embodiment includes an acceleration acquisition unit 211, an angular velocity acquisition unit 212, an angle calculation unit 213, a coordinate calculation unit 214, an image acquisition unit 215, a display image determination unit 216, and a pointer superimposition unit. 217, an image display unit 218, an image region extraction unit 219, an image comparison unit 220, an information acquisition unit 221, a time management unit 222, an
加速度取得部211、角速度取得部212、角度算出部213、座標算出部214、画像取得部215、表示画像決定部216、ポインタ重畳部217、画像表示部218、画像領域抽出部219、画像比較部220、情報取得部221、時間管理部222、画像記憶部250、テンプレート記憶部251、表示画像記憶部252、特徴量記憶部253は、何れもメモリ22に展開されたエリア指定プログラムに基づき、コントローラ21により実現される。
Acceleration acquisition unit 211, angular velocity acquisition unit 212, angle calculation unit 213, coordinate calculation unit 214, image acquisition unit 215, display image determination unit 216, pointer superimposition unit 217, image display unit 218, image region extraction unit 219, image comparison unit 220, the information acquisition unit 221, the time management unit 222, the
加速度取得部211は、慣性センサ28の加速度センサ28aにより検出された加速度、即ちx軸の軸方向の第1の加速度ax、y軸の軸方向の第2の加速度ay、z軸の軸方向の第3の加速度ay、を所定時間ごとに、例えば20[ms]ごとに取得する。 The acceleration acquisition unit 211 detects the acceleration detected by the acceleration sensor 28a of the inertial sensor 28, that is, the first acceleration a x in the axial direction of the x axis, the second acceleration a y in the axial direction of the y axis, and the axis of the z axis. The third acceleration a y in the direction is acquired every predetermined time, for example, every 20 [ms].
角速度取得部212は、慣性センサ28のジャイロセンサ28bにより検出された角速度、即ちx軸を中心とする第1の角速度ωx、y軸を中心とする第2の角速度ωy、z軸を中心とする第3の角速度ωz、を所定時間ごとに、例えば20[ms]ごとに取得する。 The angular velocity acquisition unit 212 is centered on the angular velocity detected by the gyro sensor 28b of the inertial sensor 28, that is, the first angular velocity ω x centered on the x axis, the second angular velocity ω y centered on the y axis, and the z axis. a third angular velocity omega z that, every predetermined time, acquires for example, every 20 [ms].
角度算出部213は、角速度取得部212により取得された第1の角速度ωx、第2の角速度ωy、第3の角速度ωzに基づき、x軸を中心とする第1の角度θ、y軸を中心とする第2の角度φ、z軸を中心とする第3の角度ψを、それぞれ算出する。 The angle calculation unit 213 uses the first angular velocity ω x , the second angular velocity ω y , and the third angular velocity ω z acquired by the angular velocity acquisition unit 212 to perform the first angle θ, y centered on the x axis. A second angle φ centered on the axis and a third angle ψ centered on the z axis are calculated.
第1の角度θ、第2の角度φ、第3の角度ψは、表示画像決定部216により表示画像Iが決定されたときのスマートフォン10の姿勢(以下、初期姿勢とする)を基準とする、x軸、y軸、z軸を中心とした回転量(回転角)である。従って、第1の角度θ、第2の角度φ、第3の角度ψが算出されると、初期姿勢を基準とするスマートフォン10の姿勢が決まる。以下、第1の角度θ、第2の角度φ、第3の角度ψの算出法を説明する。
1st angle (theta), 2nd angle (phi), and 3rd angle (psi) are based on the attitude | position (henceforth an initial attitude | position) of the
本実施形態では、第1の角度θ、第2の角度φ、第3の角度ψを算出するために、四元数を使用する。四元数をQ(q0、q1、q2、q3)とし、角速度取得部212により取得されるx軸、y軸、z軸を中心とする加速度をΩ(ωx、ωy、ωz)とすると、姿勢更新運動微分方程式は、以下の数式(1)のように表現される。 In the present embodiment, a quaternion is used to calculate the first angle θ, the second angle φ, and the third angle ψ. The quaternion is Q (q 0 , q 1 , q 2 , q 3 ), and the acceleration centered on the x, y, and z axes acquired by the angular velocity acquisition unit 212 is Ω (ω x , ω y , Assuming that ω z ), the posture update motion differential equation is expressed as the following mathematical formula (1).
なお、四元数Qの初期値は、Q0(1、0、0、0)と定義される。 The initial value of the quaternion Q is defined as Q 0 (1, 0 , 0 , 0 ).
数式(1)に於いて、ジャイロセンサ28bのサンプリング周期を固定すると、数式(1)の姿勢更新運動微分方程式の解は、以下の数式(2)のように表現される。 In Expression (1), when the sampling period of the gyro sensor 28b is fixed, the solution of the posture update motion differential equation of Expression (1) is expressed as Expression (2) below.
数式(2)に於いて、ジャイロセンサ28bのサンプリング間隔内の角速度を一定とすると、数式(2)の積分項は、以下の数式(3)のように近似される。 In the formula (2), if the angular velocity within the sampling interval of the gyro sensor 28b is constant, the integral term of the formula (2) is approximated as the following formula (3).
なお、数式(3)に於いて、Δθx、Δθy、Δθzは、それぞれ区間[tk、tk+1]に於ける角度の増量である。 In Equation (3), Δθ x , Δθ y , and Δθ z are increases in angle in the section [t k , t k + 1 ], respectively.
数式(3)を利用して、数式(1)をテイラー展開すると、姿勢更新運動微分方程式の解を求めることができる。姿勢更新運動微分方程式の解は、以下の数式(4)のように表現される。 When Equation (1) is Taylor-expanded using Equation (3), a solution to the posture update motion differential equation can be obtained. The solution of the posture update motion differential equation is expressed as the following mathematical formula (4).
但し、実際に、スマートフォン10に於いて、数値演算を実行する場合、数式(4)に於けるsin項およびcos項を級数展開すれば良い。なお、級数展開による、数式(4)の1次近似式は、以下の数式(5)のように、2次近似式は、以下の数式(6)のように表現される。本実施形態では、数式(5)を使用する。
However, in actuality, when a numerical operation is performed in the
数式(5)によれば、ある時刻tkの四元数Q(tk)がわかれば、次の時刻tk+1の四元素Q(tk+1)を求めることができる。本実施形態では、四元数Qの初期値をQ0(1、0、0、0)としているので、数式(5)を使用すれば、表示画面12に表示する表示画像Iの決定時から任意の時間tが経過したときの四元数Q(t)を算出することができる。
According to Equation (5), if the quaternion Q (t k ) at a certain time t k is known, the four elements Q (t k + 1 ) at the next time t k + 1 can be obtained. In the present embodiment, the initial value of the quaternion Q is Q 0 (1, 0, 0, 0 ). Therefore, when the mathematical expression (5) is used, the display image I to be displayed on the
さらに、四元数Qによる姿勢表現をオイラー角(θ、φ、ψ)による姿勢表現に変換すれば、表示画面12に表示する表示画像Iの決定時からのx軸、y軸、z軸を中心とする回転角、即ち第1の角度θ、第2の角度φ、第3の角度ψを算出することができる。四元数をオイラー角に変換する変換式は、以下の数式(7)、(8)、(9)のように表現される。
Further, if the posture expression by the quaternion Q is converted into the posture expression by Euler angles (θ, φ, ψ), the x-axis, y-axis, and z-axis from the time of determining the display image I to be displayed on the
座標算出部214は、角度算出部213により算出された第1の角度θ、第2の角度φ、第3の角度ψのうち、x軸を中心とする第1の角度θ及びy軸を中心とする第2の角度φに基づき、表示画面12の範囲に包含される座標(xi、yi)を算出する。座標(xi、yi)は、カメラ27の光軸、即ちカメラ27のレンズ(図示しない)の中心軸の動きに連動する。但し、表示画面12に表示する表示画像Iの決定時には、座標(xi、yi)が表示画面12の中心、即ちC0(W/2、H/2)に位置するものとする。従って、表示画面12に表示する表示画像Iの決定後に、スマートフォン10を前傾させると、カメラ27の光軸も前傾するので、座標算出部214により算出される座標(xi、yi)は、表示画面12の中心C0(W/2、H/2)よりも下側に移動する。同様に、表示画面12に表示する表示画像Iの決定後に、スマートフォン10を後傾させると、カメラ27の光軸も後傾するので、座標算出部214により算出される座標(xi、yi)は、表示画面12の中心C0(W/2、H/2)よりも上側に移動する。なお、Wは、表示画面12のx軸の軸方向の長さ、Hは、表示画面12のy軸の軸方向の長さ、をそれぞれ示している。
The coordinate calculation unit 214 is centered on the first angle θ centered on the x axis and the y axis among the first angle θ, the second angle φ, and the third angle ψ calculated by the angle calculation unit 213. The coordinates (x i , y i ) included in the range of the
画像取得部215は、カメラ27により撮影された複数の撮影画像を取得する。画像取得部215により取得された複数の撮影画像は、それぞれメモリ22に構築される画像記憶部250に記憶される。なお、画像取得部215により取得された複数の撮影画像を、それぞれの撮影時刻を対応づけて、画像記憶部250に記憶しても良い。
The image acquisition unit 215 acquires a plurality of captured images captured by the camera 27. The plurality of captured images acquired by the image acquisition unit 215 are stored in the
表示画像決定部216は、画像取得部215により取得された複数の撮影画像から、ディスプレイ26の表示画面12に表示する表示画像Iを決定する。表示画像決定部216により決定された表示画像Iは、表示画面12に表示されたまま固定される。即ち、表示画像Iは、いわゆる背景画像として、表示画面12に表示される。表示画像Iの決定プロセスは、後述することとする。
The display image determination unit 216 determines the display image I to be displayed on the
ポインタ重畳部217は、表示画像決定部216により決定された表示画像Iに於ける、座標算出部214により算出された座標(xi、yi)に、それぞれポインタpiを重畳する。ポインタPiの形態は、特に限定されるものではないが、本実施形態では、赤色の丸型ドットを用いる。なお、座標算出部214は、所定時間ごとに、例えば100[ms]ごとに座標(xi、yi)を算出する。従って、ポインタ重畳部217は、座標算出部214により座標(xi、yi)が算出されるたびに、表示画像Iにポインタpiを追加的に重畳することとなる。このため、表示画面12に表示する表示画像Iを決定してから、ある程度の時間が経過すると、表示画面12には、表示画面12の中心である座標C0(W/2、H/2)を始点とする、複数のポインタPiの軌跡Tpが表示される。
The pointer superimposing unit 217 superimposes the pointers p i on the coordinates (x i , y i ) calculated by the coordinate calculating unit 214 in the display image I determined by the display image determining unit 216, respectively. Form of the pointer P i is not particularly limited, in the present embodiment, a red round dots. The coordinate calculation unit 214 calculates the coordinates (x i , y i ) every predetermined time, for example, every 100 [ms]. Therefore, the pointer superimposing unit 217 additionally superimposes the pointer p i on the display image I every time the coordinates (x i , y i ) are calculated by the coordinate calculating unit 214. For this reason, when a certain amount of time elapses after the display image I to be displayed on the
画像表示部218は、ポインタ重畳部217によりポインタPiが重畳された表示画像Iを、ディスプレイ26の表示画面12に表示する。但し、表示画像Iが決定されるまでの期間は、カメラ27により撮影された複数の撮影画像をディスプレイ26の表示画面12に表示する。
The image display unit 218 displays the display image I on which the pointer Pi is superimposed by the pointer superimposing unit 217 on the
画像領域抽出部219は、ポインタ重畳部217により表示画像Iに重畳された複数のポインタPiの座標(xi、yi)に基づき、表示画像Iから画像領域Rを抽出する。画像領域Rは、少なくとも表示画像Iよりも小さいことが好ましい。画像領域Rの抽出法は、種々の形態をとり得るが、本実施形態では、例えば表示画像Iに重畳された複数のポインタPiの軌跡Tpの外接矩形、いわゆるAABB(Axis Aligned Bounding Box)を、画像領域Rとして抽出する。 The image region extraction unit 219 extracts the image region R from the display image I based on the coordinates (x i , y i ) of the plurality of pointers P i superimposed on the display image I by the pointer superimposing unit 217. The image region R is preferably smaller than at least the display image I. Extraction of the image region R, but may take various forms, in the present embodiment, for example, a circumscribed rectangle of the trajectory T p of the plurality of pointer P i superimposed on the display image I, the so-called AABB (Axis Aligned Bounding Box) Are extracted as an image region R.
画像比較部220は、画像領域抽出部219により抽出された画像領域Rの画像情報と、事前に準備されている複数のパターン情報と、を比較する。画像領域Rの画像情報と、パターン情報との比較プロセスは、後述することとする。 The image comparison unit 220 compares the image information of the image region R extracted by the image region extraction unit 219 with a plurality of pattern information prepared in advance. The comparison process between the image information of the image region R and the pattern information will be described later.
情報取得部221は、画像比較部220による比較結果に基づき、画像領域Rに包含される物体に関連する情報を、例えばサーバSから取得する。画像領域Rに周辺機器Aが包含されている場合、例えば周辺機器Aの識別情報もしくは周辺機器Aの操作プログラムなどを取得しても良い。 The information acquisition unit 221 acquires information related to the object included in the image region R from the server S, for example, based on the comparison result by the image comparison unit 220. When the peripheral device A is included in the image region R, for example, identification information of the peripheral device A or an operation program of the peripheral device A may be acquired.
時間管理部222は、リアルタイムクロック25からの出力に基づき、表示画像Iの決定時からの経過時間、エリア指定プログラムの起動時からの経過時間、などを管理する。 Based on the output from the real-time clock 25, the time management unit 222 manages the elapsed time from the determination of the display image I, the elapsed time from the start of the area designation program, and the like.
(コントローラ21による処理フロー)
図4は、第1の実施形態にかかるコントローラ21による処理のフローチャートである。図5は、第1の実施形態にかかるスマートフォン10の動きにより表示画面12に表示されるポインタPiの軌跡Tpの概略図である。図6は、第1の実施形態にかかるスマートフォン10を動かして、表示画像Iから画像領域Rを抽出する抽出プロセスの概略図である。
(Processing flow by the controller 21)
FIG. 4 is a flowchart of processing by the controller 21 according to the first embodiment. Figure 5 is a schematic diagram of the trajectory T p of the pointer P i that is displayed on the
本実施形態にかかる処理フローは、エリア指定プログラムを起動することで開始する。処理フローが開始したら、図4に示すように、画像取得部215は、カメラ27により撮影された複数の撮影画像を取得する(ステップS101)。画像取得部215により取得された複数の撮影画像は、逐次メモリ22に構築された画像記憶部250に記憶される。
The processing flow according to the present embodiment is started by starting an area designation program. When the processing flow is started, as shown in FIG. 4, the image acquisition unit 215 acquires a plurality of captured images captured by the camera 27 (step S101). The plurality of captured images acquired by the image acquisition unit 215 are stored in the
次に、表示画像決定部216は、画像取得部215により取得された複数の撮影画像から、1枚の表示画像Iを決定する(ステップS102)。表示画像決定部216により決定された表示画像Iは、ディスプレイ26の表示画面12に背景画像として表示される。表示画像Iの決定プロセスは、後述することとする。
Next, the display image determination unit 216 determines one display image I from the plurality of captured images acquired by the image acquisition unit 215 (step S102). The display image I determined by the display image determination unit 216 is displayed as a background image on the
次に、角度算出部213は、角速度取得部212により取得されたx軸、y軸、z軸を中心とする第1の角速度ωx、第2の角速度ωy、第2の角速度ωzに基づき、x軸、y軸、z軸を中心とするスマートフォン10の回転量、即ち第1の角度θ、第2の角度φ、第3の角度ψを算出する(ステップS103)。
Next, the angle calculation unit 213 converts the first angular velocity ω x , the second angular velocity ω y , and the second angular velocity ω z around the x axis, the y axis, and the z axis acquired by the angular velocity acquisition unit 212. Based on this, the rotation amount of the
次に、座標算出部214は、角度算出部213により算出された第1の角度θ、第2の角度φ、第3の角度ψのうち、第1の角度θ及び第2の角度φに基づき、ディスプレイ26の表示画面12の範囲に包含され、カメラ27の光軸の動きに連動する座標(xi、yi)を、所定時間ごとに算出する(ステップS104)。
Next, the coordinate calculation unit 214 is based on the first angle θ and the second angle φ among the first angle θ, the second angle φ, and the third angle ψ calculated by the angle calculation unit 213. The coordinates (x i , y i ) included in the range of the
次に、ポインタ重畳部217は、表示画像決定部216により決定された表示画像Iに於ける、座標算出部214により算出された座標(xi、yi)に、それぞれポインタpiを重畳する(ステップS105)。 Next, the pointer superimposing unit 217 superimposes the pointers p i on the coordinates (x i , y i ) calculated by the coordinate calculating unit 214 in the display image I determined by the display image determining unit 216, respectively. (Step S105).
例えば、図5(a)に示すように、利用者Uが、x軸を中心にスマートフォン10を回動させると、本実施形態にかかるエリア指定プログラムの機能により、表示画面12に表示された表示画像Iに、複数のポインタPiが次々と重畳され、表示画像Iの特定領域に、x方向に往復するジグザグ型の軌跡Tpが描写される。
For example, as shown in FIG. 5A, when the user U rotates the
又、図5(b)に示すように、利用者Uが、y軸を中心にスマートフォン10を回動させると、本実施形態にかかるエリア指定プログラムの機能により、表示画面12に表示された表示画像Iに、複数のポインタPiが次々と重畳され、表示画像Iの特定領域に、y方向に往復するジグザグ型の軌跡Tpが描写される。
Further, as shown in FIG. 5B, when the user U rotates the
次に、時間管理部222は、リアルタイムクロック25からの出力に基づき、表示画像決定部216により表示画像Iが決定された時点からの経過時間が、事前に決められた閾値を超えたか判断する(ステップS106)。 Next, based on the output from the real-time clock 25, the time management unit 222 determines whether the elapsed time from the time when the display image I is determined by the display image determination unit 216 exceeds a predetermined threshold ( Step S106).
表示画像Iが決定された時点からの経過時間が閾値を超えたと判断されない場合(ステップS106のNo)、角度算出部213は、第1の角度θ、第2の角度φ、第3の角度ψの算出を継続する(ステップS103)。 When it is not determined that the elapsed time from the time when the display image I is determined exceeds the threshold (No in step S106), the angle calculation unit 213 determines the first angle θ, the second angle φ, and the third angle ψ. Is continuously calculated (step S103).
一方、表示画像Iが決定された時点からの経過時間が閾値を超えたと判断された場合(ステップS106のYes)、画像領域抽出部219は、複数のポインタPiの軌跡Tpに外接する矩形領域を、表示画像Iから画像領域Rとして抽出する(ステップS107)。 On the other hand, when the elapsed time from when the display image I is determined is determined to have exceeded the threshold value (Yes in step S106), the image area extracting unit 219, a rectangle circumscribing the trajectory T p of the plurality of pointer P i An area is extracted from the display image I as an image area R (step S107).
次に、画像比較部220は、画像領域抽出部219により抽出された画像領域Rの画像情報と、事前に準備された複数のパターン情報と、のマッチングを実施する(ステップS108)。画像領域Rの画像情報と、画像パターン情報とのマッチングプロセスは、後述することとする。 Next, the image comparison unit 220 performs matching between the image information of the image region R extracted by the image region extraction unit 219 and a plurality of pieces of pattern information prepared in advance (step S108). The matching process between the image information of the image region R and the image pattern information will be described later.
画像領域Rの画像領域と、複数のパターン情報の何れかとのマッチングが成功したと判断されなければ(ステップS109のNo)、画像取得部215は、カメラ27により撮影された撮影画像の取得を継続する(ステップS101)。 If it is not determined that the matching between the image area R and any of the plurality of pattern information is successful (No in step S109), the image acquisition unit 215 continues to acquire the captured image captured by the camera 27. (Step S101).
一方、画像領域Rの画像情報と、複数のパターン情報の何れかとのマッチングが成功したと判断されたら(ステップS109のYes)、情報取得部221は、マッチングが成功したときのパターン情報に対応する関連情報を、例えばサーバSから取得する。例えば、画像領域Rに周辺機器Aが包含されている場合、周辺機器Aの識別情報もしくは周辺機器Aの操作プログラムなどを関連情報として取得しても良い。 On the other hand, if it is determined that the matching between the image information of the image region R and any of the plurality of pattern information is successful (Yes in step S109), the information acquisition unit 221 corresponds to the pattern information when the matching is successful. The related information is acquired from the server S, for example. For example, when the peripheral device A is included in the image region R, the identification information of the peripheral device A or the operation program of the peripheral device A may be acquired as related information.
本実施形態にかかるスマートフォン10は、以上の処理フローを実現するためのエリア指定プログラムを搭載している。このため、カメラ27の光軸を回転させるようにスマートフォン10を動かすと、表示画面12に表示された表示画像Iには、エリア指定プログラムの機能により、図6(a)に示すような、ポインタPiの軌跡Tpが描写される。さらに、図6(a)に示すような、ポインタPiの軌跡Tpが描写されると、エリア指定プログラムの機能により、図6(b)に示すような、ポインタPiの軌跡Tpに外接する矩形領域が、画像領域Rとして生成される。
The
従って、表示画像Iに表示されているターゲットとしての周辺機器Aに、ポインタPiの軌跡Tpが重畳するようにスマートフォン10を動かせば、周辺機器Aが包含された、表示画像Iよりも小さい矩形領域を、画像領域Rとして指定することができる。
Thus, the peripheral device A as a target displayed on the display image I, if moving the
以上の処理フローを経ることで、スマートフォン10は、撮影画像に表示されている物体、例えば周辺機器Aの関連情報を、スマートフォン10に取り込むことができる。これにより、スマートフォン10は、非常に簡単に、例えば周辺機器Aと機能連携することができる。
Through the processing flow described above, the
(表示画像決定部216の詳細)
図7は、第1の実施形態にかかる表示画像決定部216の機能ブロックの概略図である。図8(a)は、第1の実施形態にかかるスマートフォン10の動きに由来する加速度の動き成分axm、aym、azmのグラフである。図8(b)は、第1の実施形態にかかるスマートフォン10の加速度の動き成分から算出されたSMA値のグラフである。なお、図8(a)に於ける3本のグラフは、それぞれ動き成分axm、aym、azmの何れかを示している。図8(b)に於ける二点鎖線は、SMA値の閾値を示している。
(Details of display image determination unit 216)
FIG. 7 is a schematic diagram of functional blocks of the display image determination unit 216 according to the first embodiment. FIG. 8A is a graph of motion components a xm , a ym , and a zm of acceleration derived from the motion of the
図7に示すように、本実施形態にかかる表示画像決定部216は、AC成分取得部216a、SMA算出部216b、静止判定部216c、撮影指示部216d、表示画像取込部216eを備える。 As shown in FIG. 7, the display image determination unit 216 according to this embodiment includes an AC component acquisition unit 216a, an SMA calculation unit 216b, a stillness determination unit 216c, a shooting instruction unit 216d, and a display image capture unit 216e.
AC成分取得部216aは、加速度取得部211により取得されたx軸、y軸、z軸の軸方向の第1の加速度ax、第2の加速度ay、第3の加速度azから重力成分を除去して、スマートフォン10の動きに由来する加速度の成分、即ち動き成分axm、aym、azmを取得する。AC成分取得部216aとしては、いわゆるハイパスフィルタが用いられる。
The AC component acquisition unit 216a obtains the gravity component from the first acceleration a x , the second acceleration a y , and the third acceleration a z in the axial directions of the x axis, the y axis, and the z axis acquired by the acceleration acquisition unit 211. , And acceleration components derived from the movement of the
図8(a)に示すように、スマートフォン10が動作している区間A、区間Cでは、加速度の動き成分axm、aym、azmが高く、スマートフォン10が静止している区間B、区間Dでは、加速度の動き成分axm、aym、azmが低いことがわかる。
As shown in FIG. 8A, in the sections A and C in which the
SMA算出部216bは、AC成分取得部216aにより取得された加速度の動き成分axm、aym、azmに基づき、SMA(Signal Magnitude Area)値を算出する。SMA値の算出式は、特に限定されるものではないが、本実施形態では、以下の数式(10)を使用する。 The SMA calculation unit 216b calculates an SMA (Signal Magnitude Area) value based on the acceleration motion components a xm , a ym , and a zm acquired by the AC component acquisition unit 216a. The formula for calculating the SMA value is not particularly limited, but in the present embodiment, the following formula (10) is used.
なお、数式(10)に於いて、iは、サンプリングの識別番号(何回目のサンプリングかを意味するもの)であって、Tは、動き成分axm(i)、aym(i)、azm(i)のサンプリング期間である。 In the equation (10), i is a sampling identification number (meaning the number of times of sampling), and T is a motion component a xm (i), a ym (i), a This is the sampling period of zm (i).
図8(b)に示すように、スマートフォン10が動作している区間A、区間Cでは、SMA値が高く、スマートフォン10が静止している区間B、区間Dでは、SMA値が低いことがわかる。
As shown in FIG. 8B, it is understood that the SMA value is high in the sections A and C where the
静止判定部216cは、SMA算出部216bにより算出されたSMA値と、事前に設定された閾値と、を比較して、事前に決められた時間にわたりSMA値が閾値より低い場合に、スマートフォン10が静止したと判定する。
The stationary determination unit 216c compares the SMA value calculated by the SMA calculation unit 216b with a preset threshold value. When the SMA value is lower than the threshold value for a predetermined time, the
例えば、図8(b)に示すように、事前に決められた時間が50[ms]であれば、スマートフォン10が静止している区間B、区間Dでは、50[ms]以上にわたりSMA値が閾値より低いので、スマートフォン10は、静止したと判定されることになる。
For example, as shown in FIG. 8B, if the predetermined time is 50 [ms], the SMA value is over 50 [ms] in the sections B and D where the
撮影指示部216dは、静止判定部216cによりスマートフォン10が静止していると判定された場合、表示画像取込部216eに撮影画像の取り込みを指示する。
When the stationary determination unit 216c determines that the
表示画像取込部216eは、撮影指示部216dから撮影画像の取り込みを指示されたら、撮影画像の取り込みを指示された直後の撮影画像を、表示画像Iとして取り込む。表示画像取込部216eにより取り込まれた表示画像Iは、メモリ22に構築された表示画像記憶部252に記憶される。 When the capture instruction unit 216d is instructed to capture a captured image, the display image capture unit 216e captures the captured image immediately after the capture of the captured image is instructed as a display image I. The display image I captured by the display image capturing unit 216e is stored in the display image storage unit 252 constructed in the memory 22.
これにより、利用者Uは、例えば表示画面12に周辺機器Aを表示させつつ、スマートフォン10を静止させると、自動的に1枚の撮影画像が表示画像Iとして取り込まれることとなる。このため、例えばスマートフォン10を片手で保持しているときにも、簡単にターゲットである周辺機器Aを包含する表示画像Iを取得することができる。
Thereby, for example, when the user U stops the
(表示画像決定部216による処理のフロー)
図9は、第1の実施形態にかかる表示画像決定部216による処理のフローチャートである。なお、本実施形態では、表示画像決定部216による処理のフローとしているが、実際には、エリア指定プログラムに基づき、コントローラ21が実現していることは言うまでもない。
(Processing flow by the display image determination unit 216)
FIG. 9 is a flowchart of processing by the display image determination unit 216 according to the first embodiment. In the present embodiment, the processing flow by the display image determination unit 216 is used, but it goes without saying that the controller 21 is actually realized based on the area designation program.
本実施形態にかかる処理フローは、エリア指定プログラムを起動すると、先ずはじめに開始する。処理フローが開始したら、図9に示すように、AC成分取得部216aは、加速度取得部211により取得された第1の加速度ax、第2の加速度ay第3の加速度azから、スマートフォン10の動きに由来する加速度の動き成分axm、aym、azmを取得する(ステップS201)。 The processing flow according to the present embodiment starts first when the area designation program is activated. When the processing flow is started, as shown in FIG. 9, the AC component acquisition unit 216 a uses the first acceleration a x , the second acceleration a y, and the third acceleration a z acquired by the acceleration acquisition unit 211 to generate a smartphone. The acceleration motion components a xm , a ym , and a zm derived from the ten motions are acquired (step S201).
これと並行して、時間管理部222は、リアルタイムクロック25からの出力に基づき、本実施形態にかかるエリア指定プログラムの起動時からの経過時間のカウントを開始する(ステップS202)。 In parallel with this, based on the output from the real-time clock 25, the time management unit 222 starts counting the elapsed time from the start of the area designation program according to the present embodiment (step S202).
次に、SMA算出部216bは、AC成分取得部216aにより抽出された加速度の動き成分axm、aym、azmに基づき、SMA値を算出する(ステップS203)。 Next, the SMA calculation unit 216b calculates an SMA value based on the acceleration motion components a xm , a ym , and a zm extracted by the AC component acquisition unit 216a (step S203).
次に、静止判定部216cは、SMA算出部216bにより算出されるSMA値が、事前に決められた時間にわたり、事前に決められた閾値より低いか判断する(ステップS204)。 Next, the stillness determination unit 216c determines whether the SMA value calculated by the SMA calculation unit 216b is lower than a predetermined threshold over a predetermined time (step S204).
SMA値が、事前に決められた時間にわたり、事前に決められた閾値より低いと判断されない場合(ステップS204のNo)、AC成分取得部216aは、スマートフォン10の動きに由来する加速度の動き成分axm、aym、azmの取得を継続する(ステップS201)。
When it is not determined that the SMA value is lower than the predetermined threshold for a predetermined time (No in step S204), the AC component acquisition unit 216a determines the acceleration motion component a derived from the motion of the
一方、SMA値が、事前に決められた時間にわたり、事前に決められた閾値より低いと判断されたら(ステップS204のYes)、撮影指示部216dは、表示画像取込部216eに撮影画像の取り込みを指示する(ステップS205)。 On the other hand, if it is determined that the SMA value is lower than the predetermined threshold for a predetermined time (Yes in step S204), the imaging instruction unit 216d captures the captured image in the display image capturing unit 216e. Is instructed (step S205).
次に、表示画像取込部216eは、カメラ27により連続的に取得されていた複数の撮影画像のうち、撮影指示部216bが取り込みを指示した直後に取得された撮影画像を取り込む(ステップS206)。表示画像取込部216eにより取り込まれた撮影画像は、表示画像Iとして、表示画像記憶部252に記憶される。 Next, the display image capturing unit 216e captures a captured image acquired immediately after the capturing instruction unit 216b instructs capturing, among a plurality of captured images continuously acquired by the camera 27 (step S206). . The captured image captured by the display image capturing unit 216e is stored in the display image storage unit 252 as the display image I.
(画像比較部220の詳細)
図10は、第1の実施形態にかかる画像比較部220の機能ブロックの概略図である。
(Details of the image comparison unit 220)
FIG. 10 is a schematic diagram of functional blocks of the image comparison unit 220 according to the first embodiment.
図10に示すように、本実施形態にかかる画像比較部220は、第1の特徴量算出部220a、第2の特徴量算出部220b、特徴量比較部220cを備える。 As illustrated in FIG. 10, the image comparison unit 220 according to the present embodiment includes a first feature value calculation unit 220a, a second feature value calculation unit 220b, and a feature value comparison unit 220c.
第1の特徴量算出部220aは、画像領域抽出部219により抽出された画像領域Rの画像情報に基づき、特徴量を算出する。特徴量は、特に限定されるものではないが、例えば画像領域Rに包含される物体の特徴的な位置などを数値化した指標を用いても良い。 The first feature amount calculation unit 220a calculates a feature amount based on the image information of the image region R extracted by the image region extraction unit 219. The feature amount is not particularly limited. For example, an index obtained by quantifying the characteristic position of an object included in the image region R may be used.
第2の特徴量算出部220bは、テンプレート記憶部251に記憶された複数のテンプレート情報に基づき、それぞれの特徴量を算出する。特徴量は、第1の特徴量算出部220aにより算出される特徴量と同様に、それぞれのテンプレートの特徴的な位置などを数値化した指標を用いても良い。第2の特徴量算出部220bにより算出された、それぞれのテンプレートの特徴量は、テンプレートの識別情報に対応づけて、メモリ22に構築された特徴量記憶部253に記憶される。テンプレート情報の詳細は、後述することとする。 The second feature amount calculation unit 220b calculates each feature amount based on a plurality of pieces of template information stored in the template storage unit 251. Similar to the feature amount calculated by the first feature amount calculation unit 220a, the feature amount may be an index obtained by quantifying the characteristic position of each template. The feature amount of each template calculated by the second feature amount calculation unit 220b is stored in the feature amount storage unit 253 constructed in the memory 22 in association with the template identification information. Details of the template information will be described later.
特徴量比較部220cは、第1の特徴量算出部220aにより算出された、画像領域Rの画像情報の特徴量と、第2の特徴量算出部220bにより算出された複数のテンプレートの特徴量と、を比較して、相互の照合度を算出する。さらに、特徴量比較部220cは、特徴量の照合度が、事前に決められた閾値を超えるテンプレートが存在するか判断する。 The feature amount comparison unit 220c includes the feature amounts of the image information of the image region R calculated by the first feature amount calculation unit 220a and the feature amounts of the plurality of templates calculated by the second feature amount calculation unit 220b. , And the mutual matching degree is calculated. Furthermore, the feature amount comparison unit 220c determines whether there is a template whose feature amount matching level exceeds a predetermined threshold.
(データベースDBの概略)
図11は、第1の実施形態にかかるテンプレート記憶部251に記憶されているテンプレートTm1、Tm2、Tm3…のデータベースDBの概略図である。
(Outline of database DB)
FIG. 11 is a schematic diagram of a database DB of templates T m1 , T m2 , T m3 ... Stored in the template storage unit 251 according to the first embodiment.
図11に示すように、本実施形態にかかるデータベースDBは、複数のテンプレートTm1、Tm2、Tm3…と、それぞれのテンプレートTm1、Tm2、Tm3…の識別番号と、を対応づけている。 As shown in FIG. 11, the database DB according to this embodiment, correspondence with a plurality of templates T m1, T m2, T m3 ... , and each template T m1, T m2, T m3 ... identification number, the ing.
例えば、テンプレートTm1は、識別番号0001に、テンプレートTm2は、識別番号0002に、テンプレートTm3は、識別番号0003に、それぞれ対応づけられている。なお、本実施形態では、テンプレートTm1としてプロジェクタ、テンプレートTm2としてコピー機、テンプレートTm3としてPCモニタを採用している。
For example, the template T m1 is associated with the
(マッチングの概略)
図12は、第1の実施形態にかかる画像比較部220によるマッチングの概略図である。画像領域抽出部219により画像領域Rが抽出されたら、図12に示すように、画像領域Rの画像情報の特徴量が、テンプレート記憶部251に記憶されたデータベースDBの、それぞれのテンプレートTm1、Tm2、Tm3の特徴量と照合される。なお、テンプレートTm1、Tm2、Tm3の特徴量は、特徴量記憶部253に記憶されているので、実際には、特徴量記憶部253を参照することとなる。
(Outline of matching)
FIG. 12 is a schematic diagram of matching by the image comparison unit 220 according to the first embodiment. When the image region R is extracted by the image region extraction unit 219, as shown in FIG. 12, the feature amount of the image information of the image region R is stored in each template T m1 of the database DB stored in the template storage unit 251. It is collated with the feature values of T m2 and T m3 . Note that since the feature values of the templates T m1 , T m2 , and T m3 are stored in the feature value storage unit 253, the feature value storage unit 253 is actually referred to.
複数のテンプレートTm1、Tm2、Tm3の中に、画像領域Rの画像情報の特徴量との照合度が、事前に決められた閾値を超えるテンプレートがあれば、該テンプレートに対応づけられた情報、例えば識別番号や操作プログラムなどが、例えばサーバSから取得される。本実施形態に於いて、例えば画像領域Rの画像情報の特徴量と、テンプレートTm1の特徴量との照合度が、閾値を超えているとすれば、テンプレートTm1に対応する識別情報0001がスマートフォン10により取得されることになる。
If there is a template whose matching degree with the feature amount of the image information of the image region R exceeds a predetermined threshold in the plurality of templates T m1 , T m2 , T m3 , the template is associated with the template Information such as an identification number or an operation program is acquired from the server S, for example. In the present embodiment, for example, if the degree of matching between the feature amount of the image information in the image region R and the feature amount of the template T m1 exceeds the threshold value, the
このように、本実施形態によれば、表示画像Iよりも小さい画像領域Rの画像情報の特徴量と、複数のテンプレートTm1、Tm2、Tm3…の特徴量とを比較している。このため、表示画像Iの全体の特徴量を算出するよりも計算量を減らすことができる。 Thus, according to the present embodiment, the feature amount of the image information in the image region R smaller than the display image I is compared with the feature amounts of the plurality of templates T m1 , T m2 , T m3 . For this reason, the calculation amount can be reduced as compared with the case where the entire feature amount of the display image I is calculated.
[第2の実施形態]
以下、図13−図17を参照しながら、第2の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Second Embodiment]
Hereinafter, the second embodiment will be described with reference to FIGS. 13 to 17. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.
第2の実施形態にかかるコントローラ21Aは、さらにサイズ調整部223を備える点で、第1の実施形態にかかるコントローラ21と異なる。 The controller 21A according to the second embodiment is different from the controller 21 according to the first embodiment in that it further includes a size adjusting unit 223.
(コントローラ21Aの機能ブロック)
図13は、第2の実施形態にかかるコントローラ21Aの機能ブロックの概略図である。
(Function block of controller 21A)
FIG. 13 is a schematic diagram of functional blocks of the controller 21A according to the second embodiment.
図13に示すように、本実施形態にかかるコントローラ21Aは、さらにサイズ調整部223を備える。サイズ調整部223は、メモリ22に展開されたエリア指定プログラムに基づき、コントローラ21により実現される。 As illustrated in FIG. 13, the controller 21 </ b> A according to the present embodiment further includes a size adjustment unit 223. The size adjustment unit 223 is realized by the controller 21 based on the area designation program developed in the memory 22.
(サイズ調整部223の詳細)
図14は、第2の実施形態にかかるサイズ調整部223の機能ブロックの概略図である。
(Details of the size adjustment unit 223)
FIG. 14 is a schematic diagram of functional blocks of the size adjusting unit 223 according to the second embodiment.
図14に示すように、本実施形態にかかるサイズ調整部223は、比較部223a、倍率算出部223b、拡縮部223c、拡縮判定部223dを備える。 As shown in FIG. 14, the size adjustment unit 223 according to the present embodiment includes a comparison unit 223a, a magnification calculation unit 223b, an enlargement / reduction unit 223c, and an enlargement / reduction determination unit 223d.
比較部223aは、角度算出部213により算出された、z軸を中心とする第3の角度ψの絶対値と、事前に決められた閾値ψ0と、を比較する。 Comparing unit 223a compares calculated by the angle calculator 213, the absolute value of the third angle [psi about the z-axis, the threshold [psi 0 which is determined in advance, the.
倍率算出部223bは、角度算出部213により算出された第3の角度ψの絶対値と、角速度取得部212により取得された第3の角速度ωzと、に基づき、画像領域Rを拡縮するための倍率を算出する。本実施形態に於いて、画像領域Rを拡縮するための倍率は、第3の角度ψの増加に比例している。このため、z軸を中心とするスマートフォン10の回転量を増大させると、画像領域Rを拡縮するための倍率も増大する。又、本実施形態に於いて、画像領域Rを拡大するか、もしくは、縮小するかは、第3の角速度ωzの向きより決められる。このため、z軸を中心とするスマートフォン10の回転方向を反転させると、画像領域Rの拡大及び縮小も反転する。但し、第3の角度ψが閾値ψ0よりも小さい場合、倍率算出部223bは、画像領域Rの倍率を算出しない。これは、利用者Uの意図ではない、例えば手ぶれによるスマートフォン10の回転を取り除くためである。
The magnification calculator 223b enlarges / reduces the image region R based on the absolute value of the third angle ψ calculated by the angle calculator 213 and the third angular velocity ω z acquired by the angular velocity acquirer 212. The magnification of is calculated. In the present embodiment, the magnification for enlarging / reducing the image region R is proportional to the increase in the third angle ψ. For this reason, if the rotation amount of the
拡縮部223cは、倍率算出部223bにより決定された倍率に基づき、画像領域Rのサイズを調整する。サイズを調整された画像領域Rは、表示画像Iにリアルタイム表示される。即ち、画像領域Rのサイズが変化する様子は、表示画面Iに表示される。 The enlargement / reduction unit 223c adjusts the size of the image region R based on the magnification determined by the magnification calculator 223b. The size-adjusted image region R is displayed on the display image I in real time. That is, how the size of the image region R changes is displayed on the display screen I.
拡縮判定部223dは、第3の角速度ωzの絶対値が、事前に決められた時間にわたり、事前に決められた閾値ωz0よりも小さいか判断する。第3の角速度ωzの絶対値が、事前に決められた時間にわたり、事前に決められた閾値ωz0よりも小さければ、画像領域Rのサイズ調整を目的としていないと推測されるからである。例えば、手ぶれ等によってスマートフォン10が回転していると推測されるからである。
The enlargement / reduction determination unit 223d determines whether the absolute value of the third angular velocity ω z is smaller than a predetermined threshold value ω z0 over a predetermined time. This is because if the absolute value of the third angular velocity ω z is smaller than a predetermined threshold value ω z0 over a predetermined time, it is estimated that the size adjustment of the image region R is not aimed. For example, it is estimated that the
(サイズ調整部223による処理のフロー)
図15は、第2の実施形態にかかるサイズ調整部223による処理のフローチャートである。なお、本実施形態では、サイズ調整部223による処理のフローとしているが、実際には、エリア指定プログラムに基づき、コントローラ21Aが実現していることは言うまでもない。
(Processing flow by the size adjustment unit 223)
FIG. 15 is a flowchart of processing by the size adjustment unit 223 according to the second embodiment. In the present embodiment, the processing flow by the size adjustment unit 223 is used, but it goes without saying that the controller 21A is actually realized based on the area designation program.
画像領域Rを包含する表示画像Iが表示画面12に表示されたら、図15に示すように、比較部223aは、角度算出部213により算出された第3の角度ψを取得し(ステップS301)、第3の角度ψの大きさが閾値ψ0よりも大きいか判断する(ステップS302)。
When the display image I including the image region R is displayed on the
第3の角度ψの大きさが閾値ψ0よりも大きいと判断されなければ(ステップS302のNo)、比較部223aは、第3の角度ψの取得を継続する(ステップS301)。一方、第3の角度ψの大きさが閾値ψ0よりも大きいと判断されたら(ステップS302のYes)、倍率算出部223bは、第3の角度ψの大きさに基づき、画像領域Rを拡縮するための倍率の絶対値を、第3の角速度ωzに基づき、画像領域Rの拡大もしくは縮小を、それぞれ算出する(ステップS303)。 If it is not determined that the magnitude of the third angle ψ is larger than the threshold ψ 0 (No in step S302), the comparison unit 223a continues to acquire the third angle ψ (step S301). On the other hand, when it is determined that the magnitude of the third angle ψ is larger than the threshold ψ 0 (Yes in step S302), the magnification calculator 223b scales the image region R based on the magnitude of the third angle ψ. the absolute value of magnification for, on the basis of the third angular velocity omega z, the enlargement or reduction of the image region R, respectively calculated (step S303).
次に、拡縮部223cは、倍率算出部223bにより算出された倍率に基づき、画像領域Rのサイズを調整する(ステップS304)。 Next, the enlargement / reduction unit 223c adjusts the size of the image region R based on the magnification calculated by the magnification calculation unit 223b (step S304).
次に、拡縮判定部223dは、第3の角速度ωzが、事前に決められた時間にわたり、事前に決められた閾値ωz0よりも小さいか判断する(ステップS305)。事前に決められた時間にわたり、第3の角速度ωzが閾値ωz0よりも小さいと判断されなければ(ステップS305のNo)、比較部223aは、第3の角度ψの取得を継続する(ステップS301)。一方、事前に決められた時間にわたり、第3の角速度ωzが閾値ωz0よりも小さいと判断されたら(ステップS305のYes)、画像領域Rのサイズ調整が終了したものとみなして、第3の角速度ωzが閾値ωz0よりも小さいと判断されたときの画像領域Rを固定する(ステップS306)。 Next, the scaling determination unit 223d determines whether or not the third angular velocity ω z is smaller than a predetermined threshold ω z0 over a predetermined time (step S305). If it is not determined that the third angular velocity ω z is smaller than the threshold value ω z0 over a predetermined time (No in step S305), the comparison unit 223a continues to acquire the third angle ψ (step S305). S301). On the other hand, when it is determined that the third angular velocity ω z is smaller than the threshold value ω z0 over a predetermined time (Yes in step S305), it is considered that the size adjustment of the image region R is finished, and the third The image region R when the angular velocity ω z is determined to be smaller than the threshold value ω z0 is fixed (step S306).
図16は、第2の実施形態にかかる画像領域Rのサイズを調整するサイズ調整プロセスの概略図であって、(a)はサイズ調整前の表示画像Iを、(b)はサイズ調整後の表示画像Iを、それぞれ示している。図17は、第2の実施形態にかかる画像領域Rのサイズを調整するサイズ調整プロセスの概略図であって、(a)はサイズ調整前の表示画像Iを、(b)はサイズ調整後の表示画像Iを、それぞれ示している。 FIG. 16 is a schematic diagram of a size adjustment process for adjusting the size of the image region R according to the second embodiment, where (a) shows the display image I before size adjustment, and (b) shows the size after adjustment. Display images I are shown respectively. FIG. 17 is a schematic diagram of a size adjustment process for adjusting the size of the image region R according to the second embodiment, where (a) shows the display image I before size adjustment, and (b) shows the size after adjustment. Display images I are shown respectively.
図16(a)に示すように、サイズ調整前の表示画像Iは、ポインタPiの軌跡Tpに外接する矩形状の画像領域Rを包含しているが、z軸を中心にスマートフォン10を左側に角度ψ(>ψ0)だけ回転させると、図16(b)に示すように、画像領域Rが拡大する。このため、図17(a)に示すように、ターゲットである周辺機器Aの表示領域よりも画像領域Rが小さくても、z軸を中心としてスマートフォン10を回転させるだけで、周辺機器Aの表示領域の全体を包含する画像領域Rを生成することができる。即ち、周辺機器Aの表示領域の極一部にポインタPiの軌跡Tpを描画すれば、画像領域Rを拡大させることで、周辺機器Aを指定することができるので、ポインタPiの軌跡Tpを描画するために要する時間を短縮することができる。
As shown in FIG. 16 (a), the display image I before size adjustment is encompasses the rectangular image region R circumscribing the trajectory T p of the pointer P i, a
[第3の実施形態]
以下、図18、図19を参照しながら、第3の実施形態を説明する。但し、第2の実施形態と同等の構成や処理については、説明を省略することとする。
[Third Embodiment]
Hereinafter, the third embodiment will be described with reference to FIGS. 18 and 19. However, descriptions of configurations and processes equivalent to those of the second embodiment will be omitted.
第3の実施形態にかかるコントローラ21Bは、第2の実施形態にかかるサイズ調整部223とは異なるサイズ調整部224を備える点で、第2の実施形態にかかるコントローラ21Aと異なる。 The controller 21B according to the third embodiment is different from the controller 21A according to the second embodiment in that it includes a size adjustment unit 224 that is different from the size adjustment unit 223 according to the second embodiment.
(コントローラ21Bの機能ブロック)
図18は、第3の実施形態にかかるコントローラ21Bの機能ブロックの概略図である。
(Function block of controller 21B)
FIG. 18 is a schematic diagram of functional blocks of the controller 21B according to the third embodiment.
図18に示すように、本実施形態にかかるコントローラ21Bは、第2の実施形態にかかるサイズ調整部223と異なるサイズ調整部224を備える。サイズ調整部224は、メモリ22に展開されたエリア指定プログラムに基づき、コントローラ21により実現される。 As illustrated in FIG. 18, the controller 21 </ b> B according to the present embodiment includes a size adjustment unit 224 that is different from the size adjustment unit 223 according to the second embodiment. The size adjustment unit 224 is realized by the controller 21 based on the area designation program developed in the memory 22.
(サイズ調整部224の詳細)
図19は、第3の実施形態にかかるサイズ調整部224の機能ブロックの概略図である。
(Details of the size adjustment unit 224)
FIG. 19 is a schematic diagram of functional blocks of the size adjusting unit 224 according to the third embodiment.
図19に示すように、本実施形態にかかるサイズ調整部224は、さらに、第1のフィルタ部224a、第2のフィルタ部224b、角度変換部224c、角度指標算出部224dを備える。 As shown in FIG. 19, the size adjustment unit 224 according to the present embodiment further includes a first filter unit 224a, a second filter unit 224b, an angle conversion unit 224c, and an angle index calculation unit 224d.
第1のフィルタ部224aは、加速度取得部211により取得された第1の加速度ax、第1の加速度ay、第1の加速度azのうち、x軸の軸方向の第1の加速度axを受け取り、第1の加速度axからスマートフォン10の動きに由来する動き成分axmを除去することで、地球の重力に由来する重力成分axgを取得する。なお、本実施形態では、第1の加速度axの重力成分axgを取得しているが、本実施形態は、これに限定されるものではない。例えば、y軸の軸方向の第2の加速度ayからスマートフォン10の動きに由来する動き成分aymを除去して、地球の重力に由来する重力成分aygを取得しても良い。さらに、第1の加速度axの重力成分axg及び第2の加速度ayの成分aymの双方を取得しても良い。第1のフィルタ部224aとしては、いわゆるローパスフィルタが用いられる。
The first filter portion 224a, the first acceleration a x obtained by the acceleration obtaining unit 211, the first acceleration a y, among the first acceleration a z, a first acceleration a in the axial direction of the x-axis x is received, and the gravity component a xg derived from the gravity of the earth is acquired by removing the motion component a xm derived from the motion of the
角度変換部224bは、第1のフィルタ部224aにより取得された、x軸の軸方向の第1の加速度axの重力成分axgと、事前に記憶されている重力加速度gと、に基づき、第1の加速度axの重力成分axgを、z軸を中心とするスマートフォン10の回転角ψaに変換する。
Angle conversion unit 224b is obtained by the first filter portion 224a, based on the gravity component a xg of first acceleration a x in the axial direction of the x-axis, and the gravitational acceleration g, which is pre-stored, The gravity component a xg of the first acceleration a x is converted into a rotation angle ψ a of the
第2のフィルタ部224cは、角度算出部213により算出された第1の角度θ、第2の角度φ、第3の角度ψのうち、z軸を中心とする第3の角度ψを受け取り、第3の角度ψからジャイロセンサ28bのドリフトに由来するドリフト角度ψdを除去することで、z軸を中心とするスマートフォン10の回転角ψbを取得する。第2のフィルタ部224cとしては、いわゆるハイパスフィルタが用いられる。
The second filter unit 224c receives a third angle ψ centered on the z-axis among the first angle θ, the second angle φ, and the third angle ψ calculated by the angle calculation unit 213, By removing the drift angle ψ d derived from the drift of the gyro sensor 28 b from the third angle ψ, the rotation angle ψ b of the
角度指標算出部224dは、角度変換部224bにより変換された回転角ψaと、第2のフィルタ部224cにより取得された回転角ψbと、を利用して、スマートフォン10の傾きの程度を表現する回転角指標ψindexを算出する。回転角指標ψindexの算出式は、以下の数式(11)のように表現される。 Angle index calculator 224d includes a rotation angle [psi a converted by the angle conversion unit 224b, by using the rotation angle [psi b obtained by the second filter section 224c, an expression of the degree of inclination of the smartphone 10 A rotation angle index ψ index is calculated. The calculation formula of the rotation angle index ψ index is expressed as the following formula (11).
なお、数式(11)に於いて、「α」及び「1−α」は、それぞれ回転角ψa及び回転角ψbへの重みづけ乗数である。 In Expression (11), “α” and “1-α” are weighting multipliers for the rotation angle ψ a and the rotation angle ψ b , respectively.
本実施形態では、数式(11)により算出された回転角指標ψindexを第3の角度ψとみなして、第2の実施形態と同様に、表示画面12に表示された画像領域Rのサイズを調整することとなる。
In the present embodiment, the rotation angle index ψ index calculated by Expression (11) is regarded as the third angle ψ, and the size of the image region R displayed on the
本実施形態によれば、表示画面12に表示された画像領域Rのサイズを調整するために、角度算出部213により算出された第3の角度ψだけでなく、加速度取得部211により取得された第1の加速度axも使用している。このため、画像領域Rのサイズ調整の信頼性を高めることができる。
According to this embodiment, in order to adjust the size of the image region R displayed on the
さらに、本実施形態によれば、表示画面12に表示された画像領域Rのサイズを調整するために、z軸を中心とする第3の角度ψからジャイロセンサ28bのドリフトに由来するドリフト角度ψdを除去した回転角ψbを用いている。このため、ジャイロセンサ28bのドリフトの影響により、利用者Uが意図しないサイズ調整が行われることを防止することができる。
Furthermore, according to the present embodiment, in order to adjust the size of the image region R displayed on the
[第4の実施形態]
以下、図20−図23を参照しながら、第4の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Fourth Embodiment]
Hereinafter, the fourth embodiment will be described with reference to FIGS. 20 to 23. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.
第4の実施形態にかかるコントローラ21Cは、第1の実施形態にかかる画像領域抽出部219とは異なる画像領域抽出部225を備える点で、第1の実施形態にかかるコントローラ21と異なる。 The controller 21 </ b> C according to the fourth embodiment is different from the controller 21 according to the first embodiment in that the controller 21 </ b> C includes an image region extraction unit 225 different from the image region extraction unit 219 according to the first embodiment.
(コントローラ21Cの機能ブロック)
図20は、第4の実施形態にかかるコントローラ21Cの機能ブロックの概略図である。
(Function block of controller 21C)
FIG. 20 is a schematic diagram of functional blocks of a controller 21C according to the fourth embodiment.
図20に示すように、本実施形態にかかるコントローラ21Cは、第3の実施形態にかかる画像領域抽出部219と異なる画像領域抽出部225を備える。画像領域抽出部225は、メモリ22に展開されたエリア指定プログラムに基づき、コントローラ21Cにより実現される。 As illustrated in FIG. 20, the controller 21 </ b> C according to the present embodiment includes an image area extraction unit 225 that is different from the image area extraction unit 219 according to the third embodiment. The image area extraction unit 225 is realized by the controller 21 </ b> C based on the area designation program developed in the memory 22.
(画像領域抽出部225の詳細)
図21は、第4の実施形態にかかる画像領域抽出部225の機能ブロックの概略図である。
(Details of image region extraction unit 225)
FIG. 21 is a schematic diagram of functional blocks of the image area extraction unit 225 according to the fourth embodiment.
図21に示すように、本実施形態にかかる画像領域抽出部225は、第1の抽出部225a、ポインタ重心算出部225b、距離算出部225c、第2の抽出部225dを備える。 As shown in FIG. 21, the image area extraction unit 225 according to the present embodiment includes a first extraction unit 225a, a pointer centroid calculation unit 225b, a distance calculation unit 225c, and a second extraction unit 225d.
第1の抽出部225aは、ポインタ重畳部217により複数のポインタPiが重畳された表示画面Iから、複数のポインタPiの軌跡Tpを包含する第1の矩形領域R1を抽出する。複数のポインタPiの軌跡Tpを包含する第1の矩形領域R1の抽出法は、特に限定されるものではないが、本実施形態では、複数のポインタPiの軌跡Tpに外接する外接矩形を、第1の矩形領域R1として抽出する。 First extraction portion 225a, from the display screen I multiple pointers P i is superimposed by the pointer superimposing unit 217, extracts a first rectangular region R 1 encompasses trajectory Tp of a plurality of pointer P i. Multiple pointers P i first extraction of the rectangular region R 1 encompasses trajectory Tp of, but are not particularly limited, in the present embodiment, the circumscribed rectangle which circumscribes the trajectory Tp of the plurality of pointer P i and extracted first as a rectangular region R 1.
ポインタ重心算出部225bは、ポインタ重畳部217により複数のポインタPiが重畳された表示画面Iに基づき、表示画面Iに於ける複数のポインタPiの重心Cgの座標を算出する。 Pointer centroid calculating unit 225b, based on the display screen I multiple pointers P i is superimposed by the pointer superimposing unit 217, calculates the coordinates of the center of gravity C g plurality of pointer P i in the display screen I.
距離算出部225cは、複数のポインタPiの重心Cgを始点として、第1の矩形領域R1のx軸の正方向に位置する第1の境界B1までの第1の距離d1と、第1の矩形領域R1のx軸の負方向に位置する第2の境界B2までの第2の距離d2と、をそれぞれ算出する。 The distance calculation unit 225c uses the first distance d 1 to the first boundary B 1 located in the positive direction of the x-axis of the first rectangular region R 1 with the center of gravity C g of the plurality of pointers P i as the starting point. The second distance d 2 to the second boundary B 2 located in the negative x-axis direction of the first rectangular region R 1 is calculated.
第2の抽出部225dは、距離算出部225cにより算出された第1の距離d1及び第2の距離d2を比較する。さらに、第2の抽出部225dは、第1の距離d1及び第2の距離d2のうち小さい方の距離だけ、複数のポインタPiの重心Cgから離間した位置に、それぞれ境界線を有する第2の矩形領域R2を抽出する。 The second extraction unit 225d compares the first distance d 1 and the second distance d 2 calculated by the distance calculation unit 225c. Further, the second extracting unit 225d by a distance smaller one of the first distance d 1 and the second distance d 2, at a position spaced from the center of gravity C g plurality of pointer P i, respectively borderline a second rectangular region R 2 having extracted.
(画像領域抽出部225による処理のフロー)
図22は、第4の実施形態にかかる画像領域抽出部225による処理のフローチャートである。図23は、第4の実施形態にかかる最適な画像領域Rを抽出する抽出プロセスの概略図である。なお、本実施形態では、画像領域抽出部225による処理のフローとしているが、実際には、エリア指定プログラムに基づき、コントローラ21Cが実現していることは言うまでもない。
(Processing flow by the image region extraction unit 225)
FIG. 22 is a flowchart of processing by the image region extraction unit 225 according to the fourth embodiment. FIG. 23 is a schematic diagram of an extraction process for extracting an optimal image region R according to the fourth embodiment. In the present embodiment, the processing flow by the image region extraction unit 225 is used, but it goes without saying that the controller 21C is actually realized based on the area designation program.
本実施形態にかかる処理フローは、表示画像Iが決定された時点からの経過時間が、事前に決められた閾値を超えたと判断された時点、即ちポインタ重畳部217による、複数のポインタPiの重畳が終了したと判断された時点で開始する。 The processing flow according to the present embodiment is performed when the elapsed time from the time when the display image I is determined exceeds the predetermined threshold, that is, when the pointer superimposing unit 217 sets a plurality of pointers Pi . It starts when it is determined that superimposition has been completed.
処理フローが開始したら、第1の抽出部225aは、図23(a)に示すように、複数のポインタPiの軌跡Tpに外接する外接矩形を、第1の矩形領域R1として表示画面Iから抽出する(ステップS401)。 When the process flow starts, first extraction portion 225a, as shown in FIG. 23 (a), a circumscribed rectangle which circumscribes the trajectory Tp of the plurality of pointer P i, the display screen I as the first rectangular region R 1 (Step S401).
次に、ポインタ重心算出部225bは、図23(b)に示すように、表示画像Iの画像情報に基づき、表示画像Iに於ける複数のポインタPiの重心Cgの座標を算出する(ステップS402)。表示画像Iに於ける、複数のポインタPiの重心Cgの座標に、重心のマーク、例えばドットなどを表示させても良い。 Next, the pointer centroid calculating unit 225b, as shown in FIG. 23 (b), based on the image information of the display image I, calculates the coordinates of the center of gravity C g plurality of pointer P i in the display image I ( Step S402). In the display image I, the coordinates of the center of gravity C g plurality of pointer P i, the mark of the center of gravity, for example may be displayed like a dot.
次に、距離算出部225cは、図23(c)に示すように、複数のポインタPiの重心Cgを始点として、第1の矩形領域R1のx軸の正方向に位置する第1の境界B1までの第1の距離d1と、第1の矩形領域R1のx軸の負方向に位置する第2の境界B2までの第2の距離d2と、をそれぞれ算出する(ステップS403)。 Next, as illustrated in FIG. 23C, the distance calculation unit 225 c has a first position located in the positive direction of the x-axis of the first rectangular region R 1 with the centroids C g of the plurality of pointers P i as starting points. calculating a first distance d 1 to the boundary B 1, a second distance d 2 to the second boundary B 2 is located in the negative direction of the first x-axis of the rectangular region R 1, respectively (Step S403).
次に、第2の抽出部225dは、距離算出部225cにより算出された第1の距離d1及び第2の距離d2を比較する(ステップS404)。さらに、第2の抽出部225dは、図23(d)に示すように、第1の距離d1及び第2の距離d2のうち小さい方の距離、本実施形態では第1の距離d1だけ、複数のポインタPiの重心Cgからx軸の正負に離間した位置に、それぞれ境界線を有する第2の矩形領域R2を、画像領域Rとして抽出する(ステップS405)。なお、図中の斜線領域は、第1の矩形領域R1から第2の矩形領域R2を抽出するときに、第1の矩形領域R1から削除された領域である。 Then, the second extraction unit 225d compares the first distance d 1 and the second distance d 2 calculated by the distance calculating unit 225c (step S404). Further, the second extraction unit 225d, as shown in FIG. 23 (d), the smaller the distance of the first distance d 1 and the second distance d 2, in this embodiment the first distance d 1 Thus, the second rectangular region R 2 having a boundary line at each position separated from the centroid C g of the plurality of pointers P i in the positive and negative directions of the x-axis is extracted as the image region R (step S405). Incidentally, the hatched region in the figure, when the first rectangular region R 1 for extracting a second rectangular region R 2, is a region that is removed from the first rectangular region R 1.
本実施形態によれば、複数のポインタPiの重心Cgを始点として、第1の矩形領域R1の第1の境界B1及び第2の境界B2までの第1の距離d1及び第2の距離d2を算出し、第1の距離d1及び第2の距離d2のうち小さい方の距離だけ、複数のポインタPiの重心Cgから離間した位置に、それぞれの境界を有する画像領域Rを生成している。 According to the present embodiment, the first distance d 1 to the first boundary B 1 and the second boundary B 2 of the first rectangular region R 1 with the center of gravity C g of the plurality of pointers P i as the starting point, and The second distance d 2 is calculated, and each boundary is set at a position separated from the centroids C g of the plurality of pointers P i by the smaller one of the first distance d 1 and the second distance d 2. An image region R having the same is generated.
このため、利用者Uが画像領域Rを指定している最中に、例えばスマートフォン10を不本意に揺らしてしまい、図23(a)に示すように、複数のポインタPiの密度が低い領域が発生しても、図23(d)に示すように、複数のポインタPiの密度が低い領域(図中の斜線領域)を削除した画像領域Rを抽出することができる。即ち、利用者Uが指定したい領域だけを画像領域Rとして抽出することができる。
Therefore, while the user U has specified the image region R, for example, a
[第5の実施形態]
以下、図24−図26を参照しながら、第5の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Fifth Embodiment]
Hereinafter, the fifth embodiment will be described with reference to FIGS. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.
第5の実施形態にかかるコントローラ21Dは、第1の実施形態にかかる表示画像決定部216とは異なる表示画像決定部226を備える点で、第1の実施形態にかかるコントローラ21と異なる。 The controller 21D according to the fifth embodiment is different from the controller 21 according to the first embodiment in that it includes a display image determination unit 226 different from the display image determination unit 216 according to the first embodiment.
(コントローラ21Dの機能ブロック)
図24は、第5の実施形態にかかるコントローラ21Dの機能ブロックの概略図である。
(Function block of controller 21D)
FIG. 24 is a schematic diagram of functional blocks of a controller 21D according to the fifth embodiment.
図24に示すように、本実施形態にかかるコントローラ21Dは、第1の実施形態にかかる表示画像決定部216とは異なる表示画像決定部226を備える。表示画像決定部226は、メモリ22に展開されたエリア指定プログラムに基づき、コントローラ21Dにより実現される。 As illustrated in FIG. 24, the controller 21D according to the present embodiment includes a display image determination unit 226 that is different from the display image determination unit 216 according to the first embodiment. The display image determination unit 226 is realized by the controller 21D based on the area designation program developed in the memory 22.
(表示画像決定部226の詳細)
図25は、第5の実施形態にかかる表示画像決定部226の機能ブロックの概略図である。
(Details of display image determination unit 226)
FIG. 25 is a schematic diagram of functional blocks of the display image determination unit 226 according to the fifth embodiment.
図25に示すように、本実施形態にかかる表示画像決定部226は、第1の実施形態にかかる表示画像決定部216のAC成分取得部216a及びSMA算出部216bのほかに、最小SMA特定部226a、表示画像取込部226b、を備える。しかし、本実施形態にかかる表示画像決定部226は、第1の実施形態にかかる表示画像決定部216の静止判定部216c、撮影指示部216d、表示画像取込部216eを備えない。 As shown in FIG. 25, the display image determination unit 226 according to the present embodiment includes a minimum SMA specifying unit in addition to the AC component acquisition unit 216a and the SMA calculation unit 216b of the display image determination unit 216 according to the first embodiment. 226a and a display image capturing unit 226b. However, the display image determination unit 226 according to the present embodiment does not include the stillness determination unit 216c, the imaging instruction unit 216d, and the display image capture unit 216e of the display image determination unit 216 according to the first embodiment.
最小SMA特定部226aは、SMA算出部216bにより算出された複数のSMA値から、所定の時間区間に於ける最小のSMA値を特定する。なお、最小のSMA値の特定は、事前に決められた時間ごとに実施される。 The minimum SMA specifying unit 226a specifies the minimum SMA value in a predetermined time interval from the plurality of SMA values calculated by the SMA calculation unit 216b. The minimum SMA value is specified at predetermined time intervals.
表示画像取込部226bは、画像記憶部250に記憶されている複数の撮影画像から、最小SMA特定部226aにより特定された、所定の時間区間に於ける最小のSMA値に対応する撮影画像を選択して、表示画像Iとして取り込む。なお、最小のSMA値に対応する撮影画像を選択する場合、それぞれの撮影画像に対応づけられた撮影時刻を利用すれば良い。表示画像取込部226bにより取り込まれた表示画像Iは、メモリ22に構築された表示画像記憶部252に記憶される。
The display image capturing unit 226b captures a captured image corresponding to the minimum SMA value in a predetermined time interval specified by the minimum SMA specifying unit 226a from a plurality of captured images stored in the
(表示画像決定部226による処理のフロー)
図26は、第5の実施形態にかかる表示画像決定部226による処理のフローチャートである。なお、本実施形態では、表示画像決定部226による処理のフローとしているが、実際には、エリア指定プログラムに基づき、コントローラ21Dが実現していることは言うまでもない。
(Processing flow by the display image determination unit 226)
FIG. 26 is a flowchart of processing by the display image determination unit 226 according to the fifth embodiment. In the present embodiment, the processing flow by the display image determination unit 226 is used, but it goes without saying that the controller 21D is actually realized based on the area designation program.
本実施形態にかかる処理フローは、エリア指定プログラムを起動すると、先ずはじめに開始する。処理フローが開始して、図26に示すように、SMA算出部216bによりSMA値が算出されたら(ステップS203)、時間管理部222は、リアルタイムクロック25からの出力に基づき、本実施形態にかかるエリア指定プログラムの起動時からの経過時間が、事前に決められた閾値を超えたか判断する(ステップS501)。 The processing flow according to the present embodiment starts first when the area designation program is activated. When the processing flow is started and the SMA value is calculated by the SMA calculation unit 216b as shown in FIG. 26 (step S203), the time management unit 222 according to the present embodiment based on the output from the real-time clock 25. It is determined whether the elapsed time from the start of the area designation program exceeds a predetermined threshold (step S501).
エリア指定プログラムの起動時からの経過時間が、事前に決められた閾値を超えたと判断されなければ(ステップS501のNo)、AC成分取得部216aは、スマートフォン10の動きに由来する加速度の動き成分axm、aym、azmの取得を継続する(ステップS201)。
If it is not determined that the elapsed time from the start of the area designation program exceeds a predetermined threshold (No in step S501), the AC component acquisition unit 216a determines the acceleration motion component derived from the motion of the
一方、エリア指定プログラムの起動時からの経過時間が、事前に決められた閾値を超えたと判断されたら(ステップS501のYes)、最小SMA特定部226aは、SMA算出部216bにより所定の時間区間に算出された複数のSMA値から、最小のSMA値を特定する(ステップS502)。 On the other hand, if it is determined that the elapsed time from the start of the area designation program has exceeded a predetermined threshold (Yes in step S501), the minimum SMA specifying unit 226a sets the predetermined time interval by the SMA calculation unit 216b. The minimum SMA value is specified from the calculated plurality of SMA values (step S502).
次に、表示画像取込部226bは、画像記憶部250に記憶されている複数の撮影画像から、最小SMA特定部225aにより特定された最小のSMA値に対応する1枚の撮影画像を取り込む(ステップS503)。表示画像取込部226bにより取り込まれた撮影画像は、表示画像Iとして、表示画像記憶部252に記憶される。 Next, the display image capturing unit 226b captures one captured image corresponding to the minimum SMA value specified by the minimum SMA specifying unit 225a from the plurality of captured images stored in the image storage unit 250 ( Step S503). The captured image captured by the display image capturing unit 226b is stored as the display image I in the display image storage unit 252.
本実施形態によれば、カメラ27により撮影された複数の撮影画像を画像記憶部250に記憶しておき、所定時間が経過するごとに、直前の時間区間に撮影された撮影画像から、SMA値が最小となる撮影画像を表示画像Iとして設定する。このため、例えば手ぶれ等の症状がある利用者Uであっても、確実に表示画像Iを設定することができる。
According to the present embodiment, a plurality of photographed images photographed by the camera 27 are stored in the
[第6の実施形態]
以下、図27を参照しながら、第6の実施形態を説明する。但し、第1の実施形態と同等の構成や処理については、説明を省略することとする。
[Sixth Embodiment]
Hereinafter, the sixth embodiment will be described with reference to FIG. However, descriptions of configurations and processes equivalent to those of the first embodiment will be omitted.
図27は、第6の実施形態にかかるスマートフォン10及びサーバSの概略図である。
FIG. 27 is a schematic diagram of the
図27に示すように、本実施形態にかかるスマートフォン10のコントローラ21Eは、画像比較部220を備えておらず、代わりに、サーバSのコントローラ300が画像比較部220を備えている。即ち、本実施形態にかかる画像比較部220は、第1の実施形態にかかる画像比較部220と同等の機能を有するが、サーバS側に構築している点で、第1の実施形態と異なる。これに付随して、テンプレート記憶部251もサーバSのメモリ310に構築されている。
As illustrated in FIG. 27, the controller 21E of the
本実施形態のように、画像比較部220をサーバS側に構築すれば、マッチングに必要な計算負荷をサーバSに担わせることができるので、スマートフォン10の負荷を軽減することができる。
If the image comparison unit 220 is constructed on the server S side as in the present embodiment, the calculation load necessary for matching can be assigned to the server S, so that the load on the
10:スマートフォン
12:表示画面
27:カメラ
211:加速度取得部
212:角速度取得部
213:角度算出部
214:座標算出部
216:表示画像決定部
217:ポインタ重畳部
218:画像表示部
219:画像領域抽出部
220:画像比較部
221:情報取得部
223:サイズ調整部
224:サイズ調整部
225:画像領域抽出部
225a:第1の抽出部
225b:ポインタ重心算出部
225c:距離算出部
225d:第2の抽出部
226:表示画像決定部
B1:第1の境界線
B2:第2の境界線
Cg:重心
d1:第1の距離
d2:第2の距離
I:表示画像
Pi:ポインタ
R:画像領域
R1:第1の矩形領域
R2:第2の矩形領域
θ:第1の角度
φ:第2の角度
ψ:第3の角度
DESCRIPTION OF SYMBOLS 10: Smart phone 12: Display screen 27: Camera 211: Acceleration acquisition part 212: Angular velocity acquisition part 213: Angle calculation part 214: Coordinate calculation part 216: Display image determination part 217: Pointer superimposition part 218: Image display part 219: Image area | region Extraction unit 220: image comparison unit 221: information acquisition unit 223: size adjustment unit 224: size adjustment unit 225: image region extraction unit 225a: first extraction unit 225b: pointer centroid calculation unit 225c: distance calculation unit 225d: second Extraction unit 226: display image determination unit B 1 : first boundary line B 2 : second boundary line C g : center of gravity d 1 : first distance d 2 : second distance I: display image P i : Pointer R: Image area R 1 : First rectangular area R 2 : Second rectangular area θ: First angle φ: Second angle ψ: Third angle
Claims (13)
カメラにより撮影された複数の撮影画像のうち、表示画面に表示する表示画像を決定する決定部と、
前記携帯型端末装置の、前記表示画面の法線に交差する平面内に規定される第1の軸及び第2の軸を中心とする第1の角速度及び第2の角速度を取得する第1の取得部と、
前記第1の角速度及び前記第2の角速度に基づき、前記携帯型端末装置の前記第1の軸及び前記第2の軸を中心とする第1の回転量及び第2の回転量を算出する第1の算出部と、
前記第1の回転量及び前記第2の回転量に基づき、前記表示画面の範囲に包含され、前記カメラの光軸に連動する座標を算出する第2の算出部と、
前記表示画像の前記座標にポインタを重畳する重畳部と、
前記ポインタが重畳された前記表示画像を前記表示画面に表示する表示部と、
前記表示画像から前記ポインタを包含する画像エリアを抽出する抽出部と、
を備える携帯型端末装置。 In portable terminal devices,
A determining unit that determines a display image to be displayed on the display screen among a plurality of captured images captured by the camera;
The first angular velocity about the first axis and the second axis defined in the plane intersecting the normal line of the display screen of the portable terminal device is acquired. An acquisition unit;
Based on the first angular velocity and the second angular velocity, a first rotation amount and a second rotation amount about the first axis and the second axis of the portable terminal device are calculated. 1 calculation unit;
A second calculation unit that calculates coordinates that are included in the range of the display screen and that are linked to the optical axis of the camera, based on the first rotation amount and the second rotation amount;
A superimposing unit that superimposes a pointer on the coordinates of the display image;
A display unit for displaying the display image on which the pointer is superimposed on the display screen;
An extraction unit for extracting an image area including the pointer from the display image;
A portable terminal device comprising:
前記画像エリアの画像情報に基づき、前記画像エリアに包含される物体を指定する指定部を備える携帯型端末装置。 The portable terminal device according to claim 1, further comprising:
A portable terminal device comprising a designation unit for designating an object included in the image area based on image information of the image area.
前記指定部は、
前記画像エリアの画像情報と、事前に準備されている画像情報と、を比較する比較部と、
前記比較部の比較結果に基づき、前記画像エリアの前記画像情報に対応する情報を取得する取得部と、
を備える携帯型端末装置。 In the portable terminal device according to claim 2,
The designation unit is:
A comparison unit that compares the image information of the image area with the image information prepared in advance;
An acquisition unit that acquires information corresponding to the image information of the image area based on a comparison result of the comparison unit;
A portable terminal device comprising:
前記第1の取得部は、さらに前記第1の軸及び前記第2の軸に交差する第3の軸を中心とする第3の角速度を取得し、
前記第1の算出部は、前記第3の角速度に基づき、前記携帯型端末装置の前記第3の軸を中心とする第3の回転量を算出し、
前記携帯型端末装置は、さらに、
前記第3の回転量に基づき、前記画像エリアのサイズを調整する調整部を備える携帯型端末装置。 The portable terminal device according to any one of claims 1 to 3,
The first acquisition unit further acquires a third angular velocity centered on a third axis that intersects the first axis and the second axis,
The first calculation unit calculates a third rotation amount around the third axis of the portable terminal device based on the third angular velocity,
The portable terminal device further includes:
A portable terminal device comprising an adjustment unit that adjusts the size of the image area based on the third rotation amount.
前記調整部は、前記第3の軸を中心とする前記携帯型端末装置の回転の向きに基づき、前記画像エリアのサイズの拡大及び縮小を決定する携帯型端末装置。 In the portable terminal device according to claim 4,
The said adjustment part is a portable terminal device which determines enlargement and reduction of the size of the said image area based on the rotation direction of the said portable terminal device centering on the said 3rd axis | shaft.
前記調整部は、前記第3の回転量と、事前に設定された基準回転量と、を比較して、前記第3の回転量が前記基準回転量を超えた場合に、前記画像エリアのサイズを調整する携帯型端末装置。 In the portable terminal device according to claim 4 or 5,
The adjustment unit compares the third rotation amount with a reference rotation amount set in advance, and when the third rotation amount exceeds the reference rotation amount, the size of the image area A portable terminal device that adjusts.
前記携帯型端末装置の、少なくとも前記第1の軸及び前記第2の軸の何れかの軸方向の加速度を取得する第2の取得部と、
前記軸方向の加速度の変化に基づき、前記画像エリアのサイズを調整する調整部と、
を備える携帯型端末装置。 The portable terminal device according to any one of claims 1 to 3, further comprising:
A second acquisition unit that acquires acceleration in at least one of the first axis and the second axis of the portable terminal device;
An adjustment unit that adjusts the size of the image area based on a change in acceleration in the axial direction;
A portable terminal device comprising:
前記抽出部は、前記表示画像に於ける前記ポインタの密度に基づき、前記画像エリアを決定する携帯型端末装置。 The portable terminal device according to any one of claims 1 to 7,
The extraction unit is a portable terminal device that determines the image area based on the density of the pointer in the display image.
前記抽出部は、
互いに平行な第1の境界線及び第2の境界線を含み、かつ、前記ポインタを包含する矩形状の第1のエリアを、前記表示画像から抽出する第1の抽出部と、
前記第1のエリアに於ける前記ポインタの重心を算出する第3の算出部と、
前記ポインタの重心から前記第1の境界線及び前記第2の境界線までの距離を算出する第4の算出部と、
前記ポインタの重心から前記第1の境界線までの距離と、前記ポインタの重心から前記第2の境界線までの距離と、のうち小さい方の距離だけ前記重心から離間した位置に、それぞれ境界線を有する矩形状の第2のエリアを、前記画像エリアとして抽出する第2の抽出部と、
を備える携帯型端末装置。 The portable terminal device according to any one of claims 1 to 8,
The extraction unit includes:
A first extraction unit that extracts a first rectangular area that includes a first boundary line and a second boundary line that are parallel to each other and that includes the pointer, from the display image;
A third calculator for calculating the center of gravity of the pointer in the first area;
A fourth calculation unit for calculating a distance from the center of gravity of the pointer to the first boundary line and the second boundary line;
The boundary line is located at a position separated from the center of gravity by the smaller one of the distance from the center of gravity of the pointer to the first boundary line and the distance from the center of gravity of the pointer to the second boundary line. A second extraction unit that extracts a rectangular second area having the image area,
A portable terminal device comprising:
前記携帯型端末装置のカメラにより撮影された複数の撮影画像のうち、表示画面に表示する表示画像を決定する工程と、
前記携帯型端末装置の、前記表示画面の法線に交差する平面内に規定される第1の軸及び第2の軸を中心とする第1の角速度及び第2の角速度を取得する工程と、
前記第1の角速度及び前記第2の角速度に基づき、前記携帯型端末装置の前記第1の軸及び前記第2の軸を中心とする第1の回転量及び第2の回転量を算出する工程と、
前記第1の回転量及び前記第2の回転量に基づき、前記表示画面の範囲に包含され、前記カメラの光軸に連動する座標を算出する工程と、
前記表示画像の前記座標にポインタを重畳する工程と、
前記表示画像から前記ポインタを包含する画像エリアを抽出する工程と、
を備えるエリア指定方法。 In an area designation method for designating an area by a portable terminal device,
Determining a display image to be displayed on a display screen among a plurality of captured images captured by the camera of the portable terminal device; and
Obtaining a first angular velocity and a second angular velocity centered on a first axis and a second axis defined in a plane intersecting a normal line of the display screen of the portable terminal device;
Calculating a first rotation amount and a second rotation amount around the first axis and the second axis of the portable terminal device based on the first angular velocity and the second angular velocity; When,
Calculating a coordinate included in the range of the display screen and interlocked with the optical axis of the camera based on the first rotation amount and the second rotation amount;
Superimposing a pointer on the coordinates of the display image;
Extracting an image area including the pointer from the display image;
An area designation method comprising:
前記画像エリアの画像情報に基づき、前記画像エリアに包含される物体を指定する工程を備えるエリア指定方法。 The area designation method according to claim 10, further comprising:
An area designation method comprising a step of designating an object included in the image area based on image information of the image area.
前記エリア指定プログラムは、コンピュータに、
前記携帯型端末装置のカメラにより撮影された複数の撮影画像のうち、表示画面に表示する表示画像を決定するステップ、
前記携帯型端末装置の、前記表示画面の法線に交差する平面内に規定される第1の軸及び第2の軸を中心とする第1の角速度及び第2の角速度を取得するステップ、
前記第1の角速度及び前記第2の角速度に基づき、前記携帯型端末装置の前記第1の軸及び前記第2の軸を中心とする第1の回転量及び第2の回転量を算出するステップ、
前記第1の回転量及び前記第2の回転量に基づき、前記表示画面の範囲に包含され、前記カメラの光軸に連動する特定の座標を算出するステップ、
前記表示画像の前記座標にポインタを重畳するステップ、及び
前記表示画像から前記ポインタを包含する画像エリアを抽出するステップ、
を実行させるエリア指定プログラム。 In an area designation program that designates an area with a portable terminal device,
The area specifying program is stored in a computer.
Determining a display image to be displayed on a display screen among a plurality of photographed images photographed by the camera of the portable terminal device;
Obtaining a first angular velocity and a second angular velocity centered on a first axis and a second axis defined in a plane intersecting a normal line of the display screen of the portable terminal device;
Calculating a first rotation amount and a second rotation amount around the first axis and the second axis of the portable terminal device based on the first angular velocity and the second angular velocity; ,
Calculating specific coordinates that are included in the range of the display screen and that are linked to the optical axis of the camera, based on the first rotation amount and the second rotation amount;
Superimposing a pointer on the coordinates of the display image; and extracting an image area including the pointer from the display image;
Area specification program to execute
前記エリア指定プログラムは、コンピュータに、さらに、
前記画像エリアの画像情報に基づき、前記画像エリアに包含される物体を指定するステップを実行させるエリア指定プログラム。 In the area designation program according to claim 12,
The area specifying program is further stored in a computer.
An area designation program for executing a step of designating an object included in the image area based on image information of the image area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011255644A JP5772540B2 (en) | 2011-11-23 | 2011-11-23 | Portable terminal device, area designation method, and area designation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011255644A JP5772540B2 (en) | 2011-11-23 | 2011-11-23 | Portable terminal device, area designation method, and area designation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013109677A JP2013109677A (en) | 2013-06-06 |
JP5772540B2 true JP5772540B2 (en) | 2015-09-02 |
Family
ID=48706345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011255644A Expired - Fee Related JP5772540B2 (en) | 2011-11-23 | 2011-11-23 | Portable terminal device, area designation method, and area designation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5772540B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7182976B2 (en) * | 2018-09-27 | 2022-12-05 | キヤノン株式会社 | Information processing device, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4104605B2 (en) * | 2005-03-29 | 2008-06-18 | 株式会社東芝 | Image processing device |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US8818274B2 (en) * | 2009-07-17 | 2014-08-26 | Qualcomm Incorporated | Automatic interfacing between a master device and object device |
-
2011
- 2011-11-23 JP JP2011255644A patent/JP5772540B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013109677A (en) | 2013-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4508049B2 (en) | 360 ° image capturing device | |
US20210112181A1 (en) | Image processing device, image processing method, and recording medium | |
JP4593968B2 (en) | Position and orientation measurement method and apparatus | |
JP6586824B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2016194799A (en) | Image analyzer and image analysis method | |
JP6399832B2 (en) | Pattern matching method and pattern matching apparatus | |
JP2011239361A (en) | System and method for ar navigation and difference extraction for repeated photographing, and program thereof | |
JP2022084658A (en) | Method for generating 3d object arranged in extended real space | |
JP4456029B2 (en) | 3D information restoration device for rotating body | |
EP2107529A2 (en) | Storage medium storing image conversion programm and image conversion apparatus | |
JP4835243B2 (en) | Image composition apparatus and image composition program | |
JP2006026790A (en) | Teaching model production device | |
JP7564327B2 (en) | Teaching Device | |
JP6952868B2 (en) | Information processing equipment, information processing systems, and information processing programs | |
JP5762099B2 (en) | Posture recognition apparatus, work robot, posture recognition method, program, and recording medium | |
JP5772540B2 (en) | Portable terminal device, area designation method, and area designation program | |
JP6582205B2 (en) | Information processing apparatus, information processing apparatus program, head mounted display, and information processing system | |
JP2013092888A (en) | Data processor | |
CN111489376A (en) | Method and device for tracking interactive equipment, terminal equipment and storage medium | |
US20220028100A1 (en) | Method for 3d scanning of a real object | |
CN114201028B (en) | Augmented reality system and method for anchoring display virtual object thereof | |
CN113628284A (en) | Pose calibration data set generation method, device and system, electronic equipment and medium | |
EP3995396A1 (en) | Information processing device, information processing method, program, and information processing system | |
JP2015114762A (en) | Finger operation detection device, finger operation detection method, finger operation detection program, and virtual object processing system | |
US20200258193A1 (en) | Information processing apparatus, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5772540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |