JP2009140149A - Information terminal equipment - Google Patents
Information terminal equipment Download PDFInfo
- Publication number
- JP2009140149A JP2009140149A JP2007314586A JP2007314586A JP2009140149A JP 2009140149 A JP2009140149 A JP 2009140149A JP 2007314586 A JP2007314586 A JP 2007314586A JP 2007314586 A JP2007314586 A JP 2007314586A JP 2009140149 A JP2009140149 A JP 2009140149A
- Authority
- JP
- Japan
- Prior art keywords
- image
- movement
- edge feature
- amount
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報を表示する機能を備えた情報端末装置に係り、特に、撮影部と撮影対象との間の空間的位置関係を変化させることによって表示部に表示させる情報を制御できる情報端末装置に関する。 The present invention relates to an information terminal device having a function of displaying information, and in particular, an information terminal device capable of controlling information displayed on a display unit by changing a spatial positional relationship between a shooting unit and a shooting target. About.
電子機器回路の集積化に伴って携帯電話やPDAなどの情報端末装置の小型・軽量化が進み、それらの情報端末装置が備える表示デバイスも高精細なものとなってきている。表示デバイスの高精細化により一度に表示する情報量を増大させることができる。小型・軽量化が図られた情報端末装置では、情報を表示する表示部が確保できる面積は限られている。 Along with the integration of electronic equipment circuits, information terminal devices such as mobile phones and PDAs have become smaller and lighter, and the display devices included in these information terminal devices have become high definition. The amount of information displayed at a time can be increased by increasing the definition of the display device. In an information terminal device that is reduced in size and weight, the area that can be secured by a display unit that displays information is limited.
このような情報端末装置で、表示部の面積を十分に確保しないまま膨大な量の情報を表示させた場合、情報の読み取りが困難になる。例えば、地図と共に地名などを文字で表示させた場合、地名などが微細な文字で表示されるため読み取りが困難となる。表示部に表示される情報を読み取りやすくするため、表示画面に表示される表示領域や表示倍率を変更するようにすることは公知である。 In such an information terminal device, when an enormous amount of information is displayed without sufficiently securing the area of the display unit, it is difficult to read the information. For example, when a place name or the like is displayed with characters on the map, the place name or the like is displayed with fine characters, making it difficult to read. In order to facilitate reading of information displayed on the display unit, it is known to change the display area and display magnification displayed on the display screen.
特許文献1には、画面上に仮想的な縮尺選択ボタンや縮尺変更ボタンを装備し、ユーザによるこれらのボタン操作に応じて画面上に表示される地図の表示領域や縮尺を変化させる地図データ提供装置が記載されている。 Japanese Patent Laid-Open No. 2004-151858 provides map data that includes a virtual scale selection button and a scale change button on the screen, and changes the display area and scale of the map displayed on the screen according to the user's operation of these buttons. An apparatus is described.
特許文献2には、テンキーを用いて、ディスプレイに表示させるデータ範囲をスクロールさせるテンキーの使用方法が記載されている。 Patent Document 2 describes a method of using a numeric keypad that uses a numeric keypad to scroll a data range to be displayed on a display.
特許文献3には、携帯電話機において、撮像部が異なるタイミングで撮像した複数の画像を解析して携帯電話機の向きの変化すなわち表示部(撮像部)の方向の変化を算出し、算出した表示部の方向の変化を表示制御装置(サーバ)に送信し、表示制御装置では、携帯電話機から送信された表示部の方向の変化に基づいて、表示すべき表示画像を選択して携帯電話機に送信し、携帯電話機では表示制御装置から送信された表示画像に更新することにより、表示部の方向によって表示している画像を切り換える画像表示システムが記載されている。 In Patent Document 3, in a mobile phone, a plurality of images taken at different timings by an imaging unit are analyzed to calculate a change in orientation of the mobile phone, that is, a change in direction of a display unit (imaging unit). The display control device transmits a change in the direction of the image to the display control device (server), and the display control device selects a display image to be displayed based on the change in the direction of the display unit transmitted from the mobile phone and transmits the selected display image to the mobile phone. In the cellular phone, an image display system is described in which the displayed image is switched according to the direction of the display unit by updating to the display image transmitted from the display control device.
特許文献4には、表示部近傍に3軸加速度センサなどのセンサを内蔵させ、機器本体を持って表示部がその表示画面に対して垂直方向および水平方向へ移動されたときの移動量を検出し、垂直方向への移動量に応じて情報表示サイズを動的に変更させ、水平方向への移動量に応じて情報表示範囲を動的に変更するようにした電子機器が記載されている。 In Patent Document 4, a sensor such as a triaxial acceleration sensor is built in the vicinity of the display unit, and the amount of movement is detected when the display unit is moved in the vertical and horizontal directions with respect to the display screen while holding the device body. An electronic device is described in which the information display size is dynamically changed according to the amount of movement in the vertical direction, and the information display range is dynamically changed according to the amount of movement in the horizontal direction.
特許文献5には、情報端末装置の内蔵カメラで前方を周期的に撮影して画像を取り込み、情報端末装置を上下左右あるいは前後方向に移動させた際の画像の局所的な動きを推定し、局所的動き情報を統合した大域的な動きに応じて、表示部に表示させる情報を変化させる技術が開示されている。
特許文献1、2に記載されている地図データ提供装置やテンキーの使用方法では、所望の表示領域および倍率に至るまでのボタン操作やタッチパネル操作が煩雑であるばかりでなく、小さなボタンやタッチパネルの領域を正しく押下操作する必要があるため操作性に難がある。指先での細かな操作が求められるこのようなインタフェースは、特に、倍率を大きくして情報表示することを望む高齢者にとって使いづらいという課題がある。 In the map data providing apparatus and the method of using the numeric keypad described in Patent Documents 1 and 2, not only the button operation and touch panel operation up to the desired display area and magnification are complicated, but also a small button or touch panel area. It is difficult to operate because it is necessary to press correctly. Such an interface that requires fine operation with a fingertip has a problem that it is difficult to use especially for an elderly person who desires to display information at a high magnification.
特許文献3に記載されている画像表示システムでは、利用者が携帯電話機を操作する度に表示制御装置(サーバ)への通信が発生するためコストが増大するという課題がある。また、表示制御装置との通信を行うためレスポンスが遅いという課題もある。 The image display system described in Patent Document 3 has a problem that the cost increases because communication to the display control device (server) occurs every time the user operates the mobile phone. Another problem is that the response is slow because communication is performed with the display control device.
特許文献4に記載されている電子機器では、直感的かつ容易な操作で倍率の変更が実現可能であるが、高価な3軸加速度センサなどのセンサを組み込まなければならず、機器の高価格化を招くという課題がある。また、センサの追加に伴い消費電力が増加するという課題もある。 In the electronic device described in Patent Document 4, the magnification can be changed by an intuitive and easy operation. However, an expensive sensor such as a three-axis acceleration sensor must be incorporated, and the price of the device is increased. There is a problem of inviting. There is also a problem that power consumption increases with the addition of sensors.
特許文献5に開示されている情報端末装置では、ボタン操作や加速度センサを必要とせずに、情報端末に内蔵されている汎用のカメラ機能だけを用いて、ディスプレイに表示させる情報を直感的な操作で制御できる。しかしながら、操作性が動き推定の精度に依存し、速すぎる動きや大きすぎる動きには正しく動作しない場合があるため、慎重で細やかな操作が求められる。 In the information terminal device disclosed in Patent Document 5, intuitive operation of information to be displayed on the display is performed using only a general-purpose camera function built in the information terminal without requiring a button operation or an acceleration sensor. Can be controlled. However, since the operability depends on the accuracy of motion estimation and may not operate correctly for movements that are too fast or too large, careful and detailed operations are required.
本発明の目的は、上記した従来技術の課題を解決し、ボタン操作などの細かい操作が不要であり、かつ加速度センサなどの付加的なハードウェアを搭載することなく、撮影部と撮影対象との間の空間的位置関係を変化させることによって表示部に表示させる情報を精度良く制御できる情報端末装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems of the prior art, do not require detailed operation such as button operation, and without mounting additional hardware such as an acceleration sensor. It is an object of the present invention to provide an information terminal device capable of accurately controlling information to be displayed on a display unit by changing the spatial positional relationship between them.
上記した目的を達成するために、本発明は、所定のサンプリング周期で撮影した画像を出力する撮影手段と、画像情報を保持する記憶手段と、前記画像情報を表示する表示手段と、前記撮影画像を解析して撮影手段と被写体との間の空間的位置関係の変化を推定する推定手段と、前記記憶手段から読み出して表示手段に表示させる画像情報を、前記推定手段により推定された空間的位置関係の変化に基づいて制御する制御手段とを備えた情報端末装置において、以下のような特徴を備えた点に特徴がある。 In order to achieve the above-described object, the present invention provides a photographing unit that outputs an image photographed at a predetermined sampling period, a storage unit that retains image information, a display unit that displays the image information, and the photographed image. And estimating means for estimating a change in a spatial positional relationship between the photographing means and the subject, and image information read out from the storage means and displayed on the display means, the spatial position estimated by the estimating means An information terminal device including a control unit that controls based on a change in the relationship is characterized by the following features.
(1)推定手段が、撮影画像の所定方向に関するエッジ特徴量を算出するエッジ特徴量算出手段と、今回のサンプリング時刻で撮影された今回画像および今回以前のサンプリング時刻で撮影された前回画像の各エッジ特徴量を比較して撮影画像を動きを検知する動き検知手段とを具備し、動きの検知結果に基づいて、撮影手段と被写体との間の空間的位置関係の変化を推定することを特徴とする。 (1) The estimation means calculates the edge feature quantity calculating means for calculating the edge feature quantity in a predetermined direction of the photographed image, the current image photographed at the current sampling time, and the previous image photographed at the previous sampling time. A motion detection unit that detects a motion of the photographed image by comparing edge feature amounts, and estimates a change in a spatial positional relationship between the photographing unit and the subject based on a motion detection result. And
(2)前記エッジ特徴量算出手段が、撮影画像の所定方向に関する微分画像を算出することを特徴とする。 (2) The edge feature amount calculating means calculates a differential image with respect to a predetermined direction of the photographed image.
(3)推定手段がさらに、前記エッジ特徴量の定量値を算出する定量値算出手段を備え、前記動き検知手段は、前回画像および今回画像の各エッジ特徴量の定量値を比較することを特徴とする。 (3) The estimation means further includes quantitative value calculation means for calculating a quantitative value of the edge feature value, and the motion detection means compares the quantitative value of each edge feature value of the previous image and the current image. And
(4)定量値算出手段が、前記エッジ特徴量の分散値を算出することを特徴とする。 (4) The quantitative value calculating means calculates a variance value of the edge feature value.
(5)定量値算出手段が、前記エッジ特徴量の平均値を算出することを特徴とする。 (5) The quantitative value calculating means calculates an average value of the edge feature values.
(6)前回画像から今回画像への移動量を算出する移動量算出手段と、今回画像の撮影中に撮影手段と被写体との間の空間的位置関係が変化することに応じて今回画像に生じる流れ量を、前記移動量に基づいて推定する流れ量推定手段と、前回画像および前記流れ量に基づいて、前回画像を前記流れ量だけ流した場合と等価な移動後推定画像を生成する手段と、前記今回画像および移動後推定画像に基づいて移動の向きを推定する向き推定手段とを含むことを特徴とする。 (6) A movement amount calculation unit that calculates a movement amount from the previous image to the current image, and the current image that is generated when the spatial positional relationship between the shooting unit and the subject changes during the shooting of the current image. A flow amount estimating means for estimating a flow amount based on the movement amount; a means for generating a post-movement estimation image equivalent to a case where the previous image is flowed by the flow amount based on the previous image and the flow amount; And direction estimation means for estimating the direction of movement based on the current image and the estimated image after movement.
(7)移動後推定画像を生成する手段は、前回画像を所定の単位量だけ流れ方向へ移動させた画像を射影し、これを総移動量が前記流れ量に達するまで繰り返す手段と、前記各射影画像を合算し、対応画素ごとに平均化して移動後推定画像を生成する手段とを含むことを特徴とする。 (7) The means for generating the estimated image after movement projects the image obtained by moving the previous image in the flow direction by a predetermined unit amount, and repeats this until the total movement amount reaches the flow amount; And a means for adding up the projected images and averaging them for each corresponding pixel to generate a post-movement estimated image.
(8)前記向き推定手段は、移動後推定画像のエッジ特徴量を算出する手段と、今回画像のエッジ特徴量と移動後推定画像のエッジ特徴量とに基づいて移動の向きを推定する手段とを含むことを特徴とする。 (8) The direction estimation means includes means for calculating an edge feature amount of the post-movement estimated image, means for estimating the direction of movement based on the edge feature amount of the current image and the edge feature amount of the post-movement estimation image; It is characterized by including.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
上記した特徴(1)によれば、撮影画像の動きの有無を当該画像のエッジ特徴量に基づいて検知できるので、動きの速度や量が大きい場合でも、これを確実に検知できるようになる。 According to the above feature (1), since the presence or absence of motion of the captured image can be detected based on the edge feature amount of the image, this can be reliably detected even when the speed and amount of motion are large.
上記した特徴(2)によれば、撮影画像の微分画像をエッジ特徴量とできるので、処理負荷の小さな演算でエッジ特徴量を算出できるようになる。 According to the above feature (2), since the differential image of the photographed image can be used as the edge feature amount, the edge feature amount can be calculated with a small processing load.
上記した特徴(3),(4),(5)によれば、撮影画像のエッジ特徴量を定量化できるので、エッジ特徴量の比較が容易になる。 According to the features (3), (4), and (5) described above, since the edge feature amount of the captured image can be quantified, the edge feature amount can be easily compared.
上記した特徴(6),(7),(8)によれば、撮影のためにシャッターが開いている間に被写体が相対的に移動して画像に流れが生じている場合でも、画像の動きの向きを正確に検知できるようになる。 According to the features (6), (7), and (8) described above, even if the subject moves relatively while the shutter is open for shooting, the movement of the image occurs. It becomes possible to accurately detect the direction of the.
以下、図面を参照して本発明の最良の実施の形態について詳細に説明する。図1は、本発明を適用した携帯電話1の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不用な構成は図示が省略されている。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the best embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration of a main part of a cellular phone 1 to which the present invention is applied. Here, illustrations of configurations unnecessary for the description of the present invention are omitted.
撮像部11は、所定のサンプリング周期で被写体を撮影して、その撮影画像を出力する。この撮像部11としては携帯電話1に標準装備されるデジタルカメラを用いることができる。利用者が携帯電話1を被写体に対して水平(x)方向や垂直(y)方向に傾けると、撮影部11と被写体との間の空間的位置関係が同じように変化し、その変化が表示画像に反映される。推定部12は、撮影画像の変化に基づいて携帯電話1の動きを検知する動き検知部12aと、この動き検知部12aにより検知された動きの向きを推定する向き推定部12bとを備え、後に詳述するように、撮影部11により撮影された画像を解析して撮影部11と被写体との間の空間的位置関係の変化を推定する。 The imaging unit 11 captures a subject at a predetermined sampling period and outputs the captured image. As the imaging unit 11, a digital camera provided as standard on the mobile phone 1 can be used. When the user tilts the mobile phone 1 in the horizontal (x) direction or the vertical (y) direction with respect to the subject, the spatial positional relationship between the photographing unit 11 and the subject changes in the same way, and the change is displayed. Reflected in the image. The estimation unit 12 includes a motion detection unit 12a that detects the movement of the mobile phone 1 based on a change in the captured image, and a direction estimation unit 12b that estimates the direction of the motion detected by the motion detection unit 12a. As described in detail, the image captured by the imaging unit 11 is analyzed to estimate a change in the spatial positional relationship between the imaging unit 11 and the subject.
記憶部14では、表示部15に表示させる地図などの画像情報Eが予め展開されている。制御部13は、推定部12で推定された撮影部11と被写体との間の空間的位置関係の変化に基づいて、記憶部14から画像情報Eの一部範囲を表示画像Edisとして切り出し、これを表示部15へ出力する。表示部15は、制御部13から出力された表示画像Edisを可視表示する。 In the storage unit 14, image information E such as a map to be displayed on the display unit 15 is developed in advance. The control unit 13 cuts out a partial range of the image information E as a display image Edis from the storage unit 14 based on the change in the spatial positional relationship between the photographing unit 11 and the subject estimated by the estimation unit 12. Is output to the display unit 15. The display unit 15 visually displays the display image Edis output from the control unit 13.
図2は、記憶部14に記憶されている画像情報Eから切り出されて表示部15に表示される表示画像Edisが、前記推定部12での推定結果に応じて変化する様子を模式的に表現した図であり、ここでは、画像情報Eの中央部に表示画像Edisが設定されている状態から説明を始める。 FIG. 2 schematically illustrates how the display image Edis cut out from the image information E stored in the storage unit 14 and displayed on the display unit 15 changes according to the estimation result in the estimation unit 12. Here, the description starts from a state in which the display image Edis is set at the center of the image information E.
利用者が携帯電話1を左方向へ傾ける(左パーンする)と撮像画像が左方向へ移動するので、画像情報Eから切り出される表示画像Edisも左方向へ移動する。利用者が携帯電話1を左方向へ連続的に傾けると、撮影画像も左方向へ連続的に移動するので、画像情報Eから切り出される表示画像Edisも左方向へ連続的に移動する。右方向へ傾ける場合も同様である。 When the user tilts the mobile phone 1 to the left (panes left), the captured image moves to the left, so the display image Edis cut out from the image information E also moves to the left. When the user tilts the mobile phone 1 continuously in the left direction, the captured image also continuously moves in the left direction, so that the display image Edis cut out from the image information E also continuously moves in the left direction. The same applies when tilting to the right.
また、利用者が携帯電話1を上方向へ傾けると撮像画像が上方向へ移動するので、画像情報Eから切り出される表示画像Edisも上方向へ移動する。利用者が携帯電話1を上方向へ連続的に傾けると、撮影画像も上方向へ連続的に移動するので、画像情報Eから切り出される表示画像Edisも上方向へ連続的に移動する。下方向へ傾ける場合も同様である。 Further, when the user tilts the cellular phone 1 upward, the captured image moves upward, so that the display image Edis cut out from the image information E also moves upward. When the user tilts the mobile phone 1 continuously upward, the captured image continuously moves upward, so that the display image Edis cut out from the image information E also continuously moves upward. The same applies when tilting downward.
さらに、利用者が携帯電話1を左上方向へ傾けると撮影画像が左上方向へ移動するので、画像情報Eから切り出される表示画像Edisも左上方向へ移動する。利用者が携帯電話1を左上方向へ連続的に傾けると、撮像画像も左上方向へ連続的に移動するので、画像情報Eから切り出される表示画像Edisも左上方向へ連続的に移動する。左下方向、右上方向、右下方向へ傾ける場合も同様である。 Further, when the user tilts the mobile phone 1 in the upper left direction, the captured image moves in the upper left direction, so that the display image Edis cut out from the image information E also moves in the upper left direction. When the user tilts the mobile phone 1 continuously in the upper left direction, the captured image also moves in the upper left direction, so that the display image Edis cut out from the image information E also moves in the upper left direction. The same applies when tilting in the lower left direction, upper right direction, and lower right direction.
次いで、前記推定部12が撮影部11と被写体との間の空間的位置関係の変化を推定する動作について説明する。撮影部11と被写体との間の空間的位置関係の変化は、利用者が携帯電話1を持って、それを上下左右に傾ける動作に基づくので、以下では、それを利用者の動作として説明する。 Next, an operation in which the estimation unit 12 estimates a change in the spatial positional relationship between the photographing unit 11 and the subject will be described. The change in the spatial positional relationship between the photographing unit 11 and the subject is based on an operation in which the user holds the mobile phone 1 and tilts it up, down, left, and right, and will be described as a user operation below. .
図3は、前記動き検知部12aの構成を示した機能ブロック図であり、第1および第2エッジ特徴量算出部51,52は、サンプリング時刻tiで撮影された今回画像Ftiに対して、空間的な方向別に微分演算を実行してエッジ特徴量を算出する。すなわち、第1エッジ特徴量算出部51は、今回画像Ftiをx方向に微分してx方向エッジ特徴量Gxtiを算出する。第2エッジ特徴量算出部52は、今回画像Ftiをy方向に微分してy方向エッジ特徴量Gytiを算出する。各エッジ特徴量Gxti,Gytiは正規化部53、54で正規化される。 FIG. 3 is a functional block diagram showing the configuration of the motion detection unit 12a. The first and second edge feature quantity calculation units 51 and 52 are arranged to apply space to the current image Fti taken at the sampling time ti. The edge feature quantity is calculated by executing a differentiation operation for each specific direction. That is, the first edge feature quantity calculation unit 51 differentiates the current image Fti in the x direction to calculate the x direction edge feature quantity Gxti. The second edge feature quantity calculation unit 52 differentiates the current image Fti in the y direction to calculate the y direction edge feature quantity Gyti. The edge feature amounts Gxti and Gyti are normalized by the normalizing units 53 and 54.
第1および第2分散値算出部55,56は、サンプリング時刻の異なる各画像のエッジ特徴量を定量的に比較するために、エッジ特徴量の分散値を算出する。すなわち、第1分散値算出部55は、x方向エッジ特徴量Gxtiの分散値VARxtiを算出する。第2分散値算出部56は、y方向エッジ特徴量Gytiの分散値VARytiを算出する。なお、分散値の代わりに平均値を求めるようにしても良い。 The first and second variance value calculation units 55 and 56 calculate the variance value of the edge feature value in order to quantitatively compare the edge feature values of the images having different sampling times. That is, the first variance value calculating unit 55 calculates the variance value VARxti of the x-direction edge feature amount Gxti. The second variance value calculation unit 56 calculates the variance value VARyti of the y-direction edge feature amount Gyti. An average value may be obtained instead of the variance value.
動き検知部57は、第1および第2分散値算出部55,56から出力される今回画像Ftiのエッジ特徴量に関する今回分散値VARxti,VARytiと、前回分散値記憶部58,59に記憶されている、前回画像Fti-1のエッジ特徴量に関する前回分散値VARxti-1,VARyti-1との比較結果に基づいて、xy方向への動きの有無を検知する。 The motion detection unit 57 stores the current variance values VARxti and VARyti relating to the edge feature amount of the current image Fti output from the first and second variance value calculation units 55 and 56 and the previous variance value storage units 58 and 59. The presence or absence of movement in the xy direction is detected based on the result of comparison with the previous variance values VARxti-1 and VARyti-1 regarding the edge feature amount of the previous image Fti-1.
図4は、前記動き検知部12aの動作を示したフローチャートである。時刻tiにおいて今回画像Ftiが入力され、これがステップS11で検知されると、ステップS12,S13では、今回画像Ftiが前記第1および第2エッジ特徴量算出部51,52において、それぞれx方向およびy方向へ微分されてエッジ特徴量Gjtiが算出される。なお、添字jは微分方向(xまたはy)を示している。本実施形態では、今回画像Ftiおよび微分オペレータHjが次式(1)の積和演算*に適用されて微分画像Gjtiが算出され、これがエッジ特徴量とされる。 FIG. 4 is a flowchart showing the operation of the motion detector 12a. When the current image Fti is input at time ti and is detected in step S11, in steps S12 and S13, the current image Fti is converted in the x direction and y in the first and second edge feature quantity calculation units 51 and 52, respectively. The edge feature amount Gjti is calculated by being differentiated in the direction. Note that the subscript j indicates the differential direction (x or y). In the present embodiment, the current image Fti and the differential operator Hj are applied to the product-sum operation * of the following equation (1) to calculate the differential image Gjti, which is used as the edge feature amount.
本実施形態では、微分オペレータHx,Hyとして、それぞれ次式(2)、(3)のSobelオペレータを適用できる。そして、今回画像Ftiから3画素×3画素のブロック単位で画素情報を読み出し、これと微分オペレータHx,Hyとの積和演算*に基づいて微分画像Gxti,Gytiの1画素を算出し、これを1フレーム分だけ繰り返して微分画像Gxti(Gyti)を生成する。 In the present embodiment, the Sobel operators of the following expressions (2) and (3) can be applied as the differential operators Hx and Hy, respectively. Then, pixel information is read from the current image Fti in block units of 3 pixels × 3 pixels, and one pixel of the differential images Gxti and Gyti is calculated based on the product-sum operation * of this and the differential operators Hx and Hy. The differential image Gxti (Gyti) is generated by repeating one frame.
なお、微分オペレータHx,Hyのサイズは3×3に限定されるものではなく、より大きなサイズの微分オペレータを採用すればノイズに対する耐性を向上させることができる。さらに、上記したSobelオペレータの代わりにRobertsオペレータを用いても良いし、あるいはKirschオペレータを採用すれば、xyの2方向のみならず8方向に関してエッジ特徴量を算出できるようになる。 Note that the sizes of the differential operators Hx and Hy are not limited to 3 × 3. If a differential operator having a larger size is employed, resistance to noise can be improved. Furthermore, instead of the Sobel operator described above, the Roberts operator may be used, or if the Kirsch operator is employed, the edge feature amount can be calculated not only in the two directions of xy but also in the eight directions.
図5は、携帯電話1を傾ける直前の時刻ti-1で撮影された前回画像Fti-1[同図(a)]と、そのx方向微分画像Gxti-1[同図(b)]およびy方向微分画像Gyti-1[同図(c)]との関係を示した図であり、図6は、左向きに傾け動作中の時刻tiで撮影された今回画像Fti[同図(a)]と、そのx方向微分画像Gxti[同図(b)]およびy方向微分画像Gyti[同図(c)]との関係を示した図である。 FIG. 5 shows the previous image Fti-1 [Fig. (A)] taken at time ti-1 immediately before tilting the mobile phone 1, and its x-direction differential image Gxti-1 [Fig. (B)] and y. FIG. 6 is a diagram showing a relationship with the directional differential image Gyti-1 [FIG. (C)], and FIG. 6 shows the current image Fti [FIG. (A)] taken at time ti during the tilting operation to the left. FIG. 6 is a diagram showing the relationship between the x-direction differential image Gxti [FIG. (B)] and the y-direction differential image Gyti [FIG. (C)].
図5のx方向微分画像Gxti-1[同図(b)]では、前回画像Fti-1のx方向に関するエッジのみが抽出され、y方向微分画像Gyti-1[同図(c)]では、撮影画像Fti-1のy方向に関するエッジのみが抽出されている。これに対して、図6では今回画像Fti[同図(a)]がx方向に流れているので、そのy方向微分画像Gyti[同図(c)]では、今回画像Ftiのy方向に関するエッジが抽出されているのに対して、x方向微分画像Gxti[同図(b)]ではエッジが不明瞭となっている。したがって、微分画像の時間的な変化を評価すれば各方向への動きの有無を検知できることが判る。 In the x-direction differential image Gxti-1 [FIG. 5 (b)], only the edge in the x direction of the previous image Fti-1 is extracted, and in the y-direction differential image Gyti-1 [FIG. 5 (c)], Only edges in the y direction of the captured image Fti-1 are extracted. On the other hand, in FIG. 6, the current image Fti [FIG. (A)] flows in the x direction. Therefore, in the y-direction differential image Gyti [FIG. (C)], an edge in the y direction of the current image Fti is obtained. Is extracted, whereas in the x-direction differential image Gxti [(b)], the edge is unclear. Therefore, it can be seen that the presence or absence of movement in each direction can be detected by evaluating the temporal change of the differential image.
図4へ戻り、ステップS14,S15では、各エッジ特徴量Gxti,Gytiが前記正規化部53,54において正規化される。ステップS16,S17では、前記第1および第2分散値算出部55,56において各エッジ特徴量Gxti,Gytiの分散値が算出され、それぞれ今回の分散値VARx_cur,VARy_curとして一時記憶される。ステップS18,19では、前回画像Fti-1に基づいて算出された前回の各分散値VARj_pred (VARx_pred,VARy_pred)と、今回の分散値VARj_cur (VARx_cur,VARy_cur)とが、次式(4)、(5)に適用されて動きの存在が検知される。 Returning to FIG. 4, in steps S <b> 14 and S <b> 15, the edge feature amounts Gxti and Gyti are normalized by the normalization units 53 and 54. In steps S16 and S17, the first and second variance value calculation units 55 and 56 calculate the variance values of the edge feature amounts Gxti and Gyti, and temporarily store them as the current variance values VARx_cur and VARy_cur, respectively. In steps S18 and S19, the previous variance values VARj_pred (VARx_pred, VARy_pred) calculated based on the previous image Fti-1 and the current variance values VARj_cur (VARx_cur, VARy_cur) are expressed by the following equations (4) and (4): Applied to 5), the presence of motion is detected.
上式(4)では、分散値の比(VARj_pred/VARj_cur)が第1基準値TH1を下回るか、あるいは第2基準値TH2(>TH1)を上回ると方向jへの動きが存在すると判定される。ここで、上式(4)の左辺が成立するのは、携帯電話1が停止状態から移動状態へ移行したときであり、右辺が成立するのは、携帯電話1が移動状態から停止状態へ移行したときである。また、上式(5)が成立する場合には、動きが存在しないと判定される。 In the above equation (4), it is determined that there is a movement in the direction j when the variance ratio (VARj_pred / VARj_cur) is lower than the first reference value TH1 or higher than the second reference value TH2 (> TH1). . Here, the left side of the above formula (4) is established when the mobile phone 1 shifts from the stopped state to the moving state, and the right side is satisfied when the mobile phone 1 shifts from the moving state to the stopped state. When Further, when the above equation (5) is established, it is determined that there is no movement.
ステップS20では、各方向への動きの有無に基づいて携帯電話1の動きが判定される。すなわち、x方向およびy方向のいずれかへの動きが検知されると、当該方向への動きが存在すると推定される。x方向およびy方向のいずれにも動きが検知されなければ、動きが存在しないと推定される。また、本実施形態ではx方向およびy方向のいずれにも動きの存在が検知されると、前記分散値の比に応じた斜め方向への動きが存在すると判定される。たとえば、x方向の分散値の比とy方向の分散値の比とが同値であれば、45°方向への動きが存在すると判定される。ステップS21,S22では、今回の各分散値VARx_cur,VARy_curが、それぞれ前回の分散値VARx_pred,VARy_predとして前回分散値記憶部58,59に更新登録されて、次の推定に利用される。 In step S20, the movement of the mobile phone 1 is determined based on the presence or absence of movement in each direction. That is, when movement in either the x direction or the y direction is detected, it is estimated that there is movement in that direction. If no motion is detected in either the x direction or the y direction, it is estimated that there is no motion. In the present embodiment, when the presence of motion is detected in both the x direction and the y direction, it is determined that there is a motion in an oblique direction corresponding to the ratio of the variance values. For example, if the ratio of the dispersion value in the x direction is the same as the ratio of the dispersion value in the y direction, it is determined that there is a movement in the 45 ° direction. In steps S21 and S22, the respective variance values VARx_cur and VARy_cur are updated and registered in the previous variance value storage units 58 and 59 as the previous variance values VARx_pred and VARy_pred, respectively, and used for the next estimation.
次いで、図7,8,9を参照して前記推定部12の向き推定部12bについて説明する。本実施形態では、向き推定部12bが前記動き検知部12aにより動きが検知された方向に関してのみ動きの向き推定を行うようにすることで、処理負荷の低減を図っている。 Next, the orientation estimation unit 12b of the estimation unit 12 will be described with reference to FIGS. In the present embodiment, the direction estimation unit 12b estimates the motion direction only in the direction in which the motion is detected by the motion detection unit 12a, thereby reducing the processing load.
図7は、前記向き推定部12bの構成を示した機能ブロック図であり、流れ量推定部71は、前回画像Fti-1および今回画像Ftiの分散値VARj_pred,VARj_curに基づいて、表示部15上での前回画像Fti-1から今回画像Ftiへの移動量ΔDfを算出し、さらにこの移動量ΔDfに基づいて、今回画像Ftiを撮影するためのシャッター開放中に撮影部11と被写体との間の空間的位置関係が変化することに応じて今回画像Ftiに生じた画像の流れ量ΔDを推定する。 FIG. 7 is a functional block diagram showing the configuration of the direction estimation unit 12b. The flow amount estimation unit 71 is displayed on the display unit 15 based on the variance values VARj_pred and VARj_cur of the previous image Fti-1 and the current image Fti. The movement amount ΔDf from the previous image Fti-1 to the current image Fti is calculated, and further, based on this movement amount ΔDf, the shutter between the photographing unit 11 and the subject is opened while the current image Fti is photographed. The flow amount ΔD of the image generated in the current image Fti in response to the change in the spatial positional relationship is estimated.
射影画像生成部72は、前回画像Fti-1が前記流れ量ΔDだけ流れた場合を想定し、その過程のn個の射影画像Fti-1+nΔdを生成する。移動後画像推定部73は、前記n個の射影画像Fti-1+nΔdを合算、平均化することで、前回画像Fti-1を前記流れ量ΔDだけ仮想的に流した場合と実質的に等価な移動後推定画像Fti_sを生成する。エッジ特徴量算出部74は、今回画像Ftiおよび移動後推定画像Fti_sの各エッジ特徴量Gti,Gti_sを算出する。向き推定部75は、各エッジ特徴量Gti,Gxti_sの二乗誤差が最低となる座標の相対位置に基づいて、前回のサンプリング時刻ti-1から今回のサンプリング時刻tiまでに携帯電話1が傾けられた向きを推定する。 The projected image generation unit 72 assumes that the previous image Fti-1 has flowed by the flow amount ΔD, and generates n projected images Fti-1 + nΔd in the process. The post-movement image estimating unit 73 adds and averages the n projected images Fti-1 + nΔd, and is substantially equivalent to the case where the previous image Fti-1 is virtually flowed by the flow amount ΔD. A post-movement estimated image Fti_s is generated. The edge feature amount calculation unit 74 calculates the edge feature amounts Gti and Gti_s of the current image Fti and the post-movement estimated image Fti_s. The direction estimation unit 75 tilts the mobile phone 1 from the previous sampling time ti-1 to the current sampling time ti based on the relative position of the coordinates where the square error of each edge feature amount Gti, Gxti_s is the lowest. Estimate the direction.
次いで、図8のフローチャートおよび図9の模式図を参照しながら、本実施形態における動きの向きの推定方法について説明する。ここでは、前記動き検知部12aにおいてx方向への動きの存在が予め検知されており、図9に示したように、前回のサンプリング時刻ti-1における撮影画像を前回画像Fti-1、今回のサンプリング時刻tiにおける撮影画像を今回画像Ftiとし、時刻tiでは携帯電話1がx方向へ傾けられている最中であり、今回画像Ftiを撮影するためのシャッター開放中に被写体が相対的に流れた結果、今回画像Ftiにはx方向への流れが生じているものとする。 Next, a motion direction estimation method according to this embodiment will be described with reference to the flowchart in FIG. 8 and the schematic diagram in FIG. 9. Here, the presence of motion in the x direction is detected in advance in the motion detector 12a, and as shown in FIG. 9, the captured image at the previous sampling time ti-1 is the previous image Fti-1, and the current image is captured. The captured image at the sampling time ti is the current image Fti. At the time ti, the mobile phone 1 is being tilted in the x direction, and the subject relatively flows while the shutter for capturing the current image Fti is open. As a result, it is assumed that the current image Fti has a flow in the x direction.
ステップS31では、前回画像Fti-1の分散値VARx_predおよび今回画像Ftiの分散値VARx_curが流れ量推定部71へ取り込まれる。ステップS32では、各分散値の比(VARx_pred/VARx_cur)に基づいて、前回画像Fti-1から今回画像Ftiまでのx方向への移動量ΔDfが推定される。本実施形態では、分散値の比と移動量ΔDfとの関係を実験的に求めて得られ関数式やデータテーブルが予め流れ量推定部71に登録されており、これに分散値の比を適用することで移動量ΔDfが推定される。 In step S31, the variance value VARx_pred of the previous image Fti-1 and the variance value VARx_cur of the current image Fti are taken into the flow amount estimation unit 71. In step S32, the amount of movement ΔDf in the x direction from the previous image Fti-1 to the current image Fti is estimated based on the ratio (VARx_pred / VARx_cur) of each variance value. In the present embodiment, a function equation and a data table obtained by experimentally determining the relationship between the ratio of the dispersion value and the movement amount ΔDf are registered in the flow amount estimation unit 71 in advance, and the ratio of the dispersion value is applied thereto. Thus, the movement amount ΔDf is estimated.
ステップS33では、前記移動量ΔDfに基づいて、今回画像Ftiの撮影中に撮影部11と被写体との間の空間的位置関係が変化することに応じて今回画像Ftiに生じた画像の流れ量ΔDが推定される。すなわち、画像の撮影周期は一定なので、画像の移動量ΔDfが大きければ移動速度が速く、したがって流れ量ΔDも大きくなると推定される。そこで、本実施形態では移動量ΔDfと流れ量ΔDとの関係を実験的に求めて関数式やデータテーブルとして移動量推定部71に予め登録しておき、これに移動量ΔDfを適用することで流れ量ΔDが推定される。 In step S33, based on the movement amount ΔDf, an image flow amount ΔD generated in the current image Fti in response to a change in the spatial positional relationship between the photographing unit 11 and the subject during photographing of the current image Fti. Is estimated. That is, since the image capturing period is constant, it is estimated that if the image movement amount ΔDf is large, the movement speed is fast and therefore the flow amount ΔD is also large. Therefore, in the present embodiment, the relationship between the movement amount ΔDf and the flow amount ΔD is experimentally obtained, registered in advance in the movement amount estimation unit 71 as a function equation or a data table, and the movement amount ΔDf is applied thereto. The flow amount ΔD is estimated.
ステップS34では、前記射影画像生成部72において、前回画像Fti-1をx方向に単位画素Δd(例えば、1画素)だけ移動させた射影画像Fti-1+Δdが生成される。ステップS35では、前記流れ量ΔDだけ移動した射影画像の生成が完了したか否かが判定される。完了していなければステップS34へ戻り、前回画像Fti-1をx方向へ更に単位画素Δdだけ移動させた射影画像Fti-1+2Δdが生成される。その後、射影画像Fti-1+4Δdが生成され、前記流れ量ΔDだけ移動した射影画像(ΔD=4Δd)の生成が完了したと判定されるとステップS36へ進む。 In step S34, the projected image generation unit 72 generates a projected image Fti-1 + Δd obtained by moving the previous image Fti-1 by the unit pixel Δd (for example, one pixel) in the x direction. In step S35, it is determined whether or not the generation of the projected image moved by the flow amount ΔD is completed. If not completed, the process returns to step S34, and a projected image Fti-1 + 2Δd is generated by moving the previous image Fti-1 further by the unit pixel Δd in the x direction. Thereafter, a projection image Fti-1 + 4Δd is generated, and if it is determined that the generation of the projection image (ΔD = 4Δd) moved by the flow amount ΔD is completed, the process proceeds to step S36.
ステップS36では、前記移動後画像推定部73において、今回画像Ftiおよび各射影画像Fti-1〜Fti-1+4Δdの各画素値を対応画素ごとに合算して、その平均値を求めることで、移動後推定画像Fti_sが算出される。このようにして得られた移動後推定画像Fti_sは、前回画像Fti-1を流れ量ΔDだけ流して得られる画像と実質的に等価である。 In step S36, the post-movement image estimation unit 73 adds the pixel values of the current image Fti and the projected images Fti-1 to Fti-1 + 4Δd for each corresponding pixel, and obtains an average value thereof. A post-movement estimated image Fti_s is calculated. The post-movement estimated image Fti_s obtained in this way is substantially equivalent to an image obtained by flowing the previous image Fti-1 by the flow amount ΔD.
ステップS37では、前記エッジ特徴量算出部74において、今回画像Ftiおよび移動後推定画像Fti_sのx方向に関するエッジ特徴量Gxti,Gxti_sが算出される。ステップS38では、前記移動方向推定部75において、各画像のエッジ特徴量Gxti,Gxti_sの二乗誤差が最低となる座標の相対位置に基づいて、前回から今回への移動の向きが推定される。すなわち、図9に示したように、今回画像Ftiに対して移動後推定画像Fti_sが図中右側に位置していれば、携帯電話1は右向きに傾けられた(右パーンされた)ものと推定される。 In step S37, the edge feature value calculation unit 74 calculates edge feature values Gxti and Gxti_s in the x direction of the current image Fti and the post-movement estimated image Fti_s. In step S38, the movement direction estimation unit 75 estimates the direction of movement from the previous time to the current time based on the relative position of the coordinate where the square error of the edge feature values Gxti and Gxti_s of each image is the lowest. That is, as shown in FIG. 9, if the post-movement estimated image Fti_s is located on the right side in the figure with respect to the current image Fti, it is estimated that the mobile phone 1 is tilted rightward (right-panned). Is done.
以上のようにして、移動量ΔDfおよび向きが推定されると、前記制御部13では、画像情報Eから切り出す表示画像Edisの切り出し位置を前記移動量ΔDおよび動きの向きに応じて移動させ、当該移動後の領域から表示画像Edisを切り出して表示部15へ順次に出力する。したがって、表示部15では携帯電話1を傾けた量や向き応じて変化した領域や範囲の表示が可能になる。 When the movement amount ΔDf and the direction are estimated as described above, the control unit 13 moves the cutout position of the display image Edis cut out from the image information E according to the movement amount ΔD and the direction of the movement, The display image Edis is cut out from the moved area and sequentially output to the display unit 15. Therefore, the display unit 15 can display a region and a range that change according to the amount and orientation of the cellular phone 1 tilted.
あるいは、携帯電話1が傾けられたことが検知されると、画像情報Eから切り出す表示画像Edisの切り出し位置を所定の速度で移動させながら当該表示画像Edisを表示部15へ順次に出力し、これを異なる傾きが検知されるまで継続させるようにしても良い。 Alternatively, when it is detected that the mobile phone 1 is tilted, the display image Edis is sequentially output to the display unit 15 while moving the cutout position of the display image Edis cut out from the image information E at a predetermined speed. May be continued until a different tilt is detected.
なお、上記した実施形態では、携帯電話1が上下左右方向へ傾けられると、表示画像もこれに同期して上下左右方向へ移動されるものとして説明したが、例えばWebブラウジングのように、画面移動が主に上下方向のスクロールである場合には、上下方向への傾きは上下方向のスクロールに対応付け、左右方向への傾きは拡大縮小に割り当てるようにしても良い。 In the embodiment described above, when the mobile phone 1 is tilted in the up / down / left / right direction, the display image is also moved in the up / down / left / right direction in synchronization with this. However, the screen movement is performed as in, for example, Web browsing. Is mainly a scroll in the vertical direction, the tilt in the vertical direction may be associated with the scroll in the vertical direction, and the tilt in the horizontal direction may be allocated for enlargement / reduction.
図10および図11は、拡大縮小表示の一例を示した図であり、画像情報Eが地図情報であれば、利用者が携帯電話1を左右の一方へ傾けることにより、図10(a)の画像を同図(b)のように拡大させることができる。また、画像情報Eが立体地図情報であれば、利用者が携帯電話1の左右方向や上下方向へ傾けることにより、図11(a)の画像を同図(b)のように拡大させたり、同図(c)のように視点(俯瞰角度)を移動させた画像としたり、その状態でさらに拡大して、同図(d)に示した画像を表示させたりすることができる。 FIG. 10 and FIG. 11 are diagrams showing an example of an enlarged / reduced display. If the image information E is map information, the user tilts the mobile phone 1 to one of the left and right sides, so that FIG. The image can be enlarged as shown in FIG. If the image information E is three-dimensional map information, the user can enlarge the image in FIG. 11A as shown in FIG. 11B by tilting the mobile phone 1 in the horizontal direction or the vertical direction. As shown in FIG. 3C, the image can be an image in which the viewpoint (overhead angle) is moved, or can be further enlarged in that state to display the image shown in FIG.
また、上記した実施形態では、本発明を携帯電話への適用を例にして説明したが、撮像部を備えた情報端末であれば、PDAや可搬性のコンピュータなどにも同様に適用できる。 In the above-described embodiments, the present invention has been described by taking the application to a mobile phone as an example. However, any information terminal including an imaging unit can be similarly applied to a PDA or a portable computer.
11…撮像部,12…推定部,13…制御部,14…記憶部,15…表示部,51,52…エッジ特徴量算出部,53、54…正規化部,55,56…分散値算出部,57…動き検知部,58,59…前回分散値記憶部,71…流れ量推定部,72…射影画像生成部,73…移動後画像推定部,74…エッジ特徴量算出部,75…向き推定部 DESCRIPTION OF SYMBOLS 11 ... Imaging part, 12 ... Estimation part, 13 ... Control part, 14 ... Memory | storage part, 15 ... Display part, 51, 52 ... Edge feature-value calculation part, 53, 54 ... Normalization part, 55, 56 ... Dispersion value calculation , 57... Motion detection unit, 58, 59... Previously distributed value storage unit, 71... Flow amount estimation unit, 72... Projected image generation unit, 73. Orientation estimation unit
Claims (8)
画像情報を保持する記憶手段と、
前記画像情報を表示する表示手段と、
前記撮影画像を解析して撮影手段と被写体との間の空間的位置関係の変化を推定する推定手段と、
前記記憶手段から読み出して表示手段に表示させる画像情報を、前記推定手段により推定された空間的位置関係の変化に基づいて制御する制御手段とを備え、
前記推定手段は、
撮影画像の所定方向に関するエッジ特徴量を算出するエッジ特徴量算出手段と、
今回のサンプリング時刻で撮影された今回画像および今回以前のサンプリング時刻で撮影された前回画像の各エッジ特徴量を比較して撮影画像を動きを検知する動き検知手段とを具備し、
前記動きの検知結果に基づいて、撮影手段と被写体との間の空間的位置関係の変化を推定することを特徴とする情報端末装置。 Photographing means for outputting an image photographed at a predetermined sampling period;
Storage means for holding image information;
Display means for displaying the image information;
An estimation unit that analyzes the captured image and estimates a change in a spatial positional relationship between the imaging unit and the subject;
Control means for controlling image information to be read from the storage means and displayed on the display means based on a change in the spatial positional relationship estimated by the estimation means;
The estimation means includes
Edge feature amount calculating means for calculating an edge feature amount with respect to a predetermined direction of the captured image;
A motion detection means for detecting movement of the captured image by comparing each edge feature amount of the current image captured at the current sampling time and the previous image captured at the previous sampling time;
An information terminal device that estimates a change in a spatial positional relationship between a photographing unit and a subject based on a detection result of the motion.
前記エッジ特徴量の定量値を算出する定量値算出手段を備え、
前記動き検知手段は、前回画像および今回画像の各エッジ特徴量の定量値を比較することを特徴とする請求項1または2に記載の情報端末装置。 The estimating means further comprises:
A quantitative value calculating means for calculating a quantitative value of the edge feature amount;
The information terminal apparatus according to claim 1, wherein the motion detection unit compares a quantitative value of each edge feature amount of the previous image and the current image.
今回画像の撮影中に撮影手段と被写体との間の空間的位置関係が変化することに応じて今回画像に生じる流れ量を、前記移動量に基づいて推定する流れ量推定手段と、
前回画像および前記流れ量に基づいて、前回画像を前記流れ量だけ流した場合と等価な移動後推定画像を生成する手段と、
前記今回画像および移動後推定画像に基づいて移動の向きを推定する向き推定手段とを含むことを特徴とする請求項1ないし5のいずれかに記載の情報端末装置。 A movement amount calculating means for calculating a movement amount from the previous image to the current image;
A flow amount estimating means for estimating a flow amount generated in the current image in response to a change in a spatial positional relationship between the photographing means and the subject during the current image shooting based on the movement amount;
Based on the previous image and the flow amount, a means for generating a post-movement estimated image equivalent to the case where the previous image is flowed by the flow amount;
6. The information terminal device according to claim 1, further comprising a direction estimating unit that estimates a direction of movement based on the current image and the estimated image after movement.
前回画像を所定の単位量だけ流れ方向へ移動させた画像を射影し、これを総移動量が前記流れ量に達するまで繰り返す手段と、
前記各射影画像を合算し、対応画素ごとに平均化して移動後推定画像を生成する手段とを含むことを特徴とする請求項6に記載の情報端末装置。 The means for generating the post-movement estimated image is:
Means for projecting an image obtained by moving the previous image in the flow direction by a predetermined unit amount, and repeating this until the total movement amount reaches the flow amount;
The information terminal device according to claim 6, further comprising means for adding the projected images and averaging the corresponding projected pixels to generate a post-movement estimated image.
前記移動後推定画像のエッジ特徴量を算出する手段と、
前記今回画像のエッジ特徴量と移動後推定画像のエッジ特徴量とに基づいて移動の向きを推定する手段とを含むことを特徴とする請求項6または7に記載の情報端末装置。 The direction estimating means includes
Means for calculating an edge feature amount of the post-movement estimated image;
8. The information terminal device according to claim 6, further comprising means for estimating a direction of movement based on an edge feature amount of the current image and an edge feature amount of the post-movement estimated image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007314586A JP5083887B2 (en) | 2007-12-05 | 2007-12-05 | Information terminal equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007314586A JP5083887B2 (en) | 2007-12-05 | 2007-12-05 | Information terminal equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009140149A true JP2009140149A (en) | 2009-06-25 |
JP5083887B2 JP5083887B2 (en) | 2012-11-28 |
Family
ID=40870709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007314586A Expired - Fee Related JP5083887B2 (en) | 2007-12-05 | 2007-12-05 | Information terminal equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5083887B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9020196B2 (en) | 2012-08-15 | 2015-04-28 | International Business Machines Corporation | Extracting feature quantities from an image to perform location estimation |
KR20160136646A (en) * | 2015-05-20 | 2016-11-30 | 삼성전자주식회사 | Electronic device which displays screen and method for controlling thereof |
CN106716441A (en) * | 2014-09-30 | 2017-05-24 | 高通股份有限公司 | Event based computer vision computation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220431A (en) * | 2003-01-16 | 2004-08-05 | Canon Inc | Information input system |
JP2004343483A (en) * | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2005094614A (en) * | 2003-09-19 | 2005-04-07 | Sanyo Electric Co Ltd | Apparatus and method for camera shake correction and recording medium recording camera shake correcting program |
JP2007094708A (en) * | 2005-09-28 | 2007-04-12 | Kddi Corp | Information terminal device |
JP2008084287A (en) * | 2006-08-28 | 2008-04-10 | Sony Corp | Information processor, imaging apparatus, information processing system, device control method and program |
-
2007
- 2007-12-05 JP JP2007314586A patent/JP5083887B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220431A (en) * | 2003-01-16 | 2004-08-05 | Canon Inc | Information input system |
JP2004343483A (en) * | 2003-05-16 | 2004-12-02 | Acutelogic Corp | Device and method for correcting camera-shake and device for detecting camera shake |
JP2005094614A (en) * | 2003-09-19 | 2005-04-07 | Sanyo Electric Co Ltd | Apparatus and method for camera shake correction and recording medium recording camera shake correcting program |
JP2007094708A (en) * | 2005-09-28 | 2007-04-12 | Kddi Corp | Information terminal device |
JP2008084287A (en) * | 2006-08-28 | 2008-04-10 | Sony Corp | Information processor, imaging apparatus, information processing system, device control method and program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9020196B2 (en) | 2012-08-15 | 2015-04-28 | International Business Machines Corporation | Extracting feature quantities from an image to perform location estimation |
US9087268B2 (en) | 2012-08-15 | 2015-07-21 | International Business Machines Corporation | Extracting feature quantities from an image to perform location estimation |
CN106716441A (en) * | 2014-09-30 | 2017-05-24 | 高通股份有限公司 | Event based computer vision computation |
EP3201827A1 (en) * | 2014-09-30 | 2017-08-09 | QUALCOMM Incorporated | Event based computer vision computation |
US10728450B2 (en) * | 2014-09-30 | 2020-07-28 | Qualcomm Incorporated | Event based computer vision computation |
KR20160136646A (en) * | 2015-05-20 | 2016-11-30 | 삼성전자주식회사 | Electronic device which displays screen and method for controlling thereof |
KR102336879B1 (en) * | 2015-05-20 | 2021-12-08 | 삼성전자주식회사 | Electronic device which displays screen and method for controlling thereof |
Also Published As
Publication number | Publication date |
---|---|
JP5083887B2 (en) | 2012-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4725526B2 (en) | Information processing apparatus, imaging apparatus, information processing system, apparatus control method, and program | |
US8994644B2 (en) | Viewing images with tilt control on a hand-held device | |
US10013795B2 (en) | Operation support method, operation support program, and operation support system | |
US8441441B2 (en) | User interface for mobile devices | |
EP3015961B1 (en) | Information processing device, control method, program, and storage medium | |
US20200175298A1 (en) | Mobile surveillance apparatus, program, and control method | |
US20070070037A1 (en) | Graphic signal display apparatus and method for hand-held terminal | |
EP2933605A1 (en) | A device orientation correction method for panorama images | |
EP2214079A2 (en) | Display apparatus, display control method, and display control program | |
JP2016194799A (en) | Image analyzer and image analysis method | |
KR20110035609A (en) | Apparatus and method for sensing motion | |
KR20150053955A (en) | Absolute and relative positioning sensor fusion in an interactive display system | |
EP2447915A1 (en) | Real time three-dimensional menu/icon shading | |
WO2008054185A1 (en) | Method of moving/enlarging/reducing a virtual screen by movement of display device and hand helded information equipment using the same | |
CN112202962B (en) | Screen brightness adjusting method and device and storage medium | |
JP5319867B2 (en) | Information terminal equipment | |
JP5083887B2 (en) | Information terminal equipment | |
US11386612B2 (en) | Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation | |
WO2017211108A1 (en) | Display method and device | |
CN103900477A (en) | Method for judging relative displacement of handheld device, and handheld device | |
JP7077540B2 (en) | Terminal device, display system, and control method of terminal device | |
JP5080409B2 (en) | Information terminal equipment | |
JP2005251100A (en) | Portable information processing terminal device, display control method, and display control program | |
EP4068046A1 (en) | Method and apparatus for obtaining data indicating direction, and storage medium | |
US20240054672A1 (en) | Determination system, determination method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120808 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5083887 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |