JP2014082648A - Electronic apparatus, image correction method, and program - Google Patents

Electronic apparatus, image correction method, and program Download PDF

Info

Publication number
JP2014082648A
JP2014082648A JP2012229373A JP2012229373A JP2014082648A JP 2014082648 A JP2014082648 A JP 2014082648A JP 2012229373 A JP2012229373 A JP 2012229373A JP 2012229373 A JP2012229373 A JP 2012229373A JP 2014082648 A JP2014082648 A JP 2014082648A
Authority
JP
Japan
Prior art keywords
motion vector
image
eyeball
calculated
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012229373A
Other languages
Japanese (ja)
Inventor
Naoto Toda
尚登 遠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012229373A priority Critical patent/JP2014082648A/en
Publication of JP2014082648A publication Critical patent/JP2014082648A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve visibility when display contents are confirmed during movement.SOLUTION: An electronic apparatus 10 includes: a display unit 14 for displaying an image; and a control unit 11 for calculating a motion vector of eyeballs on the basis of the positions of eyeballs of a user, which are to be acquired by imaging, when the movement of the user to browse an image is detected, and correcting the image to cancel the calculated motion vector. When an inclination exceeding a predetermined angle is detected, the control unit 11 calculates the positions of eyeballs of a user to be imaged by image recognition and calculates the motion vector of eyeballs on the basis of a previous calculation value and this time calculation value. When the calculated motion vector exceeds a specified value, the control unit corrects an image to be displayed in the display unit 14 so as to cancel the motion vector.

Description

本発明は、電子機器、画像補正方法、およびプログラムに関する。   The present invention relates to an electronic device, an image correction method, and a program.

従来、歩行や走行の際、使用者に所持させ、移動量および移動方向を連続的に計測していくことで、使用者の現在位置や移動経路を求めることができる腕時計(ランニングウォッチ)が開発されている。この腕時計によれば、使用者が希望する距離や時間の設定に応じて、希望するカロリー、移動速度、歩数等に応じてコースが設定できるようになっている。また、スマートフォンの普及により、当該スマートフォンに専用のアプリケーションプログラムを実装し、携帯させることで上記した腕時計と同じ機能を実現することができる。   Conventionally, a wristwatch (running watch) has been developed that allows the user to determine the current position and route of travel by continuously measuring the amount and direction of movement while walking and running. Has been. According to this wristwatch, the course can be set according to the desired calorie, the moving speed, the number of steps, etc. according to the setting of the distance and time desired by the user. Also, with the spread of smartphones, the same functions as the wristwatch described above can be realized by mounting a dedicated application program on the smartphone and carrying it.

ところで、使用者が走行中に、上記した腕時計やスマートフォン等の電子機器で、走行時間やラップ、あるいは心拍数等を確認したい場合がある。この場合、頭、あるいは手や腕の振れにより表示が見辛くなり、視認性が悪化する。このため、従来、例えば、特許文献1では、カメラ画像で計測した視線に基づいて画面の表示を制御できる視線制御表示装置が提案されている。また、特許文献2では、動く物体上に置かれた被観察者の視線の動きを分析して表示する視線表示装置が提案されている。   By the way, there are cases where the user wants to check the running time, lap, heart rate, and the like with the above-described electronic device such as a wristwatch or a smartphone while traveling. In this case, the display becomes difficult to see due to shaking of the head, hand, or arm, and visibility is deteriorated. For this reason, conventionally, for example, Patent Literature 1 proposes a line-of-sight control display device capable of controlling the display of a screen based on the line of sight measured with a camera image. Further, Patent Document 2 proposes a line-of-sight display device that analyzes and displays the movement of the line of sight of an observer placed on a moving object.

特公平5−83247号公報Japanese Patent Publication No. 5-83247 特開2007−213469号公報JP 2007-213469 A

特許文献1に開示された技術によれば、動き検出手段が、車両等の動く物体の動きを検出し、表示手段が、撮影手段によって撮像された画像上に、検出された動く物体による動きを、演算手段によって眼球の運動を分析して得られる被観察者の視線の動きとともに識別して表示する。したがって、被観察者の意思に基づく視線の動きと動く物体の動きによる影響とを区別して観察することができる。しかしながら、視線の動きに基づき撮影された画像を直接的に補正しないため、移動中に表示内容を確認する場合、頭や手振れ等の影響による視認性の悪化は否めない。   According to the technique disclosed in Patent Document 1, the motion detection unit detects the motion of a moving object such as a vehicle, and the display unit displays the motion of the detected moving object on the image captured by the photographing unit. Then, it is identified and displayed together with the movement of the line of sight of the subject obtained by analyzing the movement of the eyeball by the calculation means. Therefore, it is possible to distinguish and observe the movement of the line of sight based on the intention of the observer and the influence of the movement of the moving object. However, since the captured image is not directly corrected based on the movement of the line of sight, when the display content is confirmed during movement, the deterioration of visibility due to the influence of the head and hand shake cannot be denied.

また、特許文献2に開示された技術によれば、N個の表示領域のうち、何処に視線が移動しているかにより表示領域を選択して表示を制御するため、視線の検出精度が粗くても正確な表示制御は可能である。しかしながら、特許文献1同様、視線の動きに基づき撮影された画像を直接的に補正しないため、移動中に表示内容を確認する場合に、頭や手振れ等の影響による視認性の悪化は否めない。   Further, according to the technique disclosed in Patent Document 2, the display area is selected and controlled depending on where the line of sight is moving out of the N display areas, so that the line-of-sight detection accuracy is low. However, accurate display control is possible. However, as in Patent Document 1, since an image captured based on the movement of the line of sight is not directly corrected, when confirming the display content during movement, the deterioration of visibility due to the influence of the head and camera shake cannot be denied.

本発明は上記した課題を解決するためになされたものであり、その目的は、移動中に表示内容を確認する場合の視認性の向上をはかった、電子機器、画像補正方法、およびプログラムを提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an electronic device, an image correction method, and a program that improve visibility when confirming display contents while moving. There is to do.

上記した課題を解決するために本発明の電子機器は、画像を表示する表示部と、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出し、前記算出した動きベクトルを打ち消すように前記画像を補正する制御部と、を有することを特徴とする。   In order to solve the above-described problems, an electronic device according to the present invention calculates a motion vector of the eyeball from a display unit that displays an image, and a position of the user's eyeball acquired by photographing, and the calculated motion vector And a control unit that corrects the image so as to cancel out the image.

本発明は、少なくとも表示部を有する電子機器の画像補正方法であって、前記表示部に表示される画像を使用者が閲覧する動作を検出した場合に、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出するステップと、前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正するステップと、を有することを特徴とする。   The present invention is an image correction method for an electronic device having at least a display unit, and the user's eyeball acquired by photographing when detecting an operation of a user viewing an image displayed on the display unit A step of calculating a motion vector of the eyeball from the position, and a step of correcting the image displayed on the display unit so as to cancel the calculated motion vector.

本発明のプログラムは、少なくとも表示部を有する電子機器のコンピュータに、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出する処理と、前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正する処理と、を実行させることを特徴とする。   The program of the present invention cancels the calculated motion vector, and a process of calculating a motion vector of the eyeball from a position of the user's eyeball acquired by photographing on a computer of an electronic device having at least a display unit And a process of correcting the image displayed on the display unit.

本発明によれば、移動中に表示内容を確認する場合の視認性の向上をはかった、電子機器、画像補正方法、およびプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the electronic device, the image correction method, and program which aimed at the improvement of the visibility at the time of confirming a display content during a movement can be provided.

本発明の実施の形態に係る電子機器の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the electronic device which concerns on embodiment of this invention. 本発明の実施の形態に係る電子機器の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the electronic device which concerns on embodiment of this invention. 視線検出のための判定基準となる規定角度のイメージ図である。It is an image figure of the prescription | regulation angle used as the criterion for a gaze detection. 撮像画像と表示画像の一例を示す図である。It is a figure which shows an example of a captured image and a display image. ソフトキーボードに適用した場合の画面表示例を示す図である。It is a figure which shows the example of a screen display at the time of applying to a soft keyboard. 本発明の実施の形態に係る電子機器の適用例を示す図である。It is a figure which shows the example of application of the electronic device which concerns on embodiment of this invention.

以下、添付図面を参照して本発明を実施するための実施の形態(以下、単に実施形態という)について詳細に説明する。   Hereinafter, an embodiment for carrying out the present invention (hereinafter simply referred to as an embodiment) will be described in detail with reference to the accompanying drawings.

(実施形態の構成)
本実施形態に係る電子機器10は、例えば携帯用の表示装置であって、制御部11と、記憶部12と、操作部13と、表示部14と、加速度センサー15と、撮像部16と、通信部17とにより構成される。これらブロックは、いずれも、アドレス、データ、コントロールのためのラインが複数本で構成されるシステムバス18を介して共通に接続されている。
(Configuration of the embodiment)
The electronic device 10 according to the present embodiment is, for example, a portable display device, and includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, an acceleration sensor 15, an imaging unit 16, and the like. And a communication unit 17. These blocks are commonly connected via a system bus 18 having a plurality of lines for address, data, and control.

制御部11は、記憶部12のプログラム領域に割り当てられ記憶された本実施形態に係るプログラムを逐次読み出し実行することにより、画像を使用者が閲覧する動作を検出した場合に、撮影により取得される使用者の眼球の位置から眼球の動きベクトルを算出し、当該算出した動きベクトルを打ち消すように画像を補正する機能を実行する。   The control unit 11 is acquired by photographing when it detects an operation in which the user browses an image by sequentially reading and executing the program according to the present embodiment that is allocated and stored in the program area of the storage unit 12. A function for correcting the image so as to cancel the calculated motion vector is executed by calculating a motion vector of the eyeball from the position of the user's eyeball.

具体的に、制御部11は、傾き検出部として用いられる加速度センサー15により所定の角度を越える傾きが検出された場合に、撮像部16によって撮影される使用者の眼球の位置を画像認識により算出し、前回のサンプリング時に算出した値と今回のサンプリング時に算出した値とから眼球の動きベクトルを算出し、当該算出した動きベクトルが規定値(Prescribed value)を越えた場合に、動きベクトルを打ち消すように表示部14に表示される画像を補正する。また、制御部11は、算出した動きベクトルが第1の規定値P1を越えた場合に画像を補正し、第1の規定値P1より大きい第2の規定値P2を越えた場合に、画像に含まれる文字のサイズを変更してもよい。すなわち、第1の規定値P1<第2の規定値P2である。   Specifically, the control unit 11 calculates the position of the user's eyeball imaged by the imaging unit 16 by image recognition when the acceleration sensor 15 used as the inclination detection unit detects an inclination exceeding a predetermined angle. Then, the motion vector of the eyeball is calculated from the value calculated at the previous sampling and the value calculated at the current sampling, and the motion vector is canceled when the calculated motion vector exceeds a prescribed value (Prescribed value). The image displayed on the display unit 14 is corrected. Further, the control unit 11 corrects the image when the calculated motion vector exceeds the first specified value P1, and when the calculated motion vector exceeds the second specified value P2 larger than the first specified value P1, You may change the size of the characters included. That is, the first specified value P1 <the second specified value P2.

記憶部12には、プログラム領域と作業領域とが割当てられ、プログラム領域には、本実施形態に係るプログラムが、作業領域には、例えば、使用者の眼球位置、眼球の位置の変化に基づく動きベクトル等のプログラムの実行過程で生成される各種データが一時格納される。本実施形態に係るプログラムは、少なくとも表示部14を有する電子機器10のコンピュータ(制御部11)に、表示部14に表示された画像を使用者が閲覧する動作を検出した場合に、撮影により取得される使用者の眼球の位置から眼球の動きベクトルを算出する処理と、当該算出した動きベクトルを打ち消すように表示部14に表示される画像を補正する処理と、を実行させる。なお、記憶素子として、例えば、SDRAM(Synchronous Dynamic Random Access Memory)が実装される。   A program area and a work area are allocated to the storage unit 12, and the program according to the present embodiment is assigned to the program area, and the work area is moved based on, for example, changes in the user's eyeball position and eyeball position. Various data generated in the course of program execution such as vectors are temporarily stored. The program according to the present embodiment is acquired by photographing when at least the computer (control unit 11) of the electronic device 10 including the display unit 14 detects an operation of the user viewing the image displayed on the display unit 14. A process of calculating the eyeball motion vector from the position of the user's eyeball and a process of correcting the image displayed on the display unit 14 so as to cancel the calculated motion vector are executed. For example, an SDRAM (Synchronous Dynamic Random Access Memory) is mounted as the storage element.

操作部13は、例えば、キースイッチからなり、使用者によって操作されることにより、制御部11に対する指令、あるいはデータとして出力される。表示部14は、例えば、LCD(Liquid Crystal Device)や有機EL(Organic Electro-Luminescence)等の表示素子を有する表示モニタであり、ここでは、制御部11により補正された画像を表示する。なお、操作部13は、表示部14と一体形成されたタッチパネルで構成してもよい。   The operation unit 13 includes, for example, a key switch, and is output as a command or data to the control unit 11 when operated by a user. The display unit 14 is a display monitor having a display element such as an LCD (Liquid Crystal Device) or an organic EL (Organic Electro-Luminescence), and displays an image corrected by the control unit 11 here. The operation unit 13 may be a touch panel formed integrally with the display unit 14.

加速度センサー15は、検出素子として例えば歪みゲージが接着された電子部品であり、搭載される装置の姿勢(傾き)を検出するブリッジ回路を内蔵する。加速度センサー15は、電子機器10の傾きαを検出して制御部11に出力する傾き検出部として機能する。制御部11は、加速度センサー15により、例えば、30度〜50度の所定の角度を越える傾きが検出された場合に使用者が電子機器10(表示部14)の表示画面を閲覧している状態にあると判断し、撮像部16によって撮影される使用者の眼球の位置を画像認識により算出し、前回のサンプリング時に算出した値と今回のサンプリング時に算出した値とから眼球の動きベクトルを算出する。   The acceleration sensor 15 is an electronic component to which, for example, a strain gauge is bonded as a detection element, and has a built-in bridge circuit that detects the posture (tilt) of the mounted device. The acceleration sensor 15 functions as an inclination detection unit that detects the inclination α of the electronic device 10 and outputs it to the control unit 11. The control unit 11 is in a state where the user is browsing the display screen of the electronic device 10 (display unit 14) when the acceleration sensor 15 detects an inclination exceeding a predetermined angle of, for example, 30 degrees to 50 degrees. The position of the user's eyeball imaged by the imaging unit 16 is calculated by image recognition, and an eyeball motion vector is calculated from the value calculated at the previous sampling and the value calculated at the current sampling. .

撮像部16は、レンズ、CCD(Charge Coupled Device)やCMOS(Complementally Metal Oxide Semiconductor)等の画像センサー、およびドライバIC等を含むカメラである。撮像部16は、レンズを通して入射された被写体光を画像センサーによって電気信号に変換し、ドライバICで増幅して制御部11に出力する。   The imaging unit 16 is a camera including a lens, an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), a driver IC, and the like. The imaging unit 16 converts the subject light incident through the lens into an electrical signal by the image sensor, amplifies it by the driver IC, and outputs it to the control unit 11.

通信部17は、例えば、TCP/IP(Transmission Control Protocol/Internet Protocol)にしたがうプロトコルで不図示のネットワークを経由してサーバをアクセスすることにより地図等のデータを取得し、あるいは他の電子機器との間でデータ交換する。また、例えば、Wi−Fi(登録商標)やBlueTooth(登録商標)等の近距離無線通信規格に準拠した通信アダプタを含み、他の電子機器との間でリンクを確立して近距離無線通信によりデータ交換を行う。   The communication unit 17 obtains data such as a map by accessing a server via a network (not shown) with a protocol according to TCP / IP (Transmission Control Protocol / Internet Protocol), or with other electronic devices, for example. Exchange data between them. In addition, for example, it includes a communication adapter compliant with a short-range wireless communication standard such as Wi-Fi (registered trademark) or BlueTooth (registered trademark), and establishes a link with other electronic devices to perform short-range wireless communication. Exchange data.

(実施形態の動作)
以下、図2のフローチャートを参照しながら、図1に示す本実施形態に係る電子機器10の動作を説明する。
(Operation of the embodiment)
Hereinafter, the operation of the electronic apparatus 10 according to the present embodiment shown in FIG. 1 will be described with reference to the flowchart of FIG.

電子機器10は、まず、制御部11が、加速度センサー15からデータを取得して重力方向(鉛直方向)を算出して重力方向に対する筐体の傾きαを算出する(ステップS101)。次に、制御部11は、算出した傾きが所定の角度範囲にあるか否かを判定する(ステップS102)。すなわち、ここでは、電子機器10の筐体の傾きが30度〜50度の範囲にある場合、すなわち、30°≦α≦50°である場合、使用者が手に持って電子機器10の表示画面(表示部14)を閲覧している状態であると判定する。   In the electronic device 10, first, the control unit 11 acquires data from the acceleration sensor 15, calculates the gravity direction (vertical direction), and calculates the inclination α of the housing with respect to the gravity direction (step S101). Next, the control unit 11 determines whether or not the calculated inclination is within a predetermined angle range (step S102). That is, here, when the inclination of the casing of the electronic device 10 is in the range of 30 degrees to 50 degrees, that is, when 30 ° ≦ α ≦ 50 °, the display of the electronic device 10 is held by the user's hand. It is determined that the screen (display unit 14) is being browsed.

使用者が表示画面を閲覧している状態にあると判定されると(ステップS102“Yes”)、制御部11は、撮像部16を起動し、撮像部16により撮影される使用者の眼球の画像データを所定のサンプリング期間毎に取得する(ステップS103)。使用者が表示画面を閲覧している状態にないと判定されると(ステップS102“No”)、ステップS101の傾き算出処理に戻る。   If it is determined that the user is viewing the display screen (step S102 “Yes”), the control unit 11 activates the imaging unit 16 and the eyeball of the user photographed by the imaging unit 16 is displayed. Image data is acquired every predetermined sampling period (step S103). If it is determined that the user is not viewing the display screen (“No” at step S102), the process returns to the inclination calculation process at step S101.

続いて制御部11は、取得した画像から画像解析により使用者の眼球の位置を算出する(ステップS104)。なお、画像解析の方法は、例えば、特許文献1に詳細に開示されている。眼球の位置は一方の目でもよいが、ここでは左右の眼球の位置を検出するものとする。2つの眼球の位置を使用することで精度を上げることができる。一方、画像から眼球が検出できなかった場合(ステップS105“No”)、使用者は、表示画面を閲覧していないことになるため、ステップS101の傾き算出処理に戻る。次に、前回のサンプリング時に算出した眼球の位置と今回のサンプリング時算出した目の位置の動きベクトルを算出する(ステップS106)。動きベクトルを算出する方法についても特許文献1に詳細に開示されている。   Subsequently, the control unit 11 calculates the position of the user's eyeball from the acquired image by image analysis (step S104). Note that the image analysis method is disclosed in detail in, for example, Patent Document 1. The position of the eyeball may be one eye, but here, the positions of the left and right eyeballs are detected. The accuracy can be increased by using two eyeball positions. On the other hand, if the eyeball cannot be detected from the image (step S105 “No”), the user is not browsing the display screen, and the process returns to the tilt calculation process in step S101. Next, a motion vector between the eyeball position calculated at the previous sampling and the eye position calculated at the current sampling is calculated (step S106). A method of calculating a motion vector is also disclosed in detail in Patent Document 1.

続いて制御部11は、算出された動きベクトルと第1の規定値P1との比較を行う(ステップS107)。ここで、第1の規定値P1は、表示画像のシフト処理が必要な閾値とする。左目の動きベクトル量をVL、右目の動きベクトル量をVRとする。動きベクトルの量は、例えば移動した画素数で表し、一例として第1の規定値P1を20画素、第2の規定値をP2を200画素とする。そして左目の動きベクトル量VLと右目の動きベクトル量VRを加算した値を規定値と比較する。動きベクトルが第1の規定値P1以上の場合、すなわち、(VL+VR)≦20のとき(ステップS107“Yes”)、更に、算出された動きベクトルと第2の規定値P2との比較を行う(ステップS108)。規定値P2は、振れが激しく表示画像中に文字が含まれていれば文字サイズを拡大する必要がある閾値をいう。   Subsequently, the control unit 11 compares the calculated motion vector with the first specified value P1 (step S107). Here, the first specified value P1 is a threshold that requires a shift process of the display image. The left-eye motion vector amount is VL, and the right-eye motion vector amount is VR. The amount of the motion vector is represented by, for example, the number of moved pixels. As an example, the first specified value P1 is 20 pixels, and the second specified value is P2 is 200 pixels. Then, a value obtained by adding the left-eye motion vector amount VL and the right-eye motion vector amount VR is compared with a specified value. When the motion vector is equal to or greater than the first specified value P1, that is, when (VL + VR) ≦ 20 (step S107 “Yes”), the calculated motion vector is compared with the second specified value P2 (step S107). Step S108). The specified value P2 refers to a threshold value that requires the character size to be increased if the display image has a large amount of shake and includes characters.

ここで、動きベクトル量が第2の規定値P2以上の場合は、すなわち、200≦(VL+VR)のとき(ステップS108“Yes”)、制御部11は、表示画像中に含まれる文字のサイズが小さい場合は規定の大きな文字サイズに変換することで可読性を上げる処理を実行する(ステップS109)。大きな文字サイズは、例えば2倍と言うように2段階でも良いが、動きベクトル量に応じて多段階で文字サイズを変えてもよい。続いて、制御部11は、表示部14に表示された画像のシフト処理による画像補正を行う(ステップS110)。   Here, when the motion vector amount is equal to or larger than the second specified value P2, that is, when 200 ≦ (VL + VR) (step S108 “Yes”), the control unit 11 determines that the size of the character included in the display image is If it is smaller, a process for improving readability is performed by converting it to a prescribed large character size (step S109). The large character size may be two stages, for example, twice, but the character size may be changed in multiple stages according to the motion vector amount. Subsequently, the control unit 11 performs image correction by shift processing of the image displayed on the display unit 14 (step S110).

なお、ステップS107の第1の規定値P1判定処理で動きベクトルが第1の規定値P1以下の場合(ステップS107“No”)、あるいはステップS108の規定値2判定処理で第2の規定値P2以下の場合(ステップS108“No”)、使用者の目の位置と画像の表示位置との間にブレが少ないと判断されるため、画像のシフト処理は省略され、ステップS101の傾き算出処理に戻る。   If the motion vector is equal to or smaller than the first specified value P1 in the first specified value P1 determination process in step S107 (step S107 “No”), or the second specified value P2 in the specified value 2 determination process in step S108. In the following case (step S108 “No”), since it is determined that there is little blur between the position of the user's eyes and the display position of the image, the image shift processing is omitted, and the tilt calculation processing in step S101 is performed. Return.

シフト処理による画像補正のイメージが、図4(a)(b)(c)(d)に示されている。図4(a)は撮像部16により1フレーム前に撮像された頭部被写体像であり、図4(b)は、画像のシフト処理による補正結果を示す頭部被写体像である。図4(b)に示すように、1フレーム前に撮像された頭部被写体像A(点線表記)の目の位置から明らかなように、動きベクトルとは逆方向に動きベクトルの量(ズレ量B)だけ平行移動していることがわかる。この場合の動きベクトルの量は(VL+VR)/2を使用する。   Images of image correction by shift processing are shown in FIGS. 4 (a), (b), (c), and (d). 4A is a head subject image captured one frame before by the imaging unit 16, and FIG. 4B is a head subject image showing a correction result by the image shift processing. As shown in FIG. 4B, as is apparent from the eye position of the head subject image A (shown with a dotted line) captured one frame before, the amount of motion vector (deviation amount) in the direction opposite to the motion vector. It can be seen that only B) is translated. In this case, the amount of motion vector is (VL + VR) / 2.

図4(c)は、表示部14に表示された補正前の文字画像であり、図4(d)は、画像のシフト処理を経て表示部14に表示された補正後の文字画像である。図4(d)に示すように、文字画像を、眼球の位置ずれと逆方向(図中、矢印方向)に表示位置Cから補正後の表示位置Dへ動きベクトル量(ずれ量E)だけ平行移動していることがわかる。   FIG. 4C is a character image before correction displayed on the display unit 14, and FIG. 4D is a character image after correction displayed on the display unit 14 through image shift processing. As shown in FIG. 4D, the character image is paralleled by the amount of motion vector (shift amount E) from the display position C to the corrected display position D in the direction opposite to the eyeball position shift (in the direction of the arrow in the figure). You can see that it is moving.

また、本実施形態に係る電子機器10によれば、使用者がソフトキーボード(SIP:Software Input Panel)を用いて操作部13により入力操作を行っていた場合、例えば、図5に示すように、表示部14の一部表示領域にソフトキーボード画像も同時にシフト移動し、それに合わせて入力位置の補正(画像補正)を行うことで使用者にストレスのない操作インタフェースを提供することができる。このとき、ソフトキーボードの表示領域を通常より大きくすることにより操作性を向上させることができる。   Moreover, according to the electronic device 10 according to the present embodiment, when the user performs an input operation using the operation unit 13 using a soft keyboard (SIP: Software Input Panel), for example, as illustrated in FIG. By simultaneously shifting the soft keyboard image to a partial display area of the display unit 14 and correcting the input position (image correction) accordingly, it is possible to provide a user-free operation interface. At this time, the operability can be improved by making the display area of the soft keyboard larger than usual.

(実施形態の効果)
以上説明のように本実施形態に係る電子機器10によれば、制御部11は、加速度センサー15により使用者が電子機器10を閲覧している状態を検出したときに、電子機器10から見た使用者の眼球の移動量と方向を動きベクトルとして算出し、移動量が規定値以上の場合に、表示部14に表示された画像を、先に算出された動きベクトルを打ち消す方向に補正する。このように、例えば、移動中の乗り物の振動の影響で、あるいは手や腕の振れ等により使用者の目の位置と画像の表示位置とがずれても、それに合わせて画像を補正して表示するため、視認性が向上するといった効果が得られる。また、その際に平行移動(シフト補正)により画像を補正するため処理が容易であり制御部11の負担が軽く済む。
(Effect of embodiment)
As described above, according to the electronic device 10 according to the present embodiment, the control unit 11 is viewed from the electronic device 10 when the acceleration sensor 15 detects the state in which the user is browsing the electronic device 10. The movement amount and direction of the user's eyeball are calculated as a motion vector, and when the movement amount is equal to or greater than a specified value, the image displayed on the display unit 14 is corrected in a direction to cancel the previously calculated motion vector. In this way, for example, even if the position of the user's eyes deviates from the display position of the image due to the vibration of the moving vehicle or due to hand or arm shake, the image is corrected and displayed accordingly. Therefore, an effect that visibility is improved is obtained. In this case, since the image is corrected by parallel movement (shift correction), the processing is easy, and the burden on the control unit 11 is reduced.

なお、本実施形態に係る電子機器1は、例えば、図6(a)にその外観を示す腕時計(ランニングウォッチ)に適用して顕著な効果が得られる。ランニングウォッチは、計測タイム、走行ラップ、走行距離、あるいは心拍数等の計測データを記憶し、計画的なトレーニングをサポートする用途に使用される。勿論、このランニングウォッチに制限されず、スマートフォンや携帯電話等、移動中の乗り物の振動の影響で、あるいは手や腕の振れ等により使用者の目の位置と画像の表示位置とがずれて見辛くなる携帯用の電子機器の全てに適用が可能である。   Note that the electronic device 1 according to the present embodiment can be applied to a wristwatch (running watch) whose appearance is shown in FIG. The running watch stores measurement data such as measurement time, travel lap, travel distance, or heart rate, and is used for applications that support planned training. Of course, the present invention is not limited to this running watch, and the position of the user's eyes and the display position of the image may be shifted due to the influence of vibration of a moving vehicle such as a smartphone or a mobile phone, or due to hand or arm shake. It can be applied to all portable electronic devices that become hot.

また、本実施形態に係る電子機器10において、画像の補正は電子機器10自体が行うものとして説明したが、例えば、図6(b)に示すように、クライアントサーバ型のネットワーク30を介して接続される画像補正装置20(サーバ)が画像の補正を行ない、ランニングウォッチ10aやスマートフォン10b等の電子機器10にサービスを行うシステム形態としてもよい。このとき、画像補正装置20(サーバ)がSNS(Social Networking Service)機能を持っていれば、IP(Internet Protocol)網等のネットワーク30経由で接続されるSNSに参加するスマートフォン10b等の端末が、ランニングウォッチ10aを所持してランニングあるいはジョギングしている人に対し、コメントを書き込むことも可能になる。   Further, in the electronic device 10 according to the present embodiment, the image correction has been described as being performed by the electronic device 10 itself. However, for example, as illustrated in FIG. The image correction apparatus 20 (server) to be corrected may correct the image and provide a service to the electronic device 10 such as the running watch 10a or the smartphone 10b. At this time, if the image correction device 20 (server) has an SNS (Social Networking Service) function, a terminal such as the smartphone 10b participating in the SNS connected via the network 30 such as an IP (Internet Protocol) network, It is also possible to write a comment for a person who is running or jogging with the running watch 10a.

なお、本実施形態に係る電子機器の画像補正方法は、例えば、図1に示すように、少なくとも表示部14を有する電子機器10に適用される画像補正方法である。そして、その画像補正方法は、例えは、図2に示すように、前記表示部に表示される画像を使用者が閲覧する動作を検出した場合に、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出するステップ(S101〜S106)と、前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正するステップ(S107〜S110)と、を有する。   Note that the image correction method of the electronic device according to the present embodiment is an image correction method applied to the electronic device 10 having at least the display unit 14 as shown in FIG. Then, as shown in FIG. 2, for example, as shown in FIG. 2, the image correction method detects the user's eyeball acquired by photographing when an operation of browsing the image displayed on the display unit is detected. Calculating a motion vector of the eyeball from the position (S101 to S106), and correcting the image displayed on the display unit so as to cancel the calculated motion vector (S107 to S110).

本実施形態に係る電子機器の画像補正方法によれば、例えば、ランニングやジョギング中に腕時計やスマートフォン等を見たときに振動等の影響で眼の位置と表示位置とがずれてもそれに合わせて画像を補正するため、表示が見易くなるという効果が得られる。   According to the image correction method of the electronic device according to the present embodiment, for example, even when the position of the eye is shifted from the display position due to the influence of vibration or the like when the wristwatch or the smartphone is viewed during running or jogging, it is adjusted accordingly. Since the image is corrected, an effect that the display is easy to see is obtained.

また、本実施形態に係るプログラムは、例えば、図1に示すように、少なくとも表示部14を有する電子機器10のコンピュータ(制御部11)に適用される。そして、そのプログラムは、例えば、図2に示すように、前記表示部14に表示された画像を使用者が見る動作を検出した場合に、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出する処理(S101〜S106)と、前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正する処理(S107〜S110)と、を実行させる。   Further, for example, as shown in FIG. 1, the program according to the present embodiment is applied to the computer (control unit 11) of the electronic device 10 having at least the display unit 14. Then, for example, as shown in FIG. 2, the program detects the movement of the user viewing the image displayed on the display unit 14 from the position of the user's eyeball acquired by photographing. Processing for calculating an eyeball motion vector (S101 to S106) and processing for correcting the image displayed on the display unit so as to cancel the calculated motion vector (S107 to S110) are executed.

本実施形態に係るプログラムによれば、制御部11が記憶部12のプログラム領域に記憶された当該プログラム逐次読み出し実行することにより、使用者が表電子機器10の表示内容を閲覧したことを検出したときに、電子機器10から見た使用者の目(眼球)の運動量を動きベクトルとして算出し、その動きベクトルが規定値以上であった場合に、動きベクトルを打ち消す方向に表示内容をシフトさせる補正を行う処理を実行することで、視認性、および操作性の向上を図った電子機器10を提供することができる。   According to the program according to the present embodiment, the control unit 11 detects that the user has browsed the display content of the front electronic device 10 by sequentially reading and executing the program stored in the program area of the storage unit 12. Sometimes, the amount of movement of the user's eyes (eyeball) viewed from the electronic device 10 is calculated as a motion vector, and when the motion vector is equal to or greater than a specified value, the display content is shifted in a direction to cancel the motion vector. By performing the process of performing the above, it is possible to provide the electronic device 10 that is improved in visibility and operability.

以上、本発明の好ましい実施形態について詳述したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although preferred embodiment of this invention was explained in full detail, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiments. Further, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

以下に、本願出願時の特許請求の範囲を付記する。
[付記]
[請求項1]
画像を表示する表示部と、
撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出し、前記算出した動きベクトルを打ち消すように前記画像を補正する制御部と、
を有することを特徴とする電子機器。
[請求項2]
傾き検出部と、撮像部と、を更に備え、
前記制御部は、
前記傾き検出部により所定の角度を越える傾きが検出された場合に、前記撮像部によって撮影される前記使用者の眼球の位置を画像認識により算出し、前回算出した値と今回算出した値とから前記眼球の動きベクトルを算出し、前記算出した動きベクトルが規定値を越えた場合に、前記動きベクトルを打ち消すように前記表示部に表示される画像を補正することを特徴とする請求項1記載の電子機器。
[請求項3]
前記制御部は、
前記算出した動きベクトルが第1の規定値を越えた場合に前記画像を補正し、前記第1の規定値より大きい第2の規定値を越えた場合に、前記画像に含まれる文字のサイズを変更することを特徴とする請求項1または2記載の電子機器。
[請求項4]
前記表示部の少なくとも一部領域に表示されるソフトウェアキーボードを操作することによってデータ入力を行う操作部を更に有し、
前記制御部は、
前記操作部による操作を検知すると、前記ソフトウェアキーボードの表示領域を拡大することを特徴とする請求項1記載の電子機器。
[請求項5]
少なくとも表示部を有する電子機器の画像補正方法であって、
前記表示部に表示される画像を使用者が閲覧する動作を検出した場合に、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出するステップと、
前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正するステップと、を有することを特徴とする電子機器における画像補正方法。
[請求項6]
少なくとも表示部を有する電子機器のコンピュータに、
撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出する処理と、
前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正する処理と、
を実行させることを特徴とするプログラム。
The claims appended at the time of filing this application will be appended below.
[Appendix]
[Claim 1]
A display for displaying an image;
A control unit that calculates a motion vector of the eyeball from a position of the eyeball of the user acquired by photographing, and corrects the image so as to cancel the calculated motion vector;
An electronic device comprising:
[Claim 2]
An inclination detection unit and an imaging unit;
The controller is
When an inclination exceeding a predetermined angle is detected by the inclination detection unit, the position of the user's eyeball imaged by the imaging unit is calculated by image recognition, and from the previously calculated value and the currently calculated value, The motion vector of the eyeball is calculated, and when the calculated motion vector exceeds a predetermined value, an image displayed on the display unit is corrected so as to cancel the motion vector. Electronic equipment.
[Claim 3]
The controller is
When the calculated motion vector exceeds a first specified value, the image is corrected. When the calculated motion vector exceeds a second specified value larger than the first specified value, the size of characters included in the image is set. The electronic device according to claim 1, wherein the electronic device is changed.
[Claim 4]
An operation unit for inputting data by operating a software keyboard displayed in at least a partial area of the display unit;
The controller is
The electronic apparatus according to claim 1, wherein when an operation by the operation unit is detected, a display area of the software keyboard is expanded.
[Claim 5]
An image correction method for an electronic device having at least a display unit,
Calculating a motion vector of the eyeball from a position of the user's eyeball acquired by photographing when detecting an operation of a user viewing an image displayed on the display unit;
And a step of correcting the image displayed on the display unit so as to cancel the calculated motion vector.
[Claim 6]
In an electronic device computer having at least a display unit,
A process of calculating a motion vector of the eyeball from the position of the eyeball of the user acquired by photographing;
Processing for correcting the image displayed on the display unit so as to cancel the calculated motion vector;
A program characterized by having executed.

10…電子機器、10a腕時計(ランニングウォッチ)、10b…スマートフォン、11…制御部、12…記憶部、13…操作部、14…表示部、15…加速度センサー、16…撮像部、17…通信部、18…システムバス、20…画像補正装置(サーバ)、30…ネットワーク。
DESCRIPTION OF SYMBOLS 10 ... Electronic device, 10a wristwatch (running watch), 10b ... Smartphone, 11 ... Control part, 12 ... Memory | storage part, 13 ... Operation part, 14 ... Display part, 15 ... Accelerometer, 16 ... Imaging part, 17 ... Communication part , 18 ... system bus, 20 ... image correction device (server), 30 ... network.

Claims (6)

画像を表示する表示部と、
撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出し、前記算出した動きベクトルを打ち消すように前記画像を補正する制御部と、
を有することを特徴とする電子機器。
A display for displaying an image;
A control unit that calculates a motion vector of the eyeball from a position of the eyeball of the user acquired by photographing, and corrects the image so as to cancel the calculated motion vector;
An electronic device comprising:
傾き検出部と、撮像部と、を更に備え、
前記制御部は、
前記傾き検出部により所定の角度を越える傾きが検出された場合に、前記撮像部によって撮影される前記使用者の眼球の位置を画像認識により算出し、前回算出した値と今回算出した値とから前記眼球の動きベクトルを算出し、前記算出した動きベクトルが規定値を越えた場合に、前記動きベクトルを打ち消すように前記表示部に表示される画像を補正することを特徴とする請求項1記載の電子機器。
An inclination detection unit and an imaging unit;
The controller is
When an inclination exceeding a predetermined angle is detected by the inclination detection unit, the position of the user's eyeball imaged by the imaging unit is calculated by image recognition, and from the previously calculated value and the currently calculated value, The motion vector of the eyeball is calculated, and when the calculated motion vector exceeds a predetermined value, an image displayed on the display unit is corrected so as to cancel the motion vector. Electronic equipment.
前記制御部は、
前記算出した動きベクトルが第1の規定値を越えた場合に前記画像を補正し、前記第1の規定値より大きい第2の規定値を越えた場合に、前記画像に含まれる文字のサイズを変更することを特徴とする請求項1または2記載の電子機器。
The controller is
When the calculated motion vector exceeds a first specified value, the image is corrected. When the calculated motion vector exceeds a second specified value larger than the first specified value, the size of characters included in the image is set. The electronic device according to claim 1, wherein the electronic device is changed.
前記表示部の少なくとも一部領域に表示されるソフトウェアキーボードを操作することによってデータ入力を行う操作部を更に有し、
前記制御部は、
前記操作部による操作を検知すると、前記ソフトウェアキーボードの表示領域を拡大することを特徴とする請求項1記載の電子機器。
An operation unit for inputting data by operating a software keyboard displayed in at least a partial area of the display unit;
The controller is
The electronic apparatus according to claim 1, wherein when an operation by the operation unit is detected, a display area of the software keyboard is expanded.
少なくとも表示部を有する電子機器の画像補正方法であって、
前記表示部に表示される画像を使用者が閲覧する動作を検出した場合に、撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出するステップと、
前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正するステップと、を有することを特徴とする電子機器における画像補正方法。
An image correction method for an electronic device having at least a display unit,
Calculating a motion vector of the eyeball from a position of the user's eyeball acquired by photographing when detecting an operation of a user viewing an image displayed on the display unit;
And a step of correcting the image displayed on the display unit so as to cancel the calculated motion vector.
少なくとも表示部を有する電子機器のコンピュータに、
撮影により取得される前記使用者の眼球の位置から前記眼球の動きベクトルを算出する処理と、
前記算出した動きベクトルを打ち消すように前記表示部に表示される前記画像を補正する処理と、
を実行させることを特徴とするプログラム。
In an electronic device computer having at least a display unit,
A process of calculating a motion vector of the eyeball from the position of the eyeball of the user acquired by photographing;
Processing for correcting the image displayed on the display unit so as to cancel the calculated motion vector;
A program characterized by having executed.
JP2012229373A 2012-10-17 2012-10-17 Electronic apparatus, image correction method, and program Pending JP2014082648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012229373A JP2014082648A (en) 2012-10-17 2012-10-17 Electronic apparatus, image correction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012229373A JP2014082648A (en) 2012-10-17 2012-10-17 Electronic apparatus, image correction method, and program

Publications (1)

Publication Number Publication Date
JP2014082648A true JP2014082648A (en) 2014-05-08

Family

ID=50786453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012229373A Pending JP2014082648A (en) 2012-10-17 2012-10-17 Electronic apparatus, image correction method, and program

Country Status (1)

Country Link
JP (1) JP2014082648A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103102A (en) * 2014-11-27 2016-06-02 京セラ株式会社 Portable terminal and control method therefor
JP7467748B1 (en) 2023-09-27 2024-04-15 Kddi株式会社 Display control device, display system and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981305A (en) * 1995-09-08 1997-03-28 Canon Inc Electronic equipment and its control method
JP2005066133A (en) * 2003-08-26 2005-03-17 Sony Computer Entertainment Inc Information terminal
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2009122890A (en) * 2007-11-14 2009-06-04 Sharp Corp Display device and information processor
JP2009150668A (en) * 2007-12-19 2009-07-09 Casio Comput Co Ltd Timepiece
JP2011257502A (en) * 2010-06-07 2011-12-22 Sony Corp Image stabilizer, image stabilization method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981305A (en) * 1995-09-08 1997-03-28 Canon Inc Electronic equipment and its control method
JP2005066133A (en) * 2003-08-26 2005-03-17 Sony Computer Entertainment Inc Information terminal
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control unit, display device and display control method
JP2009122890A (en) * 2007-11-14 2009-06-04 Sharp Corp Display device and information processor
JP2009150668A (en) * 2007-12-19 2009-07-09 Casio Comput Co Ltd Timepiece
JP2011257502A (en) * 2010-06-07 2011-12-22 Sony Corp Image stabilizer, image stabilization method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103102A (en) * 2014-11-27 2016-06-02 京セラ株式会社 Portable terminal and control method therefor
JP7467748B1 (en) 2023-09-27 2024-04-15 Kddi株式会社 Display control device, display system and program

Similar Documents

Publication Publication Date Title
JP7127149B6 (en) IMAGE CORRECTION METHOD, IMAGE CORRECTION APPARATUS, AND ELECTRONIC DEVICE
WO2019237984A1 (en) Image correction method, electronic device and computer readable storage medium
US10324523B2 (en) Rendering virtual images based on predicted head posture
WO2015135477A1 (en) Handheld terminal and screen anti-shake method and device for handheld terminal
US9883108B2 (en) Imaging apparatus and image blur correction method
EP3062286B1 (en) Optical distortion compensation
CN112414400B (en) Information processing method and device, electronic equipment and storage medium
JPWO2013132886A1 (en) Information processing apparatus, information processing method, and program
WO2017005070A1 (en) Display control method and device
WO2015078189A1 (en) Interface adjustment method and mobile device
US11137600B2 (en) Display device, display control method, and display system
JP2014082648A (en) Electronic apparatus, image correction method, and program
CN114390186A (en) Video shooting method and electronic equipment
WO2020170945A1 (en) Display control device, imaging device, display control method, and display control program
CN111050075B (en) Image processing method and electronic device
JPWO2017169909A1 (en) Work support apparatus, wearable terminal, work support method, and computer program
US20190098214A1 (en) Data acquisition device, information processing device and data processing method
JP2011234272A (en) Portable terminal device, server device and image correction method
JP2016111521A (en) Information processing device, information processing program and information processing method
JP6621167B1 (en) Motion estimation device, electronic device, control program, and motion estimation method
JPWO2013042530A1 (en) Display device, display control method, and program
US11380071B2 (en) Augmented reality system and display method for anchoring virtual object thereof
US20240077958A1 (en) Information processing device and information processing method
JP2018136400A (en) Display, display method, control device, and vehicle
JP6451511B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160510