JP2015103991A - Image processing apparatus, method and computer program - Google Patents

Image processing apparatus, method and computer program Download PDF

Info

Publication number
JP2015103991A
JP2015103991A JP2013243827A JP2013243827A JP2015103991A JP 2015103991 A JP2015103991 A JP 2015103991A JP 2013243827 A JP2013243827 A JP 2013243827A JP 2013243827 A JP2013243827 A JP 2013243827A JP 2015103991 A JP2015103991 A JP 2015103991A
Authority
JP
Japan
Prior art keywords
user
distance
image
information
visual acuity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013243827A
Other languages
Japanese (ja)
Inventor
亜矢子 丸山
Ayako Maruyama
亜矢子 丸山
登 一生
Kazuo Nobori
一生 登
脇田 由実
Yumi Wakita
由実 脇田
井上 剛
Takeshi Inoue
剛 井上
加藤 弓子
Yumiko Kato
弓子 加藤
前川 英嗣
Hidetsugu Maekawa
英嗣 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2013243827A priority Critical patent/JP2015103991A/en
Publication of JP2015103991A publication Critical patent/JP2015103991A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that, since a conventional digital mirror does not include a device for appropriately determining and displaying a magnification while considering a sight, when a user whose sight is lowered by presbyopia or the like makes up while watching a mirror, the user may not distinctly view images of user's own eyes or eyelashes.SOLUTION: An image processing apparatus includes an interface for capturing a dynamic image of the user, acquiring user sight information that is information about the sight of the user and acquiring user distance information that is information about a distance from a display device to the user. The image processing apparatus further includes: a processor that determines a magnification/reduction method including at least a magnification/reduction rate of the captured dynamic image in such a manner that the user can distinctly view the user image displayed on the display device, on the basis of the user distance information and the user sight information; an image processing circuit for generating a mirror dynamic image of the user from the dynamic image; and an interface for outputting the generated mirror dynamic image to the display device.

Description

本開示は、ユーザを撮像した画像を電子化して、ユーザが視認できる位置に設置された表示装置に鏡のように表示させる画像処理装置、デジタルミラーシステム、および画像処理方法に関する。   The present disclosure relates to an image processing apparatus, a digital mirror system, and an image processing method that digitize an image of a user and display the image on a display device installed at a position where the user can visually recognize the image.

鏡は、身だしなみを整えたり、健康状態をチェックしたりする等、日常生活に欠かせないものである。画像処理技術の適用先の一つとして、近年、センサと表示装置でシステムを構成し、前記の鏡の代わりに利用する、いわゆるデジタルミラーの技術が提案されてきている。実際の鏡には重畳できない情報の重畳表示や、実際の鏡では不可能な表示様態(視点変換等)が実現できるといったメリットがあり、研究が進められている。特にユーザ像をディスプレイやプロジェクタでユーザに提示する際には、鏡像の表示拡大(縮小)率を適切に決定する必要があり、これを実現するための従来技術が提案されている。   Mirrors are indispensable for daily life, such as dressing up and checking health. As one of the application destinations of image processing technology, a so-called digital mirror technology has been proposed in recent years in which a system is configured with a sensor and a display device and used in place of the mirror. Research is being carried out with the advantage that information that cannot be superimposed on an actual mirror can be superimposed and that display modes (viewpoint conversion, etc.) that are impossible with an actual mirror can be realized. In particular, when presenting a user image to a user with a display or projector, it is necessary to appropriately determine the display magnification (reduction) rate of the mirror image, and conventional techniques for realizing this have been proposed.

特許文献1では、カメラで撮影したユーザの画像を、ユーザ正面のディスプレイ上に表示するデジタルミラー装置が提案されている。この際、表示するユーザのディスプレイ上でのサイズ(拡大率)を、鏡からの距離に基づいて決定することで、ユーザがディスプレイに対して前後に動いた際に、鏡のような表示が得られるようになっている。   Patent Document 1 proposes a digital mirror device that displays a user image captured by a camera on a display in front of the user. At this time, by determining the size (magnification ratio) on the display of the user to be displayed based on the distance from the mirror, a mirror-like display is obtained when the user moves back and forth with respect to the display. It is supposed to be.

また、特許文献2においてはさらに、特許文献1のように鏡の表示様態を模倣するだけでなく、ユーザの特定の作業に対して、より大きく/小さく表示をすることで、より作業がしやすくなるような、デジタルミラーを提案している。   Further, in Patent Document 2, in addition to imitating the display mode of the mirror as in Patent Document 1, it is easier to work by displaying larger / smaller for a user's specific work. A digital mirror is proposed.

特許4654905号明細書Japanese Patent No. 4654905 特開2008−277983号JP 2008-277783 A 特許4910212号明細書Japanese Patent No. 4910212 特許4134653号明細書Japanese Patent No. 4134653 特許4878273号明細書Japanese Patent No. 4878273

視線一致光学系を用いたディスプレイシステムi−mirrorにおける鏡メタファインタラクション(牛田啓太(東大)他;インタラクション2002)Mirror metafine interaction in display system i-mirror using line-of-sight optical system (Keita Ushida (Univ. Of Tokyo) et al .; Interaction 2002) コンピュータビジョン:技術評論と将来展望(新技術コミュニケーションズ社:p37〜p53、第3章、浅田尚紀著)Computer Vision: Technical Review and Future Prospects (New Technology Communications: p37-p53, Chapter 3, written by Naoki Asada)

しかしながら、上述した従来の技術では、必ずしもユーザが作業を行いやすいとは言えない場合があり、さらなる使いやすさの向上が求められていた。   However, in the conventional technology described above, it may not always be easy for the user to perform work, and further improvement in usability has been demanded.

本願の、限定的ではない例示的なある実施形態は、ユーザがデジタルミラーを利用しながら化粧作業を行う際に、よりユーザが作業を行いやすく、使いやすいデジタルミラーを実現する装置および方法を提供する。   One non-limiting exemplary embodiment of the present application provides an apparatus and method for realizing a digital mirror that is easier for the user to work and easier to use when the user performs a makeup task using the digital mirror. To do.

上記課題を解決するために、本発明の一態様は、ユーザが自らの像を視認する際に用いられる画像処理装置であって、ユーザの動画像を取得する第1インタフェースと、当該ユーザの視力に関する情報であるユーザ視力情報を取得する第2インタフェースと、表示装置から当該ユーザまでの距離の情報であるユーザ距離情報を取得する第3インタフェースと、ユーザ距離情報およびユーザ視力情報に基づいて、当該表示装置上に表示されるユーザ像を当該ユーザが明視できるよう、取得された動画像の拡大縮小率を少なくとも含む拡縮方法を決定するプロセッサと、決定された当該拡縮方法にしたがって、当該動画像から当該ユーザのミラー動画像を生成する画像処理回路と、生成された当該ミラー動画像を表示装置に出力する第4インタフェースとを備えた画像処理装置を含む。   In order to solve the above-described problem, an aspect of the present invention is an image processing device used when a user visually recognizes his / her own image, the first interface for acquiring a moving image of the user, and the visual acuity of the user Based on the second interface for acquiring user visual acuity information that is information on the user, the third interface for acquiring user distance information that is information on the distance from the display device to the user, the user distance information and the user visual acuity information, A processor for determining an enlargement / reduction method including at least an enlargement / reduction ratio of the acquired moving image so that the user can clearly view a user image displayed on the display device, and the moving image according to the determined enlargement / reduction method And a fourth interface for outputting the generated mirror moving image to the display device. Including an image processing apparatus and a over scan.

上述の一般的かつ特定の態様は、システム、方法およびコンピュータプログラムを用いて実装され、またはシステム、方法およびコンピュータプログラムの組み合わせを用いて実現され得る。   The general and specific aspects described above can be implemented using systems, methods and computer programs, or can be implemented using combinations of systems, methods and computer programs.

本開示によると、利用時に、化粧などの細かく、かつ鏡との距離が変化するような作業を、ユーザがより行いやすい表示装置(デジタルミラー)を実現することができる。   According to the present disclosure, it is possible to realize a display device (digital mirror) that allows a user to easily perform a work such as makeup and a distance that changes with a mirror when used.

本開示による例示的な第1の実施形態のデジタルミラーの構成を示す説明図である。It is explanatory drawing which shows the structure of the digital mirror of illustrative 1st Embodiment by this indication. 本開示による例示的な第1の実施形態の画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first exemplary embodiment of the present disclosure. 本開示による例示的な第1の実施形態の画像処理装置のコンピュータによる構成を示すブロック図である。It is a block diagram showing the composition by the computer of the image processing device of an exemplary 1st embodiment by this indication. 本開示による例示的な第1の実施形態の画像処理装置の処理の流を示すフロー図である。It is a flowchart which shows the flow of a process of the image processing apparatus of illustrative 1st Embodiment by this indication. (a)〜(c)は、ユーザに視力情報を入力させるためのユーザインタフェースの例を示す図である。(A)-(c) is a figure which shows the example of the user interface for making a user input visual acuity information. (a)および(b)は、視力の定義、及び目の分解能について説明するための図である。(A) And (b) is a figure for demonstrating the definition of visual acuity, and the resolution | decomposability of eyes. 本開示による例示的なカメラと表示装置及び表示対象の物体を示す概略図である。FIG. 2 is a schematic diagram illustrating an exemplary camera and display device and display target object according to the present disclosure. 本開示によるユーザ距離と拡縮率の関係について示す図である。It is a figure shown about the relationship between the user distance and expansion / contraction rate by this indication. 本開示による例示的な第2の実施形態のデジタルミラーの構成を示す説明図である。It is explanatory drawing which shows the structure of the digital mirror of illustrative 2nd Embodiment by this indication.

本発明の基礎となった知見は以下のとおりである。   The knowledge which became the basis of this invention is as follows.

先に述べたとおり、鏡は日常生活に欠かせないものであるが、多くの女性にとって、最も重要な鏡の用途は「化粧」であるといえる。   As mentioned earlier, mirrors are indispensable for daily life, but for many women, the most important use of mirrors is makeup.

ポーラ研究所が発行した「女性の化粧行動・意識に関する実態調査 2012」によると、10代から60代までほぼ年齢を問わず約7割の女性が「ほぼ毎日/毎日化粧を行う」、と回答し、「時々化粧を行う」、と回答した女性を合わせると約9割もの女性が、日常的に化粧を行っている。また、どの年代も、複数のメイクアイテムを顔のパーツごとに使いわけ、化粧を行っている。   According to the “Fact-finding Survey on Women's Makeup Behavior and Consciousness 2012” published by the Pola Institute, approximately 70% of women from almost teens to 60s answered “make up almost every day / daily” In addition, about 90% of women who answered “sometimes apply makeup” make up daily. Also, in all ages, multiple makeup items are used for each facial part, and makeup is performed.

この際、アイメイクやベースメイク等、化粧を施すパーツによって作業の細かさが異なるため、ユーザは無意識に鏡との距離を調節しながら作業する。   At this time, since the fineness of the work varies depending on the parts to be applied such as eye makeup and base makeup, the user unconsciously works while adjusting the distance from the mirror.

例えば、睫毛の長さを長く見せるために用いるマスカラに関しては、マスカラ液のついた小さなブラシを用いて、直径0.1mm程度の睫毛を梳かす、という非常に細かい作業を行うため、おおよそ目から10cm〜20cmという非常に近い距離から鏡を見、慎重に作業を行う。   For example, with regard to mascara used to show the length of the eyelashes long, a small brush with a mascara solution is used to perform very detailed work of combing the eyelashes with a diameter of about 0.1 mm. Look carefully at the mirror from a very close distance of 10 cm to 20 cm and work carefully.

一方、加齢が原因で近い距離が見えづらくなるのが老眼である。早い人では30代、一般的には40代から症状が出ることが多いと言われ、さらに、加齢に従って、見えづらい範囲は広がっていく。   On the other hand, presbyopia makes it difficult to see close distances due to aging. It is said that in early people, symptoms often appear in their 30s, generally in their 40s, and the range that is difficult to see spreads with age.

先に述べたとおり、年代を問わず女性は日常的に化粧を行っている。したがって老眼に悩まされながら化粧を行うユーザは多い。そのようなユーザにとっては、近距離での作業が必要であって、かつ作業時に老眼鏡をかけることができない、マスカラをはじめとする「アイメイク」は特に大変なものであり、例えば、メイク用途専用の特殊な機構を備えた老眼鏡も発売されているほどである。   As mentioned earlier, women do makeup on a daily basis, regardless of age. Therefore, many users apply makeup while suffering from presbyopia. For such users, “eye makeup” such as mascara, which requires work at a short distance and cannot wear reading glasses during work, is particularly difficult. Reading glasses with a special mechanism are also on the market.

先に述べた特許文献の実施例および図面では、カメラで撮影したユーザの画像を、ユーザ正面のディスプレイ上に表示する際のサイズ(拡大率)を、ユーザとの距離や、ユーザの特定の動作に結び付けて決定する方法が提案されている。   In the embodiments and drawings of the patent document described above, the size (magnification ratio) when displaying the user's image taken with the camera on the display in front of the user, the distance from the user, and the specific operation of the user There has been proposed a method of deciding in connection with.

しかし、ユーザがディスプレイ上の作業対象物を明視可能であるかが考慮されていないため、ユーザがアイメイクをするためにデジタルミラーに近づく際、ユーザが老眼であるかどうかにかかわらず、表示の態様は同じである。すなわち、従来のデジタルミラーでは、老眼のユーザが化粧をする際、明視できない距離で利用する場合があり得る。その場合にはユーザに使いづらさを感じさせる。   However, it is not considered whether the user can clearly see the work object on the display, so when the user approaches the digital mirror to make eye makeup, it is displayed regardless of whether the user is presbyopia The aspects of are the same. That is, with a conventional digital mirror, when a presbyopic user puts on makeup, it may be used at a distance that cannot be clearly seen. In that case, it makes the user feel difficult to use.

研究および検討を重ねることにより、本発明者らは、従来のデジタルミラーには、ユーザの視力を考慮していないことにより、上述した課題が生じることを見出した。そして、ユーザの視力を考慮して適切な拡大率を決定してユーザ像を表示すれば、ユーザにとってより使いやすいデジタルミラーを提供できることを見出した。   Through repeated research and examination, the present inventors have found that the above-described problems occur in conventional digital mirrors because the user's visual acuity is not taken into consideration. Then, it was found that a digital mirror that is easier to use for the user can be provided by determining an appropriate magnification factor in consideration of the user's visual acuity and displaying the user image.

本発明の一態様の概要は以下のとおりである。   The outline of one embodiment of the present invention is as follows.

本発明の一態様である画像処理装置は、ユーザが自らの像を視認する際に用いられる画像処理装置であって、ユーザの動画像を取得する第1インタフェースと、前記ユーザの視力に関する情報であるユーザ視力情報を取得する第2インタフェースと、表示装置から前記ユーザまでの距離の情報であるユーザ距離情報を取得する第3インタフェースと、前記ユーザ距離情報およびユーザ視力情報に基づいて、前記表示装置上に表示されるユーザ像を前記ユーザが明視できるよう、取得された動画像の拡大縮小率を少なくとも含む拡縮方法を決定するプロセッサと、決定された前記拡縮方法にしたがって、前記動画像から前記ユーザのミラー動画像を生成する画像処理回路と、生成された前記ミラー動画像を表示装置に出力する第4インタフェースとを備えている。   An image processing apparatus according to an aspect of the present invention is an image processing apparatus used when a user visually recognizes his / her own image, and includes a first interface for acquiring a moving image of the user and information regarding the user's visual acuity. Based on the second interface for acquiring certain user visual information, the third interface for acquiring user distance information that is information on the distance from the display device to the user, and the display device based on the user distance information and the user visual information A processor for determining an enlargement / reduction method including at least an enlargement / reduction ratio of the acquired moving image so that the user can clearly view the user image displayed above, and the moving image according to the determined enlargement / reduction method, from the moving image An image processing circuit for generating a mirror moving image of the user and a fourth interface for outputting the generated mirror moving image to a display device It is equipped with a door.

前記ユーザ視力情報は、前記ユーザの明視域に関する情報をさらに含み、前記プロセッサは、前記ユーザ視力情報と、さらに前記表示装置上に表示される前記ユーザ像上の領域の大きさとに基づいて、前記距離が前記ユーザの明視域の近点ないし遠点である場合の拡縮方法を決定する、請求項1の画像処理装置。   The user visual acuity information further includes information related to the clear visual area of the user, and the processor is further configured based on the user visual acuity information and a size of an area on the user image displayed on the display device. The image processing apparatus according to claim 1, wherein an enlargement / reduction method is determined when the distance is a near point or a far point of the clear vision area of the user.

前記ユーザ像上の領域は、前記ユーザのまつ毛あるいは毛髪の表示を含み、前記プロセッサは、前記ユーザの視力より求められる、前記近点の距離における前記ユーザの目の分解能が、表示装置上に表示される前記まつ毛1本あるいは毛髪1本の大きさよりも細かくなるよう、前記距離が前記近点である場合の拡縮方法を決定してもよい。   The region on the user image includes a display of the user's eyelashes or hair, and the processor displays the resolution of the user's eyes at the near point distance obtained from the user's visual acuity on a display device. The enlargement / reduction method in the case where the distance is the near point may be determined so as to be smaller than the size of one eyelash or one hair.

前記第2インタフェースは、前記ユーザの両眼が開いている場合は両眼視力に関する情報を、片眼が閉じられている場合は、開いている方の眼の視力の情報を、前記ユーザ視力情報として取得してもよい。   The second interface includes information regarding binocular visual acuity when both eyes of the user are open, information on visual acuity of the open eye when one eye is closed, and the user visual acuity information. You may get as

前記プロセッサは、前記距離が前記近点である場合の拡縮率に基づき、表示される画像が段階的に変化するよう、前記近点より遠い距離における拡縮率を前記距離の変化に応じて決定してもよい。   The processor determines an enlargement / reduction rate at a distance farther than the near point according to the change in the distance so that a displayed image changes stepwise based on the enlargement / reduction rate when the distance is the near point. May be.

前記プロセッサは、前記近点より遠い位置に拡縮率が等倍となる基準距離の地点を予め定めておき、前記近点と前記基準距離との間で段階的に補間してもよい。   The processor may preliminarily determine a reference distance point at which the enlargement / reduction ratio is equal to a position far from the near point, and perform interpolation stepwise between the near point and the reference distance.

前記プロセッサは、前記ユーザが利用開始後、前記ユーザが前記近点より近くに入るまでは拡縮率を等倍とし、前記ユーザが前記近点よりも前記表示装置へ近づいた場合には、前記ユーザの視力に応じた拡縮率とするよう、前記拡縮方法を決定してもよい。   The processor sets the enlargement / reduction ratio to the same magnification until the user enters closer to the near point after the user starts use, and when the user is closer to the display device than the near point, the processor The enlargement / reduction method may be determined so as to obtain an enlargement / reduction ratio corresponding to the visual acuity.

前記ユーザ像上の領域は、前記ユーザの全顔あるいは全身の表示を含み、前記プロセッサは、前記距離が前記ユーザの明視域の遠点である場合に、前記表示装置上に表示される前記ユーザの全顔あるいは全身が前記表示装置の表示領域にすべて含まれるよう、前記拡縮方法を決定してもよい。   The area on the user image includes a display of the entire face or whole body of the user, and the processor is displayed on the display device when the distance is a far point of the clear vision area of the user. The enlargement / reduction method may be determined so that the entire face or whole body of the user is included in the display area of the display device.

前記プロセッサは、さらに目標視力の情報を取得し、前記プロセッサは、前記ユーザ視力情報に基づいて所定距離における前記ユーザの目の分解能を求め、前記目標視力に基づいて前記所定距離における前記ユーザの目の分解能を求め、前記プロセッサは、前記ユーザ視力情報に基づく前記分解能と、前記目標視力に基づく前記分解能とを利用して、前記ユーザが前記所定距離から前記ユーザ像を見る際に、前記目標視力で前記所定距離からユーザ像を見たときと同等の解像感が得られるよう、前記拡縮方法を決定してもよい。   The processor further acquires target visual acuity information, the processor obtains the resolution of the user's eyes at a predetermined distance based on the user visual acuity information, and the user's eyes at the predetermined distance based on the target visual acuity. And the processor uses the resolution based on the user visual acuity information and the resolution based on the target visual acuity to cause the target visual acuity when the user views the user image from the predetermined distance. The scaling method may be determined so that the same resolution as when the user image is viewed from the predetermined distance is obtained.

前記プロセッサは、前記距離が前記ユーザの明視域の遠点であるの場合の拡縮率に基づき、表示される画像が段階的に変化するよう、前記遠点より近い距離における拡縮率を前記距離の変化に応じて決定してもよい。   The processor determines the scaling ratio at a distance closer to the far point so that the displayed image changes stepwise based on the scaling ratio when the distance is the far point of the clear vision area of the user. It may be determined according to the change of.

前記プロセッサは、前記遠点より遠い位置に拡縮率が等倍となる基準距離の地点を予め定めておき、前記遠点と前記基準距離との間で段階的に補間してもよい。   The processor may preliminarily determine a reference distance point at which the enlargement / reduction ratio is equal to a position far from the far point, and perform interpolation stepwise between the far point and the reference distance.

前記ユーザの明視域の近点の拡縮率および遠点の拡縮率の両方が得られている場合に、前記プロセッサは、前記近点での拡縮率と前記遠点での拡縮率との間を、前記近点の距離の地点から前記遠点の距離の地点の間で段階的に補間してもよい。   When both the near-point scaling factor and the far-point scaling factor of the user's clear vision area have been obtained, the processor determines whether the near-point scaling factor and the far-point scaling factor are between. May be interpolated in a stepwise manner from the distance point of the near point to the distance point of the far point.

前記第2インタフェースは、さらに、前記ユーザが視力矯正具を装着している場合は矯正後の視力に関する情報を前記ユーザ視力情報として取得し、装着していない場合は、裸眼視力の情報を前記ユーザ視力情報として取得してもよい。   The second interface further obtains information about the corrected visual acuity as the user visual acuity information when the user is wearing a visual acuity correction tool, and information on the naked eye visual acuity when the user is not wearing it. You may acquire as vision information.

前記プロセッサは、前記ユーザが視力矯正具を装着しているか否かの判定結果を受け取り、前記ユーザが装着していた視力矯正具を外した場合には、前記ユーザの裸眼視力に基づいて前記拡縮率を調整してもよい。   The processor receives a determination result as to whether or not the user is wearing a vision correction tool, and when the vision correction tool worn by the user is removed, the processor scales based on the user's naked eye vision The rate may be adjusted.

前記プロセッサは、前記ユーザの動作から前記ユーザの明視域を推定してもよい。   The processor may estimate the clear vision area of the user from the user's action.

本発明の一態様である画像処理方法は、ユーザが自らの像を視認する際に用いられる画像処理方法であって、ユーザの動画像を取得し、前記ユーザの視力に関する情報であるユーザ視力情報を取得し、表示装置から前記ユーザまでの距離の情報であるユーザ距離情報を取得し、前記ユーザ距離情報およびユーザ視力情報に基づいて、前記表示装置上に表示されるユーザ像を前記ユーザが明視できるよう、取得された動画像の拡大縮小率を少なくとも含む拡縮方法を決定し、決定された前記拡縮方法にしたがって、前記動画像から前記ユーザのミラー動画像を生成しと、生成された前記ミラー動画像を表示装置に出力する。   An image processing method according to an aspect of the present invention is an image processing method used when a user visually recognizes his / her own image, and obtains a user's moving image, and user visual acuity information which is information related to the user's visual acuity User distance information, which is distance information from the display device to the user, is acquired, and the user defines a user image displayed on the display device based on the user distance information and user visual acuity information. Determining the enlargement / reduction method including at least the enlargement / reduction ratio of the acquired moving image so as to be visible, and generating the mirror moving image of the user from the moving image according to the determined enlargement / reduction method; The mirror moving image is output to the display device.

本発明の一態様であるコンピュータプログラムは、上述の画像処理方法をコンピュータに実行させるためのコンピュータプログラムである。   A computer program which is one embodiment of the present invention is a computer program for causing a computer to execute the above-described image processing method.

以下、添付の図面を参照しながら、本開示による画像処理装置の実施形態を説明する。   Hereinafter, embodiments of an image processing apparatus according to the present disclosure will be described with reference to the accompanying drawings.

以下、本開示の一態様に係る画像処理装置およびデジタルミラーについて、図面を参照しながら具体的に説明する。   Hereinafter, an image processing apparatus and a digital mirror according to an aspect of the present disclosure will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態1)
図1に、本実施の形態の対象であるデジタルミラーシステムの構成例を示す。
(Embodiment 1)
FIG. 1 shows a configuration example of a digital mirror system that is a target of the present embodiment.

最も簡単には、ディスプレイとカメラを備え、カメラで撮影したユーザの動画像を、ユーザ正面のディスプレイ上に映すことで、ユーザは、鏡を見るときのようにユーザ自身の状態を確認できる。   In the simplest case, a user is provided with a display and a camera, and the user's moving image captured by the camera is displayed on the display in front of the user, so that the user can check the user's own state as when looking at the mirror.

あるいは、特許文献1や非特許文献1に示されるように、システムはハーフミラーやホログラムスクリーンとプロジェクタ、カメラによって構成されていてもよい。カメラはハーフミラーやスクリーンの裏面の、ユーザの正面顔を撮影可能な位置に設置することで、ユーザの視線に直接入らないような位置から、ユーザの正面顔の撮影が可能である。これにより、より実際の鏡を見たときのようなユーザ像をユーザに提示できる。   Alternatively, as shown in Patent Document 1 and Non-Patent Document 1, the system may be configured by a half mirror, a hologram screen, a projector, and a camera. By installing the camera at a position where the front face of the user can be photographed on the back of the half mirror or the screen, the front face of the user can be photographed from a position that does not directly enter the user's line of sight. Thereby, it is possible to present to the user a user image that looks like a more real mirror.

また、複数のカメラないし測距が可能なセンサを備えることで、画像合成技術を用いて、任意の角度からのユーザ像を表示できるため、ユーザの視点位置・視線検出を行い、ユーザ視点からの合成画像を画面上に表示し、実際の鏡を見たときのようなユーザ像をユーザに提示するとしてもよい。   In addition, by providing a plurality of cameras or sensors capable of ranging, it is possible to display a user image from an arbitrary angle using image synthesis technology. A composite image may be displayed on the screen, and a user image as when looking at an actual mirror may be presented to the user.

さらに、特許文献1に開示されているように、表示面からユーザまでの距離に基づいて表示時の拡大率を変更することで、近づけば像が大きくなり、遠ざかれば像が小さくなる、鏡と類似した表示を行える。(図1)本実施例では、特に前記画像合成技術などを用い、鏡のように視線一致が可能なシステムを対象として本開示の動作を説明する。   Further, as disclosed in Patent Document 1, by changing the enlargement ratio at the time of display based on the distance from the display surface to the user, the image becomes larger as it approaches, and the image becomes smaller as it moves away. Can be displayed. (FIG. 1) In the present embodiment, the operation of the present disclosure will be described for a system capable of matching the line of sight, such as a mirror, particularly using the image composition technique.

なお、以下の説明で動画像という場合には、動画像データ、または動画像データが示す動画像を指しうるものとする。もちろん、動画像を構成するそれぞれの静止画(ピクチャ)の集合も動画像に含まれる。また、本開示では、表示装置上に表示する動画像を、鏡像正像に関係なく、ミラー動画像と呼ぶものとする。   In the following description, the term “moving image” refers to moving image data or a moving image indicated by moving image data. Of course, a set of still images (pictures) constituting the moving image is also included in the moving image. In the present disclosure, a moving image displayed on a display device is referred to as a mirror moving image regardless of a mirror image normal image.

図2は、本実施の形態における画像処理装置100の機能的な構成を示すブロック図である。図2に示されるように、画像処理装置100は、動画取得部101、ユーザ視力情報取得部102、ユーザ距離取得部103、拡縮方法決定部104、画像生成部105、出力部106を備える。   FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 100 according to the present embodiment. As illustrated in FIG. 2, the image processing apparatus 100 includes a moving image acquisition unit 101, a user visual acuity information acquisition unit 102, a user distance acquisition unit 103, an enlargement / reduction method determination unit 104, an image generation unit 105, and an output unit 106.

画像処理装置100は、動画像110および、ユーザ視力情報111、ユーザ距離112を入力として受け付け、所定の向きから撮影されたユーザの動画像に画像処理を施し、結果得られる動画像をミラー動画像として表示装置120に出力する。   The image processing apparatus 100 accepts the moving image 110, the user visual acuity information 111, and the user distance 112 as inputs, performs image processing on the moving image of the user taken from a predetermined direction, and converts the resulting moving image into a mirror moving image. To the display device 120.

動画取得部101は、動画像、または動画像を構成する複数枚のピクチャ(「画像」とも言う)の入力を受け付ける。動画取得部101は、視覚センサであるカメラから動画像を、直接、または通信経路を介して読み出すインタフェースであっても良い。   The moving image acquisition unit 101 receives an input of a moving image or a plurality of pictures (also referred to as “images”) constituting the moving image. The moving image acquisition unit 101 may be an interface that reads a moving image from a camera, which is a visual sensor, directly or via a communication path.

ユーザ視力情報取得部102は、ユーザ視力情報111を取得する。ユーザ視力情報は、望ましくは、本装置を利用するユーザの目の空間分解能を示す、ユーザの裸眼視力、及びユーザが明視可能(ぼやけない)な目からの距離範囲を示す、ユーザの明視域に関する情報を含む。これらの情報は、ユーザがその場で入力可能なインタフェースを備えることで、ユーザ本人が事前に入力できるようにしてもよいし、あらかじめ外部の記憶装置に格納されていて、直接、または通信経路を介して読み出されるとしてもよい。   The user eyesight information acquisition unit 102 acquires user eyesight information 111. The user's visual acuity information preferably indicates the spatial resolution of the user's eyes using the apparatus, the user's naked eye acuity, and the distance range from the user's clear (unblurred) eyes. Contains information about the area. Such information may be input in advance by the user by providing an interface that the user can input on the spot, or may be stored in advance in an external storage device, directly or through a communication path. It may be read out via

ユーザ距離取得部103は、表示装置の表示面からユーザまで、特にユーザの顔までの距離である、ユーザ距離112を取得する。ユーザ距離112は例えば、複数のカメラからの動画像を用いて画像処理により得るとしてもよいし、測距センサを備え、これを用いてもよく、既存の手法により実現してよい。本実施の形態では、測距センサを利用する例を説明する。   The user distance acquisition unit 103 acquires a user distance 112 that is a distance from the display surface of the display device to the user, particularly the user's face. For example, the user distance 112 may be obtained by image processing using moving images from a plurality of cameras, or may be provided with a distance measurement sensor or may be realized by an existing method. In this embodiment, an example in which a distance measuring sensor is used will be described.

拡縮方法決定部104は、ユーザ視力情報取得部102で受け付けたユーザ視力情報111、およびユーザ距離取得部103で受け付けたユーザ距離112に基づき、出力するミラー動画像の表示様態を前記拡縮方法として決定する。決定される拡縮方法は、たとえば表示時の拡大縮小率を含む。さらに決定される拡縮方法は、拡大縮小率に加え、拡大縮小中心の位置を含んでもよい。決定の方法については後述する。   The enlargement / reduction method determination unit 104 determines the display mode of the output mirror moving image as the enlargement / reduction method based on the user visual acuity information 111 received by the user visual acuity information acquisition unit 102 and the user distance 112 received by the user distance acquisition unit 103. To do. The determined enlargement / reduction method includes, for example, an enlargement / reduction ratio at the time of display. Further, the determined enlargement / reduction method may include the position of the enlargement / reduction center in addition to the enlargement / reduction ratio. The determination method will be described later.

画像生成部105は、ユーザ距離112、および拡縮方法決定部104によって決定されたミラー動画像の表示様態に基づき、動画像110に対して画像変換を施し、最終的に表示装置上に表示するミラー動画像を生成する。   The image generation unit 105 performs image conversion on the moving image 110 based on the user distance 112 and the display mode of the mirror moving image determined by the enlargement / reduction method determination unit 104, and finally displays the mirror on the display device. Generate a moving image.

出力部106は、画像生成部105によって生成されたミラー動画像を、表示装置120で表示可能な形態にし、表示装置120へ出力する。   The output unit 106 converts the mirror moving image generated by the image generation unit 105 into a form that can be displayed on the display device 120, and outputs it to the display device 120.

なお、画像処理装置100を構成する各構成要素は、コンピュータ上で実行されるプログラム等のソフトウェアで実現されてもよいし、電子回路または集積回路等のハードウェアで実現されてもよい。図3は、コンピュータ200によって構成された本実施の形態における画像処理装置100のハードウェア構成を示す図である。コンピュータ200が画像処理装置100に対応している。   Note that each component constituting the image processing apparatus 100 may be realized by software such as a program executed on a computer, or may be realized by hardware such as an electronic circuit or an integrated circuit. FIG. 3 is a diagram illustrating a hardware configuration of the image processing apparatus 100 according to the present embodiment configured by the computer 200. A computer 200 corresponds to the image processing apparatus 100.

図3において、カメラ210aで取得した動画像110はI/F(インタフェース)201aを通じて画像処理装置であるコンピュータ200へ入力される。記憶装置210bに格納されたユーザの視力情報はI/F201bを通じて画像処理装置であるコンピュータ200へ入力される。測距センサ210cで取得したユーザ距離112はI/F(インタフェース)201cを通じて画像処理装置であるコンピュータ200へ入力される。コンピュータ200は、動画像110とユーザ視力情報111およびユーザ距離112を取得し、画像生成処理を行う。表示装置220は、コンピュータ200で生成されたミラー動画像を表示する。   In FIG. 3, a moving image 110 acquired by a camera 210a is input to a computer 200 which is an image processing apparatus through an I / F (interface) 201a. The user's visual acuity information stored in the storage device 210b is input to the computer 200, which is an image processing device, through the I / F 201b. The user distance 112 acquired by the distance measuring sensor 210c is input to the computer 200, which is an image processing apparatus, through an I / F (interface) 201c. The computer 200 acquires the moving image 110, the user visual acuity information 111, and the user distance 112, and performs image generation processing. The display device 220 displays a mirror moving image generated by the computer 200.

コンピュータ200は、I/F201a、I/F201b、I/F201c、I/F201d、CPU(Central Processing Unit)202、ROM203、RAM204、およびHDD205を含む。コンピュータ200を動作させるプログラムは、ROM203またはHDD205にあらかじめ保持されている。プログラムは、プロセッサであるCPU202によって、ROM203またはHDD205からRAM204に読み出されて展開される。CPU202は、RAM204に展開されたプログラム中のコード化された各命令を実行する。I/F201aおよびI/F201bは、プログラムの実行に応じて、動画像110およびユーザ操作111をRAM204へそれぞれ取り込む。I/F201dはメモリ内の画像データを映像信号として出力する機能を有している。当該機能に加え、I/F201dさらに画像の拡大縮小、反転の機能を含んでもよい。後者の態様の場合には、I/F201dは、ミラー動画像を生成し、生成したミラー動画像を表示装置220に出力する。   The computer 200 includes an I / F 201a, an I / F 201b, an I / F 201c, an I / F 201d, a CPU (Central Processing Unit) 202, a ROM 203, a RAM 204, and an HDD 205. A program for operating the computer 200 is stored in advance in the ROM 203 or the HDD 205. The program is read out from the ROM 203 or HDD 205 to the RAM 204 and expanded by the CPU 202 as a processor. The CPU 202 executes each coded instruction in the program expanded in the RAM 204. The I / F 201 a and the I / F 201 b capture the moving image 110 and the user operation 111 into the RAM 204 in accordance with the execution of the program. The I / F 201d has a function of outputting image data in the memory as a video signal. In addition to this function, the I / F 201d may further include an image enlargement / reduction and inversion function. In the case of the latter mode, the I / F 201d generates a mirror moving image and outputs the generated mirror moving image to the display device 220.

なお、コンピュータプログラムは、半導体であるROM203またはHDD205に限らず、例えばCD−ROM等の外部記憶装置に格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM204に取り込まれてもよい。   The computer program is not limited to the semiconductor ROM 203 or HDD 205 but may be stored in an external storage device such as a CD-ROM. Alternatively, the data may be transmitted via a wired or wireless network, broadcasting, or the like and taken into the RAM 204 of the computer.

次に、本実施の形態における画像処理装置100の動作を、図4を用いて説明する。図4は、本実施の形態における画像処理装置100の動作を表すフローチャートである。図4において、6つのステップS301〜S306は、それぞれ図2の各処理部101〜106に対応している。すなわち、動画取得部101では動画取得ステップS301、ユーザ視力情報取得部102ではユーザ視力取得ステップS302、ユーザ距離取得部103ではユーザ距離取得ステップS303、拡縮方法決定部104では拡縮方法決定ステップS304、画像生成部105では画像生成ステップS305、出力部106では出力ステップS306の各動作を実行する。なお、これらのステップは、上述のコンピュータプログラムで実現できる。   Next, the operation of the image processing apparatus 100 in the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing the operation of the image processing apparatus 100 in the present embodiment. In FIG. 4, six steps S301 to S306 correspond to the respective processing units 101 to 106 in FIG. That is, the moving image acquisition unit 101 has a moving image acquisition step S301, the user visual acuity information acquisition unit 102 has a user visual acuity acquisition step S302, the user distance acquisition unit 103 has a user distance acquisition step S303, the enlargement / reduction method determination unit 104 has an enlargement / reduction method determination step S304, an image The generation unit 105 executes each operation of image generation step S305, and the output unit 106 executes output step S306. Note that these steps can be realized by the above-described computer program.

まず、動画取得ステップS301が、動画取得部101により実行される。動画取得部101は、動画像110を取得する。   First, the moving image acquiring unit 101 executes the moving image acquiring step S301. The moving image acquisition unit 101 acquires the moving image 110.

動画取得部101は、有線や無線のネットワークを介して一つまたは複数のカメラより動画像110を取得する。動画像は30フレーム/秒とする。ユーザをとらえるような位置に設置されたカメラの動画像を取得する。カメラのパラメータや配置は既知とする。前述のように、前記取得した複数の動画像を用いることで、画像合成などによりユーザの視線に合った動画像を生成することができる。   The moving image acquisition unit 101 acquires the moving image 110 from one or more cameras via a wired or wireless network. The moving image is 30 frames / second. A moving image of a camera installed at a position that captures the user is acquired. The camera parameters and arrangement are assumed to be known. As described above, by using the plurality of acquired moving images, it is possible to generate a moving image that matches the user's line of sight by image synthesis or the like.

次に、ユーザ視力取得ステップS302がユーザ視力情報取得部102により実行される。ユーザ視力情報取得部102は、ユーザ視力情報111を取得する。取得するユーザ視力情報111は、少なくともユーザの視力(裸眼視力)の情報を含む。   Next, the user visual acuity acquisition step S302 is executed by the user visual acuity information acquisition unit 102. The user eyesight information acquisition unit 102 acquires user eyesight information 111. The acquired user visual acuity information 111 includes at least information on the visual acuity of the user (naked eye visual acuity).

視力(裸眼視力)とは、ユーザの目の分解能を示す指標である。一般的に行われる視力検査で計測するのがこの視力であり、5m先に置かれたランドルト環(円に1°の切れ目が入った図)の切れ目を認識できるかどうかによって計測することができる。ランドルト環の切れ目の大きさと視力との関係は、長さではなく角度(視角)で定義されるため、基本的には距離には依存しない。したがって、視力がわかれば、目からの距離に応じた目の分解能をそれぞれ算出することができる。   Visual acuity (naked eye acuity) is an index indicating the resolution of the user's eyes. It is this visual acuity that is measured by a visual acuity test that is generally performed, and can be measured based on whether or not a Landolt ring (a figure with a 1 ° cut in a circle) placed 5 meters ahead can be recognized. . Since the relationship between the size of the cut of the Landolt ring and the visual acuity is defined not by the length but by the angle (viewing angle), it basically does not depend on the distance. Therefore, if the visual acuity is known, the eye resolution according to the distance from the eyes can be calculated.

本実施の形態では、さらに、老眼のユーザにとって使いやすい、視界がぼやけないデジタルミラーを実現するため、ユーザ視力情報111は、ユーザの明視域の情報も含むものとする。   In the present embodiment, in order to realize a digital mirror that is easy to use for presbyopic users and does not blur the field of view, it is assumed that the user visual acuity information 111 also includes information on the user's clear visual field.

明視域とは、人間の眼がピントを合わせることが可能な、目からの距離範囲のことである。人間の眼は、カメラにおけるレンズに相当する水晶体の厚さを調節することで、近くのものから遠くのものまでピントを合わせることが可能である。ピントを合わせる力を調節力と呼び、目がピントを合わせられる点で、目から最も近い点を近点、最も遠い点を遠点とよぶ。近点は、一般的に加齢とともに遠ざかっていくことが知られており、例えば、正常な目(正視)の子供の近点は10cm程度であるが、年齢を重ねるにつれこの近点は遠ざかり、老眼の症状があらわれだす40〜50代以降では40cm以上になる。なお各ユーザの明視域の情報は、眼科等で用いられる検眼機などを用いて容易に計測することができる。   The clear vision area is a distance range from the eye where the human eye can focus. The human eye can focus from near to far by adjusting the thickness of the lens corresponding to the lens in the camera. The power to adjust the focus is called the adjustment force. The point where the eye can focus is called the near point, and the farthest point is called the far point. Peripheral points are generally known to go away with aging, for example, the near point of a normal eye (normal vision) child is about 10 cm, but as the age increases, this near point goes away, It becomes 40 cm or more in the 40s and 50s and later when presbyopia appears. Note that the clear vision area information of each user can be easily measured using an optometer or the like used in ophthalmology or the like.

ユーザ視力情報取得部102は、ユーザが事前に入力した前記ユーザ視力情報111を利用するものとしてもよい。この場合ユーザの入力は、画像処理装置100で生成したユーザ画像を表示する表示機器上にユーザインタフェース(UI)を備え、前記UIを通じて行なわれてもよいし、前記表示装置とは別の、一般的なPCまたは携帯端末などの機器上のUIを利用して行なわれた操作から有線ないし無線を介して受け付けるようにしてもよい。また、別途備えられたサーバ、PCなどの記憶装置上にユーザと対応付けられた情報として格納されているものを、有線ないし無線を介して受け付けるようにしてもよい。ユーザの特定は、例えば顔認識・生体認証や、スマートフォン等ユーザの保有するモバイル機器固有のIDに基づいてユーザを特定するとしてもよい。   The user visual acuity information acquisition unit 102 may use the user visual acuity information 111 input in advance by the user. In this case, the user's input may be performed through the UI provided with a user interface (UI) on a display device that displays the user image generated by the image processing apparatus 100. You may make it accept via wired or wireless from operation performed using UI on apparatuses, such as a typical PC or a portable terminal. Further, information stored as information associated with a user on a storage device such as a server or a PC provided separately may be received via wired or wireless communication. The user may be specified based on, for example, face recognition / biometric authentication or an ID unique to a mobile device such as a smartphone.

図5(a)〜(c)は、ユーザに視力情報を入力させるためのユーザインタフェースの例を示す。図5(a)は、ユーザの視力を入力させるためのインタフェース例である。この例では、ユーザは両眼視力を入力する。右目および左目の視力をそれぞれ入力する場合には、それぞれを入力する欄が設けられてもよい。入力を終えると、ユーザは右下の「次へ」を押下する。   FIGS. 5A to 5C show examples of user interfaces for allowing the user to input visual acuity information. FIG. 5A shows an example of an interface for inputting the user's visual acuity. In this example, the user inputs binocular vision. When inputting the visual acuity of the right eye and the left eye, a field for inputting each may be provided. When the input is completed, the user presses “Next” in the lower right.

図5(b)は、ユーザの明視域を入力させるためのインタフェース例である。ユーザは、予め測定しておいた自らの近点および遠点の情報を入力する。入力を終えると、ユーザは右下の「次へ」を押下する。   FIG. 5B shows an example of an interface for inputting a user's clear visual field. The user inputs information about his / her near point and far point that has been measured in advance. When the input is completed, the user presses “Next” in the lower right.

図5(c)は、図5(a)および(b)のユーザインタフェースを経て入力されたユーザの視力および明視域の情報を、画像処理装置100がユーザ視力情報111として受け付けたことを示す表示例である。この確認画面を経て、ユーザは画像処理装置100をデジタルミラーとして使用することができる。   FIG. 5C shows that the image processing apparatus 100 accepts the user's visual acuity and clear vision area information input via the user interfaces of FIGS. 5A and 5B as the user visual acuity information 111. It is a display example. Through the confirmation screen, the user can use the image processing apparatus 100 as a digital mirror.

再び図4を参照する。   Refer to FIG. 4 again.

次に、ユーザ距離取得ステップS303がユーザ距離取得部103により実行される。   Next, the user distance acquisition step S <b> 303 is executed by the user distance acquisition unit 103.

ユーザ距離112は、ユーザから表示装置の表示面までの距離、より正確にはユーザの目から表示装置の表示面までの距離として取得する。   The user distance 112 is acquired as the distance from the user to the display surface of the display device, more precisely as the distance from the user's eyes to the display surface of the display device.

通常の鏡利用時と同様に、ユーザは表示装置に正対して立つものとしてよい。ユーザの目の検出方法は例えば、特許文献3に提案されるような、画像から目の特徴を示す領域を検出してくる方法を適用することができる。顔検出と併用してもよい。また、特許文献4に示すように、別途備えた可視光・赤外光等の光源からの光に対する目の反射光に基づいて目の位置を求める方法をとってもよい。画像上での目の位置がわかれば、例えば複数のカメラより取得した動画像から、三角測量等の簡易な算出方法によって目の3次元的な位置を求めてもよいし、別途、前記目の位置を検出するのに用いた動画像を取得したカメラとの位置関係が既知であるような距離センサを備えておき、これを用いて検出した目の3次元的な位置を求めてもよい。カメラと表示装置の位置関係は事前に求めておくことができるので、カメラとユーザの目の間の3次元的な位置関係がわかれば、事前に求めたカメラと表示装置の位置関係に基づいて、表示装置からユーザの目までの距離であるユーザ距離112を、容易に求めることができる。   As in the case of using a normal mirror, the user may stand facing the display device. As a method for detecting the user's eyes, for example, a method of detecting a region indicating eye characteristics from an image as proposed in Patent Document 3 can be applied. It may be used in combination with face detection. Moreover, as shown in Patent Document 4, a method of obtaining the position of the eye based on the reflected light of the eye with respect to light from a light source such as visible light or infrared light provided separately may be used. If the position of the eye on the image is known, the three-dimensional position of the eye may be obtained by a simple calculation method such as triangulation from moving images acquired from a plurality of cameras, for example. A distance sensor that has a known positional relationship with the camera that has acquired the moving image used to detect the position may be provided, and the detected three-dimensional position of the eye may be obtained using this distance sensor. Since the positional relationship between the camera and the display device can be obtained in advance, if the three-dimensional positional relationship between the camera and the user's eyes is known, the positional relationship between the camera and the display device can be determined based on the previously obtained positional relationship between the camera and the display device. The user distance 112 that is the distance from the display device to the user's eyes can be easily obtained.

なお、動画取得ステップS301、ユーザ視力取得ステップS302、およびユーザ距離取得ステップS303はそれぞれ独立に処理することも可能であり、処理の順序は上記説明と異なってよいし、同時並行して処理を進めてもよい。   Note that the moving image acquisition step S301, the user visual acuity acquisition step S302, and the user distance acquisition step S303 can be processed independently, and the processing order may be different from the above description, and the processing proceeds in parallel. May be.

また、ユーザ視力取得ステップS302に関しては、ユーザが一旦入力した後は、省略することができる。視力が変化した場合や、他のユーザが画像処理装置100を使用する場合に、改めて実行されればよい。   Further, the user visual acuity acquisition step S302 can be omitted after the user inputs once. It may be executed again when the eyesight changes or when another user uses the image processing apparatus 100.

次に、拡縮方法決定ステップS304が拡縮方法決定部104により実行される。拡縮方法決定ステップS304は、ユーザ視力情報取得部102で受け付けたユーザ視力情報111、およびユーザ距離取得部103で受け付けたユーザ距離112に基づき、最終的に表示するミラー動画像の表示様態である拡縮方法を決定する。   Next, the enlargement / reduction method determination step S304 is executed by the enlargement / reduction method determination unit 104. The enlargement / reduction method determination step S304 is an enlargement / reduction which is a display mode of a mirror moving image to be finally displayed based on the user visual acuity information 111 received by the user visual acuity information acquisition unit 102 and the user distance 112 received by the user distance acquisition unit 103. Decide how.

本装置は、特に老眼の人が、アイメイク等の細かい作業を目的として、ミラーに近づいたような画像を見たい場合に、実際にミラーに近づくことで画像がぼやけてしまうことなく、自らの像を視認可能なデジタルミラーを実現することを目的としている。   This device is especially useful for presbyopic people who want to see images that are close to the mirror for the purpose of detailed work such as eye makeup. The purpose is to realize a digital mirror that can visually recognize an image.

すなわち、一般的なデジタルミラーや鏡において、ユーザが近点よりも表示画面に近づいた際に得られるような大きさのユーザ画像を、近点よりも表示画面に近づかなくても、該ユーザが見られるようにすればよい。このようにすることで、ユーザは、ぼやけることなく、鏡に近づいた時のようなユーザ画像を見ることができる。   That is, in a general digital mirror or mirror, a user image having a size that is obtained when the user approaches the display screen rather than the near point can be displayed even if the user does not approach the display screen than the near point. Just make it visible. By doing in this way, the user can see the user image as when approaching the mirror without blurring.

また特に、先に述べたような、アイメイクを目的として鏡に近づくユーザを対象とする場合、表示画面に最も近づいた場合である近点において、まつ毛や髪の毛等の毛1本がはっきりと見える、すなわち、最低でもユーザのまつ毛=幅0.09mmの物体が、画面上に表示された際にユーザが視認できるよう、ユーザ像の画面上での表示拡大率を決定することが望ましい。ユーザが特定の距離で視認できる最小の大きさは、ユーザの目の解像度を示す、ユーザの視力に基づいて求めることができる。   In particular, when targeting a user who approaches a mirror for the purpose of eye makeup, as described above, one hair such as eyelashes or hair can be clearly seen at a point closest to the display screen. That is, it is desirable to determine the display magnification ratio of the user image on the screen so that the user can visually recognize an object having at least the user's eyelash = width 0.09 mm displayed on the screen. The minimum size that the user can visually recognize at a specific distance can be obtained based on the user's visual acuity indicating the resolution of the user's eyes.

視力と距離に基づいて、拡縮方法をどのように決定するかについて、以下でより詳しく説明する。   How to determine the scaling method based on visual acuity and distance will be described in more detail below.

視力、及び目の分解能の関係を図6に示す。   The relationship between visual acuity and eye resolution is shown in FIG.

一般的には、5m先から、直径約7.28mm、太さ約1.45mmの輪の一部が、約1.45mmの幅で切れている方向がわかる視力が視力1.0とされている。なお、簡単のため、輪の直径が7.5mm、輪の太さと切れている幅が1.5mmという基準を、以下の説明では利用する。図6(a)に示すとおり、視力は視角で定義されるため、例えば視力1.0のユーザは、5m先で1.5mmが、3m先では0.9mmが分解能に相当する。   In general, a visual acuity of 1.0 indicates a direction in which a part of a ring having a diameter of about 7.28 mm and a thickness of about 1.45 mm is cut with a width of about 1.45 mm from 5 m ahead. Yes. In addition, for the sake of simplicity, the following description uses a standard in which the diameter of the ring is 7.5 mm and the width of the ring is 1.5 mm. As shown in FIG. 6A, the visual acuity is defined by the visual angle. For example, a user with visual acuity 1.0 corresponds to a resolution of 1.5 mm at 5 m ahead and 0.9 mm at 3 m ahead.

ここで、例として、明視域の近点が40cmで、視力が1.0のユーザが本装置を利用することを考える。   Here, as an example, consider that a user who has a near point in the clear vision region of 40 cm and a visual acuity of 1.0 uses this apparatus.

ある視力のユーザが、ある距離離れた地点で認識可能な「ランドルト環の切れている幅」に相当する大きさを、以降で分解能と呼ぶとすると、前記視力が1.0のユーザの40cm先での分解能は、0.12mmとなる(図6(b))。   If a size corresponding to the “width of the Landolt ring” that a user with a certain visual acuity can recognize at a certain distance away is referred to as resolution hereinafter, the user whose visual acuity is 1.0 is 40 cm ahead. The resolution at is 0.12 mm (FIG. 6B).

なお、視力は視認可能な視角に反比例するため、説明した1.0以外の視力であっても、図6(b)に示すように距離に対する分解能を容易に求めることができる。   Since the visual acuity is inversely proportional to the visual angle that can be visually recognized, the resolution with respect to the distance can be easily obtained as shown in FIG.

以上より、拡縮方法決定部104は、視力が1.0、近点が40cmのユーザに対して、ユーザが、ユーザの近点に相当する40cm離れた距離から表示装置に正対する際に、表示装置上に表示される該ユーザのまつ毛が、表示装置上で、ユーザの視力における、近点距離での目の分解能に相当する、0.12mm以上の大きさで表示されるよう、前記動画取得部で取得したユーザの画像を表示する際の拡大率を決定する。   As described above, the enlargement / reduction method determination unit 104 displays the information when the user faces the display device from a distance of 40 cm, which corresponds to the user's near point, with respect to the user whose visual acuity is 1.0 and the near point is 40 cm. The moving image acquisition so that the user's eyelashes displayed on the device are displayed on the display device with a size of 0.12 mm or more, which corresponds to the resolution of the eyes at the near point distance in the user's visual acuity The enlargement ratio at the time of displaying the user image acquired by the copy is determined.

すなわち、拡縮方法決定部104は、ユーザ距離112が近点に相当する距離である場合の拡縮方法として、表示装置から近点に相当する距離離れた点に位置する、0.09mm(ユーザの毛の直径に相当する)の大きさの物体が、表示装置上において、前記ユーザ距離でのユーザの目の分解能に相当する大きさよりも、大きく表示されるように、前記動画取得部で取得したユーザの画像を表示する際の拡大率を決定する。   That is, the enlargement / reduction method determination unit 104 sets 0.09 mm (user hair) as a enlargement / reduction method when the user distance 112 is a distance corresponding to a near point, which is located at a point away from the display device by a distance corresponding to the near point. The user acquired by the moving image acquisition unit so that an object having a size corresponding to the diameter of the user is displayed larger on the display device than the size corresponding to the resolution of the user's eyes at the user distance. The enlargement ratio when displaying the image is determined.

ここで簡単のため、ユーザ画像を取得するカメラが図7(a)のように表示装置と一体である場合について説明する。カメラ光軸とユーザの視線がほぼ一致するものとすると、カメラからユーザの目・まつ毛までの距離はユーザ距離で表せる。   Here, for the sake of simplicity, a case will be described in which the camera that acquires the user image is integrated with the display device as shown in FIG. Assuming that the camera optical axis and the user's line of sight substantially coincide, the distance from the camera to the user's eyes and eyelashes can be expressed by the user distance.

カメラで撮影した画像を表示装置上で表示する際の、実際の大きさは、ディスプレイのパラメータ(解像度、画素サイズなど)に大きく依存する。したがって、ユーザのまつ毛が実際に表示装置上で表示される大きさを求めるには、カメラ光軸上の特定の距離に位置する、実空間上で特定の大きさをもつ物体が、ディスプレイ上で表示される大きさを事前にテーブル、ないし変換式として求めておく必要がある。   The actual size when displaying an image captured by the camera on the display device greatly depends on display parameters (resolution, pixel size, etc.). Therefore, in order to determine the size at which the user's eyelashes are actually displayed on the display device, an object having a specific size in real space located at a specific distance on the camera optical axis is displayed on the display. It is necessary to obtain the displayed size as a table or a conversion formula in advance.

例えば、睫毛を想定した0.09mmの物体が、図7(b)で示される大きさで、表示装置上に表示される場合を考える。想定ユーザの明視域近点である40cmでは、ユーザの目の分解能が0.12mmであるのに対して、0.09mmの物体が表示されるサイズは0.06mmとなっている。この場合、目の分解能の方が表示されるまつ毛の大きさよりも粗いため、ユーザは満足にまつ毛を視認できない。目の分解能と、表示されるまつ毛の大きさを合わせるには、表示される画像側を2倍に拡大すればよい。したがってこの場合、拡縮方法決定部104は、当該ユーザの近点における拡大方法を、カメラの光軸を拡大中心として、2倍拡大する、と決定する。   For example, consider a case where a 0.09 mm object assuming eyelashes is displayed on the display device with the size shown in FIG. At 40 cm, which is near the clear vision area of the assumed user, the resolution of the user's eyes is 0.12 mm, whereas the size at which an 0.09 mm object is displayed is 0.06 mm. In this case, since the eye resolution is coarser than the size of the displayed eyelashes, the user cannot satisfactorily visually recognize the eyelashes. To match the eye resolution with the size of the displayed eyelashes, the displayed image side may be enlarged twice. Therefore, in this case, the enlargement / reduction method determination unit 104 determines that the enlargement method at the near point of the user is to be doubled with the optical axis of the camera as the enlargement center.

なお、実際には、撮影したユーザの動画像には、カメラのレンズによる歪み等が存在する。ユーザの目がカメラ光軸上にない場合には特に補正が必要であるため、事前にカメラのキャリブレーションを済ませておくことが望ましい。さらに、カメラ光軸上にユーザの目がない場合であっても、ユーザ距離が既知、かつ、ユーザ距離取得部で、先に説明したようにあらかじめ、表示画像上、および(表示装置からの距離算出に用いた)3次元空間内でのユーザの目の位置が検出されていれば、前記キャリブレーションにより求めたカメラのパラメータを用い、あるユーザ距離に位置するユーザのまつ毛が、2次元画像上でどの画素に表示されるかを容易に求めることができ、これにディスプレイの画素サイズを掛け合わせることで、表示装置上で表示される大きさを容易に求めることができる。先に説明したケースと同様に、求めた大きさが、当該ユーザ距離でのユーザの分解能よりも大きく表示されるような拡大率となるよう、また、拡大中心は、前記表示画像上でのユーザの目の位置となるよう、拡縮方法を決定するとよい。   Actually, the captured moving image of the user includes distortion due to the lens of the camera. Since correction is particularly necessary when the user's eyes are not on the camera optical axis, it is desirable to calibrate the camera in advance. Further, even when there is no user's eyes on the camera optical axis, the user distance is known and the user distance acquisition unit previously stores the distance on the display image and (distance from the display device). If the position of the user's eyes in the three-dimensional space (used for calculation) has been detected, the user's eyelashes located at a certain user distance are displayed on the two-dimensional image using the camera parameters obtained by the calibration. Thus, it is possible to easily determine which pixel is displayed, and by multiplying this by the pixel size of the display, it is possible to easily determine the size displayed on the display device. As in the case described above, the enlargement ratio is such that the obtained size is displayed larger than the user's resolution at the user distance, and the enlargement center is the user on the display image. The enlargement / reduction method may be determined so that the position of the eye is located.

なおカメラのキャリブレーション・および3次元座標と2次元画像間の座標変換については、コンピュータビジョン分野でよく知られている方法で容易に実現可能であり、非特許文献(教科書)に詳しいためここでは詳細を省略する。   Note that camera calibration and coordinate conversion between 3D coordinates and 2D images can be easily realized by methods well known in the field of computer vision, and are detailed here in non-patent literature (textbooks). Details are omitted.

なお、本装置はデジタルミラーであるため、特にユーザ正面を写している場合には、カメラで実際に撮影されたユーザの画像の鏡像が表示されることが望ましい。この場合、前述の3次元座標と2次元画像間の座標変換の際には、鏡像反転を変換式に組み込む必要がある。   Since this apparatus is a digital mirror, it is desirable to display a mirror image of the user's image actually captured by the camera, particularly when the front of the user is being photographed. In this case, it is necessary to incorporate mirror image inversion into the conversion formula when the coordinate conversion between the three-dimensional coordinate and the two-dimensional image is performed.

以上に示すように、ユーザ距離が明視域の近点のときに、ユーザが毛1本を視認可能な拡大率となるように拡縮方法が決定されれば、ユーザは所望の作業をぼやけることなく実現できる。   As described above, when the enlargement / reduction method is determined so that the user can visually recognize one hair when the user distance is near the clear vision area, the user blurs the desired work. Can be realized.

近点よりも遠いユーザ距離の場合については、ユーザ距離の変化に応じて、表示される画像が滑らかに変化するように決定することが望ましい。近点での拡大率をそのまま保持する、としてもよいが、図8に示すように、明視域内での、ユーザが最も自然に正対する位置を基準位置として設定し(図8の例では、例えば表示画面からユーザ距離80cmの地点)、そこで拡大率が100%となるよう、間の拡大率を線形に補間するようにしてもよい。このようにすることで、ユーザが表示画面に近づくときは鏡のように滑らかに拡大しながら、標準位置では、拡大されていない自然なミラー動画像を見ることができ、より違和感のないデジタルミラーを実現することができる。なお、「滑らかに」とは、上述のように、P%の拡大率の画像を、突然Q%の拡大率の画像に変更するのではなく、たとえばP%から徐々に、すなわち段階的に拡大および/または縮小させながら、Q%の拡大率の画像に変更することを意味する。なお「段階的に」とは、少なくとも、P%とQ%との間のR%の拡大率の画像を挿入することを意味する。挿入する画像が多ければより滑らかな変化が可能になる。   In the case of the user distance farther than the near point, it is desirable to determine so that the displayed image changes smoothly according to the change in the user distance. Although the magnification at the near point may be maintained as it is, as shown in FIG. 8, the position that the user faces most naturally in the clear vision region is set as the reference position (in the example of FIG. 8, For example, the enlargement rate may be linearly interpolated so that the enlargement rate is 100%. In this way, when the user approaches the display screen, the user can see the natural mirror moving image that has not been magnified at the standard position while smoothly enlarging like a mirror, and the digital mirror is more comfortable. Can be realized. Note that “smoothly” means that, as described above, an image with an enlargement ratio of P% is not suddenly changed to an image with an enlargement ratio of Q%. It means that the image is changed to an image having an enlargement ratio of Q% while being reduced and / or reduced. Note that “in stages” means that at least an image with an enlargement ratio of R% between P% and Q% is inserted. If there are many images to be inserted, smoother changes are possible.

次に、画像生成ステップS305が画像生成部105により実行される。画像生成部105は、動画入力部101で受け付けた動画像110と、拡縮方法決定部104によって決定された拡縮方法に基づき、最終的に表示するユーザの動画像を生成し、出力部105へ受け渡す。   Next, the image generation step S305 is executed by the image generation unit 105. The image generation unit 105 generates a user moving image to be finally displayed based on the moving image 110 received by the moving image input unit 101 and the enlargement / reduction method determined by the enlargement / reduction method determination unit 104, and receives the received image to the output unit 105. hand over.

最後に、出力ステップS305が、出力部105により実行される。出力部105は、画像生成部104より受け付けた動画像を、ディスプレイ等の表示装置において視認可能な形式に変換し、表示装置120にミラー動画像として出力する。   Finally, an output step S305 is executed by the output unit 105. The output unit 105 converts the moving image received from the image generation unit 104 into a format that can be viewed on a display device such as a display, and outputs the converted image to the display device 120 as a mirror moving image.

以上、本実施形態によれば、老眼のユーザであっても、アイメイクなどの細かい作業時にぼやけることなく、作業が行いやすいような像に変換して出力することができる。   As described above, according to the present embodiment, even a presbyopic user can convert and output an image that is easy to work without blurring during fine work such as eye makeup.

(実施の形態1の他の動作例1)
なお、カメラの配置によっては、ユーザの後方からの視点も選択可能となるような構成とすることもできる。この場合も、白髪抜き等、マスカラに類する細かい作業まで対応することが望ましい。髪1本の直径は0.05mm〜0.15mmと言われており、例えば日本人は平均0.08mmである。したがって、例えば日本人の場合は、睫毛の直径0.09mmの代わりに、前記0.08mmが近点で見えるような拡大率になるよう、拡縮方法決定部104において決定するとよい。
(Another operation example 1 of the first embodiment)
Note that, depending on the arrangement of the cameras, a configuration in which a viewpoint from the rear of the user can also be selected can be employed. In this case as well, it is desirable to deal with fine work similar to mascara, such as gray hair removal. The diameter of one hair is said to be 0.05 mm to 0.15 mm, for example, the average for Japanese is 0.08 mm. Therefore, for example, in the case of Japanese, instead of the eyelash diameter of 0.09 mm, the enlargement / reduction method determination unit 104 may determine the enlargement ratio so that 0.08 mm can be seen at the near point.

なお、アイメイク時、特にまつ毛にマスカラを塗布する場合や、瞼にアイシャドウを塗布する場合、ユーザは塗布される側の片目を閉じて作業を行うことが多い。その方がきれいに仕上がるからである。そこでさらに、ユーザ視力情報取得部102において、ユーザの両眼が開いているか、いずれかの目が閉じられているかの判定結果についても取得するものとしてもよい。ユーザの目が開いているかどうかの判定は、特に居眠り検出などを目的とした車載用途で、例えば画像認識に基づく手法など数多くが提案されており、ここではどのような方法を用いてもよい。ユーザ視力情報取得部102は、判定結果として、両眼が開いていた場合は両眼視力を、片眼が閉じられている場合は、開いている方の片眼視力をユーザ視力情報として取得してよく、このようにすることで、両目間の視力に差がある場合であっても明視可能となるよう拡縮方法を決定できる。   In addition, when applying mascara to eyelashes or applying eye shadow to the eyelashes at the time of eye makeup, the user often closes one eye on the side to be applied. This is because it is finished more beautifully. Therefore, the user eyesight information acquisition unit 102 may also acquire a determination result as to whether the user's eyes are open or one of the eyes is closed. Whether or not the user's eyes are open is determined for in-vehicle use particularly for the purpose of detecting dozing. For example, many methods based on image recognition have been proposed, and any method may be used here. As a determination result, the user visual acuity information acquisition unit 102 acquires the binocular visual acuity when both eyes are open, or the open one-eye visual acuity as user visual acuity information when one eye is closed. In this way, the enlargement / reduction method can be determined so that clear vision is possible even when there is a difference in visual acuity between both eyes.

なお、常に拡縮方法決定部104が視力に応じた調整をしてしまうと、ユーザが鏡に近づいたり遠ざかったりする必要のある作業をする場合でも、そうでない場合でも、同様に調整がされてしまう。すなわち、近点より表示装置に近い位置までユーザが近づかない作業を行う場合でも、近点で過剰に拡大されたユーザ像が表示され、違和感をもつ可能性がある。   Note that if the enlargement / reduction method determination unit 104 always adjusts according to the visual acuity, even if the user needs to move closer to or away from the mirror, the adjustment is performed in the same manner. . That is, even when the user does not approach the position closer to the display device than the near point, an excessively enlarged user image may be displayed at the near point, which may cause a sense of incongruity.

そこで、拡縮方法決定部104は、ユーザが利用開始後、近点よりも表示装置の近くに寄るまでは、通常のデジタルミラーとして利用する(例えば、拡縮率を100%(等倍))ものとし、近点よりも表示装置の近くへ近づいたことを検出し次第、視力に応じた拡縮率の調整を開始する、としてもよい。   Therefore, the enlargement / reduction method determination unit 104 uses the image as a normal digital mirror (for example, enlargement / reduction ratio is 100% (equal magnification)) until the user approaches the display device rather than the near point after the start of use. The adjustment of the enlargement / reduction ratio according to the visual acuity may be started as soon as it is detected that the display device is closer to the display device than the near point.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. The system, method, integrated circuit, computer program And any combination of recording media.

(実施の形態2)
実施の形態1では、図2の構成で本開示を実現する例を説明し、老眼のユーザにとってぼやけない表示方法を実現するものとしたが、同様の思想により、近視のユーザにとってぼやけない表示方法を実現することも可能である。
(Embodiment 2)
In the first embodiment, an example in which the present disclosure is realized with the configuration of FIG. 2 will be described, and a display method that is not blurred for a presbyopic user is realized. Can also be realized.

本実施の形態では、近視のユーザが鏡の前で身だしなみを確認する際に、明視域より遠い位置からユーザ像を確認するために、ユーザ像がぼやけてしまうといった課題を解決するための、表示装置および方法について述べる。   In this embodiment, when a myopic user confirms the appearance in front of the mirror, in order to confirm the user image from a position far from the clear vision area, to solve the problem that the user image is blurred, A display device and method will be described.

図9は、本実施の形態における画像処理装置800の機能的な構成を示すブロック図である。図9に示されるように、画像処理装置100は、動画取得部101、ユーザ視力情報取得部102、ユーザ距離取得部103、拡縮方法決定部804、画像生成部105、出力部106を備える。拡縮方法決定部804以外については、実施の形態1と同じ動作であるため、ここでは説明を省略する。また、画像処理装置800の処理の手順を示すフローチャートについても、図4を援用する。図4のステップS304の処理が以下に説明する処理に変更される点が相違する。それ以外の他のステップは同じである。   FIG. 9 is a block diagram showing a functional configuration of the image processing apparatus 800 in the present embodiment. As illustrated in FIG. 9, the image processing apparatus 100 includes a moving image acquisition unit 101, a user visual acuity information acquisition unit 102, a user distance acquisition unit 103, an enlargement / reduction method determination unit 804, an image generation unit 105, and an output unit 106. Since operations other than the enlargement / reduction method determination unit 804 are the same as those in the first embodiment, description thereof is omitted here. FIG. 4 is also used for a flowchart showing a processing procedure of the image processing apparatus 800. The difference is that the process of step S304 in FIG. 4 is changed to the process described below. Other steps are the same.

拡縮方法決定部804では、ユーザ視力情報取得部102で受け付けたユーザ視力情報111、およびユーザ距離取得部103で受け付けたユーザ距離112に基づき、最終的に表示するミラー動画像の表示様態である拡縮方法を決定する。   The enlargement / reduction method determination unit 804 is an enlargement / reduction mode that is a display mode of the mirror moving image that is finally displayed based on the user visual acuity information 111 received by the user visual acuity information acquisition unit 102 and the user distance 112 received by the user distance acquisition unit 103. Decide how.

本装置は、特に近眼のユーザが、化粧行為中の全体確認や、身だしなみの確認を目的として、一時的にミラーから遠ざかったような画像を見たい場合に、実際にミラーから遠ざかることで画像がぼやけてしまうことなく、ユーザ像を視認可能なデジタルミラーを実現することを目的としている。   This device is especially useful when a near-sighted user wants to see an image that is temporarily away from the mirror for the purpose of confirming the whole makeup and appearance. An object of the present invention is to realize a digital mirror that can visually recognize a user image without blurring.

すなわち、一般的なデジタルミラーや鏡において、ユーザが遠点よりも表示画面から遠ざかった際に得られるような大きさのユーザ画像を、遠点よりも表示画面から遠ざからなくとも、該ユーザが見られるようにすればよい。このようにすることで、ユーザは、ぼやけることなく、鏡から遠ざかった時のようなユーザ画像を見ることができる。   That is, in a general digital mirror or mirror, a user image having a size that can be obtained when the user is further away from the display screen than the far point can be displayed even if the user is not far from the display screen than the far point. Just make it visible. By doing in this way, the user can see the user image as if it is away from the mirror without blurring.

特に、先に述べたような、化粧行為中の全体確認や、身だしなみの確認を目的として鏡から一時的に遠ざかるユーザを対象とする場合、明視できる範囲で、かつ、表示画面から最も遠ざかった場合である遠点において、全顔や全身が見える、すなわち、最低でもユーザの全顔ないし全身が、画面上に表示された際に画面におさまるよう、ユーザ像の画面上での表示拡大率を決定することが望ましい。ユーザの全顔ないし全身が、画面上に表示された際に画面におさまるかどうかは、例えば、ユーザの両眼間の距離を基準にしてもよい。ユーザごとに、ユーザの身長・頭部サイズと両眼間の距離をあらかじめ登録しておいてもよいし、平均値を用いてもよい(例えば日本人の成人女性の場合、頭長:約23cm、両眼間距離:約6cm、身長:約158cmなど)。あるユーザ距離に位置するユーザの両眼の、撮影されたユーザ画像上での位置は、実施例1の場合同様、ユーザ距離算出部での距離算出時に求めることができ、カメラ画像から表示装置に表示される画像の変換も既知であるため、表示画面の縦横画素数がわかれば、ユーザの全顔ないし全身が、画面上に表示された際に画面におさまるかどうかを容易に判定できる。おさまる場合は拡縮率100%のままとし、おさまらなかった場合のみ、ちょうどおさまるように拡縮率および拡縮中心を決定することで、近視のユーザがユーザ像を明視可能なデジタルミラーを実現できる。   In particular, when targeting users who are temporarily away from the mirror for the purpose of confirming the overall makeup and appearance as described above, they were farthest from the display screen and within the visible range. In the far point, the entire face and whole body can be seen, i.e., the user's image on the screen can be enlarged so that the whole face or whole body of the user can fit on the screen when displayed on the screen. It is desirable to decide. Whether or not the entire face or whole body of the user fits on the screen when displayed on the screen may be based on, for example, the distance between both eyes of the user. For each user, the height / head size of the user and the distance between both eyes may be registered in advance, or an average value may be used (for example, in the case of a Japanese adult woman, the head length: about 23 cm). Interocular distance: about 6 cm, height: about 158 cm, etc.). As in the first embodiment, the position of the user's eyes located at a certain user distance on the captured user image can be obtained when the user distance calculation unit calculates the distance, and the camera image is displayed on the display device. Since the conversion of the displayed image is also known, if the number of vertical and horizontal pixels of the display screen is known, it can be easily determined whether or not the entire face or whole body of the user will fit on the screen when displayed on the screen. When the image is settled, the enlargement / reduction rate is kept at 100%, and only when the image does not disappear, the enlargement / reduction rate and the enlargement / reduction center are determined so that the digital image can be realized.

以上に示すように、ユーザ距離が明視域の遠点のときに、ユーザが全顔ないし全身を視認可能な拡縮率となるように拡縮方法が決定されれば、ユーザは所望の作業をぼやけることなく実現できる。   As described above, when the enlargement / reduction method is determined so that the user can visually recognize the entire face or the whole body when the user distance is the far point of the clear vision region, the user blurs the desired work. It can be realized without.

なお、上記の説明の場合はユーザの視力情報は、必ずしもユーザの目の分解能の情報を必要としない。したがって、ユーザの明視域に関する情報のみを含むとしてもよい。   In the case of the above description, the user's eyesight information does not necessarily require information on the resolution of the user's eyes. Therefore, it is good also as including only the information regarding a user's clear vision area.

遠点よりも近いユーザ距離の場合については、ユーザ距離の変化に応じて、表示される画像が滑らかに変化するように決定することが望ましい。遠点での拡大率をそのまま保持する、としてもよいが、図8の例と同様に、明視域内での、ユーザが最も自然に正対する位置を基準位置として設定し、そこで拡大率が100%となるよう、間の拡大率を線形に補間するようにしてもよい。このようにすることで、ユーザが表示画面から遠ざかるときは鏡のように滑らかに縮小しながら、標準位置では、縮小されていない自然なミラー動画像を見ることができ、より違和感のないデジタルミラーを実現することができる。   In the case of the user distance closer than the far point, it is desirable to determine so that the displayed image changes smoothly according to the change in the user distance. The enlargement ratio at the far point may be maintained as it is. However, as in the example of FIG. 8, the position where the user faces the most naturally in the clear vision area is set as the reference position, and the enlargement ratio is 100. The enlargement ratio between them may be linearly interpolated so as to be%. In this way, when the user moves away from the display screen, the natural mirror moving image that has not been reduced can be seen at the standard position while being reduced smoothly like a mirror, and the digital mirror is more comfortable. Can be realized.

さらに、上記実施の形態1と実施の形態2とは別の構成で説明をしたが、拡縮方法決定部は、実施の形態1と実施の形態2との両方の処理を行う機能を同時に備えていてもよい。このようにすることで、近点での拡縮率と遠点での拡縮率を両方得ることができる。この場合、近点よりも遠く、遠点よりも近いユーザ距離の場合についても、これまでの説明同様に、ユーザ距離の変化に応じて、表示される画像が滑らかに変化するように決定することが望ましい。すなわち明視域内での、近点での拡縮率と、遠点での拡縮率の間の拡縮率は、上記2つの拡縮率の間を線形に補間して得るとしてもよい。このようにすることで、ユーザが表示画面から遠ざかるときは鏡のように滑らかに縮小しながら、標準位置では、縮小されていない自然なミラー動画像を見ることができ、より違和感のないデジタルミラーを実現することができる。   Furthermore, although the first embodiment and the second embodiment have been described as different configurations, the enlargement / reduction method determination unit has a function of performing both the processes of the first embodiment and the second embodiment at the same time. May be. By doing in this way, both the expansion / contraction rate at the near point and the expansion / contraction rate at the far point can be obtained. In this case, even in the case of a user distance farther than the near point and closer than the far point, it is determined so that the displayed image changes smoothly according to the change in the user distance, as in the above description. Is desirable. That is, the enlargement / reduction ratio between the near point and the enlargement / reduction ratio at the far point in the clear vision area may be obtained by linearly interpolating between the two enlargement / reduction ratios. In this way, when the user moves away from the display screen, the natural mirror moving image that has not been reduced can be seen at the standard position while being reduced smoothly like a mirror, and the digital mirror is more comfortable. Can be realized.

なお、特に近視が非常に進んでいる場合、明視域が非常に表示画面に近い領域になってしまい、表示装置の画素サイズが、近点での目の解像度よりも粗くなってしまう可能性がある。このような場合は、近点での目の解像度の代わりに、表示装置の画素サイズを用いるとしてよい。   In particular, when myopia is very advanced, the clear vision area may be very close to the display screen, and the pixel size of the display device may be coarser than the eye resolution at the near point. There is. In such a case, the pixel size of the display device may be used instead of the eye resolution at the near point.

実施の形態1と実施の形態2との両方の処理を行う機能を同時に備えている場合に、いずれの実施の形態に対応する動作を行わせるか、つまり、ユーザが老眼か近眼かを特定することは必要ない。その理由は、ユーザ視力情報111にその情報が既に含まれているためである。たとえばユーザの視力により、近眼か否かを特定することを特定することが可能であるし、ユーザの明視域の情報によれば、ユーザが老眼かどうかを特定することも可能である。いずれの場合であっても、画像処理装置は上述の動作を実行すればよい。   In the case where the functions of both the first embodiment and the second embodiment are provided at the same time, the operation corresponding to which embodiment is performed, that is, whether the user is presbyopia or myopia It is not necessary. The reason is that the information is already included in the user eyesight information 111. For example, it is possible to specify whether or not myopia is based on the user's visual acuity, and it is also possible to specify whether or not the user is presbyopia according to the information on the user's clear visual field. In any case, the image processing apparatus may perform the above-described operation.

また、ユーザ距離が明視域外になってしまった場合は、例えば表示装置上に明視域外である旨を表示し、ユーザに明視域内に戻るよう促してもよい。   Further, when the user distance is out of the clear viewing area, for example, a message indicating that the user is out of the clear viewing area may be displayed on the display device, and the user may be prompted to return to the clear viewing area.

あるいは、多少ぼやけても、できるだけユーザが明視できるように、ユーザ視力のみに基づいて拡縮率を制御するとしてもよい。すなわち、前記ユーザが前記明視域外のユーザ距離からユーザ像を見た際に、別途定めた目標視力(良い視力)で前記ユーザ距離からユーザ像を見たときと同等の解像感が得られるよう、前記拡縮方法を決定するものとする。   Alternatively, the enlargement / reduction ratio may be controlled based only on the user's visual acuity so that the user can see as clearly as possible even if it is somewhat blurred. That is, when the user views the user image from a user distance outside the clear visual field, a resolution equivalent to that obtained when the user image is viewed from the user distance with a separately determined target visual acuity (good visual acuity) can be obtained. Thus, the enlargement / reduction method is determined.

あるユーザ距離でのユーザの目の分解能は、先に述べたようにユーザ視力から求めることができる。ここで、別途、目標視力を定める。目標視力は、ユーザ視力情報取得部102が外部より取得してもよいし、あるいは画像処理装置100が予め保持していてもよい。後者の場合には、一般的に正視とされる1.0としてもよいし、もしユーザが普段は視力矯正具を付けているのであれば、視力矯正後の視力を採用してもよい。目標視力の情報はRAM203またはROM204に保持されていてもよいし、HDD205(図3)に保持されていてもよい。または、CPU202のレジスタ(図示せず)などに保持されていてもよい。処理にあたってCPU202が目標視力の情報を取得すればよい。これにより、同じユーザ距離での、目標視力における目の分解能(目標分解能)も、前記ユーザの目の分解能同様に求めることができる。   The resolution of the user's eyes at a certain user distance can be obtained from the user's visual acuity as described above. Here, a target visual acuity is determined separately. The target visual acuity may be acquired from the outside by the user visual acuity information acquisition unit 102, or may be held in advance by the image processing apparatus 100. In the latter case, 1.0, which is generally regarded as normal vision, may be used, and if the user usually wears a vision correction tool, the vision after vision correction may be adopted. Information about the target visual acuity may be held in the RAM 203 or the ROM 204, or may be held in the HDD 205 (FIG. 3). Alternatively, it may be held in a register (not shown) of the CPU 202 or the like. In the processing, the CPU 202 may acquire target visual acuity information. Thereby, the eye resolution (target resolution) at the target visual acuity at the same user distance can be obtained in the same manner as the eye resolution of the user.

ここで、ユーザの目の分解能を、目標分解能で割った比率を表示拡大率とすることで、多少ぼやけはするが、前記目標視力で見ているような状態に近づけることができる。   Here, by using the ratio obtained by dividing the resolution of the user's eyes by the target resolution as the display magnification rate, the display magnification rate is somewhat blurred, but it can be brought close to the state as seen with the target visual acuity.

また、特に近視の場合、ユーザは視力矯正具をつけたままミラーを視認することも多い。この場合、視力情報取得部103は、ユーザが視力矯正具を付けているかどうかの判定結果を取得するとしてもよい。そして、視力矯正具をつけている場合は矯正後視力を、視力矯正具をつけていない場合は、裸眼視力をユーザ視力情報として取得するとすることが望ましい。   In particular, in the case of myopia, the user often views the mirror while wearing the vision correction tool. In this case, the vision information acquisition unit 103 may acquire a determination result as to whether or not the user is wearing a vision correction tool. Then, it is desirable to obtain the post-correction visual acuity as the user visual acuity information when the visual acuity correction tool is attached, and the naked eye visual acuity as the user visual acuity information when the visual acuity correction tool is not attached.

視力矯正具をつけているかどうかの判定方法は、例えば、メガネの場合、特許文献5に示される画像認識に基づく方法など、多くが提案されている。   For example, in the case of glasses, many methods have been proposed for determining whether or not a vision correction tool is worn, such as a method based on image recognition disclosed in Patent Document 5.

また、ユーザが視力矯正具を付けているかどうかの判定結果が、一定時間ごとに取得できれば、拡縮方法決定部104が拡縮率の調整を開始するスイッチの代わりに使うこともできる。ユーザは、化粧などの作業開始時に、特に眼鏡の場合は視力矯正具を外すことが多い。したがって、それまでは、拡縮率を調整せず、ある時点までは視力矯正具をつけていたが、ある時点から付けていない、といった状態が検出されれば、その時点から、拡縮方法決定部が視力に基づく拡縮率の調整を開始する、とすることで、よりユーザの作業を考慮した表示方法が実現できる。   Further, if the determination result as to whether or not the user wears the vision correction tool can be obtained at regular intervals, the enlargement / reduction method determination unit 104 can be used instead of the switch for starting the adjustment of the enlargement / reduction ratio. The user often removes the vision correction tool at the start of work such as makeup, particularly in the case of glasses. Therefore, until then, if the state that the visual acuity correction tool was put on until a certain point in time but was not put on from a certain point in time was not adjusted, the scaling method determination unit would start from that point. By starting the adjustment of the enlargement / reduction ratio based on visual acuity, a display method that takes the user's work into consideration can be realized.

また、視力情報取得部は、必ずしも明視域の情報を外部より取得しなくともよい。たとえば、CPU202がユーザの動作から推定するとしてもよい。具体的には、ユーザの初回利用時にキャリブレーションを行ってもよい。鏡画像を表示する前に、表示画面上にメッセージを表示し、ユーザに対し、メッセージを明視可能な最も近い位置と、最も遠い位置の間で移動してもらうようにすることで、事前の情報がなくとも、容易にユーザの明視域を取得できる。あるいは、ユーザごとに利用履歴、特にユーザ距離を蓄積すれば、ユーザが明視可能な領域がユーザ距離のデータの中で山として現れると仮定してよい。そこで、当初は予め機器側で定めた明視域で表示を制御するとし、一定期間/一定回数経過後からは、蓄積したユーザ距離のデータに基づいて推定した明視域を用いて表示を制御するようにする、としてもよい。さらには、一定期間ごとに自動的に明視域をアップデートするとしてもよい。最初に述べたとおり、年齢に応じて明視域は変化するため、外部から都度取得するよりも、機器側で明視域が自動的にアップデートされる方がユーザにとって手間がかからない。   Further, the visual acuity information acquisition unit does not necessarily need to acquire clear vision area information from the outside. For example, the CPU 202 may estimate from the user's action. Specifically, calibration may be performed at the first use of the user. Before displaying the mirror image, display a message on the display screen and ask the user to move the message between the nearest position where the message can be clearly seen and the farthest position. Even if there is no information, the user's clear vision area can be easily acquired. Alternatively, it may be assumed that if the usage history, particularly the user distance, is accumulated for each user, an area that can be clearly seen by the user appears as a mountain in the user distance data. Therefore, initially, the display is controlled in the clear vision area determined in advance by the device, and after a certain period / number of times, the display is controlled using the clear vision area estimated based on the accumulated user distance data. You may do it. Furthermore, the clear viewing area may be automatically updated at regular intervals. As described above, the clear visual range changes according to the age, and therefore it is less time-consuming for the user to update the clear visual range automatically on the device side than to acquire it from the outside each time.

上述の実施の形態の説明では、カメラ210aや表示装置220は、コンピュータ200(または画像処理装置100、800)の外部に設けられた機器であるとして説明した。しかしながらこれは一例である。カメラ210aおよび/または表示装置220は、コンピュータ200(または画像処理装置100、800)に内蔵された機器であってもよい。   In the description of the above-described embodiment, the camera 210a and the display device 220 are described as devices provided outside the computer 200 (or the image processing apparatuses 100 and 800). However, this is an example. The camera 210a and / or the display device 220 may be a device built in the computer 200 (or the image processing device 100 or 800).

(実施の形態3)
実施の形態1、2では、図1に示すような専用のハードウェアを用いて本開示を実現する例を説明した。本実施形態では、汎用のハードウェアを用いて本開示を実現する他の例を説明する。
(Embodiment 3)
In the first and second embodiments, the example in which the present disclosure is realized using dedicated hardware as illustrated in FIG. 1 has been described. In the present embodiment, another example of realizing the present disclosure using general-purpose hardware will be described.

本実施形態のハードウェア構成例も、図3で示したコンピュータ200を用いたものと同じである。そして、本開示の機能を実現するプログラムがROM203やHDD205に格納され、必要に応じてRAM204に読み出され、実行される。   The hardware configuration example of this embodiment is also the same as that using the computer 200 shown in FIG. A program that implements the functions of the present disclosure is stored in the ROM 203 or the HDD 205, and is read into the RAM 204 and executed as necessary.

コンピュータ200としては、デスクトップ型PCやノート型PC、タブレット型コンピュータ、スマートフォンや携帯電話を用いることができる。そして、これらの端末には表示装置220やユーザを正面から撮影するカメラ210aや測距センサ210c、あるいは、ユーザ視力情報を、通信などを通じて取得できるI/F210aが搭載されている。   As the computer 200, a desktop PC, a notebook PC, a tablet computer, a smartphone, or a mobile phone can be used. These terminals are equipped with a display device 220, a camera 210a for photographing a user from the front, a distance measuring sensor 210c, or an I / F 210a capable of acquiring user visual acuity information through communication or the like.

このように、汎用のハードウェアで構成すれば、本開示の機能を実現するプログラムをダウンロードして実行するだけで、手軽に本開示のデジタルミラーシステムを実現することができる。   In this way, if configured with general-purpose hardware, the digital mirror system of the present disclosure can be easily realized simply by downloading and executing a program that implements the functions of the present disclosure.

さらには、持ち運び可能なデジタルミラーシステムも実現でき、例えばユーザが手に取ると、各ユーザの視力に合わせた表示をその場で行うことが可能である。   Furthermore, a portable digital mirror system can be realized. For example, when a user picks up the digital mirror system, it is possible to display on the spot according to the visual acuity of each user.

また、マルチディスプレイによるシステムも実現することができる。   In addition, a multi-display system can be realized.

なお、実施の形態1〜3において、マルチディスプレイとする場合は、別途ユーザ視線検出部を備え、いずれのディスプレイをユーザが見ているかに応じて異なるユーザ距離を取得することが望ましい。   In the first to third embodiments, when a multi-display is used, it is desirable to separately provide a user line-of-sight detection unit and acquire different user distances depending on which display the user is viewing.

なお、本実施の形態1では、ユーザ視力情報111に含まれるユーザの視力は、ランドルト環を指標に用いて所定の方法で測定した数値であるとした。しかしながらこの記載は、視力を測定するための指標や測定方法、データ形式などを限定するものではない。ユーザの目の分解能を算出することができるのであれば、どのような指標、測定方法、データ形式を採用してもよい。例えば、米国や欧州では、アルファベットを用いるスネレン指標やE字型のみを用いるEチャートを指標に用いて視力を測定する場合があり、これらをランドルト環を用いて測定した視力の代わりに用いても良い。スネレン指標やEチャートを用いて測定した視力は、同じ指標を被験者と健常者(視力1.0の人)とがそれぞれ弁別できる距離の比を分数で表記する。例えば、「20/40」「6/60」のように分数で表記し、分子が検査距離を表し、分母が、健常者が弁別できる最も遠い距離を表す。被験者が20フィート先の「20/40」の指標をようやく弁別できた場合、被験者の視力は「20/40」であり、健常者は同じ指標を40フィートから弁別できることを意味する。この分数表記の視力は、そのまま小数に置き換えた値が、ランドルト環を指標に用いて測定した小数表記の視力に一致する。例えば、「20/40」は「0.5」に相当し、「6/60」は「0.1」に相当する。そのため、スネレン指標やEチャートを指標として測定した分数表記の視力であっても、小数表記に置き換えることで、本実施の形態1と同様にユーザの目の分解能を算出することができる。   In the first embodiment, the user's visual acuity included in the user visual acuity information 111 is a numerical value measured by a predetermined method using the Landolt ring as an index. However, this description does not limit the index, measurement method, data format, and the like for measuring visual acuity. Any index, measurement method, and data format may be adopted as long as the resolution of the user's eyes can be calculated. For example, in the US and Europe, visual acuity may be measured using a snellen index using an alphabet or an E chart using only an E-shape as an index, and these may be used instead of the visual acuity measured using a Landolt ring. good. The visual acuity measured using a snellen index or an E chart is expressed as a fractional ratio of the distance at which the subject can be discriminated from a healthy person (person with visual acuity of 1.0). For example, it is expressed as a fraction such as “20/40” and “6/60”, the numerator represents the test distance, and the denominator represents the farthest distance that a healthy person can discriminate. If the subject finally discriminates the “20/40” indicator 20 feet away, the subject's visual acuity is “20/40”, which means that the healthy subject can discriminate the same indicator from 40 feet. In this fractional visual acuity, the value directly replaced by a decimal is the same as the decimal visual acuity measured using the Landolt ring as an index. For example, “20/40” corresponds to “0.5”, and “6/60” corresponds to “0.1”. Therefore, even if the visual acuity is fractional notation measured using a snellen index or an E chart as an index, the resolution of the user's eyes can be calculated in the same manner as in the first embodiment by replacing it with a decimal notation.

上述の実施の形態の説明では、ユーザ視力情報はユーザの裸眼視力の情報を含むとした。しかしながら、裸眼視力は一例に過ぎず、本発明の画像処理装置を使用する際のユーザの視力であれば、どのような視力であってもよい。たとえばユーザがコンタクトレンズを装着している場合には、ユーザ視力情報は、コンタクトレンズによる矯正後の視力の情報を含んでいればよい。その場合には、裸眼視力の情報は特に必要ない。上記内容を踏まえると、本開示における「裸眼視力」は、矯正視力をも包含し得る。   In the description of the above-described embodiment, the user visual acuity information includes information on the user's naked eye visual acuity. However, the naked eye visual acuity is only an example, and any visual acuity may be used as long as it is the visual acuity of the user when using the image processing apparatus of the present invention. For example, when the user wears a contact lens, the user visual acuity information may include information on visual acuity after correction by the contact lens. In that case, no information on the naked eye vision is required. In light of the above, “naked eyesight” in the present disclosure may include corrected vision.

本開示は、たとえばデジタルミラーなどの装置における画像処理技術に利用できる。また、本開示は、ユーザ画像の取得および閲覧が可能なタブレットPC、スマートフォン、PC、カーナビゲーションシステム、ビデオカメラまたはTV等のAV機器に内蔵させる装置としても利用することができる。   The present disclosure can be used for an image processing technique in an apparatus such as a digital mirror. In addition, the present disclosure can also be used as a device incorporated in an AV device such as a tablet PC, a smartphone, a PC, a car navigation system, a video camera, or a TV capable of acquiring and browsing user images.

100 画像処理装置
101 動画取得部
102 ユーザ視力情報取得部
103 ユーザ距離取得部
104 拡縮方法決定部
105 画像生成部
106 出力部
110 動画像
111 ユーザ視力情報
112 ユーザ距離
120 表示装置
200 コンピュータ
201a、201b、201c、201d I/F
202 CPU
203 ROM
204 RAM
205 HDD
210a カメラ
210b 記憶装置
210c 測距センサ
210d 表示装置
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 101 Movie acquisition part 102 User visual information acquisition part 103 User distance acquisition part 104 Enlarging / contracting method determination part 105 Image generation part 106 Output part 110 Moving image 111 User visual acuity information 112 User distance 120 Display apparatus 200 Computer 201a, 201b, 201c, 201d I / F
202 CPU
203 ROM
204 RAM
205 HDD
210a Camera 210b Storage device 210c Distance sensor 210d Display device

Claims (17)

ユーザが自らの像を視認する際に用いられる画像処理装置であって、
ユーザの動画像を取得する第1インタフェースと、
前記ユーザの視力に関する情報であるユーザ視力情報を取得する第2インタフェースと、
表示装置から前記ユーザまでの距離の情報であるユーザ距離情報を取得する第3インタフェースと、
前記ユーザ距離情報およびユーザ視力情報に基づいて、前記表示装置上に表示されるユーザ像を前記ユーザが明視できるよう、取得された動画像の拡大縮小率を少なくとも含む拡縮方法を決定するプロセッサと、
決定された前記拡縮方法にしたがって、前記動画像から前記ユーザのミラー動画像を生成する画像処理回路と、
生成された前記ミラー動画像を表示装置に出力する第4インタフェースと
を備えた画像処理装置。
An image processing apparatus used when a user visually recognizes his / her own image,
A first interface for acquiring a moving image of the user;
A second interface for acquiring user eyesight information which is information relating to the user's eyesight;
A third interface for obtaining user distance information, which is information on a distance from the display device to the user;
A processor for determining an enlargement / reduction method including at least an enlargement / reduction ratio of the acquired moving image so that the user can clearly view a user image displayed on the display device based on the user distance information and user visual acuity information; ,
An image processing circuit for generating a mirror moving image of the user from the moving image according to the determined scaling method;
And a fourth interface for outputting the generated mirror moving image to a display device.
前記ユーザ視力情報は、前記ユーザの明視域に関する情報をさらに含み、
前記プロセッサは、前記ユーザ視力情報と、さらに前記表示装置上に表示される前記ユーザ像上の領域の大きさとに基づいて、前記距離が前記ユーザの明視域の近点ないし遠点である場合の拡縮方法を決定する、請求項1の画像処理装置。
The user visual acuity information further includes information on the clear visual area of the user,
The processor is configured such that the distance is a near point or a far point of the clear vision area of the user based on the user visual acuity information and a size of an area on the user image displayed on the display device. The image processing apparatus according to claim 1, wherein a scaling method is determined.
前記ユーザ像上の領域は、前記ユーザのまつ毛あるいは毛髪の表示を含み、前記プロセッサは、前記ユーザの視力より求められる、前記近点の距離における前記ユーザの目の分解能が、表示装置上に表示される前記まつ毛1本あるいは毛髪1本の大きさよりも細かくなるよう、前記距離が前記近点である場合の拡縮方法を決定する、請求項2の画像処理装置。   The region on the user image includes a display of the user's eyelashes or hair, and the processor displays the resolution of the user's eyes at the near point distance obtained from the user's visual acuity on a display device. The image processing apparatus according to claim 2, wherein an enlargement / reduction method when the distance is the near point is determined so as to be smaller than the size of the one eyelash or hair. 前記第2インタフェースは、前記ユーザの両眼が開いている場合は両眼視力に関する情報を、片眼が閉じられている場合は、開いている方の眼の視力の情報を、前記ユーザ視力情報として取得する、請求項1の画像処理装置。   The second interface includes information regarding binocular visual acuity when both eyes of the user are open, information on visual acuity of the open eye when one eye is closed, and the user visual acuity information. The image processing apparatus according to claim 1, acquired as: 前記プロセッサは、前記距離が前記近点である場合の拡縮率に基づき、表示される画像が段階的に変化するよう、前記近点より遠い距離における拡縮率を前記距離の変化に応じて決定する、請求項2の画像処理装置。   The processor determines an enlargement / reduction rate at a distance farther than the near point according to the change in the distance so that a displayed image changes stepwise based on the enlargement / reduction rate when the distance is the near point. The image processing apparatus according to claim 2. 前記プロセッサは、前記近点より遠い位置に拡縮率が等倍となる基準距離の地点を予め定めておき、前記近点と前記基準距離との間で段階的に補間する、請求項5の画像処理装置。   The image according to claim 5, wherein the processor predetermines a reference distance point at which an enlargement / reduction ratio is equal to a position far from the near point, and interpolates stepwise between the near point and the reference distance. Processing equipment. 前記プロセッサは、前記ユーザが利用開始後、前記ユーザが前記近点より近くに入るまでは拡縮率を等倍とし、前記ユーザが前記近点よりも前記表示装置へ近づいた場合には、前記ユーザの視力に応じた拡縮率とするよう、前記拡縮方法を決定する、請求項2の画像処理装置。   The processor sets the enlargement / reduction ratio to the same magnification until the user enters closer to the near point after the user starts use, and when the user is closer to the display device than the near point, the processor The image processing apparatus according to claim 2, wherein the enlargement / reduction method is determined so as to obtain an enlargement / reduction ratio corresponding to a visual acuity of the eye. 前記ユーザ像上の領域は、前記ユーザの全顔あるいは全身の表示を含み、前記プロセッサは、前記距離が前記ユーザの明視域の遠点である場合に、前記表示装置上に表示される前記ユーザの全顔あるいは全身が前記表示装置の表示領域にすべて含まれるよう、前記拡縮方法を決定する、請求項1の画像処理装置。   The area on the user image includes a display of the entire face or whole body of the user, and the processor is displayed on the display device when the distance is a far point of the clear vision area of the user. The image processing device according to claim 1, wherein the enlargement / reduction method is determined so that the entire face or whole body of the user is included in the display area of the display device. 前記プロセッサは、さらに目標視力の情報を取得し、
前記プロセッサは、前記ユーザ視力情報に基づいて所定距離における前記ユーザの目の分解能を求め、前記目標視力に基づいて前記所定距離における前記ユーザの目の分解能を求め、
前記プロセッサは、前記ユーザ視力情報に基づく前記分解能と、前記目標視力に基づく前記分解能とを利用して、前記ユーザが前記所定距離から前記ユーザ像を見る際に、前記目標視力で前記所定距離からユーザ像を見たときと同等の解像感が得られるよう、前記拡縮方法を決定する、請求項2の画像処理装置。
The processor further obtains information on target vision,
The processor determines the resolution of the user's eyes at a predetermined distance based on the user visual acuity information; determines the resolution of the user's eyes at the predetermined distance based on the target visual acuity;
The processor uses the resolution based on the user visual acuity information and the resolution based on the target visual acuity to allow the user to view the user image from the predetermined distance from the predetermined distance with the target visual acuity. The image processing apparatus according to claim 2, wherein the enlargement / reduction method is determined so that a resolution equivalent to that when a user image is viewed is obtained.
前記プロセッサは、前記距離が前記ユーザの明視域の遠点であるの場合の拡縮率に基づき、表示される画像が段階的に変化するよう、前記遠点より近い距離における拡縮率を前記距離の変化に応じて決定する、請求項8の画像処理装置。   The processor determines the scaling ratio at a distance closer to the far point so that the displayed image changes stepwise based on the scaling ratio when the distance is the far point of the clear vision area of the user. The image processing device according to claim 8, wherein the image processing device is determined in accordance with a change in the number. 前記プロセッサは、前記遠点より遠い位置に拡縮率が等倍となる基準距離の地点を予め定めておき、前記遠点と前記基準距離との間で段階的に補間する、請求項10の画像処理装置。   The image according to claim 10, wherein the processor predetermines a reference distance point at which an enlargement / reduction ratio is equal to a position far from the far point, and interpolates stepwise between the far point and the reference distance. Processing equipment. 前記ユーザの明視域の近点の拡縮率および遠点の拡縮率の両方が得られている場合に、前記プロセッサは、前記近点での拡縮率と前記遠点での拡縮率との間を、前記近点の距離の地点から前記遠点の距離の地点の間で段階的に補間する、請求項2の画像処理装置。   When both the near-point scaling factor and the far-point scaling factor of the user's clear vision area have been obtained, the processor determines whether the near-point scaling factor and the far-point scaling factor are between. The image processing apparatus according to claim 2, wherein stepwise interpolation is performed between a point at the near point distance and a point at the far point distance. 前記第2インタフェースは、さらに、前記ユーザが視力矯正具を装着している場合は矯正後の視力に関する情報を前記ユーザ視力情報として取得し、装着していない場合は、裸眼視力の情報を前記ユーザ視力情報として取得する、請求項1の画像処理装置。   The second interface further obtains information about the corrected visual acuity as the user visual acuity information when the user is wearing a visual acuity correction tool, and information on the naked eye visual acuity when the user is not wearing it. The image processing apparatus according to claim 1, which is acquired as visual acuity information. 前記プロセッサは、前記ユーザが視力矯正具を装着しているか否かの判定結果を受け取り、前記ユーザが装着していた視力矯正具を外した場合には、前記ユーザの裸眼視力に基づいて前記拡縮率を調整する、請求項9または13の画像処理装置。   The processor receives a determination result as to whether or not the user is wearing a vision correction tool, and when the vision correction tool worn by the user is removed, the processor scales based on the user's naked eye vision The image processing apparatus according to claim 9 or 13, wherein the rate is adjusted. 前記プロセッサは、前記ユーザの動作から前記ユーザの明視域を推定する、請求項1の画像処理装置。   The image processing apparatus according to claim 1, wherein the processor estimates the clear vision area of the user from the operation of the user. ユーザが自らの像を視認する際に用いられる画像処理方法であって、
ユーザの動画像を取得し、
前記ユーザの視力に関する情報であるユーザ視力情報を取得し、
表示装置から前記ユーザまでの距離の情報であるユーザ距離情報を取得し、
前記ユーザ距離情報およびユーザ視力情報に基づいて、前記表示装置上に表示されるユーザ像を前記ユーザが明視できるよう、取得された動画像の拡大縮小率を少なくとも含む拡縮方法を決定し、
決定された前記拡縮方法にしたがって、前記動画像から前記ユーザのミラー動画像を生成しと、
生成された前記ミラー動画像を表示装置に出力する
画像処理方法。
An image processing method used when a user visually recognizes his / her own image,
Get the user ’s video,
Obtaining user vision information, which is information about the user's vision,
Obtaining user distance information, which is information on the distance from the display device to the user,
Based on the user distance information and user visual acuity information, a scaling method including at least a scaling ratio of the acquired moving image is determined so that the user can clearly view a user image displayed on the display device,
Generating a mirror moving image of the user from the moving image according to the determined scaling method;
An image processing method for outputting the generated mirror moving image to a display device.
請求項16に記載の画像処理方法をコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the image processing method according to claim 16.
JP2013243827A 2013-11-26 2013-11-26 Image processing apparatus, method and computer program Pending JP2015103991A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243827A JP2015103991A (en) 2013-11-26 2013-11-26 Image processing apparatus, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243827A JP2015103991A (en) 2013-11-26 2013-11-26 Image processing apparatus, method and computer program

Publications (1)

Publication Number Publication Date
JP2015103991A true JP2015103991A (en) 2015-06-04

Family

ID=53379365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243827A Pending JP2015103991A (en) 2013-11-26 2013-11-26 Image processing apparatus, method and computer program

Country Status (1)

Country Link
JP (1) JP2015103991A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008128A1 (en) * 2016-07-07 2018-01-11 マクセル株式会社 Video display device and method
WO2018224039A1 (en) * 2017-06-08 2018-12-13 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for medical imaging
US10702235B2 (en) 2017-06-08 2020-07-07 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for medical imaging
JP2021040315A (en) * 2020-10-14 2021-03-11 マクセルホールディングス株式会社 Linkage system
WO2023148372A1 (en) * 2022-02-06 2023-08-10 Visionapp Solutions S.L. A computer-implemented systems and methods for interactively measuring either or both sides of the interval of clear vision of the eye

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008128A1 (en) * 2016-07-07 2018-01-11 マクセル株式会社 Video display device and method
WO2018224039A1 (en) * 2017-06-08 2018-12-13 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for medical imaging
US10702235B2 (en) 2017-06-08 2020-07-07 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for medical imaging
US11375972B2 (en) 2017-06-08 2022-07-05 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for medical imaging
JP2021040315A (en) * 2020-10-14 2021-03-11 マクセルホールディングス株式会社 Linkage system
JP7049426B2 (en) 2020-10-14 2022-04-06 マクセル株式会社 Interlocking system
WO2023148372A1 (en) * 2022-02-06 2023-08-10 Visionapp Solutions S.L. A computer-implemented systems and methods for interactively measuring either or both sides of the interval of clear vision of the eye

Similar Documents

Publication Publication Date Title
JP6747504B2 (en) Information processing apparatus, information processing method, and program
US8411171B2 (en) Apparatus and method for generating image including multiple people
EP2856931B1 (en) Simulation device
JP6008309B2 (en) Electronic mirror device
EP3026886B1 (en) Information processing device and method for controlling information processing device
RU2648593C2 (en) Method and apparatus for display control, electronic device
KR20160065036A (en) Distance adaptive holographic displaying method and device based on eyeball tracking
JP2015103991A (en) Image processing apparatus, method and computer program
CN107209949B (en) Method and system for generating magnified 3D images
JP5439281B2 (en) User viewpoint space video presentation device, user viewpoint space video presentation method and program
CN107065190B (en) Method and device for displaying information on VR equipment and VR equipment
EP2979635A1 (en) Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
JP6500570B2 (en) Image display apparatus and image display method
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
US20240031551A1 (en) Image capturing apparatus for capturing a plurality of eyeball images, image capturing method for image capturing apparatus, and storage medium
KR100930594B1 (en) The system for capturing 2d facial image and extraction method of face feature points thereof
JP7078568B2 (en) Display device, display control method, and display system
US20210400234A1 (en) Information processing apparatus, information processing method, and program
JP2011217229A (en) Imaging apparatus and display method
JP2019032713A (en) Information processing device, information processing method, and program
JP2006340017A (en) Device and method for stereoscopic video image display
WO2022018271A1 (en) Method for determining a coronal position of an eye relative to the head
US20230244307A1 (en) Visual assistance
JP2015064254A (en) Spectacle wearing parameter measuring apparatus, spectacle wearing parameter measurement program and image acquisition method
JP2018125727A (en) Face image processing apparatus