JP2009294740A - Data processor and program - Google Patents

Data processor and program Download PDF

Info

Publication number
JP2009294740A
JP2009294740A JP2008145426A JP2008145426A JP2009294740A JP 2009294740 A JP2009294740 A JP 2009294740A JP 2008145426 A JP2008145426 A JP 2008145426A JP 2008145426 A JP2008145426 A JP 2008145426A JP 2009294740 A JP2009294740 A JP 2009294740A
Authority
JP
Japan
Prior art keywords
display
user
data
face image
display format
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008145426A
Other languages
Japanese (ja)
Inventor
Masayuki Kirimura
昌行 桐村
Hiroshi Kozuka
宏 小塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008145426A priority Critical patent/JP2009294740A/en
Publication of JP2009294740A publication Critical patent/JP2009294740A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To generate display data in an easy-to-see display format for a user even if the user is busy and cannot perform adjustment work or the like without imposing a burden such as a change in content and program and the adjustment of a character size on the user. <P>SOLUTION: A camera 300 photographs the face of a user who watches display data displayed on a display device 200. A display changing device 100 analyzes image data in the eye region of the face image of the user, determines whether the user is in a normal eye state (a face image A400) or in a state of narrowed eyes (a face image B500). In the latter, it is determined that the user has difficulty in watching the display data, and the device changes the display layout of the display data to a more easy-to-see format, and outputs display data (corresponding layout display B700) along the more easy-to-see display layout on the display device 200. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば、対象ユーザの状態によってアプリケーションプログラム(以下、単にアプリケーションと表記する)の挙動を変更するコンテキストアウェア技術に関するもので、画面の文字サイズやレイアウトを変更することで、オリジナルデータを極力改変することなく、表示を見やすくするためのユーザーインターフェース技術に関するものである。   The present invention relates to a context-aware technology that changes the behavior of an application program (hereinafter simply referred to as an application) according to the state of a target user, for example, and changes the character size and layout of a screen to make original data as much as possible. The present invention relates to a user interface technology for making display easy to see without modification.

周囲の状況に応じてアプリケーションの動作やサービスを変更する手法をコンテキストアウェアと呼ぶ。
例えば、GPS(Global Positioning System)などの位置センサーを利用することによって、あるユーザが特定の場所に位置することで、その場所に配置したオブジェクトの音声説明を行うなど、場所に依存した特有のサービスを提供することが考えられる。
また、カメラや重量センサーなどを利用することによってその場所の混雑度を監視し、状況に応じてサービスを提供する。例えば、エレベータ内部の混雑度に応じて、そのエレベータの混み具合や定員オーバーであることを音声案内するサービスなどがあげられる。
また、設定したルールに従ってコンテンツデータ形式を変換することで、使用するシステムごとに最適なデータ形式を提供する手法などが存在する。
A method of changing the operation or service of an application according to the surrounding situation is called context-aware.
For example, by using a position sensor such as GPS (Global Positioning System), a specific service that depends on the location, such as explaining a voice of an object placed at that location when a user is located at a specific location. Can be considered.
In addition, by using a camera, a weight sensor, etc., the congestion level of the place is monitored, and a service is provided according to the situation. For example, according to the degree of congestion inside the elevator, there is a service that provides voice guidance indicating that the elevator is busy or over capacity.
In addition, there is a method for providing an optimum data format for each system to be used by converting the content data format according to the set rule.

特許文献1では、カメラから得られた人の情動を認識し、その情動結果からその人が購入しそうな商品を紹介する手法や危険行為を早期に検出する手法について述べられている。
特許文献2では、用意したコンテンツ変換ルールに従いXML(Extensible Markup Language)からHTML(Hyper Text Markup Language)にタグ変換する手法について述べられている。
特許文献3では、カメラから得られた人の表情からその情動および行動を推測するための手法について述べられている。
特開2004−318587号公報 特開2005−199403号公報 特開2004−086855号公報
Patent Document 1 describes a technique for recognizing a person's emotion obtained from a camera, introducing a product that the person is likely to purchase from the emotion result, and a technique for detecting a dangerous act at an early stage.
Patent Document 2 describes a tag conversion method from XML (Extensible Markup Language) to HTML (Hyper Text Markup Language) according to a prepared content conversion rule.
Patent Document 3 describes a technique for inferring emotions and actions from a human facial expression obtained from a camera.
Japanese Patent Laid-Open No. 2004-318587 JP 2005-199403 A JP 2004-086855 A

上記のような周囲の状況あるいは表情の変化による情報端末の動作およびアプリケーションの変更を行う手法では、当該アプリケーションに、あらかじめ対象となる状況または表情の定義とそれに対応するアプリケーション動作の対応付けがされており、表示の見栄えを変更するためには表示するコンテンツ内容の変更やアプリケーションの改変を行う必要があるという課題がある。
また、情報端末の表示が見難い場合、画面の文字サイズの調整を手動で行ったり、見やすくなるようプログラムを変更する必要が生じる。
しかしながら、手が塞がっている環境において画面調整することは困難であり、文字サイズの字調整やプログラムの変更を経ずに、ユーザにとって最適な表示を提供することが望ましい。
In the method of changing the operation of the information terminal and the application according to the change of the surrounding situation or expression as described above, the definition of the target situation or expression and the corresponding application action are associated with the application in advance. In order to change the appearance of the display, there is a problem that it is necessary to change the content content to be displayed or to modify the application.
In addition, when it is difficult to see the display on the information terminal, it is necessary to manually adjust the character size of the screen or to change the program so that it is easy to see.
However, it is difficult to adjust the screen in an environment where the hand is blocked, and it is desirable to provide an optimal display for the user without adjusting the character size or changing the program.

この発明は、上記のような課題を解決することを主な目的の一つとしており、コンテンツやプログラムの変更、文字サイズの調整等の負担をユーザに強いることなく、ユーザの状態を判別して、ユーザにとって見やすい表示形式で表示データを生成する装置等を実現することを主な目的とする。   One of the main objects of the present invention is to solve the above-mentioned problems, and it is possible to determine the state of the user without forcing the user to change contents and programs, adjust the character size, etc. The main object is to realize a device that generates display data in a display format that is easy for the user to see.

本発明に係るデータ処理装置は、
表示データを表示する表示装置と、前記表示装置に対面している利用者の顔を撮影する撮影装置とに接続されたデータ処理装置であって、
前記撮影装置により撮影された、前記利用者の目領域の画像データが含まれる前記利用者の顔画像データを入力する顔画像入力部と、
前記顔画像データのうち前記利用者の目領域の画像データを解析する顔画像解析部と、
前記顔画像解析部の解析結果に基づき、前記表示装置に表示する表示データの表示形式を決定する表示形式決定部と、
前記表示形式決定部により決定された表示形式に合わせて表示データを生成し、生成した表示データを前記表示装置に出力する表示データ生成部とを有することを特徴とする。
The data processing apparatus according to the present invention
A data processing device connected to a display device for displaying display data and a photographing device for photographing a user's face facing the display device,
A face image input unit for inputting the face image data of the user, which includes image data of the eye area of the user, which is imaged by the imaging device;
A face image analysis unit that analyzes image data of the user's eye area of the face image data;
A display format determination unit that determines a display format of display data to be displayed on the display device based on an analysis result of the face image analysis unit;
And a display data generation unit that generates display data in accordance with the display format determined by the display format determination unit and outputs the generated display data to the display device.

本発明によれば、撮影装置により撮影された利用者の目領域の画像データを解析し、利用者の目領域の状態に基づいて表示データの表示形式を決定するため、コンテンツやプログラムの変更、文字サイズの調整等の負担を利用者に強いることなく、また、利用者の手が塞がっていて調整作業等ができない場合においても、利用者にとって見やすい表示形式で表示データを生成することができる。   According to the present invention, in order to analyze the image data of the user's eye area captured by the imaging device and determine the display format of the display data based on the state of the user's eye area, Display data can be generated in a display format that is easy for the user to view without imposing the burden of adjusting the character size on the user, and even when the user's hand is blocked and adjustment work cannot be performed.

実施の形態1.
ユーザが表示端末の文章や画像を閲覧する場合、ユーザは細かい文字や小さなサイズの画像など表示が見難い場合には目を細めて文字や画像の内容を読み取ろうとする場合がある。
このとき、表示を見やすくするため、ユーザは表示端末の文字サイズ等を手動で変更する必要が生じる。
本実施の形態は、上記の課題を解決するものであって、表示端末に付随したカメラからユーザの顔の表情を撮影し、その目の変化によって文字サイズ等を変更する手法である。
つまり、本実施の形態では、付随したカメラ画像から取得したユーザの目および眉の特徴点の変化量に応じて、ユーザが表示を「見やすい」のか、「見難い」のかを判別し、ユーザの状況に合った文字サイズやレイアウトに変更することで、オリジナルの画面データの修正を行うことなく、作業のためにユーザの手が塞がっている環境でその状況に応じて有効な表示効果を与える装置について説明する。
Embodiment 1 FIG.
When a user browses a sentence or an image on a display terminal, the user may try to read the contents of the character or the image by narrowing his eyes when it is difficult to see a display such as a fine character or a small size image.
At this time, in order to make the display easy to see, the user needs to manually change the character size or the like of the display terminal.
The present embodiment solves the above-described problem, and is a technique for photographing facial expressions of a user's face from a camera attached to a display terminal and changing a character size or the like by changing the eyes.
That is, in the present embodiment, the user determines whether the display is “easy to see” or “difficult to see” according to the amount of change in the feature points of the user's eyes and eyebrows acquired from the attached camera image. A device that provides an effective display effect according to the situation in an environment where the user's hand is closed for work without changing the original screen data by changing the character size and layout to suit the situation Will be described.

図1は、本実施の形態に係るシステム構成を示す図である。
図1において、表示変更装置100は、ディスプレイ装置200及びカメラ300に接続され、カメラ300から取得した顔画像からその顔画像に合った表示形式(文字サイズやレイアウト)を決定し、決定した表示形式に従った表示データをディスプレイ装置200に出力する手段である。
表示変更装置100は、データ処理装置の例である。
FIG. 1 is a diagram showing a system configuration according to the present embodiment.
In FIG. 1, the display change device 100 is connected to the display device 200 and the camera 300, determines a display format (character size and layout) suitable for the face image from the face image acquired from the camera 300, and determines the determined display format. Is a means for outputting display data in accordance with the display device 200 to the display device 200.
The display change device 100 is an example of a data processing device.

ディスプレイ装置200は、表示変更装置100が生成した表示データを表示するための手段である。ディスプレイ装置200は、表示装置の例である。   The display device 200 is a means for displaying the display data generated by the display change device 100. The display device 200 is an example of a display device.

カメラ300は、顔画像を取得するための手段である。
カメラ300は、ディスプレイ装置200に対面している利用者の顔を撮影する。
カメラ300は、継続して利用者の顔を撮影し続けてもよいし、一定周期(例えば、10秒ごと)ごとに利用者の顔を撮影するようにしてもよい。
なお、カメラ300は、撮影装置の例である。
The camera 300 is a means for acquiring a face image.
The camera 300 captures the face of the user facing the display device 200.
The camera 300 may continue to capture the user's face or may capture the user's face at regular intervals (for example, every 10 seconds).
The camera 300 is an example of a photographing apparatus.

顔画像A400は、利用者の通常の顔を表す顔画像であり、カメラ300により撮影された画像の例である。
顔画像B500は、対照的に利用者が目を細めた場合の顔画像であり、カメラ300により撮影された画像の例である。
なお、通常、目を細める行動とは対象となる画面表示が見難いために表示をより明確にする行動である。
The face image A400 is a face image representing a normal face of the user, and is an example of an image taken by the camera 300.
The face image B500 is a face image when the user narrows his eyes in contrast, and is an example of an image photographed by the camera 300.
Usually, the action of narrowing the eyes is an action of making the display clearer because it is difficult to see the target screen display.

表示変更装置100はカメラ300から取得した顔画像を解析し、表示データの表示形式を変更する。例えば、表示変更装置100は、文字サイズを変更することが可能である。
例えば、表示変更装置100がカメラ300から取得した顔画像が顔画像A400の場合、表示変更装置100はユーザが通常の顔で画面を見ていると判断し、通常の文字サイズで画面に表示を行う(対応レイアウト表示A600)。
一方で、表示変更装置100がカメラ300から顔画像B500を取得した場合、表示変更装置100はユーザが表示が見難い表情で画面を見ていると判断し、通常より大きい文字サイズや、文字に下線を引くなどのスタイルを適用して表示を行う(対応レイアウト表示B700)。
以上が、本実施の形態に係る表示変更装置100の基本動作である。
The display change device 100 analyzes the face image acquired from the camera 300 and changes the display format of the display data. For example, the display change device 100 can change the character size.
For example, if the face image acquired by the display change device 100 from the camera 300 is the face image A400, the display change device 100 determines that the user is looking at the screen with a normal face, and displays the screen with a normal character size. Perform (corresponding layout display A600).
On the other hand, when the display change device 100 acquires the face image B500 from the camera 300, the display change device 100 determines that the user is looking at the screen with an expression that is difficult to see, and the character size or character larger than usual is displayed. The display is performed by applying a style such as underlining (corresponding layout display B700).
The above is the basic operation of the display change device 100 according to the present embodiment.

なお、実施の形態1〜6では、ユーザが一人の場合、すなわち、1つの顔の目および眉の変化量に応じて、コンテンツの内容を変更することなく表示画面の文字サイズやレイアウトおよび画面サイズを変更する方法について説明する。
また、実施の形態7及び8では、ユーザが複数人の場合、すなわち、2つ以上の顔の目および眉の変化量に応じて、コンテンツの内容を変更することなく表示画面の文字サイズやレイアウトおよび画面サイズを変更する方法について説明する。
In the first to sixth embodiments, when the number of users is one, that is, according to the amount of change in eyes and eyebrows of one face, the character size, layout, and screen size of the display screen without changing the content content How to change the will be described.
In Embodiments 7 and 8, when there are a plurality of users, that is, according to the amount of change in the eyes and eyebrows of two or more faces, the character size and layout of the display screen without changing the content contents A method for changing the screen size will be described.

図2は、本実施の形態に係る表示変更装置100の内部構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating an internal configuration example of the display change device 100 according to the present embodiment.

図2において、顔画像取得部101は、カメラ300で撮影された顔画像を取得するための手段である。
具体的には銀円カメラやデジタルカメラやデジタルビデオカメラなどの撮影装置あるいはスキャナなどの画像抽出装置などを指す。取得した画像は画像格納領域111に保存される。
なお、顔画像取得部101が取得する顔画像には、ユーザの目領域の画像データが含まれる。
顔画像取得部101は、顔画像入力部の例である。
In FIG. 2, a face image acquisition unit 101 is a means for acquiring a face image taken by the camera 300.
Specifically, it refers to a photographing device such as a silver circle camera, a digital camera or a digital video camera, or an image extracting device such as a scanner. The acquired image is stored in the image storage area 111.
Note that the face image acquired by the face image acquisition unit 101 includes image data of the user's eye area.
The face image acquisition unit 101 is an example of a face image input unit.

顔画像解析部102は、顔画像の目および眉の特徴点を抽出する手段であり、画像格納領域111に格納された画像から顔面および目領域を抽出し、これらの特徴点幅を算出するための画像解析手段である。
抽出した特徴点の抽出結果は顔画像解析結果として、顔画像解析結果格納領域112に格納する。
The face image analysis unit 102 is a means for extracting the feature points of the eyes and eyebrows of the face image, in order to extract the face and eye regions from the image stored in the image storage region 111 and to calculate the feature point widths thereof. Image analysis means.
The extracted feature point extraction results are stored in the face image analysis result storage area 112 as face image analysis results.

ユーザ状態判断部103は、上記顔画像解析結果における複数の特徴点幅の変化幅に応じて、ユーザ状態判断テーブル格納領域113に格納されたユーザ状態判断テーブルを利用して、例えば「見難い」「通常」「見やすい」などのユーザ状態情報に変換する手段である。
なお、ユーザ状態情報はユーザ状態情報格納領域114に保存される。
また、スタイル変更部104は、ユーザ状態情報格納領域114に格納されたユーザ状態情報からその解析結果に応じた表示形式を選択するための手段である。
ここで、表示形式とはコンテンツを構成する各要素についてのフォントサイズや幅、高さ、フォント色や背景色などのレイアウトに関する情報を示す。
つまり、スタイル変更部104は、それぞれが異なる視認性に対応する複数種類の表示形式を管理しており、顔画像の解析結果に基づき、複数の表示形式の中からいずれかの表示形式を選択する。
なお、以降、表示形式のことをスタイルともいう。
顔画像解析結果と選択するスタイルの関係はスタイル変更テーブルとして、スタイル変更テーブル格納領域115に保存されており、本スタイル変更テーブルを置換することで同一のユーザ状態においても違ったレイアウト表示を提供することが可能である。
なお、ユーザ状態判断部103とスタイル変更部104は、表示形式決定部の例である。
The user state determination unit 103 uses the user state determination table stored in the user state determination table storage area 113 according to the change width of the plurality of feature point widths in the face image analysis result, for example, “difficult to see”. It is means for converting into user status information such as “normal” and “easy to see”.
The user status information is stored in the user status information storage area 114.
The style changing unit 104 is a means for selecting a display format corresponding to the analysis result from the user state information stored in the user state information storage area 114.
Here, the display format indicates information relating to the layout such as the font size, width, height, font color, and background color for each element constituting the content.
That is, the style changing unit 104 manages a plurality of types of display formats corresponding to different visibility, and selects one of the plurality of display formats based on the analysis result of the face image. .
Hereinafter, the display format is also referred to as a style.
The relationship between the face image analysis result and the style to be selected is stored as a style change table in the style change table storage area 115. By replacing this style change table, a different layout display can be provided even in the same user state. It is possible.
The user state determination unit 103 and the style change unit 104 are examples of a display format determination unit.

コンテンツ解析部105は、コンテンツ格納領域116に格納されたコンテンツ情報を字句解析するための手段である。字句解析したコンテンツ解析結果117_1はコンテンツ解析結果格納領域117に格納する。
なお、ここでのコンテンツ解析結果は例えば、コンテンツ情報がHTML(Hyper Text Markup Language)形式で記述されている場合、これらの情報を解析した結果作成されるDOM(Document Object Model)情報などがそれに当たる。
コンテンツレイアウト部106は、コンテンツ解析結果格納領域117に格納されたコンテンツ解析結果から画面表示データの描画に必要なレイアウト情報を生成するための手段である。
生成したレイアウト情報はレイアウト情報格納領域118に格納する。
なお、ここでのレイアウト情報は画面表示データの表示形式を示す情報であり、例えば、コンテンツ中の各要素の座標や幅、高さなどの配置情報や背景色や文字色など、描画に必要な情報を指す。
レイアウト情報描画部107は、レイアウト情報格納領域118に格納されたレイアウト情報から画面表示データを作成し、ディスプレイに表示するための手段である。
コンテンツ解析部105、コンテンツレイアウト部106及びレイアウト情報描画部107は、表示データ生成部の例である。
The content analysis unit 105 is a means for lexical analysis of the content information stored in the content storage area 116. The content analysis result 117_1 subjected to the lexical analysis is stored in the content analysis result storage area 117.
The content analysis result here is, for example, DOM (Document Object Model) information created as a result of analyzing such information when the content information is described in an HTML (Hyper Text Markup Language) format. .
The content layout unit 106 is means for generating layout information necessary for drawing the screen display data from the content analysis result stored in the content analysis result storage area 117.
The generated layout information is stored in the layout information storage area 118.
The layout information here is information indicating the display format of the screen display data. For example, the layout information such as the coordinates, width, and height of each element in the content, the background color, the character color, and the like are necessary for drawing. Refers to information.
The layout information drawing unit 107 is means for creating screen display data from the layout information stored in the layout information storage area 118 and displaying it on the display.
The content analysis unit 105, the content layout unit 106, and the layout information drawing unit 107 are examples of a display data generation unit.

また、図2において、画像格納領域111は、複数の画像111_1を保存するための手段である。
顔画像解析結果格納領域112は、複数の画像から抽出した目や眉の特徴点幅を画像ごとに保存した顔画像解析結果112_1を保存するための手段である。
ユーザ状態判断テーブル格納領域113は、特徴点幅の変化条件とその条件を満たす状態情報との関連付けを行うユーザ状態判断テーブル113_1を保存するための手段である。
ユーザ状態情報格納領域114は、ユーザ状態判断部103によって判断されたユーザの状態情報114_1を保存するための手段である。
スタイル変更テーブル格納領域115は、スタイル変更テーブル115_1を保存するための手段である。
コンテンツ格納領域116は、複数のHTML情報などのコンテンツ情報116_1を保存するための手段である。
コンテンツ解析結果格納領域117は、複数のDOM情報などのコンテンツ解析結果情報117_1を保存するための手段である。
レイアウト情報格納領域118は、複数の配置情報などのレイアウト情報118_1を保存するための手段である。
In FIG. 2, an image storage area 111 is means for storing a plurality of images 111_1.
The face image analysis result storage area 112 is means for storing a face image analysis result 112_1 in which the feature point widths of eyes and eyebrows extracted from a plurality of images are stored for each image.
The user state determination table storage area 113 is a means for storing a user state determination table 113_1 for associating the change condition of the feature point width with the state information that satisfies the condition condition.
The user state information storage area 114 is a means for storing the user state information 114_1 determined by the user state determination unit 103.
The style change table storage area 115 is a means for storing the style change table 115_1.
The content storage area 116 is means for storing a plurality of content information 116_1 such as HTML information.
The content analysis result storage area 117 is means for storing content analysis result information 117_1 such as a plurality of DOM information.
The layout information storage area 118 is means for storing layout information 118_1 such as a plurality of arrangement information.

図3は、顔画像取得部101によって取得される顔画像の一例を示す。顔画像からは目の大きさや位置、眉の位置、顔の輪郭などの一部が取得できればよい。
なお、それぞれの位置の抽出のため、滅色処理や色反転処理などの画像処理を行ってもかまわない。
FIG. 3 shows an example of a face image acquired by the face image acquisition unit 101. It is only necessary to obtain a part of the face image such as the size and position of the eyes, the position of the eyebrows, and the outline of the face.
Note that image processing such as discoloration processing and color reversal processing may be performed to extract each position.

図4は、顔画像解析部102によって解析された目の特徴点の計測例で、カメラから得られた、ディスプレイ装置200を見つめるユーザの顔の目と眉の状態で、通常時の特徴点の幅の一例を示す。
このときの目の幅、目の高さ、目と目の間隔、眉の高さをそれぞれ目幅1、目高1、目間隔1、眉高1と呼ぶ。
FIG. 4 is an example of the measurement of eye feature points analyzed by the face image analysis unit 102, and the normal feature points are obtained from the camera in the state of eyes and eyebrows of the user's face staring at the display device 200. An example of the width is shown.
The eye width, eye height, eye-to-eye spacing, and eyebrow height at this time are referred to as eye width 1, eye height 1, eye interval 1, and eyebrow height 1, respectively.

図5は、顔画像解析部102によって解析された目の特徴点の計測例で、カメラから得られた、ディスプレイ装置200を見つめるユーザの顔の目と眉の状態で、目を細めている時の特徴点の幅の一例を示す。
このときの目の幅、目の高さ、目と目の間隔、眉の高さをそれぞれ目幅2、目高2、目間隔2、眉高2と呼ぶ。
FIG. 5 is a measurement example of eye feature points analyzed by the face image analysis unit 102. When the eyes are narrowed in the state of eyes and eyebrows of the user's face staring at the display device 200 obtained from the camera. An example of the width of the feature point is shown.
The eye width, eye height, eye-to-eye distance, and eyebrow height at this time are referred to as eye width 2, eye height 2, eye interval 2, and eyebrow height 2, respectively.

図9は複数の顔画像から抽出した目幅、目高、目間隔、眉高のピクセル幅の集計結果の一例である。
Image1とImage2は、異なる時刻に撮影された顔画像のから抽出した目幅、目高、目間隔、眉高のピクセル幅を示している。
つまり、図9の例では、目幅については、Image2において拡大し、目高については、Image2において減少し、目間隔については、Image2において減少し、眉高については、Image2において減少していることが分かる。
FIG. 9 is an example of a totaling result of pixel widths of eye width, eye height, eye interval, and eyebrow height extracted from a plurality of face images.
Image1 and Image2 indicate pixel widths of eye width, eye height, eye interval, and eyebrow height extracted from face images taken at different times.
In other words, in the example of FIG. 9, the eye width is enlarged in Image2, the eye height is reduced in Image2, the eye interval is reduced in Image2, and the eyebrow height is reduced in Image2. I understand.

図10は特徴点変化幅の条件とそれに対応する状態の定数値との関係を示す、ユーザ状態判断テーブルの一例である。
つまり、カメラ300により撮影されたユーザの顔画像の目領域の特徴点が特徴点変化幅の条件に合致する場合には、ユーザの現在の状態が、対応する状態(見難い、接近等)にあると判断できる。
FIG. 10 is an example of a user state determination table showing the relationship between the feature point change width condition and the constant value of the corresponding state.
That is, when the feature point of the eye area of the user's face image photographed by the camera 300 matches the feature point change width condition, the user's current state becomes a corresponding state (difficult to see, approach, etc.). It can be judged that there is.

図11はユーザ状態判断部103によって解析されたユーザの現在の状態値を格納したユーザ状態情報の一例である。   FIG. 11 is an example of user status information that stores the current status value of the user analyzed by the user status determination unit 103.

図12はスタイル変更テーブルの一例を示し、コンテンツレイアウト部106がコンテンツ格納領域116に格納されたコンテンツ情報116_1をレイアウトする際にレイアウト解釈として利用するテーブルの一例である。
本テーブルは特に、顔の表情(ユーザの状態)ごとに各要素の文字サイズを指定しているテーブルの一例である。
なお、要素名に指名している<H1>、<H6>、<P>等は、図15に例示しているコンテンツ情報116_1(表示データ)の要素を示している。
図12は、ユーザの現在の状態が「見難い」場合は、要素<H1>の内容(文字列等)は48pxlで表示し、ユーザの現在の状態が「通常」である場合は、要素<H1>の内容(文字列等)は24pxlで表示すること等を示している。
つまり、ユーザの状態が「見難い」場合は、高い視認性が得られる表示形式が選択される。
FIG. 12 shows an example of a style change table, which is an example of a table used as a layout interpretation when the content layout unit 106 lays out the content information 116_1 stored in the content storage area 116.
In particular, this table is an example of a table in which the character size of each element is designated for each facial expression (user state).
Note that <H1>, <H6>, <P>, and the like designated as element names indicate elements of the content information 116_1 (display data) illustrated in FIG.
In FIG. 12, when the current state of the user is “difficult to see”, the content (character string or the like) of the element <H1> is displayed at 48 pxl, and when the current state of the user is “normal”, the element < The content of H1> (character string or the like) indicates that it is displayed in 24 pxl.
That is, when the user's state is “difficult to see”, a display format that provides high visibility is selected.

図13はスタイル変更テーブルの別の例を示し、コンテンツレイアウト部106がコンテンツ格納領域116に格納されたコンテンツ情報116_1をレイアウトする際にレイアウト解釈として利用するテーブルの一例である。
本テーブルは特に、顔の表情(ユーザの状態)ごとに各要素の変換後の要素を示すテーブルの一例である。
図13に示すタグごとに文字サイズが決められており、例えば、ユーザの状態が「見難い」場合には、<H6>タグは、<H3>タグに置き換えられ、より大きな文字サイズに変換されて表示される。
各タグの文字サイズは、別テーブルで管理される。
FIG. 13 shows another example of the style change table, which is an example of a table used as a layout interpretation when the content layout unit 106 lays out the content information 116_1 stored in the content storage area 116.
In particular, this table is an example of a table indicating elements after conversion of each element for each facial expression (user state).
The character size is determined for each tag shown in FIG. 13. For example, when the user's state is “difficult to see”, the <H6> tag is replaced with the <H3> tag and converted to a larger character size. Displayed.
The character size of each tag is managed in a separate table.

図15はコンテンツ記述の例で、HTML(Hyper Text Markup Language)で記述されたコンテンツの一例である。本発明ではコンテンツはHTMLに限らず、XML(Extensible Markup Language)や独自のフォーマットのコンテンツでも構わない。   FIG. 15 shows an example of content description, which is an example of content described in HTML (Hyper Text Markup Language). In the present invention, the content is not limited to HTML, but may be XML (Extensible Markup Language) or content of a unique format.

図16はコンテンツ解析結果情報の例で、コンテンツ情報が図15のようにHTML形式で記述されている場合、これらの情報を解析した結果作成されるDOM(Document Object Model)情報である。   FIG. 16 shows an example of content analysis result information. When the content information is described in the HTML format as shown in FIG. 15, DOM (Document Object Model) information created as a result of analyzing the information is shown.

図17はレイアウト情報の例で、コンテンツの要素ごとの座標や幅、高さなどの配置情報やフォントサイズ情報などをまとめたものである。   FIG. 17 shows an example of layout information, which summarizes arrangement information such as coordinates, width, and height, font size information, and the like for each element of content.

図18は図15の記述について、顔の表情が通常の場合にコンテンツを解析およびレイアウトを行い、表示した例である。   FIG. 18 shows an example in which the content is analyzed and laid out for the description of FIG. 15 when the facial expression is normal.

図19は図15の記述について、図12のスタイル変更テーブルを使用してコンテンツを解析およびレイアウトを行い、表示した例である。このとき、「通常」文字サイズから「見難い」文字サイズに文字サイズの変換を行っている。   FIG. 19 shows an example in which the contents of FIG. 15 are analyzed and laid out using the style change table of FIG. At this time, the character size is converted from the “normal” character size to the “difficult” character size.

図20は図15の記述について、図13のスタイル変更テーブルを使用してコンテンツを解析およびレイアウトを行い、表示した例である。このとき、「見難い」変換タグに該当するタグ変換を行っている(図15の<H6>が<H3>に置換され、図15の<P>が<H2>に置換されている)。   FIG. 20 shows an example in which the content shown in FIG. 15 is analyzed and laid out using the style change table shown in FIG. At this time, tag conversion corresponding to a conversion tag that is “difficult to see” is performed (<H6> in FIG. 15 is replaced with <H3>, and <P> in FIG. 15 is replaced with <H2>).

実施の形態1における表示変更装置100の全体処理フローを図21を用いて説明する。
表示変更装置100では、顔画像取得部101が、接続されたカメラ300からカメラ画像の取得処理を行い、取得した画像111_1を画像格納領域111に格納する(S1)。
次に、顔画像解析部102が、取得した複数の連続画像を顔画像解析処理A2により顔画像から特徴点を抽出し、目幅、目高、目間隔、眉高などを算出し、顔画像解析結果112_1を顔画像解析結果格納領域112に格納する(S2)。
次に、ユーザ状態判断部103が、顔画像解析結果112_1と、ユーザ状態判断テーブル格納領域113に格納されたユーザ状態判断テーブル113_1からそれぞれの幅値が条件を満たすか比較し、条件を満たす状態をそのユーザの状態情報114_1としてユーザ状態情報格納領域114に格納する。ここで、「見難い」、「通常」、「見やすい」などの判断を行う(S3)。
そして、ユーザ状態が直前の状態から変化している場合(「通常」から「見難い」への変化等)は、S4に処理を進め、状態に変化がない場合には、S1に処理を戻す。
例えば、図9に示す連続した取得画像Image1からImage2への変化において、目高が大幅に小さくなっており、図10のユーザ状態判断テーブルとの照合に基づき、ユーザが目を細めていて「見難い」状態にあると判断することができ、ユーザの状態が「通常」から「見難い」に変化したと判断することができる。
The overall processing flow of the display change device 100 in the first embodiment will be described with reference to FIG.
In the display change device 100, the face image acquisition unit 101 performs a camera image acquisition process from the connected camera 300, and stores the acquired image 111_1 in the image storage area 111 (S1).
Next, the face image analysis unit 102 extracts feature points from the face image by the face image analysis process A2 from the acquired plurality of continuous images, calculates the eye width, eye height, eye interval, eyebrow height, etc. The analysis result 112_1 is stored in the face image analysis result storage area 112 (S2).
Next, the user state determination unit 103 compares the face image analysis result 112_1 and the user state determination table 113_1 stored in the user state determination table storage area 113 to determine whether each width value satisfies the condition, and Is stored in the user status information storage area 114 as the user status information 114_1. Here, judgments such as “difficult to see”, “normal”, and “easy to see” are made (S3).
If the user state has changed from the previous state (change from “normal” to “difficult to see”, etc.), the process proceeds to S4, and if the state has not changed, the process returns to S1. .
For example, in the change from the continuously acquired image Image1 to Image2 shown in FIG. 9, the eye height is significantly reduced. Based on the comparison with the user state determination table in FIG. It can be determined that the user is in a “difficult” state, and the user state can be determined to have changed from “normal” to “difficult to see”.

次に、スタイル変更部104が、スタイル変更テーブル格納領域115に格納されたスタイル変更テーブルを参照し、スタイルの取得を行う。
例えば、スタイル変更テーブルが図12の115_1であり、ユーザの状態が「見難い」の場合、<H6>タグを通常の文字サイズ8pxlから「見難い」文字サイズ16pxlへと変更する。また、図13の115_2のように要素を変換する場合はこのタイミングでコンテンツの変換を行う(S4)。
次に、コンテンツ解析部105により、コンテンツ格納領域116に格納されたコンテンツ116_1を取り出し、コンテンツの解析を行う。
解析した結果は例えばDOM(Document Object Model)など、コンテンツレイアウト部106が解釈できるデータ構造に変換する。このコンテンツ解析結果117_1をコンテンツ解析結果格納領域117に格納する(S5)。
次に、コンテンツレイアウト部106が、コンテンツ解析結果117_1とスタイル変更テーブル115_1(115_2)を利用して、コンテンツレイアウト処理を行う。コンテンツレイアウト処理とはコンテンツ116_1に記述された要素の配置や幅、高さや色、要素の数の設定を行う処理である。本処理によりレイアウト情報118_1を生成し、レイアウト情報格納領域118に格納する。なお、レイアウト情報は実装システムに依存した情報である(S6)。
最後に、レイアウト情報描画部107が、レイアウト情報格納領域118に格納されたレイアウト情報を元に描画処理を行い、ディスプレイ装置200に表示する(S7)。
Next, the style change unit 104 refers to the style change table stored in the style change table storage area 115 and acquires the style.
For example, if the style change table is 115_1 in FIG. 12 and the user status is “difficult to see”, the <H6> tag is changed from the normal character size of 8 pxl to the “difficult to see” character size of 16 pxl. In addition, when elements are converted as indicated by 115_2 in FIG. 13, the contents are converted at this timing (S4).
Next, the content analysis unit 105 extracts the content 116_1 stored in the content storage area 116, and analyzes the content.
The analysis result is converted into a data structure that can be interpreted by the content layout unit 106, such as DOM (Document Object Model). The content analysis result 117_1 is stored in the content analysis result storage area 117 (S5).
Next, the content layout unit 106 performs content layout processing using the content analysis result 117_1 and the style change table 115_1 (115_2). The content layout processing is processing for setting the arrangement, width, height, color, and number of elements described in the content 116_1. Through this process, layout information 118_1 is generated and stored in the layout information storage area 118. The layout information is information dependent on the mounting system (S6).
Finally, the layout information drawing unit 107 performs a drawing process based on the layout information stored in the layout information storage area 118, and displays it on the display device 200 (S7).

このように、本実施の形態では、カメラ300がディスプレイ装置200に表示されている表示データを見るユーザの顔を撮影し、表示変更装置100がユーザの顔画像の目領域の画像データを解析し、ユーザが通常の目の状態である(顔画像A400)のか、目を細めた状態である(顔画像B500)のかを判断し、目を細めた状態である場合には、ユーザは表示データが見難いと判断し、表示データの表示レイアウトをより見やすい形式(対応レイアウト表示B700)に変更し、より見やすい表示レイアウトに沿った表示データをディスプレイ装置200に出力する。
このため、コンテンツやプログラムの変更、文字サイズの調整等の負担をユーザに強いることなく、また、ユーザの手が塞がっていて調整作業等ができない場合においても、ユーザにとって見やすい表示形式で表示データを生成することができる。
Thus, in the present embodiment, the camera 300 captures the face of the user who views the display data displayed on the display device 200, and the display change device 100 analyzes the image data of the eye area of the user's face image. It is determined whether the user is in a normal eye state (face image A400) or in a narrowed state (face image B500). It is determined that it is difficult to view, and the display layout of the display data is changed to a more easily viewable format (corresponding layout display B700), and the display data along the more easily viewable display layout is output to the display device 200.
For this reason, the display data is displayed in a display format that is easy for the user to view, without imposing the burden of changing the content or program, adjusting the character size, etc., or when the user's hand is blocked and adjustment work cannot be performed. Can be generated.

なお、図10のユーザ状態判断テーブルでは、目幅、目高、目間隔、眉高の各々の変化幅によって、ユーザの状態を判断する判断基準が示されているが、他の判断基準であってもよい。
例えば、ユーザの目幅と目高の比率が一定値以上であれば「通常」の状態であり、一定値未満であれば「見難い」状態であるとする判断基準をユーザ状態判断テーブルに設け、ユーザの目領域の画像データにおけるユーザの目の幅と目の高さとの比率を解析し、ユーザ状態判断テーブルの判断基準に照らして、ユーザが目を細めていて「見難い」状態であるか否かを判断するようにしてもよい。
In the user state determination table of FIG. 10, the determination criterion for determining the user state is shown by the change width of each of eye width, eye height, eye interval, and eyebrow height. May be.
For example, the user status determination table is provided with a determination criterion that the user's eye width / eye height ratio is “normal” if the ratio is greater than or equal to a certain value, and “difficult to see” if the ratio is less than a certain value. The ratio of the user's eye width and eye height in the image data of the user's eye area is analyzed, and the user's eyes are narrowed according to the determination criteria of the user state determination table, and the state is "difficult to see" It may be determined whether or not.

また、上記では、ユーザの状態が「通常」から「見難い」に変化した際に、即座に視認性の高い表示形式に変更する例を説明したが、例えば、ユーザが目を細めていて「見難い」状態であると判断された回数、又はユーザが目を細めていて「見難い」状態であると判断された時間(目を細め続けている時間)を計測し、計測結果が所定の閾値を超えた際に、高い視認性に対応する表示形式を選択するようにしてもよい。
また、ユーザが目を細めた回数及び目を細めている時間の両者を組み合わせてもよい。
このようにすれば、ユーザがディスプレイ画面を見難い場合にのみ確実に文字サイズ等を大きくすることができ、ディスプレイ画面が見難いわけではないが、ユーザがなんらかの理由で目を細めただけの場合に、誤って文字サイズ等を大きくするといった不都合を回避することができる。
Further, in the above description, when the user's state is changed from “normal” to “difficult to see”, an example of immediately changing to a display format with high visibility has been described. The number of times it was determined to be in a “difficult to see” state or the time that the user was determined to be in the “difficult to see” state with a narrowed eye (the time during which the user kept narrowing his eyes) was measured. When the threshold value is exceeded, a display format corresponding to high visibility may be selected.
Moreover, you may combine both the frequency | count that the user narrowed eyes, and the time which is narrowing eyes.
In this way, it is possible to increase the character size, etc., only when the user is difficult to see the display screen, and the display screen is not difficult to see, but the user just narrows his eyes for some reason In addition, it is possible to avoid the inconvenience of increasing the character size or the like by mistake.

また、上記では、ユーザの状態が「通常」から「見難い」に変化した際に表示形式を変更したが、例えば、表示変更装置100が、予めユーザの「通常」の場合の目幅、目高等の特徴点の値を記憶しておき、カメラの撮影画像から得られた目幅、目高等と記憶している目幅、目高等とを比較してユーザの状態を判断するようにしてもよい。
なお、着座位置の変化、姿勢の変化等により、毎回ユーザとカメラの距離が同じとは限らないことを考慮すると、顔において長さや幅の変化が少ない要素(顔の横幅、鼻の横幅等)の値も予め記憶しておき、カメラ画像から得られるこれらの値と記憶している値とを比較し、比較結果に応じて、目幅、目高等の比較結果を調整してユーザの状態を判断するようにしてもよい。
In the above description, the display format is changed when the user's state changes from “normal” to “difficult to see”. For example, the display width is changed when the display change device 100 is previously set to “normal” by the user. The values of feature points such as heights are stored, and the user's state is judged by comparing the eye width, eye height, etc. obtained from the captured image of the camera with the stored eye width, eye height, etc. Good.
In consideration of the fact that the distance between the user and the camera is not always the same due to changes in the sitting position, posture changes, etc., factors that have little change in length and width in the face (face width, nose width, etc.) Are stored in advance, and these values obtained from the camera image are compared with the stored values, and according to the comparison results, the comparison results such as the eye width and the eye height are adjusted to change the user's state. You may make it judge.

実施の形態2.
実施の形態2〜5では、上述の実施の形態1をより具体的に説明する実施例及び実施の形態1に示から派生する実施例を説明する。
Embodiment 2. FIG.
In the second to fifth embodiments, an example that more specifically describes the first embodiment described above and an example that is derived from the first embodiment will be described.

実施の形態2では、ユーザ1人の目の変化により、コンテンツの文字サイズおよび見栄えを変更する、顔表情追随文字サイズ変更手法について説明する。   In the second embodiment, a facial expression following character size changing method for changing the character size and appearance of content according to a change in the eyes of one user will be described.

例えば、カメラで取得した画像が図4から図5へ変化したと仮定する。
このとき、コンテンツ格納領域116に格納された図15の116_1で示すコンテンツに対して図12のようなスタイル変更テーブル115_1がスタイル変更テーブル格納領域115に格納されているものと仮定する。
このスタイル変更テーブル115_1には各要素の文字サイズが記述されており、「通常」文字サイズよりも文字サイズが大きい「見難い」文字サイズなどが登録されている。このとき、顔画像解析部102によって顔画像解析を行い、ユーザ状態判断部103により「見難い」に相当する場合、スタイル変更テーブル115_1の「見難い」文字サイズを適用する。
For example, assume that the image acquired by the camera has changed from FIG. 4 to FIG.
At this time, it is assumed that a style change table 115_1 as shown in FIG. 12 is stored in the style change table storage area 115 for the content indicated by 116_1 in FIG. 15 stored in the content storage area 116.
In this style change table 115_1, the character size of each element is described, and the character size that is “difficult to see” that is larger than the “normal” character size is registered. At this time, face image analysis is performed by the face image analysis unit 102, and when the user state determination unit 103 corresponds to “difficult to see”, the “unreadable” character size of the style change table 115 </ b> _ 1 is applied.

以上のように文字サイズ変更を行うことにより図18のディスプレイ表示の内容が図19のように表示される。
これにより、ユーザが目を細めた場合、目を細めた画像が得られ、その画像を解析することによって表示が見難いと判断し、文字サイズを自動的に大きくすることが可能である。
By changing the character size as described above, the contents of the display shown in FIG. 18 are displayed as shown in FIG.
Thereby, when the user narrows his eyes, an image with narrow eyes is obtained. By analyzing the image, it is determined that the display is difficult to see, and the character size can be automatically increased.

これによって、ユーザが表示端末の表示が見え難い素振り(目を細める動作)を見せることで、表示端末に対する操作を行うことなく、そのユーザにとって見やすい文字サイズの表示を提供することが可能である。
なお、後述する実施の形態6のように、目を細める動作に代えて目の付帯物の有無に応じて上記文字サイズの変更を行ってもかまわない。また、後述する実施の形態5のように、目を細める動作に代えてユーザの接近回数に応じて上記文字サイズの変更を行ってもかまわない。
As a result, it is possible to provide a display with a character size that is easy for the user to view without performing an operation on the display terminal, by showing the user a gesture that makes it difficult to see the display on the display terminal (an operation that narrows the eyes).
Note that the character size may be changed in accordance with the presence or absence of an eye accessory instead of the action of narrowing the eye, as in the sixth embodiment described later. In addition, the character size may be changed according to the number of times the user approaches instead of the action of narrowing the eyes as in the fifth embodiment described later.

実施の形態3.
本実施の形態では、実施の形態1における実施例として、ユーザー1人の目の変化によりコンテンツ中の要素の置換を行い、コンテンツを書き換える、顔表情追随コンテンツ変換手法について説明する。
Embodiment 3 FIG.
In the present embodiment, as an example of the first embodiment, a facial expression following content conversion method in which an element in content is replaced by a change in the eyes of one user and the content is rewritten will be described.

例えば、コンテンツ格納領域116に格納された図15で示すコンテンツに対して図13で示すスタイル変更テーブル115_2がスタイル変更テーブル格納領域115に格納されているものと仮定する。
このとき、顔画像解析部102により顔画像解析を行い、ユーザ状態判断部103によって「見難い」に相当する場合、図13のスタイル変更テーブルに従って、例えばコンテンツ中の<H6>要素を<H3>要素に変換し、<P>要素を<H2>要素に変換する。
そして、各要素の文字サイズは別テーブルで管理しており、ユーザの状態が「見難い」場合は、当該テーブルに基づいて各要素を置換することで、より大きな文字サイズに変更し、より視認性の高い表示形式に変更することができる。
ただし、オリジナルのコンテンツを改変したくない場合はあらかじめオリジナルコンテンツのコピーをコンテンツ格納領域116に保存しておき(コピーコンテンツと呼ぶ)、コピーコンテンツに対して上記要素変換を行うことが望ましい。
For example, it is assumed that the style change table 115_2 shown in FIG. 13 is stored in the style change table storage area 115 for the content shown in FIG. 15 stored in the content storage area 116.
At this time, when the face image analysis is performed by the face image analysis unit 102 and the user state determination unit 103 corresponds to “difficult to see”, the <H6> element in the content is set to <H3> according to the style change table of FIG. The element is converted into an element, and the <P> element is converted into an <H2> element.
The character size of each element is managed in a separate table. If the user's status is “difficult to see,” the element is replaced based on the table to change it to a larger character size and make it more visible. The display format can be changed to a highly specific one.
However, if it is not desired to modify the original content, it is desirable to store a copy of the original content in the content storage area 116 in advance (referred to as copy content) and perform the above element conversion on the copy content.

以上のようにコンテンツ変換を行うことにより、図18のディスプレイ表示の内容が図20のように文字が表示される。   By performing the content conversion as described above, the contents of the display display in FIG. 18 are displayed as shown in FIG.

これによって、ユーザが表示端末の表示が見え難い素振り(目を細める動作)を見せることで、表示端末に対する操作を行うことなく、そのユーザにとって見やすいコンテンツ表示を提供することが可能である。
なお、後述する実施の形態6のように、目を細める動作に代えて目の付帯物の有無に応じて上記タグ変換を行ってもかまわない。また、後述する実施の形態5のように、目を細める動作に代えてユーザの接近回数に応じて上記タグ変換を行ってもかまわない。
As a result, it is possible to provide a content display that is easy for the user to view without performing an operation on the display terminal by showing the user that the display on the display terminal is difficult to see (the action of narrowing his eyes).
Note that the tag conversion may be performed in accordance with the presence or absence of an eye accessory instead of the operation of narrowing the eye, as in the sixth embodiment described later. Further, as in the fifth embodiment described later, the tag conversion may be performed according to the number of times the user approaches instead of the operation of narrowing the eyes.

実施の形態4.
本実施の形態では、実施の形態1における実施例として、ユーザ1人の目の変化によって適用するCSS(Cascading Style Sheet)を変更する、顔表情追随CSS変更手法について説明する。
Embodiment 4 FIG.
In the present embodiment, as an example in the first embodiment, a facial expression following CSS changing method for changing a CSS (Cascading Style Sheet) to be applied according to a change in eyes of one user will be described.

本実施の形態は、実施の形態1〜3と同様の課題を解決するもので、解決策として適用するCSSを変更することによって文字サイズやレイアウトを既存のコンテンツを変更することなく行う手法である。CSSとは、HTMLなどのコンテンツに記述された要素ごとのレイアウト解釈を記述した定義ファイルあるいは記述である。   The present embodiment solves the same problems as those of the first to third embodiments, and is a technique for performing character size and layout without changing existing content by changing CSS applied as a solution. . CSS is a definition file or description that describes layout interpretation for each element described in content such as HTML.

図14は、本実施の形態に係るスタイル変更テーブルの一例を示し、コンテンツレイアウト部106がコンテンツ格納領域116に格納されたコンテンツ情報116_1をレイアウトする際にレイアウト解釈として利用するテーブルの一例である。
本テーブルは特に、顔の表情ごとに適用するスタイルシートの一覧テーブルの一例である。
ここで、スタイルシートとはCSSに代表される、レイアウト情報の文書の見栄えの定義をまとめた雛型情報である。
FIG. 14 shows an example of a style change table according to the present embodiment, which is an example of a table used as a layout interpretation when the content layout unit 106 lays out the content information 116_1 stored in the content storage area 116.
In particular, this table is an example of a style sheet list table applied to each facial expression.
Here, the style sheet is template information that summarizes the definition of the appearance of the document of layout information, represented by CSS.

スタイル変更テーブルとして、図14のようなスタイル変更テーブル115_3がスタイル変更テーブル格納領域113に格納されているものと仮定する。
このCSS変更テーブルでは各顔の表情に応じて参照するべきCSSファイルのファイル名を記述している。
このとき、顔画像解析部102によって顔画像解析を行い、ユーザ状態判断部103によって「見難い」と判断されれば、CSSファイルとしてBigSize.cssを適用し、レイアウトに反映する。
It is assumed that a style change table 115_3 as shown in FIG. 14 is stored in the style change table storage area 113 as the style change table.
This CSS change table describes the file name of the CSS file to be referred to according to the facial expression of each face.
At this time, face image analysis is performed by the face image analysis unit 102, and if it is determined as “difficult to see” by the user state determination unit 103, BigSize. Apply css and reflect in layout.

以上のように適用するCSSを変更することにより、図18のディスプレイ表示の内容が図19のように文字が大きく表示される。   By changing the CSS to be applied as described above, the contents of the display on the display in FIG. 18 are displayed larger as shown in FIG.

これによって、ユーザが表示端末の表示が見え難い素振り(目を細める動作)を見せることで、表示端末に対する操作を行うことなく、そのユーザにとって見やすいコンテンツ表示を提供することが可能である。
なお、後述する実施の形態6のように、目を細める動作に代えて目の付帯物の有無に応じてCSSファイルの変更を行ってもかまわない。また、後述する実施の形態5のように、目を細める動作に代えてユーザの接近回数に応じてCSSファイルの変更を行ってもかまわない。
As a result, it is possible to provide a content display that is easy for the user to view without performing an operation on the display terminal by showing the user that the display on the display terminal is difficult to see (the action of narrowing his eyes).
Note that the CSS file may be changed according to the presence / absence of an eye accessory instead of the operation of narrowing the eye as in the sixth embodiment described later. Further, as in the fifth embodiment to be described later, the CSS file may be changed in accordance with the number of times the user approaches instead of the operation of narrowing the eyes.

実施の形態5.
本実施の形態では、実施の形態1の派生例として、ユーザー1人の顔の接近に応じてコンテンツの文字サイズを変更する、顔接近追随文字サイズ変更手法について説明する。
Embodiment 5 FIG.
In the present embodiment, as a derivative example of the first embodiment, a face approaching and following character size changing method for changing the character size of content according to the approach of one user's face will be described.

ユーザが表示端末に対して目を近づけている場合、その表示が見難いと考えられ、表示を見やすくするために実施の形態1と同様の課題が生じる。
本実施の形態は上記の課題を解決するものであって、表示端末に付随したカメラからユーザの顔を撮影し、その目の大きさの変化からそのユーザが表示端末に対して目を近づけているかどうかを判断し、近づいているあるいは近づく回数が多い場合は表示が見難いと判断し、文字サイズを自動的に大きくすることが可能である。
When the user keeps his eyes close to the display terminal, it is considered difficult to see the display, and the same problem as in the first embodiment occurs to make the display easy to see.
The present embodiment solves the above-described problem. The user's face is photographed from a camera attached to the display terminal, and the user moves his eyes closer to the display terminal from the change in the size of the eyes. If it is approaching or there are many approaches, it is determined that the display is difficult to see, and the character size can be automatically increased.

図8は、顔画像解析部102によって解析された目の特徴点の計測例で、カメラから得られた、情報端末を見つめるユーザの顔の目と眉の状態で、ディスプレイ装置200に接近している時の特徴点の幅の一例を示す。
このときの目の幅、目の高さ、目と目の間隔、眉の高さをそれぞれ目幅3、目高3、目間隔3、眉高3と呼ぶ。なお、ここでは図4のそれらの値よりも全て値が大きい。
上述のように、ユーザがディスプレイ装置200に接近している状態は、表示データが見難い状態であると考えられる。
FIG. 8 is a measurement example of eye feature points analyzed by the face image analysis unit 102, approaching the display device 200 in the state of eyes and eyebrows of the user's face looking at the information terminal obtained from the camera. An example of the width of the feature point when the
The eye width, eye height, eye-to-eye distance, and eyebrow height at this time are referred to as eye width 3, eye height 3, eye interval 3, and eyebrow height 3, respectively. Here, all the values are larger than those in FIG.
As described above, the state in which the user is approaching the display device 200 is considered to be a state in which display data is difficult to see.

そして、ユーザがディスプレイ装置200に接近しているかどうかの判断についてはカメラ画像が図4から図8へ変化した場合、図10の判断基準に従い、ユーザ状態判断部103は目幅1<目幅3,目高1<目高3,目間隔1<目間隔3,眉高1<眉高3を全て満たしているため、「接近」と判断する。
「接近」と判断された回数が所定回数以上である場合は、スタイル変更部104、コンテンツ解析部105、コンテンツレイアウト部106及びレイアウト情報描画部107は、実施の形態1〜4における「見難い」状態と同様の手順で、表示データの表示形式を視認性が高い表示形式(文字サイズ拡大等)に変更し、視認性の高い表示データをディスプレイ装置200に出力する。
When the camera image changes from FIG. 4 to FIG. 8 as to whether or not the user is approaching the display device 200, the user state determination unit 103 follows the determination criterion of FIG. , Eye height 1 <eye height 3, eye interval 1 <eye interval 3, eyebrow height 1 <eyebrow height 3, all of which are determined to be “approaching”.
When the number of times determined as “approaching” is a predetermined number or more, the style changing unit 104, the content analyzing unit 105, the content layout unit 106, and the layout information drawing unit 107 are “difficult to see” in the first to fourth embodiments. The display format of the display data is changed to a display format with high visibility (such as character size expansion) in the same procedure as the state, and the display data with high visibility is output to the display device 200.

これによって、ユーザの接近回数から現在の表示の見やすさを推測し、表示端末に対する操作を行うことなく、そのユーザにとって見やすい文字サイズの表示を提供することが可能である。   Accordingly, it is possible to estimate the current viewability of the display from the number of times the user approaches, and to provide a display with a character size that is easy for the user to view without performing an operation on the display terminal.

また、上記では、ユーザがディスプレイ装置に顔を接近させている回数が所定回数以上の場合に、視認性の高い表示形式に変更する例を説明したが、ユーザがディスプレイ装置に顔を接近させている時間(接近させ続けている時間)が所定時間以上の場合に視認性の高い表示形式に変更するようにしてもよい。
また、ユーザの顔の接近回数及び接近時間を組み合わせて用いてもよい。
Further, in the above description, the example in which the display format is changed to a highly visible display format when the number of times the user has approached the display device is greater than or equal to the predetermined number has been described. The display format may be changed to a high-visibility display format when the time (the time of being kept approaching) is equal to or longer than a predetermined time.
Moreover, you may use combining the frequency | count of approach of a user's face, and approach time.

実施の形態6.
本実施の形態では、実施の形態1の派生例として、ユーザ1人の顔の目領域に付帯する付帯物(装着物)の有無および形状に応じてコンテンツの文字サイズを変更する、顔付帯物対応文字サイズ変更手法について説明する。
Embodiment 6 FIG.
In the present embodiment, as a derivative example of the first embodiment, a face accessory that changes the character size of the content in accordance with the presence or absence of an accessory (attachment) attached to the eye area of one user's face. The corresponding character size changing method will be described.

図6は、顔画像解析部102によって解析された目の特徴点の計測例で、カメラから得られた、情報端末を見つめるユーザの顔の目と眉の状態で、コンタクトレンズを装着している一例である。
このとき、撮影画像から目の瞳孔の周りに薄く描かれた円を抽出することができる。
FIG. 6 shows an example of eye feature points analyzed by the face image analysis unit 102. The contact lens is worn in the state of eyes and eyebrows of the user's face looking at the information terminal obtained from the camera. It is an example.
At this time, a circle drawn thinly around the pupil of the eye can be extracted from the captured image.

また、図7は、顔画像解析部102によって解析された目の特徴点の計測例で、カメラから得られた、情報端末を見つめるユーザの顔の目と眉の状態で、眼鏡を装着している一例である。
このとき、撮影画像から目の周辺の四角の輪郭を抽出することができる。
FIG. 7 is an example of eye eye feature points analyzed by the face image analysis unit 102. The eyewear and eyebrows of the user's face staring at the information terminal obtained from the camera are worn. This is an example.
At this time, a square outline around the eyes can be extracted from the captured image.

ユーザがコンタクトレンズや眼鏡などを使用している場合、そのユーザの視力が悪いと考えられ、表示を見やすくするために実施の形態1〜5と同様の課題が生じる。
本実施の形態は、上記の課題を解決するものであって、表示端末に付随したカメラからユーザの顔を撮影し、図6や図7のように、目に付帯する眼鏡やコンタクトレンズの有無を抽出する。これらの付帯物が存在する場合、表示が見難いと判断し、文字サイズを自動的に大きくすることが可能である。
When a user uses contact lenses, glasses, or the like, it is considered that the user's visual acuity is poor, and the same problem as in the first to fifth embodiments occurs in order to make the display easy to see.
The present embodiment solves the above-described problem. The user's face is photographed from the camera attached to the display terminal, and the presence or absence of glasses or contact lenses attached to the eyes as shown in FIGS. To extract. If these incidental objects exist, it is determined that the display is difficult to see, and the character size can be automatically increased.

これによって、ユーザの眼鏡の有無などにより、表示端末に対する操作を行うことなく、そのユーザにとって見やすい文字サイズの表示を提供することが可能である。   Thus, it is possible to provide a display with a character size that is easy for the user to view without performing an operation on the display terminal depending on the presence or absence of the user's glasses.

また、例えば、表示変更装置100の記憶領域に、ユーザは通常は眼鏡又はコンタクトレンズを着用していることを記憶しておき、顔画像解析部10が、カメラ300で撮影されたユーザの顔画像を解析した結果、目領域に付帯物がないこと(目の周辺に四角の輪郭がないこと、目の瞳孔の周りに円の輪郭がないこと)を検出した場合に、ユーザは裸眼であると推測されるので、ユーザ状態判断部103はユーザ状態を「見難い」と判断するようにしてもよい。
その後の動作は、実施の形態1〜4と同様であり、スタイル変更部104、コンテンツ解析部105、コンテンツレイアウト部106及びレイアウト情報描画部107が、実施の形態1〜4における「見難い」状態と同様の手順で、表示データの表示形式を視認性が高い表示形式(文字サイズ拡大等)に変更し、視認性の高い表示データをディスプレイ装置200に出力する。
Further, for example, the storage area of the display change device 100 stores that the user normally wears glasses or contact lenses, and the face image analysis unit 10 captures the user's face image captured by the camera 300. As a result of analyzing the above, when it is detected that there are no incidental objects in the eye area (there is no square outline around the eye and no circle outline around the pupil of the eye), the user is assumed to be naked Therefore, the user state determination unit 103 may determine that the user state is “difficult to see”.
The subsequent operations are the same as those in the first to fourth embodiments, and the style changing unit 104, the content analyzing unit 105, the content layout unit 106, and the layout information drawing unit 107 are in the “difficult to see” state in the first to fourth embodiments. The display format of the display data is changed to a display format with high visibility (such as character size expansion) in the same procedure as described above, and the display data with high visibility is output to the display device 200.

実施の形態7.
複数のユーザが同時に表示データを見ることができるプロジェクタでは表示している画面が見にくい場合、手動でレンズの調整を行い、表示されるキャンバスのサイズの調整を行うことが多い。
本実施の形態では、実施の形態1に示した手法を拡張して、複数の顔の目および眉の変化量に応じて、コンテンツの内容を変更することなく表示画面の文字サイズやレイアウトおよび画面サイズを変更する手法について説明する。
本実施の形態では、後述するように、カメラを利用することにより複数の顔画像を収集し、その目の変化について解析する。このとき、目を細めている場合はキャンバスのサイズが小さかった場合と仮定すると、目を細めている顔の数とそうでない数とを比較し、目を細めている顔の数が大きければキャンバスサイズを大きくするようにする。
なお、表示変更装置の内部については実施の形態1と変更はない。以下、実施の形態1との差異について述べる。
Embodiment 7 FIG.
In a projector in which a plurality of users can view display data at the same time, when it is difficult to see the displayed screen, the lens is often manually adjusted to adjust the size of the displayed canvas.
In the present embodiment, the method shown in the first embodiment is extended, and the character size, layout, and screen of the display screen are changed without changing the content according to the amount of change in the eyes and eyebrows of a plurality of faces. A method for changing the size will be described.
In the present embodiment, as will be described later, a plurality of face images are collected by using a camera, and changes in the eyes are analyzed. At this time, assuming that the size of the canvas is small if you are narrowing your eyes, compare the number of faces with narrowed eyes with the number that does not, and if the number of faces with narrowed eyes is large, the canvas Try to increase the size.
The inside of the display change device is not changed from that of the first embodiment. Hereinafter, differences from the first embodiment will be described.

本実施の形態では、顔画像解析部102は一つの画像に写っている複数の顔から目、眉の特徴点を抽出し、その表情を判断するための手段を有する。
図22はある一枚の画像に対して複数の対象となる顔が写っている画像の一例を示す図である。つまり、本実施の形態では、複数人のユーザがディスプレイ装置200(プロジェクタ)に対面しており、複数人のユーザがディスプレイ装置200に表示される表示データを見ている場合を対象にしている。そして、カメラ300は、この複数人のユーザの目領域を含む顔部分を撮影している。
In the present embodiment, the face image analysis unit 102 has means for extracting eye and eyebrow feature points from a plurality of faces shown in one image and judging their facial expressions.
FIG. 22 is a diagram illustrating an example of an image in which a plurality of faces are included in a single image. That is, in the present embodiment, a case where a plurality of users are facing the display device 200 (projector) and a plurality of users are viewing display data displayed on the display device 200 is targeted. And the camera 300 is image | photographing the face part containing the eye area | region of these multiple users.

本実施の形態に係る顔画像取得部101は、図22のような複数のユーザの撮影データを入力する。
本実施の形態に係る顔画像解析部102は、図22のような撮影データにおいて、顔の輪郭からユーザの人数を判断するとともに、複数の顔の目および眉からその特徴点の変化値を算出する。
また、本実施の形態に係るユーザ状態判断部103は、顔ごとの特徴点の変化値に応じて、それぞれの顔に対して「見難い」「通常」「見やすい」の判断を行い、それぞれの数の集計を行う。各ユーザの状態の判断手法は、実施の形態1に示した通りであり、複数のユーザの各人に対して、「見難い」「通常」「見やすい」の判断を行う。
例えば図22を解析し、集計を行った結果、図23(a)のような集計結果が得られる。
このとき、「見難い」状態の顔が3人、「通常」の状態の顔が2人、「寝ている」状態の顔が1人いることを示しており、ユーザ状態判断部103は集計結果が多い「見難い」ことが全体としての表情判断として評価する(図23(b))。
上記の表情判断に従い、フォントサイズやレイアウト変更を行う手段については、実施の形態1〜4と同様である。つまり、スタイル変更部104、コンテンツ解析部105、コンテンツレイアウト部106及びレイアウト情報描画部107が、実施の形態1〜4における「見難い」状態と同様の手順で、表示データの表示形式を視認性が高い表示形式(文字サイズ拡大等)に変更し、視認性の高い表示データをディスプレイ装置200に出力する。
The face image acquisition unit 101 according to the present embodiment inputs imaging data of a plurality of users as shown in FIG.
The face image analysis unit 102 according to the present embodiment determines the number of users from the outline of the face and calculates the change value of the feature point from the eyes and eyebrows of a plurality of faces in the shooting data as shown in FIG. To do.
In addition, the user state determination unit 103 according to the present embodiment determines “difficult to see”, “normal”, and “easy to see” for each face according to the change value of the feature point for each face. Count the numbers. The method for determining the state of each user is as described in the first embodiment, and “difficult to see”, “normal”, and “easy to see” are determined for each of a plurality of users.
For example, as a result of analyzing and totaling FIG. 22, a totaling result as shown in FIG. 23A is obtained.
At this time, it is shown that there are three faces in the “difficult to see” state, two faces in the “normal” state, and one face in the “sleeping” state. “It is difficult to see” with many results is evaluated as a facial expression judgment as a whole (FIG. 23B).
The means for changing the font size and layout in accordance with the facial expression determination is the same as in the first to fourth embodiments. That is, the style changing unit 104, the content analyzing unit 105, the content layout unit 106, and the layout information drawing unit 107 change the display format of the display data in the same manner as in the “difficult to see” state in the first to fourth embodiments. The display format is changed to a display format (such as character size expansion), and display data with high visibility is output to the display device 200.

これによって、複数のユーザの目の変化とその数の解析を行うことにより、ユーザがプロジェクタのレンズを手動で調整することなく、自動的にその場にいる複数ユーザにとって見やすいプロジェクタ画面を提供することが可能である。   In this way, by analyzing the change and number of eyes of multiple users, it is possible to provide a projector screen that is easy to see for multiple users who are present automatically without the user having to manually adjust the lens of the projector. Is possible.

また、上記の説明では、「見難い」状態のユーザが最も多い場合に、表示データの表示形式を視認性の高い形式に変更することとしたが、「見難い」状態のユーザの数が所定の閾値を上回っている場合、また、全ユーザの人数に対する「見難い」状態のユーザの数の比率が所定の閾値を上回っている場合に、表示データの表示形式を視認性の高い形式に変更するようにしてもよい。   In the above description, when the number of users in the “difficult to see” state is the largest, the display format of the display data is changed to a format with high visibility. However, the number of users in the “difficult to see” state is predetermined. The display format of the display data is changed to a highly visible format when the ratio of the number of users in the “difficult to see” state to the total number of users exceeds a predetermined threshold. You may make it do.

また、上記の説明では、ユーザが目を細めているか否かを解析して、各ユーザが「見難い」状態にあるか否かを判断したが、実施の形態5と同様に、各ユーザが顔を接近させているか否かを判断し、顔を接近させているユーザ数が最も多い場合等に、表示データの表示形式を視認性が高い形式に変更するようにしてもよい。
また、ユーザが目を細めている回数、時間、又はユーザが顔を接近させている回数、時間を計測し、計測結果が所定の閾値以上である場合に、表示データの表示形式を視認性が高い形式に変更するようにしてもよい。
In the above description, it is determined whether each user is in a “difficult to see” state by analyzing whether the user narrows his eyes. It may be determined whether or not the face is approaching, and the display format of the display data may be changed to a format with high visibility when the number of users approaching the face is the largest.
In addition, when the number of times the user is narrowing his eyes, the time, or the number of times the user is approaching his face, the time is measured, and the measurement result is equal to or greater than a predetermined threshold, the display format of the display data is You may make it change into a high form.

実施の形態8.
本実施の形態では、実施の形態7から派生する実施例として、複数のユーザの目の変化の割合に応じて電光掲示板における表示物の表示速度(表示物の移動速度)を変更する手法について説明する。
Embodiment 8 FIG.
In the present embodiment, as an example derived from the seventh embodiment, a method for changing the display speed (moving speed of a display object) of a display object on an electronic bulletin board according to the rate of change of eyes of a plurality of users will be described. To do.

駅の構内などにある電光掲示板は限られたスペースで多くの情報を表示するために、ある一定速度で文字列を右から左へスクロール表示する方法が取られている。スクロールの速度はその電光掲示板ごとに決められており、変更するためには電光掲示板装置内のメモリに書き込まれたプログラムを修正する、あるいはハードスイッチを切り替える必要があった。
本実施の形態では、カメラを利用することにより複数の顔画像を収集し、その目の変化について解析する。このとき、目の瞳孔や顔面の左右の動作について、その複数のユーザの左右動作を解析し、その移動量ごとにユーザ数を解析しスタイル変更テーブルとして利用する。このとき、これにより移動量に応じてスタイルを変更し表示に反映する。
また、目を細めている人数が多ければ、表示速度が速すぎると判断して表示速度を遅くするようにしてもよい。
In order to display a large amount of information in a limited space, an electric bulletin board on the premises of a station is used to scroll a character string from right to left at a certain speed. The scrolling speed is determined for each electronic bulletin board. To change the scrolling speed, it is necessary to modify the program written in the memory in the electronic bulletin board apparatus or switch the hard switch.
In the present embodiment, a plurality of face images are collected by using a camera, and changes in the eyes are analyzed. At this time, the left and right movements of the plurality of users are analyzed for the left and right movements of the pupil of the eye and the face, and the number of users is analyzed for each movement amount and used as a style change table. At this time, this changes the style according to the amount of movement and reflects it in the display.
Also, if there are many people who are narrowing their eyes, it may be determined that the display speed is too fast and the display speed may be slowed down.

これによって、複数のユーザの目の変化とその数の解析を行うことにより、ユーザが電光掲示板のプログラムを手動で変更することなく、その設置された場所とその周囲の人々の顔の表情を解析することによりプロジェクタのレンズを手動で調整することなく、自動的にその場にいる複数ユーザにとって見やすいプロジェクタ画面を提供することが可能である。   As a result, by analyzing the changes and number of eyes of multiple users, users can analyze the facial expressions of the places where they are installed and the surrounding people without manually changing the program on the electronic bulletin board. By doing so, it is possible to automatically provide a projector screen that is easy to see for a plurality of users who are present, without manually adjusting the lens of the projector.

以上、実施の形態1〜8では、顔面の特徴点として目と眉の特徴点のみを利用し、その変化量に応じて、対象となる画面の文字サイズやレイアウトを変更することで対象ユーザに適した表示効果を与える手法について説明した。
また、顔面の特徴点として目と眉、目周辺の付帯物の有無(コンタクトレンズ、眼鏡など)を利用することについても説明した。
更に、目と眉の特徴点の変化として下記を利用することを説明した。
(ア)目の一部の大きさの変化(目を細めているかどうか)
(イ)目の付帯物の有無(眼鏡の有無、コンタクトレンズの有無)
(ウ)目、眉全体の大きさの変化(接近しているかどうか)
また、ユーザに有効な表示効果として、下記のような表示効果を用いることを説明した。
(ア)文字サイズの大きさの変更
(イ)コンテンツの要素の変更
(ウ)スタイルシート(CSSなど)の変更
(エ)表示速度の変更
(オ)表示画面サイズの変更
As described above, in Embodiments 1 to 8, only the feature points of the eyes and the eyebrows are used as the feature points of the face, and the target user can be changed by changing the character size and layout of the target screen according to the amount of change. A method for providing a suitable display effect has been described.
In addition, the use of eyes and eyebrows and the presence or absence of an accessory around the eyes (contact lenses, glasses, etc.) as facial feature points has been described.
Furthermore, it explained that the following was used as a change of the feature point of eyes and eyebrows.
(A) Change in size of part of eyes (whether eyes are narrowed)
(A) Presence or absence of eye accessories (presence of eyeglasses, presence of contact lenses)
(C) Changes in the size of the eyes and eyebrows (whether they are approaching)
Moreover, it demonstrated using the following display effects as a display effect effective for a user.
(A) Change of character size (b) Change of content element (c) Change of style sheet (CSS etc.) (d) Change of display speed (e) Change of display screen size

最後に、実施の形態1〜8に示した表示変更装置100のハードウェア構成例について説明する。
図24は、実施の形態1〜8に示す表示変更装置100のハードウェア資源の一例を示す図である。
なお、図24の構成は、あくまでも表示変更装置100のハードウェア構成の一例を示すものであり、表示変更装置100のハードウェア構成は図24に記載の構成に限らず、他の構成であってもよい。
Finally, a hardware configuration example of the display change device 100 shown in the first to eighth embodiments will be described.
FIG. 24 is a diagram illustrating an example of hardware resources of the display change device 100 described in the first to eighth embodiments.
Note that the configuration in FIG. 24 is merely an example of the hardware configuration of the display change device 100, and the hardware configuration of the display change device 100 is not limited to the configuration described in FIG. Also good.

図24において、表示変更装置100は、プログラムを実行するCPU911(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。
CPU911は、バス912を介して、例えば、ROM(Read Only Memory)913、RAM(Random Access Memory)914、通信ボード915、ディスプレイ装置200、キーボード902、マウス903、磁気ディスク装置920、カメラ300と接続され、これらのハードウェアデバイスを制御する。
更に、CPU911は、FDD904(Flexible Disk Drive)、コンパクトディスク装置905(CDD)、プリンタ装置906、スキャナ装置907と接続していてもよい。また、磁気ディスク装置920の代わりに、光ディスク装置、メモリカード(登録商標)読み書き装置などの記憶装置でもよい。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶装置の一例である。
通信ボード915、キーボード902、マウス903、カメラ300、スキャナ装置907、FDD904などは、入力装置の一例である。
また、通信ボード915、ディスプレイ装置200、プリンタ装置906などは、出力装置の一例である。
In FIG. 24, the display change device 100 includes a CPU 911 (also referred to as a central processing unit, a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, and a processor) that executes a program.
The CPU 911 is connected to, for example, a ROM (Read Only Memory) 913, a RAM (Random Access Memory) 914, a communication board 915, a display device 200, a keyboard 902, a mouse 903, a magnetic disk device 920, and a camera 300 via a bus 912. And control these hardware devices.
Further, the CPU 911 may be connected to an FDD 904 (Flexible Disk Drive), a compact disk device 905 (CDD), a printer device 906, and a scanner device 907. Further, instead of the magnetic disk device 920, a storage device such as an optical disk device or a memory card (registered trademark) read / write device may be used.
The RAM 914 is an example of a volatile memory. The storage media of the ROM 913, the FDD 904, the CDD 905, and the magnetic disk device 920 are an example of a nonvolatile memory. These are examples of the storage device.
A communication board 915, a keyboard 902, a mouse 903, a camera 300, a scanner device 907, an FDD 904, and the like are examples of input devices.
The communication board 915, the display device 200, the printer device 906, and the like are examples of output devices.

例えば、通信ボード915は、LAN(ローカルエリアネットワーク)、インターネット、WAN(ワイドエリアネットワーク)などに接続されていてもよい。   For example, the communication board 915 may be connected to a LAN (local area network), the Internet, a WAN (wide area network), or the like.

磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。
プログラム群923のプログラムは、CPU911がオペレーティングシステム921、ウィンドウシステム922を利用しながら実行する。
The magnetic disk device 920 stores an operating system 921 (OS), a window system 922, a program group 923, and a file group 924.
The programs in the program group 923 are executed by the CPU 911 using the operating system 921 and the window system 922.

また、RAM914には、CPU911に実行させるオペレーティングシステム921のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。
また、RAM914には、CPU911による処理に必要な各種データが格納される。
The RAM 914 temporarily stores at least part of the operating system 921 program and application programs to be executed by the CPU 911.
The RAM 914 stores various data necessary for processing by the CPU 911.

また、ROM913には、BIOS(Basic Input Output System)プログラムが格納され、磁気ディスク装置920にはブートプログラムが格納されている。
表示変更装置100の起動時には、ROM913のBIOSプログラム及び磁気ディスク装置920のブートプログラムが実行され、BIOSプログラム及びブートプログラムによりオペレーティングシステム921が起動される。
The ROM 913 stores a BIOS (Basic Input Output System) program, and the magnetic disk device 920 stores a boot program.
When the display change device 100 is activated, the BIOS program in the ROM 913 and the boot program in the magnetic disk device 920 are executed, and the operating system 921 is activated by the BIOS program and the boot program.

上記プログラム群923には、実施の形態1〜8の説明において「〜部」として説明している機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。   The program group 923 stores a program for executing the function described as “˜unit” in the description of the first to eighth embodiments. The program is read and executed by the CPU 911.

ファイル群924には、実施の形態1〜8の説明において、「〜の判断」、「〜の計算」、「〜の算出」、「〜の比較」、「〜の解析」、「〜の抽出」、「〜の更新」、「〜の設定」、「〜の登録」、「〜の選択」等として説明している処理の結果を示す情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示などのCPUの動作に用いられる。
抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリ、レジスタ、キャッシュメモリ、バッファメモリ等に一時的に記憶される。
また、実施の形態1〜8で説明しているフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD等の記録媒体に記録される。また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the file group 924, in the description of the first to eighth embodiments, “determination of”, “calculation of”, “calculation of”, “comparison of”, “analysis of”, “extraction of” ”,“ Update of ”,“ setting of ”,“ registration of ”,“ selection of ”, etc. It is stored as each item of "~ file" and "~ database".
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, editing, output, printing, and display.
Information, data, signal values, variable values, and parameters are stored in the main memory, registers, cache memory, and buffers during the CPU operations of extraction, search, reference, comparison, calculation, processing, editing, output, printing, and display. It is temporarily stored in a memory or the like.
The arrows in the flowcharts described in the first to eighth embodiments mainly indicate input / output of data and signals. The data and signal values are the RAM 914 memory, the FDD 904 flexible disk, the CDD 905 compact disk, and the magnetic field. Recording is performed on a recording medium such as a magnetic disk of the disk device 920, other optical disks, mini disks, DVDs, and the like. Data and signals are transmitted online via a bus 912, signal lines, cables, or other transmission media.

また、実施の形態1〜8の説明において「〜部」として説明しているものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明しているものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、実施の形態1〜8の「〜部」としてコンピュータを機能させるものである。あるいは、実施の形態1〜8の「〜部」の手順や方法をコンピュータに実行させるものである。   In addition, what is described as “to part” in the description of the first to eighth embodiments may be “to circuit”, “to device”, “to device”, and “to step”, It may be “˜procedure” or “˜processing”. That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, only hardware such as elements, devices, substrates, wirings, etc., or a combination of software and hardware, and further a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part” in the first to eighth embodiments. Alternatively, the computer executes the procedure and method of “to unit” in the first to eighth embodiments.

このように、実施の形態1〜8に示す表示変更装置100は、処理装置たるCPU、記憶装置たるメモリ、磁気ディスク等、入力装置たるキーボード、マウス、通信ボード等、出力装置たる表示装置、通信ボード等を備えるコンピュータであり、上記したように「〜部」として示された機能をこれら処理装置、記憶装置、入力装置、出力装置を用いて実現するものである。   As described above, the display change device 100 according to the first to eighth embodiments includes a CPU as a processing device, a memory as a storage device, a magnetic disk, a keyboard as an input device, a mouse, a communication board, and a display device as an output device, a communication device, and the like. A computer including a board or the like, and implements the functions indicated as “to part” as described above using these processing devices, storage devices, input devices, and output devices.

実施の形態1に係るシステム構成例を示す図。FIG. 3 is a diagram illustrating an example of a system configuration according to the first embodiment. 実施の形態1に係る表示変更装置の構成例を示す図。FIG. 3 shows a configuration example of a display change device according to the first embodiment. 実施の形態1に係る顔画像取得部によって取得される顔画像の一例を示す図。FIG. 4 is a diagram illustrating an example of a face image acquired by a face image acquisition unit according to the first embodiment. 実施の形態1に係る顔画像解析部によって解析された目の特徴点の計測例を示す図。FIG. 6 is a diagram illustrating an example of measuring eye feature points analyzed by a face image analysis unit according to the first embodiment; 実施の形態1に係る顔画像解析部によって解析された目の特徴点の計測例を示す図。FIG. 6 is a diagram illustrating an example of measuring eye feature points analyzed by a face image analysis unit according to the first embodiment; 実施の形態6に係る顔画像解析部によって解析された目の特徴点の計測例を示す図。FIG. 10 is a diagram illustrating an example of measuring eye feature points analyzed by a face image analysis unit according to Embodiment 6; 実施の形態6に係る顔画像解析部によって解析された目の特徴点の計測例を示す図。FIG. 10 is a diagram illustrating an example of measuring eye feature points analyzed by a face image analysis unit according to Embodiment 6; 実施の形態5に係る顔画像解析部によって解析された目の特徴点の計測例を示す図。FIG. 10 is a diagram illustrating a measurement example of feature points of eyes analyzed by a face image analysis unit according to the fifth embodiment. 実施の形態1に係る顔画像から抽出した目幅、目高、目間隔、眉高のピクセル幅の集計結果の一例を示す図。The figure which shows an example of the total result of the pixel width of the eye width extracted from the face image which concerns on Embodiment 1, eye height, eye space | interval, and eyebrow height. 実施の形態1に係る特徴点変化幅の条件とそれに対応する状態との関係を示す、ユーザ状態判断テーブルの一例を示す図。The figure which shows an example of the user state judgment table which shows the relationship between the condition of the feature point change width which concerns on Embodiment 1, and the state corresponding to it. 実施の形態1に係るユーザ状態判断部によって解析されたユーザの現在の状態値を格納したユーザ状態情報の一例を示す図。The figure which shows an example of the user state information which stored the user's present state value analyzed by the user state judgment part which concerns on Embodiment 1. FIG. 実施の形態1、2に係るスタイル変更テーブルの例を示す図。The figure which shows the example of the style change table which concerns on Embodiment 1,2. 実施の形態1、3に係るスタイル変更テーブルの例を示す図。FIG. 6 shows an example of a style change table according to Embodiments 1 and 3. 実施の形態4に係るスタイル変更テーブルの例を示す図。FIG. 10 shows an example of a style change table according to the fourth embodiment. 実施の形態1に係るコンテンツ記述の例を示す図。FIG. 6 is a diagram showing an example of content description according to the first embodiment. 実施の形態1に係るコンテンツ解析結果情報の例を示す図。FIG. 6 is a diagram showing an example of content analysis result information according to the first embodiment. 実施の形態1に係るレイアウト情報の例を示す図。FIG. 5 is a diagram showing an example of layout information according to the first embodiment. 実施の形態1に係るユーザ状態が「通常」の場合のディスプレイ装置の表示例を示す図。FIG. 6 is a diagram showing a display example of the display device when the user state according to Embodiment 1 is “normal”. 実施の形態1,2に係るユーザ状態が「見難い」場合のディスプレイ装置の表示例を示す図。The figure which shows the example of a display of a display apparatus when the user state which concerns on Embodiment 1, 2 is "it is hard to see." 実施の形態1,3に係るユーザ状態が「見難い」場合のディスプレイ装置の表示例を示す図。The figure which shows the example of a display of a display apparatus when the user state which concerns on Embodiment 1, 3 is "it is hard to see." 実施の形態1に係る表示変更装置の動作例を示すフローチャート図。FIG. 3 is a flowchart showing an operation example of the display change device according to the first embodiment. 実施の形態7に係る複数の顔画像の一例を示す図。FIG. 18 shows an example of a plurality of face images according to the seventh embodiment. 実施の形態7に係るユーザ状態の解析結果の例を示す図。FIG. 18 shows an example of a user state analysis result according to the seventh embodiment. 実施の形態1〜8に係る表示変更装置のハードウェア構成例を示す図。The figure which shows the hardware structural example of the display change apparatus which concerns on Embodiment 1-8.

符号の説明Explanation of symbols

100 表示変更装置、101 顔画像取得部、102 顔画像解析部、103 ユーザ状態判断部、104 スタイル変更部、105 コンテンツ解析部、106 コンテンツレイアウト部、107 レイアウト情報描画部、111 画像格納領域、112 顔画像解析結果格納領域、113 ユーザ状態判断テーブル格納領域、114 ユーザ状態情報格納領域、115 スタイル変更テーブル格納領域、116 コンテンツ格納領域、117 コンテンツ解析結果格納領域、118 レイアウト情報格納領域、200 ディスプレイ装置、300 カメラ、400 顔画像A、500 顔画像B、600 対応レイアウト表示A、700 対応レイアウト表示B。   DESCRIPTION OF SYMBOLS 100 Display change apparatus, 101 Face image acquisition part, 102 Face image analysis part, 103 User state determination part, 104 Style change part, 105 Content analysis part, 106 Content layout part, 107 Layout information drawing part, 111 Image storage area, 112 Face image analysis result storage area, 113 User state determination table storage area, 114 User state information storage area, 115 Style change table storage area, 116 Content storage area, 117 Content analysis result storage area, 118 Layout information storage area, 200 Display device , 300 camera, 400 face image A, 500 face image B, 600 corresponding layout display A, 700 corresponding layout display B.

Claims (19)

表示データを表示する表示装置と、前記表示装置に対面している利用者の顔を撮影する撮影装置とに接続されたデータ処理装置であって、
前記撮影装置により撮影された、前記利用者の目領域の画像データが含まれる前記利用者の顔画像データを入力する顔画像入力部と、
前記顔画像データのうち前記利用者の目領域の画像データを解析する顔画像解析部と、
前記顔画像解析部の解析結果に基づき、前記表示装置に表示する表示データの表示形式を決定する表示形式決定部と、
前記表示形式決定部により決定された表示形式に合わせて表示データを生成し、生成した表示データを前記表示装置に出力する表示データ生成部とを有することを特徴とするデータ処理装置。
A data processing device connected to a display device for displaying display data and a photographing device for photographing a user's face facing the display device,
A face image input unit for inputting the face image data of the user, which includes image data of the eye area of the user, which is imaged by the imaging device;
A face image analysis unit that analyzes image data of the user's eye area of the face image data;
A display format determination unit that determines a display format of display data to be displayed on the display device based on an analysis result of the face image analysis unit;
A data processing apparatus, comprising: a display data generation unit that generates display data in accordance with the display format determined by the display format determination unit and outputs the generated display data to the display device.
前記表示形式決定部は、
前記表示データの表示形式として、それぞれが異なる視認性に対応する複数種類の表示形式を管理しており、前記顔画像解析部の解析結果に基づき、いずれかの表示形式を選択することを特徴とする請求項1に記載のデータ処理装置。
The display format determination unit
As the display format of the display data, a plurality of types of display formats corresponding to different visibility are managed, and one of the display formats is selected based on the analysis result of the face image analysis unit, The data processing apparatus according to claim 1.
前記顔画像解析部は、
前記利用者の目領域の画像データを解析して、前記利用者が目を細めている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、少なくとも、通常レベルの視認性に対応する表示形式と、通常レベルよりも高い視認性に対応する表示形式とを管理しており、前記顔画像解析部により前記利用者が目を細めている状態であると判断された場合に、通常レベルよりも高い視認性に対応する表示形式を選択することを特徴とする請求項2に記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the user's eye area to determine whether the user is in a state of narrowing his eyes,
The display format determination unit
As the display format of the display data, at least a display format corresponding to a normal level visibility and a display format corresponding to a higher visibility than the normal level are managed, and the user is controlled by the face image analysis unit. The data processing apparatus according to claim 2, wherein a display format corresponding to a visibility higher than a normal level is selected when it is determined that is in a state where the eye is narrowed.
前記顔画像解析部は、
前記利用者の目領域の画像データを解析して、前記利用者が目を細めている状態であるか否かを判断し、
前記表示形式決定部は、
いずれかの表示形式に合わせて生成された表示データが前記表示装置に表示されている場合に、前記顔画像解析部により前記利用者が目を細めている状態であると判断された場合に、前記表示装置に表示されている表示データの表示形式よりも高い視認性に対応する表示形式を選択することを特徴とする請求項2又は3に記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the user's eye area to determine whether the user is in a state of narrowing his eyes,
The display format determination unit
When display data generated in accordance with any display format is displayed on the display device, when the face image analysis unit determines that the user is in a state of narrowing his eyes, The data processing device according to claim 2 or 3, wherein a display format corresponding to a higher visibility than a display format of display data displayed on the display device is selected.
前記顔画像解析部は、
前記利用者の目領域の画像データにおいて前記利用者の目の幅と目の高さとの比率を解析して、前記利用者が目を細めている状態であるか否かを判断することを特徴とする請求項3又は4に記載のデータ処理装置。
The face image analysis unit
Analyzing the ratio between the user's eye width and eye height in the image data of the user's eye area to determine whether or not the user is in a state of narrowing his eyes. The data processing apparatus according to claim 3 or 4.
前記表示形式決定部は、
前記顔画像解析部により前記利用者が目を細めている状態であると判断された回数及び前記顔画像解析部により前記利用者が目を細めている状態であると判断された時間の少なくともいずれかを計測し、計測結果が所定の閾値を超えた際に、高い視認性に対応する表示形式を選択することを特徴とする請求項3〜5のいずれかに記載のデータ処理装置。
The display format determination unit
At least one of the number of times that the face image analysis unit determines that the user is in a state of narrowing his eyes and the time when the face image analysis unit determines that the user is in a state of narrowing his eyes The data processing apparatus according to claim 3, wherein a display format corresponding to high visibility is selected when the measurement result exceeds a predetermined threshold value.
前記顔画像解析部は、
前記利用者の目領域の画像データを解析して、前記利用者が前記表示装置に顔を接近させている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、少なくとも、通常レベルの視認性に対応する表示形式と、通常レベルよりも高い視認性に対応する表示形式とを管理しており、前記顔画像解析部により前記利用者が前記表示装置に顔を接近させている状態であると判断された場合に、通常レベルよりも高い視認性に対応する表示形式を選択することを特徴とする請求項2〜6のいずれかに記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the user's eye area to determine whether the user is in a state of approaching the display device,
The display format determination unit
As the display format of the display data, at least a display format corresponding to a normal level visibility and a display format corresponding to a higher visibility than the normal level are managed, and the user is controlled by the face image analysis unit. The display format corresponding to the visibility higher than the normal level is selected when it is determined that the face is close to the display device. The data processing apparatus described.
前記顔画像解析部は、
前記利用者の目領域の画像データを解析して、前記利用者が前記表示装置に顔を接近させている状態であるか否かを判断し、
前記表示形式決定部は、
いずれかの表示形式に合わせて生成された表示データが前記表示装置に表示されている場合に、前記顔画像解析部により前記利用者が前記表示装置に顔を接近させている状態であると判断された場合に、前記表示装置に表示されている表示データの表示形式よりも高い視認性に対応する表示形式を選択することを特徴とする請求項2〜7のいずれかに記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the user's eye area to determine whether the user is in a state of approaching the display device,
The display format determination unit
When the display data generated in accordance with any display format is displayed on the display device, the face image analysis unit determines that the user is approaching the display device. 8. A data processing apparatus according to claim 2, wherein a display format corresponding to a higher visibility than a display format of display data displayed on the display device is selected when the display data is displayed. .
前記顔画像解析部は、
前記利用者の目領域の画像データにおいて前記利用者の目のサイズを解析して、前記利用者が前記表示装置に顔を接近させている状態であるか否かを判断することを特徴とする請求項7又は8に記載のデータ処理装置。
The face image analysis unit
Analyzing the size of the user's eyes in the image data of the user's eye area to determine whether or not the user is in a state of approaching the display device; The data processing apparatus according to claim 7 or 8.
前記表示形式決定部は、
前記顔画像解析部により前記利用者が前記表示装置に顔を接近させている状態であると判断された回数及び前記顔画像解析部により前記利用者が前記表示装置に顔を接近させている状態であると判断された時間の少なくともいずれかを計測し、計測結果が所定の閾値を超えた際に、高い視認性に対応する表示形式を選択することを特徴とする請求項7〜9のいずれかに記載のデータ処理装置。
The display format determination unit
The number of times that the user has determined that the face is approaching the display device by the face image analysis unit and the state in which the user is approaching the display device by the face image analysis unit 10. The method according to claim 7, wherein at least one of the times determined to be measured is measured, and when the measurement result exceeds a predetermined threshold, a display format corresponding to high visibility is selected. A data processing device according to any one of the above.
前記顔画像解析部は、
前記利用者の目領域の画像データを解析して、前記利用者の目領域に装着物が存在するか否かを判断し、
前記表示形式決定部は、
前記顔画像解析部により解析された前記利用者の目領域での装着物の有無に基づき、表示データの表示形式を決定することを特徴とする請求項1〜10のいずれかに記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the user's eye area to determine whether there is an attachment in the user's eye area,
The display format determination unit
The data processing according to any one of claims 1 to 10, wherein a display format of display data is determined based on the presence or absence of an attachment in the user's eye area analyzed by the face image analysis unit. apparatus.
前記顔画像入力部は、
前記撮影装置により撮影された、複数の利用者の目領域の画像データが含まれる前記複数の利用者の顔画像データを入力し、
前記顔画像解析部は、
利用者ごとに顔画像データのうちの目領域の画像データを解析し、
前記表示形式決定部は、
前記顔画像解析部の利用者ごとの解析結果に基づき、前記表示装置に表示する表示データの表示形式を決定することを特徴とする請求項1〜11のいずれかに記載のデータ処理装置。
The face image input unit
The face image data of the plurality of users including the image data of the eye areas of the plurality of users photographed by the photographing device is input,
The face image analysis unit
Analyze the eye area image data of the face image data for each user,
The display format determination unit
The data processing apparatus according to claim 1, wherein a display format of display data to be displayed on the display device is determined based on an analysis result for each user of the face image analysis unit.
前記顔画像解析部は、
利用者ごとに目領域の画像データを解析して、利用者ごとに目を細めている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、視認性の異なる複数種類の表示形式を管理しており、少なくとも、通常レベルの視認性に対応する表示形式と、通常レベルよりも高い視認性に対応する表示形式とを管理しており、前記顔画像解析部により目を細めている状態であると判断された利用者が閾値よりも多い場合に、通常レベルよりも高い視認性に対応する表示形式を選択することを特徴とする請求項12に記載のデータ処理装置。
The face image analysis unit
Analyze the image data of the eye area for each user, determine whether each user has a narrowed eye,
The display format determination unit
As the display format of the display data, a plurality of types of display formats having different visibility are managed, and at least a display format corresponding to a normal level visibility and a display format corresponding to a higher visibility than the normal level When the number of users determined to be in a state of narrowing eyes by the face image analysis unit is greater than a threshold value, a display format corresponding to visibility higher than the normal level is selected. The data processing apparatus according to claim 12.
前記顔画像解析部は、
利用者ごとに目領域の画像データを解析して、利用者ごとに目を細めている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、視認性の異なる複数種類の表示形式を管理しており、いずれかの表示形式に合わせて生成された表示データが前記表示装置に表示されている場合に、前記顔画像解析部により目を細めている状態であると判断された利用者が閾値よりも多い場合に、前記表示装置に表示されている表示データの表示形式よりも高い視認性に対応する表示形式を選択することを特徴とする請求項12又は13に記載のデータ処理装置。
The face image analysis unit
Analyze the image data of the eye area for each user, determine whether each user has a narrowed eye,
The display format determination unit
As the display format of the display data, a plurality of types of display formats having different visibility are managed, and the display data generated in accordance with any display format is displayed on the display device, the face A display format corresponding to a higher visibility than the display format of the display data displayed on the display device when the number of users determined to be narrowed by the image analysis unit is greater than the threshold. 14. The data processing apparatus according to claim 12, wherein the data processing apparatus is selected.
前記顔画像解析部は、
利用者ごとに目領域の画像データを解析して、利用者ごとに利用者が前記表示装置に顔を接近させている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、視認性の異なる複数種類の表示形式を管理しており、少なくとも、通常レベルの視認性に対応する表示形式と、通常レベルよりも高い視認性に対応する表示形式とを管理しており、前記顔画像解析部により前記表示装置に顔を接近させている状態であると判断された利用者が閾値よりも多い場合に、通常レベルよりも高い視認性に対応する表示形式を選択することを特徴とする請求項12〜14のいずれかに記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the eye area for each user, determining whether the user is in a state of approaching the face to the display device for each user,
The display format determination unit
As the display format of the display data, a plurality of types of display formats having different visibility are managed, and at least a display format corresponding to a normal level visibility and a display format corresponding to a higher visibility than the normal level And the display corresponding to the visibility higher than the normal level when there are more users than the threshold that the face image analysis unit determines that the face is approaching the display device. The data processing apparatus according to claim 12, wherein a format is selected.
前記顔画像解析部は、
利用者ごとに目領域の画像データを解析して、利用者ごとに利用者が前記表示装置に顔を接近させている状態であるか否かを判断し、
前記表示形式決定部は、
前記表示データの表示形式として、視認性の異なる複数種類の表示形式を管理しており、いずれかの表示形式に合わせて生成された表示データが前記表示装置に表示されている場合に、前記顔画像解析部により前記表示装置に顔を接近させている状態であると判断された利用者が閾値よりも多い場合に、前記表示装置に表示されている表示データの表示形式よりも高い視認性に対応する表示形式を選択することを特徴とする請求項12〜15のいずれかに記載のデータ処理装置。
The face image analysis unit
Analyzing the image data of the eye area for each user, determining whether the user is in a state of approaching the face to the display device for each user,
The display format determination unit
As the display format of the display data, a plurality of types of display formats having different visibility are managed, and the display data generated in accordance with any display format is displayed on the display device, the face When the number of users determined by the image analysis unit to have their faces approaching the display device is greater than a threshold value, the visibility is higher than the display format of the display data displayed on the display device 16. The data processing apparatus according to claim 12, wherein a corresponding display format is selected.
前記表示形式決定部は、
前記表示データの表示形式として、前記表示データにおいて表示される表示物のサイズ、前記表示物の種類、前記表示物の数、及び前記表示データの表示サイズの少なくともいずれかを決定することを特徴とする請求項1〜16のいずれかに記載のデータ処理装置。
The display format determination unit
The display format of the display data is determined by at least one of a size of a display object displayed in the display data, a type of the display object, a number of the display objects, and a display size of the display data. Item 17. The data processing device according to any one of Items 1 to 16.
前記表示形式決定部は、
前記表示データにおいて表示される表示物が移動する場合に、前記表示データの表示形式として、前記表示物の移動速度を決定することを特徴とする請求項1〜17のいずれかに記載のデータ処理装置。
The display format determination unit
The data processing according to any one of claims 1 to 17, wherein when a display object displayed in the display data moves, a moving speed of the display object is determined as a display format of the display data. apparatus.
表示データを表示する表示装置と、前記表示装置に対面している利用者の顔を撮影する撮影装置とに接続されたコンピュータに、
前記撮影装置により撮影された、前記利用者の目領域の画像データが含まれる前記利用者の顔画像データを入力する顔画像入力処理と、
前記顔画像データのうち前記利用者の目領域の画像データを解析する顔画像解析処理と、
前記顔画像解析処理における解析結果に基づき、前記表示装置に表示する表示データの表示形式を決定する表示形式決定処理と、
前記表示形式決定処理により決定された表示形式に合わせて表示データを生成し、生成した表示データを前記表示装置に出力する表示データ生成処理とを実行させることを特徴とするプログラム。
A computer connected to a display device for displaying display data and a photographing device for photographing a user's face facing the display device;
A face image input process for inputting the user's face image data, which includes image data of the user's eye area, imaged by the imaging device;
A face image analysis process for analyzing image data of the user's eye area of the face image data;
A display format determination process for determining a display format of display data to be displayed on the display device based on an analysis result in the face image analysis process;
A program for generating display data in accordance with the display format determined by the display format determination processing and executing display data generation processing for outputting the generated display data to the display device.
JP2008145426A 2008-06-03 2008-06-03 Data processor and program Pending JP2009294740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008145426A JP2009294740A (en) 2008-06-03 2008-06-03 Data processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008145426A JP2009294740A (en) 2008-06-03 2008-06-03 Data processor and program

Publications (1)

Publication Number Publication Date
JP2009294740A true JP2009294740A (en) 2009-12-17

Family

ID=41542913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008145426A Pending JP2009294740A (en) 2008-06-03 2008-06-03 Data processor and program

Country Status (1)

Country Link
JP (1) JP2009294740A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203925A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Image processing device, image processing method, and program
JP2011215895A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Device and method for evaluating content
JP2012099009A (en) * 2010-11-04 2012-05-24 Sharp Corp Portable terminal device and display method
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
CN102854979A (en) * 2011-06-13 2013-01-02 索尼公司 Information processing apparatus and program
JP2013171440A (en) * 2012-02-21 2013-09-02 Kyocera Corp Portable terminal
JP2013196163A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Information processor and enlargement display method of image
JP2014529385A (en) * 2011-07-01 2014-11-06 インテル コーポレイション Image processing system and image processing apparatus
JP2015228700A (en) * 2015-09-01 2015-12-17 株式会社ニコン camera
JP2016071835A (en) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 Display control method for three-dimensional holographic virtual object based on eye tracking
WO2016174945A1 (en) * 2015-04-30 2016-11-03 シナノケンシ株式会社 Playback display device for digital content for learning
JP2017181683A (en) * 2016-03-29 2017-10-05 日本電気株式会社 Display processing device, display processing method, and program
JP2018022442A (en) * 2016-08-05 2018-02-08 株式会社コーエーテクモゲームス Presentation processing program and information processing apparatus
US10178258B2 (en) 2016-09-27 2019-01-08 Fuji Xerox Co., Ltd. Image display apparatus, image forming apparatus, and non-transitory computer readable medium with distance-based image adjustment
JPWO2018047433A1 (en) * 2016-09-08 2019-06-24 ソニー株式会社 Information processing device

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203925A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Image processing device, image processing method, and program
JP2011215895A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Device and method for evaluating content
JP2012099009A (en) * 2010-11-04 2012-05-24 Sharp Corp Portable terminal device and display method
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
US9182816B2 (en) 2011-06-13 2015-11-10 Sony Corporation Information processing apparatus and program
JP2013003647A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing apparatus and program
US9933850B2 (en) 2011-06-13 2018-04-03 Sony Corporation Information processing apparatus and program
CN102854979A (en) * 2011-06-13 2013-01-02 索尼公司 Information processing apparatus and program
JP2014529385A (en) * 2011-07-01 2014-11-06 インテル コーポレイション Image processing system and image processing apparatus
JP2013171440A (en) * 2012-02-21 2013-09-02 Kyocera Corp Portable terminal
JP2013196163A (en) * 2012-03-16 2013-09-30 Ntt Docomo Inc Information processor and enlargement display method of image
JP2016071835A (en) * 2014-09-30 2016-05-09 深▲せん▼市億思達科技集団有限公司 Display control method for three-dimensional holographic virtual object based on eye tracking
WO2016174945A1 (en) * 2015-04-30 2016-11-03 シナノケンシ株式会社 Playback display device for digital content for learning
JP2016212167A (en) * 2015-04-30 2016-12-15 シナノケンシ株式会社 Device for reproducing/displaying digital content for learning
JP2015228700A (en) * 2015-09-01 2015-12-17 株式会社ニコン camera
JP2017181683A (en) * 2016-03-29 2017-10-05 日本電気株式会社 Display processing device, display processing method, and program
JP2018022442A (en) * 2016-08-05 2018-02-08 株式会社コーエーテクモゲームス Presentation processing program and information processing apparatus
JP7016211B2 (en) 2016-08-05 2022-02-04 株式会社コーエーテクモゲームス Production processing program and information processing equipment
JPWO2018047433A1 (en) * 2016-09-08 2019-06-24 ソニー株式会社 Information processing device
JP7074343B2 (en) 2016-09-08 2022-05-24 ソニーグループ株式会社 Information processing equipment
US10178258B2 (en) 2016-09-27 2019-01-08 Fuji Xerox Co., Ltd. Image display apparatus, image forming apparatus, and non-transitory computer readable medium with distance-based image adjustment
US10419631B2 (en) 2016-09-27 2019-09-17 Fuji Xerox Co., Ltd. Image display apparatus, image forming apparatus, and non-transitory computer readable medium with distance-based return process

Similar Documents

Publication Publication Date Title
JP2009294740A (en) Data processor and program
CN107430629B (en) Prioritized display of visual content in a computer presentation
US7908547B2 (en) Album creating apparatus, album creating method and program
TW544637B (en) Computer system providing hands free user input via optical means for navigation or zooming
CN105009034B (en) Information processing equipment, information processing method and program
Toyama et al. A mixed reality head-mounted text translation system using eye gaze input
JP2006023953A (en) Information display system
CN109643212A (en) 3D document editing system
US20070097234A1 (en) Apparatus, method and program for providing information
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
US11463618B2 (en) Apparatus for providing information and method of providing information, and non-transitory storage medium
JP7278766B2 (en) Image processing device, image processing method and program
JP2006236013A (en) Environmental information exhibition device, environmental information exhibition method and program for the method
JP2019200715A (en) Image processing apparatus, image processing method, and program
JP5602708B2 (en) Gaze position estimation system, gaze position estimation system control method, gaze position estimation apparatus, gaze position estimation apparatus control method, program, and information storage medium
JP2003271283A (en) Information display apparatus
US10402068B1 (en) Film strip interface for interactive content
KR20160031183A (en) Apparatus for detecting user gaze point, and method thereof
EP3087727B1 (en) An emotion based self-portrait mechanism
Jiang et al. UEyes: An Eye-Tracking Dataset across User Interface Types
JP4110323B2 (en) Information output method and apparatus, program, and computer-readable storage medium storing information output program
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
US10417356B1 (en) Physics modeling for interactive content
JP2023014402A (en) Information processing apparatus, information presentation system, information processing method, and information processing program
CN109960405A (en) Mouse operation method, device and storage medium