JP2014153747A - Program, information equipment and method for controlling character display on basis of image complexity - Google Patents

Program, information equipment and method for controlling character display on basis of image complexity Download PDF

Info

Publication number
JP2014153747A
JP2014153747A JP2013020357A JP2013020357A JP2014153747A JP 2014153747 A JP2014153747 A JP 2014153747A JP 2013020357 A JP2013020357 A JP 2013020357A JP 2013020357 A JP2013020357 A JP 2013020357A JP 2014153747 A JP2014153747 A JP 2014153747A
Authority
JP
Japan
Prior art keywords
character
information
type
screen
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013020357A
Other languages
Japanese (ja)
Inventor
Kenho Jo
建鋒 徐
Shinya Takayama
伸也 高山
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013020357A priority Critical patent/JP2014153747A/en
Publication of JP2014153747A publication Critical patent/JP2014153747A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a program capable of controlling the display position and appearance of a character displayed on the screen of equipment in accordance with the image displayed on the screen and the type of the equipment.SOLUTION: A character display control program functions as: equipment information acquisition means for acquiring information of an equipment type as the type of information equipment; screen analysis means for setting a plurality of candidate areas for displaying characters in a screen, and for calculating image complexity for each candidate area on the basis of an image displayed in each candidate area; and character position determination means for determining a character display position as a candidate area for displaying the character on the basis of the image complexity of the candidate area from among the set candidate areas. In this case, it is desired that the character display control program further functions as character appearance determination means for determining the appearance type of the character to be displayed at the determined character display position on the basis of the acquired equipment type information.

Description

本発明は、装置の画面にキャラクタを表示して情報を提供する技術に関する。   The present invention relates to a technique for providing information by displaying a character on a screen of an apparatus.

近年、アップル(apple)社のSiri(登録商標)や、(株)エヌ・ティ・ティ・ドコモの「しゃべってコンシェル」といった携帯端末上で動作する音声対話型インタフェースが商用化されている。このような動向に合わせて、現在、対話を行うだけではなく、擬人化されたエージェントとしてのキャラクタを表示し、このキャラクタの音声及び動作を情報に合わせて適切なタイミングで提示するといった、情報提供のためのよりリッチな表現が追求されている。   In recent years, voice interactive interfaces operating on portable terminals such as Siri (registered trademark) of Apple Inc. and “Talking Concierge” of NTT DoCoMo, Inc. have been commercialized. In line with these trends, information is now provided that not only conducts dialogue but also displays an anthropomorphic agent character and presents the voice and actions of this character at appropriate timing according to the information. A richer expression for is pursued.

このキャラクタの表示について、例えば、特許文献1には、携帯端末の画面に表示されたキャラクタの姿態を、携帯端末の所在位置に関連するパラメータ情報に応じて変化させる技術が開示されている。また、特許文献2には、携帯端末の画面に表示されるキャラクタ種別を、発信/着信時にシャッフルして決めることができる技術が開示されている。これら特許文献1及び2のいずれも、端末におけるイベント発生時にキャラクタを変化させて、ユーザに視覚情報を提供するものとなっている。   Regarding the display of this character, for example, Patent Document 1 discloses a technique for changing the appearance of a character displayed on the screen of a mobile terminal according to parameter information related to the location of the mobile terminal. Patent Document 2 discloses a technique that can determine the character type displayed on the screen of the mobile terminal by shuffling at the time of outgoing / incoming call. Both of these Patent Documents 1 and 2 change the character when an event occurs in the terminal and provide visual information to the user.

さらに、例えば、特許文献3には、ユーザに参照されるべき表示情報が長時間キャラクタによって覆い隠されることのないように、このキャラクタを、例えばランダムに選択された位置に移動させる技術が開示されている。   Furthermore, for example, Patent Document 3 discloses a technique for moving a character to, for example, a randomly selected position so that display information to be referred to by the user is not covered by the character for a long time. ing.

特開2003−87857号公報Japanese Patent Laid-Open No. 2003-87857 特開2001−119453号公報JP 2001-119453 A 特開2008−193515号公報JP 2008-193515 A

しかしながら、特許文献1〜3に示したような従来技術では、携帯端末といった情報機器の画面におけるキャラクタの表示を、当該画面に表示された画像の状態(表示された画像の複雑さで表される状態)に応じて、適切に制御することは非常に困難である。   However, in the prior art as shown in Patent Documents 1 to 3, the display of characters on the screen of an information device such as a portable terminal is represented by the state of the image displayed on the screen (the complexity of the displayed image). It is very difficult to control appropriately depending on the state.

例えば、特許文献1の技術では、キャラクタの姿態を、端末所在位置に関連するパラメータ情報に応じて変化させはするが、例えば、画面に表示された画像の状態に応じてその姿態を変化させることはできない。また、キャラクタの表示位置を、例えば、画面に表示された画像の状態に応じて調整することも何ら想定されていない。   For example, in the technique of Patent Document 1, the character's appearance is changed according to the parameter information related to the terminal location, but for example, the character's appearance is changed according to the state of the image displayed on the screen. I can't. Further, it is not assumed that the character display position is adjusted according to the state of the image displayed on the screen, for example.

また、特許文献2では、キャラクタ種別を、発信/着信時にシャッフルして決めることは可能であるが、それ故に、情報機器の画面に表示された画像の状態に応じた制御は困難である。さらに、特許文献3では、キャラクタをランダムに選択された位置に移動させはするが、キャラクタを、例えば、画面に表示された画像の状態に応じて適切な位置に表示させることはできない。   Further, in Patent Document 2, it is possible to determine the character type by shuffling at the time of outgoing / incoming calls, however, it is difficult to control according to the state of the image displayed on the screen of the information device. Furthermore, in Patent Document 3, the character is moved to a randomly selected position, but the character cannot be displayed at an appropriate position according to the state of the image displayed on the screen, for example.

そこで、本発明は、機器の画面におけるキャラクタの表示を、当該画面に表示された画像の状態に応じて制御可能なプログラム、情報機器及びキャラクタ表示制御方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a program, an information device, and a character display control method capable of controlling the display of a character on the screen of the device according to the state of the image displayed on the screen.

ここで、最初に、使用される用語の定義を行う。
(a)「機器種別」:情報機器における画面の大きさ、画像解像度等についての種類である。
(b)「画像の状態」:(例えばコンテンツの内容に応じて)表示された画像の複雑度で表される状態である。
(c)「アプリケーションの種別」:端末にインストールされた特定の機能を有するソフトウェア、例えば、アラーム、電話、カレンダ、ウェブ、写真閲覧、及び動画再生等のソフトウェアの種類を指す。
(d)「キャラクタ外見種別」:例えば、二等身(二頭身)・低品質、二等身・中品質、二等身・高品質、八等身(八頭身)・低品質、八等身・中品質、及び八等身・高品質等といった、表示されたキャラクタの見え方の種類を指す。ここで、二等身又は八等身は、例えば、キャラクタにおける各ボーンの長さを変化させることによって制御可能である。一方、低品質、中品質又は高品質は、例えば、キャラクタの表面を構成するポリゴンの数を変化させることによって制御可能である。
(e)「表示種別」:「独立表示」、「重畳表示」又は「全画面表示」を含む、キャラクタの表示位置に関する表示形式の種別である。
(f)「独立表示」:キャラクタをアプリケーションに係る画像領域とは異なる領域に表示する形式である。
(g)「重畳表示」:キャラクタをアプリケーションに係る画像に重畳させて表示する形式である。
Here, first, terms used are defined.
(A) “Apparatus type”: a type of screen size, image resolution, etc. in the information apparatus.
(B) “Image state”: a state represented by the complexity of the displayed image (for example, depending on the content).
(C) “Application type”: Software having a specific function installed in the terminal, for example, software types such as alarm, telephone, calendar, web, photo browsing, and video playback.
(D) “Character appearance type”: for example, second life (two heads) / low quality, second life / medium quality, second life / high quality, eighth life (eight heads) / low quality, eighth life / medium quality, and This refers to the type of appearance of the displayed character, such as eighth person, high quality, etc. Here, second life or eighth life can be controlled, for example, by changing the length of each bone in the character. On the other hand, low quality, medium quality or high quality can be controlled, for example, by changing the number of polygons constituting the surface of the character.
(E) “Display type”: a type of display format related to the display position of the character, including “independent display”, “superimposed display”, or “full screen display”.
(F) “Independent display”: a format in which the character is displayed in an area different from the image area related to the application.
(G) “Superimposed display”: a format in which a character is displayed superimposed on an image related to an application.

本発明によれば、キャラクタを画面に表示する情報機器に搭載されたコンピュータを機能させるキャラクタ表示制御プログラムであって、
情報機器の種別である機器種別(画面の大きさ、画像解像度等)の情報を取得する機器情報取得手段と、
画面内にキャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、候補区域毎に画像複雑度を算出する画面解析手段と、
設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定するキャラクタ位置決定手段と
してコンピュータを機能させるキャラクタ表示制御プログラムが提供される。
According to the present invention, there is provided a character display control program for causing a computer mounted on an information device to display a character on a screen.
Device information acquisition means for acquiring information of the device type (screen size, image resolution, etc.) that is the type of information device;
Screen analysis means for setting a plurality of candidate areas for displaying characters in the screen and calculating image complexity for each candidate area based on images displayed in each candidate area;
Provided is a character display control program for causing a computer to function as character position determining means for determining a character display position which is a candidate area for displaying a character based on the image complexity of the candidate area from among the set candidate areas. .

ここで、このキャラクタ表示制御プログラムは、取得された機器種別情報に基づいて、決定されたキャラクタ表示位置に表示されるキャラクタの外見種別を決定するキャラクタ外見決定手段としてコンピュータを更に機能させることも好ましい。   Here, the character display control program preferably further causes the computer to function as a character appearance determination unit that determines the appearance type of the character displayed at the determined character display position based on the acquired device type information. .

さらに、キャラクタ位置決定手段は、最小の又は所定閾値以下の画像複雑度を有する候補区域を、キャラクタ表示位置に決定することも好ましい。   Furthermore, it is preferable that the character position determining means determines a candidate area having an image complexity that is minimum or less than a predetermined threshold as the character display position.

また、本発明のキャラクタ表示制御プログラムにおける画面解析の一実施形態として、画面解析手段は、
画面を複数の基本区域に分割し、基本区域毎に、画像中におけるエッジの数及び顔の数の関数であるスコアであって、エッジの数が大きいほど小さくなり顔の数が大きいほど小さくなるスコアを算出し、基本区域を候補区域とする場合には対応するスコアに基づいて画像複雑度を算出し、基本区域の所定の組み合わせを候補区域とする場合には対応するスコアを組み合わせて画像複雑度を算出する
ことも好ましい。
As one embodiment of the screen analysis in the character display control program of the present invention, the screen analysis means includes:
The screen is divided into a plurality of basic areas, and for each basic area, the score is a function of the number of edges and the number of faces in the image, and the smaller the number of edges, the smaller the number of faces. If a basic area is selected as a candidate area, the image complexity is calculated based on the corresponding score. If a predetermined combination of basic areas is selected as a candidate area, the corresponding score is combined to create an image complexity. It is also preferable to calculate the degree.

また、本発明のキャラクタ表示制御プログラムにおけるキャラクタ位置決定の一実施形態として、キャラクタ位置決定手段は、
情報機器において起動するアプリケーションの種別と、取得された機器種別情報とに基づいて、(a)キャラクタをアプリケーションに係る画像領域とは異なる領域に表示する独立表示と、(b)キャラクタをアプリケーションに係る画像に重畳させて表示する重畳表示とを含む表示種別のうちの1つを選択し、
重畳表示を選択した際、設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定する
ことも好ましい。
As one embodiment of character position determination in the character display control program of the present invention, the character position determination means includes:
Based on the type of application to be activated in the information device and the acquired device type information, (a) independent display for displaying the character in an area different from the image area related to the application, and (b) the character related to the application Select one of the display types including the superimposed display to be superimposed on the image,
When the superimposed display is selected, it is also preferable to determine a character display position, which is a candidate area for displaying characters, from the set candidate areas based on the image complexity of the candidate areas.

さらに、上記のキャラクタ位置決定の実施形態において、キャラクタ位置決定手段は、
起動するアプリケーションの種別が画像を閲覧させる機能を有するアプリケーションである際、取得され機器種別情報がより小さい画面を有する情報機器に対応する場合には、キャラクタを独立表示で表示させ、より大きい画面を有する情報機器に対応する場合には、キャラクタを重畳表示で表示させる
ことも好ましい。
Further, in the above-described character position determination embodiment, the character position determination means includes:
When the type of application to be activated is an application having a function of browsing images, when the acquired device type information corresponds to an information device having a smaller screen, the character is displayed in an independent display, and a larger screen is displayed. When it corresponds to the information apparatus which has, it is also preferable to display a character by a superimposed display.

また、本発明のキャラクタ表示制御プログラムにおけるキャラクタ外見決定の一実施形態として、
キャラクタは、少なくとも(ア)簡略な若しくは低品質の外見種別、及び(イ)詳細な若しくは高品質の外見種別のいずれかに変形可能であり、
キャラクタ外見決定手段は、取得された機器種別情報がより小さい画面を有する情報機器に対応する場合に、キャラクタの外見を(ア)簡略な若しくは低品質の外見種別に決定し、より大きい画面を有する情報機器に対応する場合に、キャラクタの外見を(イ)詳細な若しくは高品質の外見種別に決定する
ことも好ましい。
Further, as one embodiment of character appearance determination in the character display control program of the present invention,
The character can be transformed into at least one of (a) a simple or low-quality appearance type, and (b) a detailed or high-quality appearance type,
The character appearance determination means determines the character appearance to be a simple or low quality appearance type when the acquired device type information corresponds to an information device having a smaller screen, and has a larger screen. When dealing with information equipment, it is also preferable to determine the appearance of the character as (a) a detailed or high-quality appearance type.

また、本発明のキャラクタ表示制御プログラムにおけるキャラクタ外見決定の他の実施形態として、
キャラクタ表示制御プログラムは、ユーザ属性に関連するユーザ情報を取得するユーザ情報取得手段としてコンピュータを更に機能させ、
キャラクタ外見決定手段は、取得されたユーザ情報と、取得された機器種別情報とに基づいて、キャラクタの外見種別を決定する
ことも好ましい。
As another embodiment of character appearance determination in the character display control program of the present invention,
The character display control program causes the computer to further function as user information acquisition means for acquiring user information related to user attributes,
The character appearance determination means preferably determines the character appearance type based on the acquired user information and the acquired device type information.

さらに、上記のキャラクタ外見決定の実施形態において、
キャラクタは、少なくとも簡略な若しくは低品質の外見種別、及び詳細な若しくは高品質の外見種別のいずれかに変形可能であり、
キャラクタ外見決定手段は、取得されたユーザ情報としてのユーザの年齢に基づいて、キャラクタの外見を、少なくとも(ア)簡略な若しくは低品質の外見種別、及び(イ)詳細な若しくは高品質の外見種別のいずれかに決定する
ことも好ましい。
Furthermore, in the embodiment of the character appearance determination described above,
The character can be transformed into at least a simple or low quality appearance type, and a detailed or high quality appearance type,
The character appearance determination means determines at least (a) a simple or low-quality appearance type and (b) a detailed or high-quality appearance type based on the user's age as the acquired user information. It is also preferable to determine either of them.

また、本発明のキャラクタ表示制御プログラムにおけるキャラクタ外見決定の他の実施形態として、キャラクタ外見決定手段は、決定されたキャラクタ表示位置と、取得された機器種別とに基づいて、キャラクタの外見種別を決定することも好ましい。   As another embodiment of the character appearance determination in the character display control program of the present invention, the character appearance determination means determines the character appearance type based on the determined character display position and the acquired device type. It is also preferable to do.

さらに、本発明のキャラクタ表示制御プログラムの一実施形態として、キャラクタは、頭部及び体部を有しており、体部のスケルトン(skeleton)においてジョイント(joint)間のボーン(bone)を伸縮させられることにより、等身数(頭身数)を変化させられることも好ましい。   Furthermore, as one embodiment of the character display control program of the present invention, the character has a head and a body, and the bone between the joints is expanded and contracted in the skeleton of the body. It is also preferable that the number of life (head and body number) can be changed.

本発明によれば、さらに、キャラクタを画面に表示する情報機器であって、
情報機器の種別である機器種別(画面の大きさ、画像解像度等)の情報を取得する機器情報取得手段と、
画面内にキャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、候補区域毎に画像複雑度を算出する画面解析手段と、
設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定するキャラクタ位置決定手段と
を有する情報機器が提供される。
According to the present invention, the information device further displays the character on the screen,
Device information acquisition means for acquiring information of the device type (screen size, image resolution, etc.) that is the type of information device;
Screen analysis means for setting a plurality of candidate areas for displaying characters in the screen and calculating image complexity for each candidate area based on images displayed in each candidate area;
An information device is provided having character position determining means for determining a character display position, which is a candidate area for displaying a character, based on the image complexity of the candidate area from among the set candidate areas.

本発明によれば、さらにまた、キャラクタを画面に表示する情報機器におけるキャラクタ表示制御方法であって、
情報機器の種別である機器種別(画面の大きさ、画像解像度等)の情報を取得する第1のステップと、
画面内にキャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、候補区域毎に画像複雑度を算出する第2のステップと、
設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定する第3のステップと
を有するキャラクタ表示制御方法が提供される。
According to the present invention, there is further provided a character display control method in an information device for displaying a character on a screen,
A first step of acquiring information on a device type (screen size, image resolution, etc.) that is a type of information device;
A second step of setting a plurality of candidate areas for displaying a character in the screen and calculating an image complexity for each candidate area based on an image displayed in each candidate area;
A character display control method comprising: a third step of determining a character display position which is a candidate area for displaying a character based on the image complexity of the candidate area from among the set candidate areas.

本発明のキャラクタ表示制御プログラム、情報機器及び方法によれば、機器の画面におけるキャラクタの表示を、当該画面に表示された画像の状態に応じて制御することができる。   According to the character display control program, information device, and method of the present invention, the display of the character on the screen of the device can be controlled according to the state of the image displayed on the screen.

本発明による情報機器の画面に表示されたキャラクタの態様を示す機器の前面図及び概略図である。It is the front view and schematic of an apparatus which show the aspect of the character displayed on the screen of the information apparatus by this invention. 本発明による情報機器の一実施形態としての情報端末の機能構成図である。It is a functional block diagram of the information terminal as one Embodiment of the information equipment by this invention. 本発明に係る候補区域及び画像複雑度の設定方法の一実施形態を示す、端末画面の正面図及びテーブルである。It is the front view and table of a terminal screen which show one Embodiment of the setting method of the candidate area and image complexity which concern on this invention. キャラクタ表示種別テーブル及びキャラクタ外見テーブルを示すテーブル図である。It is a table figure which shows a character display classification table and a character appearance table. 本発明によるキャラクタ表示制御方法の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the character display control method by this invention.

以下では、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[情報端末1によるキャラクタ表示]
図1は、本発明による情報機器の画面に表示されたキャラクタの態様を示す機器の前面図及び概略図である。
[Character display by information terminal 1]
FIG. 1 is a front view and schematic diagram of an apparatus showing an aspect of a character displayed on a screen of an information apparatus according to the present invention.

図1(A)〜(C)によれば、情報端末1は、表示・入力部101の画面に、起動したアプリケーションに係る画像と、キャラクタ(キャラクタ20又は21)を表示する、例えば、携帯電話機、スマートフォン、タブレット型コンピュータ、又はノート型コンピュータといった情報機器である。ここで、キャラクタは、リッチ(rich)な表現を可能にする(本実施形態では女性に)擬人化されたユーザインタフェースを担うエージェントである。   According to FIGS. 1A to 1C, the information terminal 1 displays an image relating to the activated application and a character (character 20 or 21) on the screen of the display / input unit 101. , Information devices such as smartphones, tablet computers, and notebook computers. Here, the character is an agent responsible for an anthropomorphic user interface (to a woman in the present embodiment) that enables rich expression.

キャラクタは、一実施形態として、図1(D)に示すように、共通の頭部と、体部とを有しており、体部のスケルトン(skeleton)においてジョイント(joint)間のボーン(bone)を伸縮させられることによって、等身数を変化させられる。   As shown in FIG. 1D, the character has a common head and a body as one embodiment, and a bone (bone) between joints in the skeleton of the body. ) Can be expanded and contracted to change the number of people.

例えば、図1(D)において、八等身であるキャラクタ21(二等身であるキャラクタ20)は、キャラクタ20(21)における各ボーンの長さを長く(短く)することによって生成される。当然に、ボーンの長さを調整することによって、二等身及び八等身以外の等身数にすることも可能である。さらに、キャラクタ21(20)は、キャラクタ20(21)の表面を構成するポリゴンの数を増加(減少)させることによって高品質(低品質)化されてもよい。いずれにしても、表示されるキャラクタ(キャラクタ20及び21)は、ワンソースのデータとすることができる。また、これらのキャラクタは、静止画像であってもよく、アニメーション化された動画像であってもよい。   For example, in FIG. 1D, a character 21 that is an eighth person (a character 20 that is a second life) is generated by increasing (shortening) the length of each bone in the character 20 (21). Of course, by adjusting the length of the bone, it is possible to make the number of persons other than the second and eighth bodies. Furthermore, the character 21 (20) may be improved in quality (lower quality) by increasing (decreasing) the number of polygons that form the surface of the character 20 (21). In any case, the displayed characters (characters 20 and 21) can be one-source data. Further, these characters may be still images or animated moving images.

さらに、キャラクタ(キャラクタ20及び21)の表示種別として、図1(A)に「独立表示」を、図1(B)に「重畳表示」を、図1(C)に「全画面表示」を示す。このうち、「独立表示」は、キャラクタを、起動したアプリケーションに係る画像領域とは異なる領域に表示する表示位置形式である。図1(A)の実施形態では、カレンダ表示・スケジュール管理アプリケーションが起動しており、このアプリケーションに係る画像が、表示・入力部101の画面における上部3分の2の領域に表示されている。一方、キャラクタ20は、残りの下部3分の1の領域に表示されている。   Furthermore, as the display types of the characters (characters 20 and 21), “independent display” is shown in FIG. 1A, “superimposed display” is shown in FIG. 1B, and “full screen display” is shown in FIG. Show. Among these, “independent display” is a display position format in which the character is displayed in a region different from the image region related to the activated application. In the embodiment of FIG. 1A, a calendar display / schedule management application is activated, and an image related to this application is displayed in the upper two-third area of the screen of the display / input unit 101. On the other hand, the character 20 is displayed in the remaining lower third region.

また、「重畳表示」は、キャラクタを、アプリケーションに係る画像に重畳させて表示する表示位置形式である。図1(B)の実施形態では、ユーザの撮影した画像等を画面に表示させる画像ファイル閲覧アプリケーションが起動しており、このアプリケーションに係る画像(同図では風景写真)に重畳する形で、キャラクタ20が表示されている。   “Superimposed display” is a display position format in which a character is displayed superimposed on an image related to an application. In the embodiment of FIG. 1B, an image file browsing application for displaying an image taken by the user on the screen is activated, and the character is superimposed on an image (landscape photograph in the figure) related to this application. 20 is displayed.

この際、キャラクタ20は、アプリケーションに係る画像の中で、画像の複雑さの度合いを示す「画像複雑度」が最低又は所定閾値以下となる画像領域の位置に表示される。これにより、アプリケーションに係る画像を通してユーザに提示される視覚情報をできるだけ覆い隠すことなく、キャラクタを表示することができる。   At this time, the character 20 is displayed at the position of the image area where the “image complexity” indicating the degree of complexity of the image is the lowest or below a predetermined threshold in the image related to the application. Thereby, the character can be displayed without obscuring the visual information presented to the user through the image related to the application as much as possible.

さらに、「全画面表示」は、キャラクタを、画面全体の領域に表示する表示位置形式である。図1(C)の実施形態では、キャラクタ21のファッションをコーディネートするための、キャラクタ専用ファッション・コーディネートアプリケーションが起動しており、ユーザがコーディネートのための操作を実行しやすいように、キャラクタ21が画面全体に表示される。   Furthermore, “full screen display” is a display position format in which a character is displayed in an area of the entire screen. In the embodiment of FIG. 1C, the character-specific fashion / coordinate application for coordinating the fashion of the character 21 is activated, and the character 21 is displayed on the screen so that the user can easily perform an operation for coordination. Displayed throughout.

本発明では、このようなキャラクタの表示種別、表示位置及びキャラクタの外見種別を、機器の画面に表示された画像、及び当該機器の種別に応じて制御することができる。ここで、機器の種別とは、例えば、
(a)スマートフォン、タブレット型コンピュータ(以後、タブレットと略称)、パーソナルコンピュータ(以後、PCと略称)及び家電テレビ(以後、テレビと略称)といった画面のサイズの違いによる(一般にこの順に画面が大きくなる)機器種別、又は
(b)表示される画像の解像度、搭載されたCPUの種類、若しくは搭載されたメモリ容量等といった機器の特性の違いによる種別、を指す。
In the present invention, the character display type, display position, and character appearance type can be controlled in accordance with the image displayed on the screen of the device and the type of the device. Here, the type of device is, for example,
(A) Due to differences in screen sizes such as smartphones, tablet computers (hereinafter abbreviated as tablets), personal computers (hereinafter abbreviated as PCs), and home appliance televisions (hereinafter abbreviated as TVs) (generally the screens increase in this order). ) Device type, or (b) Type depending on differences in device characteristics such as resolution of displayed image, type of installed CPU, installed memory capacity, and the like.

本発明の情報機器(情報端末1)は、以上に説明したキャラクタの表示位置の制御を達成するために、
(a)情報機器の種別である「機器種別」の情報を取得し、
(b)画面内にキャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、候補区域毎に「画像複雑度」を算出し、
(c)設定された当該候補区域の中から、候補区域の「画像複雑度」に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定する。
In order to achieve the control of the display position of the character described above, the information device (information terminal 1) of the present invention
(A) Obtain information of “device type” that is the type of information device,
(B) setting a plurality of candidate areas for displaying characters on the screen, calculating “image complexity” for each candidate area based on images displayed in each candidate area;
(C) Based on the “image complexity” of the candidate area, the character display position that is the candidate area for displaying the character is determined from the set candidate areas.

さらに、情報機器(情報端末1)は、以上に説明したキャラクタの外見種別の制御を達成するために、
(d)取得された「機器種別」情報に基づいて、決定されたキャラクタ表示位置に表示されるキャラクタの外見種別を決定することも好ましい。
Furthermore, in order to achieve the control of the appearance type of the character described above, the information device (information terminal 1)
(D) It is also preferable to determine the appearance type of the character displayed at the determined character display position based on the acquired “device type” information.

また、キャラクタ表示位置の決定(c)において、
(c1)情報機器において起動する「アプリケーション種別」と取得された「機器種別」情報とに基づいて、「独立表示」と「重畳表示」とを含む表示種別のうちの1つを選択する
ことも好ましい。また、
(c2)「重畳表示」を選択した際、設定された候補区域の中から、候補区域の「画像複雑度」に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定する
ことも好ましい。
In determining the character display position (c),
(C1) One of display types including “independent display” and “superimposed display” may be selected based on the “application type” activated in the information device and the acquired “device type” information. preferable. Also,
(C2) When “superimposed display” is selected, it is also preferable to determine a character display position that is a candidate area for displaying characters based on the “image complexity” of the candidate area from among the set candidate areas. .

さらに、キャラクタの外見種別の決定(d)において、
(d1)取得された「機器種別」情報がより小さい画面を有する情報機器に対応する場合に、キャラクタの外見を(ア)「簡略な若しくは低品質の外見種別」に決定し、より大きい画面を有する情報機器に対応する場合に、キャラクタの外見を(イ)「詳細な若しくは高品質の外見種別」に決定する
ことも好ましい。さらに、
(d2)取得されたユーザ属性に関連する「ユーザ情報」と、取得された「機器種別」情報とに基づいて、キャラクタの外見種別を決定する
ことも好ましい。さらにまた、
(d3)決定された「キャラクタ表示位置」と、取得された「機器種別」情報とに基づいて、キャラクタの外見種別を決定する
ことも好ましい。
Furthermore, in the determination of the appearance type of the character (d),
(D1) When the acquired “device type” information corresponds to an information device having a smaller screen, the appearance of the character is determined as (a) “simple or low quality appearance type”, and a larger screen is selected. In the case of corresponding to the information device, it is preferable to determine the appearance of the character as (a) “detailed or high-quality appearance type”. further,
(D2) It is also preferable to determine the appearance type of the character based on the “user information” related to the acquired user attribute and the acquired “device type” information. Furthermore,
(D3) It is also preferable to determine the character appearance type based on the determined “character display position” and the acquired “device type” information.

[情報端末1の機能構成]
図2は、本発明による情報機器の一実施形態としての情報端末1の機能構成図である。
[Functional configuration of information terminal 1]
FIG. 2 is a functional configuration diagram of the information terminal 1 as an embodiment of the information device according to the present invention.

図2によれば、本発明による情報機器としての情報端末1は、通信インタフェース100と、表示・入力部101と、ユーザ属性記憶部102と、機器スペック記憶部103と、キャラクタ蓄積部104と、スピーカ105と、マイクロフォン106と、プロセッサ・メモリとしての機能構成部とを備えている。ここで、機能構成部(プロセッサ・メモリ)は、情報端末1に搭載されたコンピュータを機能させるプログラムを実行することによって、その機能を実現する。   According to FIG. 2, an information terminal 1 as an information device according to the present invention includes a communication interface 100, a display / input unit 101, a user attribute storage unit 102, a device specification storage unit 103, a character storage unit 104, A speaker 105, a microphone 106, and a functional configuration unit as a processor memory are provided. Here, the function configuration unit (processor memory) realizes the function by executing a program that causes the computer mounted on the information terminal 1 to function.

この機能構成部(プロセッサ・メモリ)は、機器・ユーザ情報取得部110と、画面解析部111と、キャラクタ位置決定部112と、キャラクタ外見決定部113と、アプリケーション処理部114と、キャラクタ設定部115と、表示・出力制御部116と、通信部120とを有している。   The functional configuration unit (processor / memory) includes a device / user information acquisition unit 110, a screen analysis unit 111, a character position determination unit 112, a character appearance determination unit 113, an application processing unit 114, and a character setting unit 115. And a display / output control unit 116 and a communication unit 120.

表示・入力部101は、例えば、ディスプレイ及びキーボード(若しくはマウス)、又はタッチパネル・ディスプレイであり、起動したアプリケーションに係る画像及びキャラクタを画面に表示する。さらに、ユーザによる、起動したアプリケーションに対する指示入力、又は表示させるキャラクタについての設定情報の指定入力等の操作を受け入れ、入力操作情報を表示・出力制御部116に出力する。   The display / input unit 101 is, for example, a display and a keyboard (or a mouse) or a touch panel display, and displays an image and a character related to the activated application on the screen. Further, the user accepts an operation such as an instruction input to the activated application or a designation input of setting information for the character to be displayed, and the input operation information is output to the display / output control unit 116.

スピーカ105は、起動したアプリケーション並びにキャラクタに係る音声(音)情報を出力する。また、マイクロフォン106は、ユーザによる音声入力を受け入れ、音声入力情報を表示・出力制御部116に出力する。例えば、キャラクタの発する質問が、音声出力情報としてスピーカ105からユーザに届き、ユーザの発する回答が、音声入力情報としてマイクロフォン106から表示・出力制御部116に出力される。   The speaker 105 outputs voice (sound) information related to the activated application and the character. The microphone 106 accepts voice input by the user and outputs voice input information to the display / output control unit 116. For example, a question issued by a character reaches the user from the speaker 105 as audio output information, and an answer issued by the user is output from the microphone 106 to the display / output control unit 116 as audio input information.

機器・ユーザ情報取得部110は、ユーザ属性記憶部102から、ユーザ属性に関連するユーザ情報を取得する。また、情報機器(情報端末1)の種別である機器種別の情報を取得する。ここで、取得されるユーザ情報は、例えばユーザの年齢といった所定の種類に設定されていてもよい。また、取得される機器種別情報も、例えばスマートフォン、タブレット、PC又はテレビといった画面のサイズが異なる機器の種別についての情報に設定されていてもよい。   The device / user information acquisition unit 110 acquires user information related to the user attribute from the user attribute storage unit 102. Also, information on the device type that is the type of the information device (information terminal 1) is acquired. Here, the acquired user information may be set to a predetermined type, for example, the age of the user. The acquired device type information may also be set as information about the types of devices having different screen sizes, such as smartphones, tablets, PCs, and televisions.

ユーザ属性記憶部102は、情報端末1を所持するユーザのユーザ属性、例えば、年齢(生年月日)、性別、趣味(例えば、ゲーム等のITに関連する趣味)等、に関連するユーザ情報を記憶する。記憶すべき情報は、例えば、表示・入力部101を介したユーザによる申告によって取得してもよい。尚、情報端末1にログイン画面を設定し、入力されたユーザIDによって現在端末を使用しているユーザを識別可能である場合、ユーザ属性記憶部102に記憶されたユーザ情報をユーザIDに紐付けて管理することも好ましい。この場合、まさに機器を使用しているユーザに対応したユーザ情報を、入力されたユーザIDに基づいて呼び出すことができる。   The user attribute storage unit 102 stores user information related to user attributes of the user who owns the information terminal 1, such as age (date of birth), sex, hobbies (for example, hobbies related to IT such as games). Remember. The information to be stored may be acquired by, for example, reporting by the user via the display / input unit 101. When a login screen is set on the information terminal 1 and the user currently using the terminal can be identified by the input user ID, the user information stored in the user attribute storage unit 102 is associated with the user ID. It is also preferable to manage them. In this case, user information corresponding to the user who is using the device can be called based on the input user ID.

機器スペック記憶部103は、情報機器(情報端末1)の機器種別の情報、例えば、(スマートフォン、タブレット、PC又はテレビといった)画面のサイズが異なる機器の種別、画面の解像度、使用されているCPUの種類、メモリ容量等、を記憶する。このような機器の種別(機種)に関する機器種別情報は、例えば、ユーザエージェントを利用して取得することができる。   The device specification storage unit 103 stores information on the device type of the information device (information terminal 1), for example, the type of device having a different screen size (such as a smartphone, tablet, PC, or television), the screen resolution, and the CPU being used. Type, memory capacity, etc. are stored. Such device type information related to the device type (model) can be acquired using, for example, a user agent.

画面解析部111は、画面内にキャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、候補区域毎に画像複雑度を算出する。この候補区域及び画像複雑度の設定については、後に、図3を用いて詳細に説明する。   The screen analysis unit 111 sets a plurality of candidate areas for displaying characters on the screen, and calculates image complexity for each candidate area based on images displayed in each candidate area. The setting of the candidate area and the image complexity will be described later in detail with reference to FIG.

キャラクタ位置決定部112は、画面解析部111によって設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定する。この際、最小の又は所定閾値以下の画像複雑度を有する候補区域を、キャラクタ表示位置に決定することも好ましい。   The character position determination unit 112 determines a character display position, which is a candidate area for displaying a character, from the candidate areas set by the screen analysis unit 111 based on the image complexity of the candidate area. At this time, it is also preferable to determine a candidate area having an image complexity that is minimum or less than a predetermined threshold as the character display position.

また、キャラクタ位置決定部112は、情報機器において起動するアプリケーションの種別と取得された機器種別情報とに基づいて、独立表示と重畳表示とを含む表示種別のうちの1つを選択し、重畳表示を選択した際、設定された候補区域の中から、候補区域の画像複雑度に基づいて、キャラクタを表示する候補区域であるキャラクタ表示位置を決定することも好ましい。このキャラクタ表示位置の決定については、後に図4を用いて詳細に説明する。   Further, the character position determination unit 112 selects one of display types including independent display and superimposed display based on the type of application to be activated in the information device and the acquired device type information, and displays the superimposed display. It is also preferable to determine a character display position, which is a candidate area for displaying a character, from the set candidate areas based on the image complexity of the candidate area. The determination of the character display position will be described later in detail with reference to FIG.

キャラクタ外見決定部113は、取得された機器種別情報に基づいて、決定されたキャラクタ表示位置に表示されるキャラクタの外見種別を決定する。この際、
(a)取得されたユーザ情報と、取得された機器種別情報とに基づいて、又は
(b)決定されたキャラクタ表示位置と、取得された機器種別情報とに基づいて、
キャラクタの外見種別を決定することも好ましい。このキャラクタの外見種別の決定についても、後に図4を用いて詳細に説明する。
The character appearance determination unit 113 determines the appearance type of the character displayed at the determined character display position based on the acquired device type information. On this occasion,
(A) based on the acquired user information and the acquired device type information, or (b) based on the determined character display position and the acquired device type information,
It is also preferable to determine the character appearance type. The determination of the appearance type of the character will be described later in detail with reference to FIG.

アプリケーション処理部114は、情報端末1に搭載された、アラーム、電話、カレンダ、ウェブページ・写真閲覧、動画再生、ファッションコーディネート等、種々のアプリケーションを起動させる。具体的には、表示・出力制御部116を介して、表示・入力部101にアプリケーションに係る画像を表示させたり、スピーカ105にアプリケーションに係る音声(音)を出力させたりする。また、ユーザによる入力情報(タッチ操作、音声等)を、表示・入力部101又はマイクロフォン106から表示・出力制御部116を介して入力し、この情報に基づいたアプリケーション動作の処理を実行する。   The application processing unit 114 activates various applications such as alarms, telephone calls, calendars, web page / photo browsing, video playback, fashion coordination, and the like, which are installed in the information terminal 1. Specifically, an image related to the application is displayed on the display / input unit 101 or the sound (sound) related to the application is output to the speaker 105 via the display / output control unit 116. Also, input information (touch operation, voice, etc.) by the user is input from the display / input unit 101 or the microphone 106 via the display / output control unit 116, and processing of application operations based on this information is executed.

また、アプリケーション処理部114は、アプリケーション種別情報を、表示種別の選択の際の基準としてキャラクタ位置決定部112に出力する。   Further, the application processing unit 114 outputs the application type information to the character position determining unit 112 as a reference when selecting the display type.

キャラクタ設定部115は、例えば、ユーザによるキャラクタの選択操作情報を、表示・入力部101から表示・出力制御部116を介して入力する。次いで、種々のキャラクタが蓄積されたキャラクタ蓄積部104から、ユーザによって選択されたキャラクタを呼び出し、画面に表示して使用するキャラクタに設定する。また、設定したキャラクタを、キャラクタ位置決定部112及びキャラクタ外見決定部113に出力する。ここで、キャラクタは、ワンソースのデータであって、少なくとも簡略な若しくは低品質の外見種別、及び詳細な若しくは高品質の外見種別のいずれかに変形可能であることも好ましい。   For example, the character setting unit 115 inputs character selection operation information by the user from the display / input unit 101 via the display / output control unit 116. Next, the character selected by the user is called from the character storage unit 104 in which various characters are stored, and is displayed on the screen and set as a character to be used. Further, the set character is output to the character position determination unit 112 and the character appearance determination unit 113. Here, it is preferable that the character is one-source data and can be transformed into at least a simple or low-quality appearance type and a detailed or high-quality appearance type.

表示・出力制御部116は、アプリケーションに係る画像の情報を画面解析部111に出力し、設定された候補区域毎に画像複雑度を算出させる。また、キャラクタ位置決定部112及びキャラクタ外見決定部113から、それぞれキャラクタ表示位置情報及びキャラクタ外見種別情報を入力し、これらの情報に基づいたキャラクタを、表示・入力部101に表示させる。   The display / output control unit 116 outputs image information related to the application to the screen analysis unit 111 and calculates the image complexity for each set candidate area. Also, character display position information and character appearance type information are input from the character position determination unit 112 and the character appearance determination unit 113, respectively, and a character based on these information is displayed on the display / input unit 101.

通信部120は、通信インタフェース100を使用して、アプリケーションが直接処理する又は関係する情報を、例えば事業者通信網及びインターネットを介して送受信する。例えば、電子メール、ウェブ(Web)ページ、音声通話等に係る通信を実施する。また、通信によって取得した情報を表示・出力制御部116に出力する。さらに、ユーザによる通信指示操作の情報を表示・入力部101及び表示・出力制御部116を介して入力し、通信を実施する。または、アプリケーション処理部114からの通信要求を表示・出力制御部116を介して入力し、通信を実施する。   The communication unit 120 uses the communication interface 100 to transmit / receive information directly processed by or related to an application via, for example, a carrier communication network and the Internet. For example, communication related to e-mail, web (Web) page, voice call, etc. is performed. Further, the information acquired by communication is output to the display / output control unit 116. Furthermore, information on a communication instruction operation by the user is input via the display / input unit 101 and the display / output control unit 116 to perform communication. Alternatively, a communication request from the application processing unit 114 is input via the display / output control unit 116 to perform communication.

[候補区域及び画像複雑度の設定]
図3は、本発明に係る候補区域及び画像複雑度の設定方法の一実施形態を示す、端末画面の正面図及びテーブル図である。
[Candidate area and image complexity settings]
FIG. 3 is a front view and a table diagram of a terminal screen showing an embodiment of a method for setting candidate areas and image complexity according to the present invention.

以下、画面解析部111(図2)で実行される候補区域及び画像複雑度の設定の一実施形態を説明する。
(ステップ1)画面を複数の基本区域に分割する。図4(A)に、情報端末1の画面を4つの基本区域1〜4に分割した例を示す。基本区域1〜4は、互いに等面積である4つの矩形となっているが、分割数及び区域の面積比はこれに限定されるものではなく、例えば機器の種別(画面の大きさ)に応じて、適宜任意に設定可能である。
Hereinafter, an embodiment of setting candidate areas and image complexity executed by the screen analysis unit 111 (FIG. 2) will be described.
(Step 1) The screen is divided into a plurality of basic areas. FIG. 4A shows an example in which the screen of the information terminal 1 is divided into four basic areas 1 to 4. The basic areas 1 to 4 are four rectangles that are equal to each other, but the number of divisions and the area ratio of the areas are not limited to this. For example, depending on the type of device (screen size) And can be arbitrarily set as appropriate.

(ステップ2)設定された基本区域毎に、当該基本区域に表示された画像中における「エッジ数」及び「顔の数」の関数であるスコアを算出する。スコアは、例えば、次式

Figure 2014153747
を用いて算出される。式(1)において、nedge(i)は、基本区域i内に表示された画像におけるエッジの数であり、nface(i)は、基本区域i内に表示された画像における顔の数である。また、α(0≦α≦1)は、エッジ数及び顔の数の間の重みパラメータである。スコアscore(i)は、基本区域iにおけるエッジ数nedge(i)が大きいほど小さくなり、顔の数nface(i)が大きいほど小さくなる。 (Step 2) For each set basic area, a score that is a function of “number of edges” and “number of faces” in the image displayed in the basic area is calculated. The score is, for example,
Figure 2014153747
Is calculated using In equation (1), n edge (i) is the number of edges in the image displayed in the basic area i, and n face (i) is the number of faces in the image displayed in the basic area i. is there. Α (0 ≦ α ≦ 1) is a weight parameter between the number of edges and the number of faces. The score score (i) decreases as the number of edges n edge (i) in the basic area i increases, and decreases as the number of faces n face (i) increases.

ここで、画像におけるエッジとは、画像において明度が急峻に(不連続に)変化している箇所を指す。このエッジの検出には、例えば、キャニー法(John Canny, "A Computational Approach To Edge Detection" IEEE Trans. Pattern Analysis and Machine Intelligence, Volume 8, Issue 6, 679ページ, 1986年)を用いることができる。   Here, the edge in the image refers to a portion where the brightness changes steeply (discontinuously) in the image. For this edge detection, for example, the Canny method (John Canny, “A Computational Approach To Edge Detection” IEEE Trans. Pattern Analysis and Machine Intelligence, Volume 8, Issue 6, page 679, 1986) can be used.

また、顔の数は、例えば、顔の明暗の特徴を単純化した白黒図形を用いて(写真)画像全体からこの特徴に当てはまる箇所を絞り込むことによって、算出することができる。例えば、Henry Schneiderman and Takeo Kanade, "A Statistical Method for 3D Object Detection Applied to Faces and Cars" Computer Vision and Pattern Recognition (CVPR), Volume 1, 1746ページ, 2000年、には画像から人間の顔や自動車を検出する手法が開示されている。   Further, the number of faces can be calculated by, for example, narrowing down a portion that applies to this feature from the entire (photo) image using a black and white graphic that simplifies the feature of the face. For example, Henry Schneiderman and Takeo Kanade, "A Statistical Method for 3D Object Detection Applied to Faces and Cars" Computer Vision and Pattern Recognition (CVPR), Volume 1, 1746, 2000, A technique for detection is disclosed.

(ステップ3)候補区域、及び当該候補区域における画像複雑度を設定・算出する。ここで、
(a)設定された基本区域をそのまま候補区域とする場合、この基本区域iのスコアscore(i)に基づいて画像複雑度を算出し、
(b)設定基本区域の所定の組み合わせを候補区域とする場合、これらの基本区域iのスコアscore(i)を組み合わせて当該候補区域の画像複雑度を算出する。
一実施形態として、図3(B)に示すように、候補区域を設定することができる。
(Step 3) The candidate area and the image complexity in the candidate area are set and calculated. here,
(A) When the set basic area is used as a candidate area as it is, the image complexity is calculated based on the score score (i) of the basic area i,
(B) When a predetermined combination of set basic areas is set as a candidate area, the score score (i) of these basic areas i is combined to calculate the image complexity of the candidate area.
As one embodiment, candidate areas can be set as shown in FIG.

図3(B)によれば、8つの候補区域1〜8が、4つの基本区域を用いて構成される。候補区域1〜4はそれぞれ基本区域1〜4であり、候補区域1〜4の画像複雑度はそれぞれ、基本区域1〜4のスコアscore(1)〜score(4)を1から差し引いた値となる。例えば、候補区域1の画像複雑度は、
(画像複雑度)=1−score(1)
として算出される。
According to FIG. 3B, eight candidate areas 1 to 8 are configured using four basic areas. Candidate areas 1 to 4 are basic areas 1 to 4, respectively, and the image complexity of candidate areas 1 to 4 is a value obtained by subtracting scores (1) to score (4) of basic areas 1 to 4 from 1, respectively. Become. For example, the image complexity of candidate area 1 is
(Image complexity) = 1-score (1)
Is calculated as

また、候補区域5〜8は、2つの基本区域の足し合わせである。これら候補区域5〜8の画像複雑度はそれぞれ、足し合わした基本区域のスコアの和に比例した値を1から差し引いた値となる。例えば、候補区域5の画像複雑度は、
(画像複雑度)=1−0.5・β・(score(1)+score(2))
として算出される。ここで、β(0<β≦1)は、重み係数である。このように算出された画像複雑度は、画像が単純であるほど0に近い値をとり、画像が複雑であるほど1に近い値をとる。
Candidate areas 5 to 8 are additions of two basic areas. The image complexity of these candidate areas 5 to 8 is a value obtained by subtracting from 1 a value proportional to the sum of the scores of the added basic areas. For example, the image complexity of the candidate area 5 is
(Image complexity) = 1−0.5 · β · (score (1) + score (2))
Is calculated as Here, β (0 <β ≦ 1) is a weighting coefficient. The image complexity calculated in this way takes a value closer to 0 as the image is simpler, and takes a value closer to 1 as the image is complex.

以上説明したように、候補区域の画像複雑度は、スコアscore(i)、即ちエッジ数nedge(i)及び顔の数nface(i)によって決定され、エッジ数nedge(i)が大きいほど高くなり、顔の数nface(i)が大きいほど高くなるように設定される。ここで、ある画像におけるユーザに提示すべき情報量は、一般に、当該画像のエッジ数nedge(i)が大きいほど、また、当該画像の顔の数nface(i)が大きいほど多くなると推定される。このことから、画像複雑度は、ユーザに提示すべき情報量が多い候補区域においてより高くなる(より1に近づく)ことが理解される。従って、画像複雑度が最小の又は所定閾値以下の候補領域にキャラクタを表示することによって、ユーザに提示すべき情報をキャラクタが覆い隠してしまう事態を、極力回避することが可能となる。 As described above, the image complexity of the candidate area is determined by the score score (i), that is, the number of edges n edge (i) and the number of faces n face (i), and the number of edges n edge (i) is large. The higher the number n face (i), the higher the number of faces. Here, the amount of information to be presented to the user in a certain image is generally estimated to increase as the number of edges n edge (i) of the image increases and as the number of faces n face (i) of the image increases. Is done. From this, it is understood that the image complexity becomes higher (closer to 1) in the candidate area where the amount of information to be presented to the user is large. Therefore, by displaying the character in the candidate area with the minimum image complexity or below the predetermined threshold, it is possible to avoid as much as possible the situation where the character covers and hides information to be presented to the user.

また、本実施形態では、予め基本区域i及びスコアscore(i)を設定しておくので、適切な候補区域を状況に合わせて適宜生成することが可能となる。   In the present embodiment, since the basic area i and the score score (i) are set in advance, it is possible to appropriately generate an appropriate candidate area according to the situation.

尚、画像複雑度は、本実施形態に記載されたものに限定されない。例えば、候補区域(基本区域)におけるエッジ数又はエッジ数密度(を規格化した値)を画像複雑度とすることもできる。さらには、画像が単純であるほど小さい値をとり、画像が複雑であるほど大きい値をとるような画像に係るパラメータ(を規格化した量)であれば、画像複雑度として採用することが可能である。   Note that the image complexity is not limited to that described in this embodiment. For example, the number of edges or edge number density (value obtained by normalizing) in a candidate area (basic area) can be used as the image complexity. Furthermore, the image complexity can be adopted as long as it is a parameter related to an image that takes a smaller value as the image becomes simpler and takes a larger value as the image becomes more complex (a standardized amount). It is.

[キャラクタ表示位置及びキャラクタ外見の決定]
図4は、キャラクタ表示種別テーブル112t及びキャラクタ外見テーブル113tを示すテーブル図である。
[Determination of character display position and appearance]
FIG. 4 is a table showing the character display type table 112t and the character appearance table 113t.

図4(A)に、キャラクタ位置決定部112が保持するキャラクタ表示種別テーブル112tを示す。キャラクタ表示種別テーブル112tは、アプリケーション種別毎及び機器種別毎に、キャラクタ表示種別を対応付けて記録している。ここで、キャラクタ表示種別は、本実施形態において、独立表示、重畳表示、重畳表示/表示無し、及び全画面表示である。このうち重畳表示/表示無しは、キャラクタを重畳表示するか表示しないかをユーザの指定操作によって切り替えるものである。   FIG. 4A shows a character display type table 112 t held by the character position determination unit 112. The character display type table 112t records character display types in association with each application type and device type. Here, the character display types are independent display, superimposed display, superimposed display / no display, and full screen display in the present embodiment. Of these, “superimposed display / no display” is to switch whether the character is superimposed or not by a user's designation operation.

図4(A)のキャラクタ表示種別テーブル112tでは、例えば、アプリケーションの種別がウェブページや写真等の画像を閲覧させる機能を有するアプリケーションである場合、
(a)より小さい画面を有する情報機器(図4(A)ではスマートフォン)では、キャラクタを独立表示で表示させ、
(b)より大きい画面を有する情報機器(図4(A)ではタブレット、PC及びテレビ)では、キャラクタを重畳表示で表示させる
ように設定される。情報機器の画面が小さい場合には、アプリケーションに係る画像も全体的に小さいので、キャラクタを重畳させると、覆い隠されてしまう画像情報部分の割合も高くなってしまう。そこで、この場合(上記(a)の場合)、キャラクタを独立表示させて、アプリケーションに係る画像全体を覆い隠すことなく表示するのである。尚、画面の大きさは、当然に画面の対角線の長さ(インチ)で表すことができるが、例えば、画面の画素数によって大小を比較することも可能である。
In the character display type table 112t in FIG. 4A, for example, when the application type is an application having a function of browsing an image such as a web page or a photo,
(A) In an information device having a smaller screen (a smartphone in FIG. 4A), a character is displayed in an independent display,
(B) In an information device having a larger screen (tablet, PC, and television in FIG. 4A), the character is set to be displayed in a superimposed display. When the screen of the information device is small, the image related to the application is also small as a whole. Therefore, when the character is superimposed, the ratio of the image information portion that is obscured increases. Therefore, in this case (in the case of (a) above), the character is displayed independently and displayed without covering up the entire image related to the application. The size of the screen can of course be represented by the length (inches) of the diagonal line of the screen, but it is also possible to compare the sizes according to the number of pixels on the screen, for example.

また、アプリケーションが、ファッションコーディネート等のキャラクタ自体に対して操作を行う種別のものである場合、キャラクタを全画面表示で表示させる。   If the application is of a type that operates on the character itself such as fashion coordinates, the character is displayed in full screen display.

尚、当然に、機器種別情報に基づいてキャラクタの表示種別及び表示位置を決定する形態は、図4(A)に示したものに限定されるものではない。例えば、より大きい画面を有する(テレビ等の)情報機器に対し、アプリケーションに係る画像を多少縮小しても見易さにほとんど影響がないという利点を生かすべく、独立表示を選択することも可能である。   Of course, the form in which the character display type and display position are determined based on the device type information is not limited to that shown in FIG. For example, for information equipment (such as a television) having a larger screen, it is possible to select independent display to take advantage of the fact that even if the image related to the application is somewhat reduced, the viewability is hardly affected. is there.

さらに、機器種別情報と当該キャラクタの大きさとに基づいて、表示種別のうちの1つを選択することも可能である。例えば、取得された機器種別情報としての画面の大きさとキャラクタの大きさ(例えば身長)との比が所定閾値未満である場合、アプリケーションに係る画像を大きく覆い隠すことはないとして重畳表示を選択し、その他の場合、独立表示又は全画面表示を選択する、といった形態にすることもできる。   Furthermore, one of the display types can be selected based on the device type information and the size of the character. For example, if the ratio of the screen size and the character size (for example, height) as the acquired device type information is less than a predetermined threshold, the superimposed display is selected as the image related to the application is not largely obscured. In other cases, an independent display or a full screen display may be selected.

このようにキャラクタの表示種別及び表示位置を制御することによって、アプリケーションの特性、及び機器種別(画面の大きさ、画像解像度等)に対応した、ユーザフレンドリーなキャラクタの表示が実現可能となる。   By controlling the display type and display position of the character in this way, it is possible to realize user-friendly character display corresponding to the application characteristics and the device type (screen size, image resolution, etc.).

次いで、図4(B)に、キャラクタ外見決定部113が保持するキャラクタ外見テーブル113tを示す。キャラクタ外見テーブル113tは、ユーザ情報毎及び機器種別毎に、キャラクタ外見種別を対応付けて記録している。ここで、ユーザ情報は、本実施形態において、ユーザの年齢(年代)であり、30歳未満、及び30歳以上のいずれかに分けられる。本実施形態では、キャラクタ外見テーブル113tは、さらに、年齢が30歳以上の場合において、キャラクタ表示種別(全画面表示、独立表示/重畳表示)毎に、キャラクタ外見種別を対応付けて記録している。   Next, FIG. 4B shows a character appearance table 113t held by the character appearance determination unit 113. The character appearance table 113t records character appearance types in association with each user information and each device type. Here, in this embodiment, the user information is the age (age) of the user, and is classified into either less than 30 years old or 30 years old or more. In the present embodiment, the character appearance table 113t further records a character appearance type in association with each character display type (full screen display, independent display / superimposed display) when the age is 30 years or older. .

また、キャラクタ外見種別は、本実施形態において、二等身・低品質、二等身・中品質、二等身・高品質、八等身・低品質、八等身・中品質、及び八等身・高品質である。ここで、二等身又は八等身は、例えば、図1(D)に示したように、キャラクタにおける各ボーンの長さを変化させることによって制御可能である。一方、低品質、中品質又は高品質は、例えば、キャラクタの表面を構成するポリゴンの数を変化させることによって制御可能である。   The character appearance types are second life / low quality, second life / medium quality, second life / high quality, eighth life / low quality, eighth life / medium quality, and eighth life / high quality in this embodiment. . Here, the second life or the eighth life can be controlled, for example, by changing the length of each bone in the character as shown in FIG. On the other hand, low quality, medium quality or high quality can be controlled, for example, by changing the number of polygons constituting the surface of the character.

このキャラクタ品質の制御については、例えば、Hugues Hoppe, "Progressive meshes" In Proceedings of the 23rd annual conference on Computer graphics and interactive techniques (SIGGRAPH '96), ACM, New York, NY, USA, 99-108ページ, 1996年、に開示された手法を用いることができる。   For controlling character quality, see, for example, Hugues Hoppe, "Progressive meshes" In Proceedings of the 23rd annual conference on Computer graphics and interactive techniques (SIGGRAPH '96), ACM, New York, NY, USA, pages 99-108, The technique disclosed in 1996 can be used.

図4(B)のキャラクタ外見テーブル113tでは、例えば、ユーザ情報としての年齢が30歳以上の場合、表示種別が全画面表示ならば、
(a)より小さい画面を有する情報機器(図4(B)ではスマートフォン)では、キャラクタ外見種別として、八等身・低品質を選択し、
(b)より大きい画面を有する情報機器(図4(B)ではPC及びテレビ)では、キャラクタ外見種別として、八等身・高品質を選択し、
(c)その他の中間の大きさを有する情報機器(図4(B)ではタブレット)では、キャラクタ外見種別として、八等身・中品質を選択する
ように設定される。
In the character appearance table 113t of FIG. 4B, for example, when the age as the user information is 30 years old or more, and the display type is full screen display,
(A) For an information device having a smaller screen (smartphone in FIG. 4B), as the character appearance type, select eight-body and low quality,
(B) In an information device having a larger screen (PC and television in FIG. 4B), the eighth appearance / high quality is selected as the character appearance type,
(C) In the information device having other intermediate sizes (tablet in FIG. 4B), the eighth appearance / medium quality is selected as the character appearance type.

一方、ユーザ情報としての年齢が30歳以上の場合、表示種別が独立表示又は重畳表示ならば、
(d)より小さい画面を有する情報機器(図4(B)ではスマートフォン及びタブレット)では、キャラクタ外見種別として、二等身(・低品質又は中品質)を選択し、
(e)より大きい画面を有する情報機器(図4(B)ではPC及びテレビ)では、キャラクタ外見種別として、八等身(・高品質)を選択する
ように設定される。
On the other hand, when the age as user information is 30 years old or more, if the display type is independent display or superimposed display,
(D) In an information device having a smaller screen (smartphone and tablet in FIG. 4B), the second appearance (low quality or medium quality) is selected as the character appearance type,
(E) In an information device having a larger screen (PC and television in FIG. 4B), the eighth appearance (high quality) is selected as the character appearance type.

このようにキャラクタの外見種別を制御することによって、ユーザ属性(年齢等)、キャラクタ表示種別、及び情報機器の種別(画面の大きさ、画像解像度等)に対応した、ユーザフレンドリーなキャラクタの表示が実現可能となる。   By controlling the appearance type of the character in this way, a user-friendly character display corresponding to the user attribute (age, etc.), the character display type, and the type of information device (screen size, image resolution, etc.) can be displayed. It becomes feasible.

尚、図4(A)及び(B)に示したキャラクタ表示種別及びキャラクタ外見種別の決定方法はそれぞれ、あくまで好適な一実施例であり、これらの決定方法は、これらの実施例に限定されるものではない。例えば、図4(B)の実施形態では、キャラクタ外見種別の決定について、ユーザ情報として30歳未満及び30歳以上を採用し、年齢が高いほど、詳細な若しくは高品質の外見種別とする傾向を持たせているが、例えば(65歳以上の)高齢者には、見易い簡略な若しくは低品質の外見種別とする設定も可能である。   Note that the determination methods of the character display type and the character appearance type shown in FIGS. 4A and 4B are only preferable embodiments, and these determination methods are limited to these embodiments. It is not a thing. For example, in the embodiment of FIG. 4B, the character appearance type is determined by adopting the user information of less than 30 years old and 30 years old or more, and the higher the age, the more likely it is to have a detailed or high quality appearance type. However, for example, it is possible to set a simple or low-quality appearance type that is easy to see for an elderly person (65 years or older).

さらに、キャラクタの外見決定の際、取得されたユーザ情報に基づいて、キャラクタの外見を、(ア)簡略な若しくは低品質の外見種別、及び(イ)詳細な若しくは高品質の外見種別だけではなく、
(ウ)外見種別(ア)と外見種別(イ)との中間の詳細度若しくは品質を有する外見種別を含めた外見種別のいずれかに決定することも可能である。
Furthermore, when determining the appearance of the character, based on the acquired user information, the character appearance is not limited to (a) a simple or low-quality appearance type, and (b) a detailed or high-quality appearance type. ,
(C) Appearance type (a) and appearance type (b) It is also possible to determine any one of appearance types including an appearance type having an intermediate level of detail or quality.

さらに、ユーザ属性として、ユーザの年齢以外にも、例えば趣味がゲームである、又は好きなものがキャラクタ(の収集)である等のユーザ属性を用いて、キャラクタの外見種別を決定することができる。例えば、趣味がゲームである又は好きなものがキャラクタである場合、キャラクタ外見種別として高品質なものに決定することができる。また、キャラクタ表示種別及びキャラクタ外見種別の決定の際の機器種別情報も、必ずしも画面の大きさを基準に分類されたものに限定されるものではない。例えば、画面の解像度、CPUの種別又はメモリの容量、を基準にすることも可能である。   Furthermore, in addition to the user's age, the appearance type of the character can be determined using a user attribute such as, for example, a hobby is a game or a favorite is a character (collection). . For example, if the hobby is a game or a favorite thing is a character, the character appearance type can be determined to be high quality. Also, the device type information for determining the character display type and the character appearance type is not necessarily limited to the information classified based on the screen size. For example, the screen resolution, CPU type, or memory capacity may be used as a reference.

図5は、本発明によるキャラクタ表示制御方法の一実施形態を示すフローチャートである。   FIG. 5 is a flowchart showing an embodiment of a character display control method according to the present invention.

(S500)キャラクタを設定する。このキャラクタは、頭部及び体部を有しており、体部のスケルトンにおいてジョイント間のボーンを伸縮させられることにより、等身数を変化させられることも好ましい。
(S501)情報機器の種別の情報である「機器種別情報」と、ユーザ属性に関連する「ユーザ情報」とを取得する。
(S500) A character is set. This character has a head and a body part, and it is also preferable that the number of persons can be changed by expanding and contracting the bone between the joints in the skeleton of the body part.
(S501) "Device type information" that is information on the type of information device and "user information" related to user attributes are acquired.

(S502)画面を複数の基本区域に分割する。
(S503)設定された基本区域i毎にスコアscore(i)を算出する。
(S504)スコアscore(i)の設定された基本区域の少なくとも1つを用いて、候補区域を設定する。
(S505)各候補区域の「画像複雑度」を、構成する基本区域iのスコアscore(i)から算出する。
(S502) The screen is divided into a plurality of basic areas.
(S503) Score score (i) is calculated for each set basic zone i.
(S504) A candidate area is set using at least one of the basic areas for which score score (i) is set.
(S505) The “image complexity” of each candidate area is calculated from the score score (i) of the basic area i constituting the candidate area.

(S506)「機器種別」と「アプリケーション種別」とに基づいて「表示種別」を選択する。この選択は、例えば、キャラクタ表示種別テーブル112t(図4(A))を用いて実施することができる。
(S507a)ステップS506で全画面表示が選択された際、「キャラクタ表示位置」は、画面全体となる。
(S506) The “display type” is selected based on the “device type” and the “application type”. This selection can be performed using, for example, the character display type table 112t (FIG. 4A).
(S507a) When full screen display is selected in step S506, the “character display position” is the entire screen.

(S507b)また、ステップS506で重畳表示が選択された際、候補区域の「画像複雑度」に基づいて、「キャラクタ表示位置」となる候補区域を決定する。ここで、
(a)最小の「画像複雑度」を有する候補区域、
(b)最小且つ所定閾値(例えば0.3)以下の「画像複雑度」を有する候補区域、
(c)所定閾値(例えば0.3)以下の「画像複雑度」を有する候補区域のうち、ランダムに選択された1つ、又は
(d)所定閾値(例えば0.3)以下の「画像複雑度」を有する候補区域のうち、所定のルール(例えばできるだけ右下側を選択する等)の下で選択された1つ
を「キャラクタ表示位置」と決定することも好ましい。
(S507b) When superimposition display is selected in step S506, a candidate area to be a “character display position” is determined based on the “image complexity” of the candidate area. here,
(A) a candidate area with the smallest “image complexity”;
(B) a candidate area having an “image complexity” that is a minimum and not greater than a predetermined threshold (eg, 0.3);
(C) one of randomly selected candidate areas having “image complexity” of a predetermined threshold value (eg, 0.3) or less, or (d) “image complexity of a predetermined threshold value (eg, 0.3) or less. It is also preferable that one of the candidate areas having “degree” selected under a predetermined rule (for example, select the lower right side as much as possible) is determined as the “character display position”.

(S507c)さらに、ステップS506で独立表示が選択された際、「キャラクタ表示位置」は、所定の画面部分(例えば画面の下部3分の1)となる。
(S508)「機器種別情報」、「ユーザ情報」及び/又は「キャラクタ表示位置」に基づいて「キャラクタ外見種別」を決定する。この決定は、例えば、キャラクタ外見テーブル113t(図4(B))を用いて実施することができる。
(S509)決定された「キャラクタ外見種別」を有するキャラクタを、決定された「キャラクタ表示位置」に表示する。
(S507c) Further, when independent display is selected in step S506, the “character display position” is a predetermined screen portion (for example, the lower third of the screen).
(S508) “Character appearance type” is determined based on “device type information”, “user information” and / or “character display position”. This determination can be performed using, for example, the character appearance table 113t (FIG. 4B).
(S509) The character having the determined “character appearance type” is displayed at the determined “character display position”.

以上、詳細に説明したように、本発明によれば、情報機器の画面に表示されたキャラクタの表示位置を、当該画面に表示された画像の状態(表示された画像の複雑さで表される状態)に応じて制御することができる。さらに、一実施形態として、キャラクタの表示位置及び外見種別を、当該画面に表示された画像及び当該機器の種別に応じて制御することも可能である。   As described above in detail, according to the present invention, the display position of the character displayed on the screen of the information device is represented by the state of the image displayed on the screen (the complexity of the displayed image). It can be controlled according to the state. Furthermore, as one embodiment, it is possible to control the display position and appearance type of the character according to the image displayed on the screen and the type of the device.

特に、以上に説明した実施形態におけるようにキャラクタの表示種別及び表示位置を制御することによって、アプリケーションの特性、及び情報機器の種別(画面の大きさ等)に対応した、ユーザフレンドリーなキャラクタの表示も実現可能となる。   In particular, by controlling the display type and display position of the character as in the embodiment described above, it is possible to display a user-friendly character corresponding to the characteristics of the application and the type of information device (screen size, etc.) Is also feasible.

さらに、以上に説明した実施形態におけるようにキャラクタの外見種別を制御することによって、ユーザ属性(年齢等)、キャラクタ表示種別、及び情報機器の種別(画面の大きさ等)に対応した、ユーザフレンドリーなキャラクタの表示も実現可能となる。   Furthermore, by controlling the appearance type of the character as in the embodiment described above, it is user-friendly corresponding to the user attribute (age, etc.), character display type, and information device type (screen size, etc.) It is also possible to display a simple character.

また、これにより、表示されるキャラクタの位置・外見がユーザにとって適切又は快適となるので、例えば、キャラクタとの間の会話等のやり取りをもって、種々のアプリケーションの機能を発動させたり、所望の情報を入出力させたりする際、使い勝手が良い又は心地よい操作・使用感をユーザに提供することが可能となる。   In addition, this makes the position and appearance of the displayed character appropriate or comfortable for the user. For example, the functions of various applications can be activated by exchanging conversations with the character, or desired information can be displayed. When performing input / output, it is possible to provide a user with a user-friendly or comfortable operation / use feeling.

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例であって、何ら発明の範囲を制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the various embodiments of the present invention described above within the scope of the technical idea and the viewpoint of the present invention can be easily made by those skilled in the art. The above description is merely an example and is not intended to limit the scope of the invention. The invention is limited only as defined in the following claims and the equivalents thereto.

1 情報端末(情報機器)
100 通信インタフェース
101 表示・入力部
102 ユーザ属性記憶部
103 機器スペック記憶部
104 キャラクタ蓄積部
105 スピーカ
106 マイクロフォン
110 機器・ユーザ情報取得部
111 画面解析部
112 キャラクタ位置決定部
112t キャラクタ表示種別テーブル
113 キャラクタ外見決定部
113t キャラクタ外見テーブル
114 アプリケーション処理部
115 キャラクタ設定部
116 表示・出力制御部
120 通信部
20、21 キャラクタ
1 Information terminal (information equipment)
DESCRIPTION OF SYMBOLS 100 Communication interface 101 Display / input part 102 User attribute memory | storage part 103 Equipment specification memory | storage part 104 Character storage part 105 Speaker 106 Microphone 110 Equipment / user information acquisition part 111 Screen analysis part 112 Character position determination part 112t Character display classification table 113 Character appearance Determination unit 113t Character appearance table 114 Application processing unit 115 Character setting unit 116 Display / output control unit 120 Communication unit 20, 21 character

Claims (13)

キャラクタを画面に表示する情報機器に搭載されたコンピュータを機能させるキャラクタ表示制御プログラムであって、
前記情報機器の種別である機器種別の情報を取得する機器情報取得手段と、
前記画面内に当該キャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、当該候補区域毎に画像複雑度を算出する画面解析手段と、
設定された当該候補区域の中から、当該候補区域の画像複雑度に基づいて、当該キャラクタを表示する候補区域であるキャラクタ表示位置を決定するキャラクタ位置決定手段と
してコンピュータを機能させることを特徴とするキャラクタ表示制御プログラム。
A character display control program for causing a computer mounted on an information device to display a character on a screen,
Device information acquisition means for acquiring device type information which is the type of information device;
Screen analysis means for setting a plurality of candidate areas for displaying the character in the screen, and calculating image complexity for each candidate area based on an image displayed in each candidate area;
A computer is caused to function as character position determining means for determining a character display position, which is a candidate area for displaying the character, based on the image complexity of the candidate area from among the set candidate areas. Character display control program.
前記キャラクタ表示制御プログラムは、
取得された当該機器種別情報に基づいて、決定された当該キャラクタ表示位置に表示される当該キャラクタの外見種別を決定するキャラクタ外見決定手段
としてコンピュータを更に機能させることを特徴とする請求項1に記載の表示制御プログラム。
The character display control program is:
The computer further functions as character appearance determination means for determining the appearance type of the character displayed at the determined character display position based on the acquired device type information. Display control program.
前記キャラクタ位置決定手段は、最小の又は所定閾値以下の画像複雑度を有する候補区域を、当該キャラクタ表示位置に決定することを特徴とする請求項1又は2に記載のキャラクタ表示制御プログラム。   The character display control program according to claim 1, wherein the character position determination unit determines a candidate area having an image complexity that is minimum or less than a predetermined threshold as the character display position. 前記画面解析手段は、
前記画面を複数の基本区域に分割し、当該基本区域毎に、画像中におけるエッジの数及び顔の数の関数であるスコアであって、当該エッジの数が大きいほど小さくなり当該顔の数が大きいほど小さくなるスコアを算出し、当該基本区域を当該候補区域とする場合には対応する当該スコアに基づいて当該画像複雑度を算出し、当該基本区域の所定の組み合わせを当該候補区域とする場合には対応する当該スコアを組み合わせて当該画像複雑度を算出する
ことを特徴とする請求項1から3のいずれか1項に記載のキャラクタ表示制御プログラム。
The screen analysis means includes
The screen is divided into a plurality of basic areas, and for each basic area, a score that is a function of the number of edges and the number of faces in the image, the smaller the number of edges, the smaller the number of faces. When a larger score is calculated and the basic area is set as the candidate area, the image complexity is calculated based on the corresponding score, and a predetermined combination of the basic areas is set as the candidate area 4. The character display control program according to claim 1, wherein the image complexity is calculated by combining the corresponding scores. 5.
前記キャラクタ位置決定手段は、
前記情報機器において起動するアプリケーションの種別と取得された当該機器種別情報とに基づいて、当該キャラクタを当該アプリケーションに係る画像領域とは異なる領域に表示する独立表示と、当該キャラクタを当該アプリケーションに係る画像に重畳させて表示する重畳表示とを含む表示種別のうちの1つを選択し、
前記重畳表示を選択した際、設定された当該候補区域の中から、当該候補区域の画像複雑度に基づいて、当該キャラクタを表示する候補区域であるキャラクタ表示位置を決定する
ことを特徴とする請求項1から4のいずれか1項に記載のキャラクタ表示制御プログラム。
The character position determining means
Based on the type of application to be activated in the information device and the acquired device type information, an independent display for displaying the character in a region different from the image region for the application, and an image for the character for the application Select one of the display types including the superimposed display to be superimposed on
The character display position that is a candidate area for displaying the character is determined based on the image complexity of the candidate area from the set candidate areas when the superimposed display is selected. Item 5. The character display control program according to any one of Items 1 to 4.
前記キャラクタ位置決定手段は、取得された当該機器種別情報と当該キャラクタの大きさとに基づいて、当該表示種別のうちの1つを選択することを特徴とする請求項5に記載のキャラクタ表示制御プログラム。   6. The character display control program according to claim 5, wherein the character position determination unit selects one of the display types based on the acquired device type information and the size of the character. . 当該キャラクタは、少なくとも簡略な若しくは低品質の外見種別、及び詳細な若しくは高品質の外見種別のいずれかに変形可能であり、
前記キャラクタ外見決定手段は、取得された当該機器種別情報がより小さい画面を有する情報機器に対応する場合に、当該キャラクタの外見を当該簡略な若しくは低品質の外見種別に決定し、より大きい画面を有する情報機器に対応する場合に、当該キャラクタの外見を当該詳細な若しくは高品質の外見種別に決定する
ことを特徴とする請求項2に記載のキャラクタ表示制御プログラム。
The character can be transformed into at least a simple or low quality appearance type and a detailed or high quality appearance type,
The character appearance determining means determines the appearance of the character as the simple or low quality appearance type when the acquired device type information corresponds to an information device having a smaller screen, and displays a larger screen. The character display control program according to claim 2, wherein, when the information device is compatible, the appearance of the character is determined as the detailed or high-quality appearance type.
前記キャラクタ表示制御プログラムは、ユーザ属性に関連するユーザ情報を取得するユーザ情報取得手段としてコンピュータを更に機能させ、
前記キャラクタ外見決定手段は、取得された当該ユーザ情報と、取得された当該機器種別情報とに基づいて、当該キャラクタの外見種別を決定する
ことを特徴とする請求項2又は7に記載のキャラクタ表示制御プログラム。
The character display control program further causes the computer to function as user information acquisition means for acquiring user information related to user attributes,
The character display according to claim 2 or 7, wherein the character appearance determining means determines the appearance type of the character based on the acquired user information and the acquired device type information. Control program.
当該キャラクタは、少なくとも簡略な若しくは低品質の外見種別、及び詳細な若しくは高品質の外見種別のいずれかに変形可能であり、
前記キャラクタ外見決定手段は、取得されたユーザ情報としてのユーザの年齢に基づいて、当該キャラクタの外見を、少なくとも当該簡略な若しくは低品質の外見種別、及び当該詳細な若しくは高品質の外見種別のいずれかに決定する
ことを特徴とする請求項8に記載のキャラクタ表示制御プログラム。
The character can be transformed into at least a simple or low quality appearance type and a detailed or high quality appearance type,
The character appearance determining means, based on the user's age as the acquired user information, at least the simple or low quality appearance type and the detailed or high quality appearance type of the character. The character display control program according to claim 8, wherein the character display control program is determined.
前記キャラクタ外見決定手段は、決定された当該キャラクタ表示位置と、取得された当該機器種別情報とに基づいて、当該キャラクタの外見種別を決定することを特徴とする請求項2、7、8又は9に記載のキャラクタ表示制御プログラム。   The character appearance determining means determines the appearance type of the character based on the determined character display position and the acquired device type information. The character display control program described in 1. 当該キャラクタは、頭部及び体部を有しており、当該体部のスケルトン(skeleton)においてジョイント(joint)間のボーン(bone)を伸縮させられることにより、等身数を変化させられることを特徴とする請求項1から10のいずれか1項に記載のキャラクタ表示制御プログラム。   The character has a head and a body part, and the number of persons can be changed by expanding and contracting a bone between joints in the skeleton of the body part. The character display control program according to any one of claims 1 to 10. キャラクタを画面に表示する情報機器であって、
前記情報機器の種別である機器種別の情報を取得する機器情報取得手段と、
前記画面内に当該キャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、当該候補区域毎に画像複雑度を算出する画面解析手段と、
設定された当該候補区域の中から、当該候補区域の画像複雑度に基づいて、当該キャラクタを表示する候補区域であるキャラクタ表示位置を決定するキャラクタ位置決定手段と
を有することを特徴とする情報機器。
An information device that displays a character on a screen,
Device information acquisition means for acquiring device type information which is the type of information device;
Screen analysis means for setting a plurality of candidate areas for displaying the character in the screen, and calculating image complexity for each candidate area based on an image displayed in each candidate area;
Character position determining means for determining a character display position, which is a candidate area for displaying the character, based on the image complexity of the candidate area from the set candidate areas. .
キャラクタを画面に表示する情報機器におけるキャラクタ表示制御方法であって、
前記情報機器の種別である機器種別の情報を取得する第1のステップと、
前記画面内に当該キャラクタを表示させるための複数の候補区域を設定し、各候補区域に表示される画像に基づいて、当該候補区域毎に画像複雑度を算出する第2のステップと、
設定された当該候補区域の中から、当該候補区域の画像複雑度に基づいて、当該キャラクタを表示する候補区域であるキャラクタ表示位置を決定する第3のステップと
を有することを特徴とするキャラクタ表示制御方法。
A character display control method in an information device for displaying a character on a screen,
A first step of acquiring information on a device type that is a type of the information device;
A second step of setting a plurality of candidate areas for displaying the character in the screen and calculating an image complexity for each candidate area based on an image displayed in each candidate area;
A character display comprising: a third step of determining a character display position, which is a candidate area for displaying the character, based on the image complexity of the candidate area from among the set candidate areas. Control method.
JP2013020357A 2013-02-05 2013-02-05 Program, information equipment and method for controlling character display on basis of image complexity Pending JP2014153747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013020357A JP2014153747A (en) 2013-02-05 2013-02-05 Program, information equipment and method for controlling character display on basis of image complexity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013020357A JP2014153747A (en) 2013-02-05 2013-02-05 Program, information equipment and method for controlling character display on basis of image complexity

Publications (1)

Publication Number Publication Date
JP2014153747A true JP2014153747A (en) 2014-08-25

Family

ID=51575605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013020357A Pending JP2014153747A (en) 2013-02-05 2013-02-05 Program, information equipment and method for controlling character display on basis of image complexity

Country Status (1)

Country Link
JP (1) JP2014153747A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109987A (en) * 2012-12-04 2014-06-12 Kddi Corp Page display method, server and program between two or more terminals having different model information
WO2023139961A1 (en) * 2022-01-21 2023-07-27 株式会社Nttドコモ Information processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109987A (en) * 2012-12-04 2014-06-12 Kddi Corp Page display method, server and program between two or more terminals having different model information
WO2023139961A1 (en) * 2022-01-21 2023-07-27 株式会社Nttドコモ Information processing device

Similar Documents

Publication Publication Date Title
US11849255B2 (en) Multi-participant live communication user interface
US10896478B2 (en) Image grid with selectively prominent images
JP6609361B2 (en) Multi-participant live communication user interface
CN110100251B (en) Apparatus, method, and computer-readable storage medium for processing document
CN108710462A (en) Equipment, method and graphic user interface for manipulating user interface object using vision and/or touch feedback
US8952989B2 (en) Viewer unit, server unit, display control method, digital comic editing method and non-transitory computer-readable medium
KR101660576B1 (en) Facilitating image capture and image review by visually impaired users
US9495789B2 (en) Information processing apparatus, information processing method and computer program
US20090262139A1 (en) Video image display device and video image display method
TW201333822A (en) Apparatus and method for providing transitions between screens
JP2019197519A (en) Creative camera
CN107426493A (en) A kind of image pickup method and terminal for blurring background
WO2018086548A1 (en) Interface display method and apparatus
WO2020150690A2 (en) Systems and methods for providing personalized videos
KR20230084336A (en) Multi-participant live communication user interface
JP2014153747A (en) Program, information equipment and method for controlling character display on basis of image complexity
JP2011192008A (en) Image processing system and image processing method
CN105022737A (en) Microblog information display method and device
DE112020002244T5 (en) Apparatus, method and graphical user interface for creating CGR objects
JP4832869B2 (en) Communication terminal and display method thereof
KR102265402B1 (en) Multi-Participant Live Communication User Interface
CN113840165B (en) Screen recording method, device, equipment and medium
JP2017058978A (en) Information processing device and program
WO2023172332A1 (en) Video stream refinement for dynamic scenes
CN117292019A (en) Image processing method, device, equipment and medium