JP2020003892A - Writing conversion device, conversion display device, conversion display system, control method, and recording medium - Google Patents

Writing conversion device, conversion display device, conversion display system, control method, and recording medium Download PDF

Info

Publication number
JP2020003892A
JP2020003892A JP2018120363A JP2018120363A JP2020003892A JP 2020003892 A JP2020003892 A JP 2020003892A JP 2018120363 A JP2018120363 A JP 2018120363A JP 2018120363 A JP2018120363 A JP 2018120363A JP 2020003892 A JP2020003892 A JP 2020003892A
Authority
JP
Japan
Prior art keywords
notation
display
display area
data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018120363A
Other languages
Japanese (ja)
Other versions
JP7115061B2 (en
Inventor
顕司 坂本
Kenji Sakamoto
顕司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018120363A priority Critical patent/JP7115061B2/en
Publication of JP2020003892A publication Critical patent/JP2020003892A/en
Application granted granted Critical
Publication of JP7115061B2 publication Critical patent/JP7115061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a writing conversion device capable of achieving communication among users having affinity with different writing methods.SOLUTION: A translation display device comprises: a display control unit 110 determining whether or not a plurality of viewpoints are present in a first display area among the respective viewpoints on a display surface for a plurality of users who gaze at the display surface and determining a language having affinity with the plurality of users who gives the viewpoints into the first display area as a second language except for the first language only when the plurality of viewpoint of exists in the first display area; and a translation unit 111 translating text data written in the first display area into translated text data in the second language. The display control unit 110 generates position information indicating the position of the second display area for displaying the translated text data, and outputs the translated text data and the information to a display unit 102.SELECTED DRAWING: Figure 3

Description

本発明は、日本語、英語のような言語表記、標準語と方言のような方言表記、漢字、片仮名、平仮名のような文字表示を含む表記方法において好適に利用できる表記変換技術に関し、特に、一の表記法により表記されたデータを別の表記法による表記に変換する技術に関する。   The present invention, Japanese, language notation such as English, dialect notation such as standard and dialect, kanji, katakana, relates to notation conversion technology that can be suitably used in notation methods including character display such as hiragana, The present invention relates to a technique for converting data represented by one notation into a notation represented by another notation.

プリンター、複写機、複合機等の画像形成装置においては、各種設定を受け付ける操作パネルが設けられている。特許文献1の画像形成装置は、携帯端末から近距離無線通信により、利用者の国籍が含まれる個人情報データを受信し、受信した国籍に基づいて利用者の公用語を判断し、表示言語を設定する。これにより、利用者は、当該利用者が理解できる言語を用いて表示される操作パネルにより、画像形成装置に対する操作を行うことができる。   2. Description of the Related Art In an image forming apparatus such as a printer, a copying machine, or a multifunction peripheral, an operation panel that receives various settings is provided. The image forming apparatus disclosed in Patent Document 1 receives personal information data including a user's nationality from a mobile terminal by short-range wireless communication, determines an official language of the user based on the received nationality, and changes a display language. Set. Thus, the user can operate the image forming apparatus by using the operation panel displayed using a language that the user can understand.

しかし、異なる言語を使用する複数の利用者が共同して当該画像形成装置を操作しようとする場合を想定すると、第一の利用者が使用する第一の言語により、操作パネルの表示言語が設定されているなら、第一の利用者は、操作パネルの表示内容を理解でき、当該画像形成装置の操作を行えるものの、第二の言語を使用する第二の利用者にとっては、第一の言語では操作パネルの表示内容を理解できず、当該画像形成装置の操作は困難となる。   However, assuming that a plurality of users using different languages try to operate the image forming apparatus together, the display language of the operation panel is set by the first language used by the first user. If the first language is used, the first user can understand the display content of the operation panel and can operate the image forming apparatus, but the first language is used for the second user who uses the second language. In such a case, the contents displayed on the operation panel cannot be understood, and the operation of the image forming apparatus becomes difficult.

この問題を解決するため、特許文献2によると、透過性タイプの頭部装着型の映像表示装置を装着し、利用者は、映像表示装置越しに見える風景に重ねて、映像表示装置に表示された映像を視認することができる。利用者が、この映像表示装置越しに英語の文字列を見ると、その文字列が注目領域に特定され、映像表示装置は、利用者情報に基づいて翻訳先の言語を日本語に決定し、注目領域内の英語の文字列を自動的に日本語に翻訳し、翻訳前の視界内の注目領域の英語の文字列に重なるように、日本語の文字列を表示する。   In order to solve this problem, according to Patent Document 2, a head mounted type video display device of a transmission type is mounted, and a user is displayed on the video display device so as to overlap the scenery seen through the video display device. You can see the video that you have. When the user looks at the English character string through this video display device, the character string is specified in the attention area, and the video display device determines the translation destination language to Japanese based on the user information, The English character string in the attention area is automatically translated into Japanese, and the Japanese character string is displayed so as to overlap the English character string in the attention area in the view before translation.

例えば、英語を理解する第一の利用者が頭部装着型の映像表示装置を通して、日本語文字列を見ると、当該映像表示装置に日本語文字列を英語に翻訳した文字列が表示される。同様に、スペイン語を理解する第二の利用者が同じ映像表示装置を通して、上記の日本語文字列を見ると、当該映像表示装置に日本語文字列をスペイン語に翻訳した文字列が表示される。このため、第一の利用者及び第二の利用者は、日本語が理解できない場合であっても、上記の日本語文字列の意味を知ることができる。   For example, when a first user who understands English views a Japanese character string through a head-mounted image display device, a character string obtained by translating the Japanese character string into English is displayed on the image display device. . Similarly, when a second user who understands Spanish reads the above Japanese character string through the same video display device, a character string obtained by translating the Japanese character string into Spanish is displayed on the video display device. You. For this reason, the first user and the second user can know the meaning of the Japanese character string even if they cannot understand Japanese.

このようにして、異なる言語を使用する複数の利用者が共同して装置を操作しようとする場合における上記特許文献1の問題を解決している。   In this way, the problem of Patent Document 1 described above when a plurality of users using different languages try to operate the apparatus jointly is solved.

特開2017−211853号公報JP-A-2017-211853 特開2014−93050号公報JP 2014-93050 A

しかし、特許文献2により開示された技術によると、第一の利用者は、第二の利用者がどこに注目しているか分からないし、第二の利用者も、第一の利用者がどこに注目しているか分からない。このように、互いに相手の注目箇所が分からないので、複数の利用者が共同して作業する場合に、複数の利用者間の意思疎通を阻害する一要因となっている。   However, according to the technology disclosed in Patent Document 2, the first user does not know where the second user is paying attention, and the second user is not aware where the first user is paying attention. I don't know. As described above, since the points of interest of the other party are not known, when a plurality of users work together, this is one factor that hinders communication between the plurality of users.

なお、以上においては、日本語、英語、スペイン語のような言語表現における問題を指摘したが、標準語と方言のような表現、漢字、片仮名、平仮名のような表記等においても、同様の問題が存在する。   In the above, problems in linguistic expressions such as Japanese, English and Spanish were pointed out, but similar problems occur in expressions such as standard and dialects, kanji, katakana and hiragana. Exists.

本発明は、上記の点に鑑み、異なる表記法に親和性のある複数の利用者が共同して作業する場合に、利用者間の意思疎通を図ることができる表記変換装置、変換表示装置、変換表示システム、制御方法及び記録媒体を提供することを目的とする。   The present invention has been made in view of the above points, and in the case where a plurality of users having affinity for different notations work jointly, a notation conversion device, a conversion display device, which can achieve communication between users, It is an object to provide a conversion display system, a control method, and a recording medium.

上記目的を達成するため、本発明の一態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段とを備えること特徴とする。   In order to achieve the above object, one embodiment of the present invention is a notation conversion device that converts first data written in a first notation in a first display area on a display surface into a notation in a second notation. Viewpoint determination means for determining whether or not a plurality of viewpoints are present in the first display region among respective viewpoints on the display surface of a plurality of users gazing at the display surface; and the first display region. Only when there are a plurality of viewpoints within, except for the first notation, determining means that determines a notation compatible with a plurality of users who pour eyes at the first display area as a second notation. And a notation conversion unit for converting the first data written in the first display area into second data written in the second notation, and a position of the second display area on the display surface. Generating means for generating position information indicating For displaying the second data in the second display area, the second data and the location information, and wherein further comprising an output means for outputting to an external display device.

ここで、前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現である、としてもよい。   Here, the first notation may be an expression in a first language, and the second notation may be an expression in a second language.

ここで、前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、又は、前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現である、としてもよい。   Here, the first notation is an expression in kanji, the second notation is an expression in katakana, hiragana or romaji, or the first notation is an expression in katakana, hiragana or romaji. Yes, the second notation may be an expression using Chinese characters.

ここで、前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である、としてもよい。   Here, the first notation is an expression in a standard language used nationwide as a norm, and the second notation is an expression in a dialect that has developed differently depending on the region, or the first notation May be an expression in a dialect, and the second notation may be an expression in a standard language.

ここで、前記第一表記法は、所定の観念を象徴するシンボルマークによる表現であり、前記第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものである、としてもよい。   Here, the first notation may be expressed by a symbol mark that symbolizes a predetermined idea, and the second notation may be expressed by a character that expresses the idea symbolized by the symbol mark. .

ここで、前記第一表記法は、簡易な表現によるものであり、前記第二表記法は、当該簡易な表現を詳細に解説する表現によるものである、としてもよい。   Here, the first notation may be based on a simple expression, and the second notation may be based on an expression that explains the simple expression in detail.

ここで、前記表現を詳細に解説する表現は、文字又は文字を含む図形によるものである、としてもよい。   Here, the expression for explaining the expression in detail may be a character or a graphic including the character.

ここで、前記決定手段により、決定される親和性のある表記法とは、利用者毎に馴染みのある表記法として予め登録されている表記法である、としてもよい。   Here, the affinity notation determined by the determination means may be a notation registered in advance as a notation familiar to each user.

ここで、前記決定手段は、前記複数の利用者に親和性のある表記法が複数存在する場合、前記複数の利用者のうち、最も多くの利用者に親和性のある一つの表記法を、前記第二表記法として決定する、としてもよい。   Here, when there are a plurality of notations that have an affinity for the plurality of users, the determination unit determines one notation that has an affinity for the most users among the plurality of users, It may be determined as the second notation.

ここで、前記決定手段により、前記複数の利用者に親和性のある複数の表記法が、前記第二表記法として決定された場合、前記表記変換手段は、前記第一データを、それぞれ、決定された複数の表記法により変換する、としてもよい。   Here, when the plurality of notations having affinity with the plurality of users are determined as the second notation by the determining unit, the notation conversion unit determines the first data, respectively. May be converted by a plurality of notations.

ここで、前記第二表示領域は、前記複数の表記法により、それぞれ、変換された前記第一データを表示する複数の部分領域に区分され、前記生成手段は、さらに、前記複数の部分領域を示す部分領域情報を生成し、前記出力手段は、さらに、前記部分領域情報を出力する、としてもよい。   Here, the second display area is divided into a plurality of partial areas each displaying the converted first data by the plurality of notations, and the generation unit further includes the plurality of partial areas. The output unit may further generate the partial area information to be displayed, and the output unit may further output the partial area information.

ここで、前記出力手段は、前記第二表示領域に、複数の前記変換された第一データの各々を、切り換えて表示させるため、複数の前記変換された第一データを、順次、出力する、としてもよい。   Here, the output unit, in the second display area, for each of the plurality of the converted first data, for switching to display, a plurality of the converted first data, sequentially output, It may be.

ここで、前記生成手段は、前記第一表示領域の位置を示す前記位置情報を生成し、前記出力手段は、前記第二表示領域として、前記第一表示領域に前記第二データを表示させるため、前記位置情報を出力する、としてもよい。   Here, the generation unit generates the position information indicating the position of the first display area, and the output unit displays the second data in the first display area as the second display area. The position information may be output.

ここで、さらに、前記第一表示領域の周辺の領域に、前記第二データのサイズより大きく、データが表示されていない空白領域が存在するか否かを判断する空白判断手段を備え、空白領域が存在すると判断される場合に、前記生成手段は、当該空白領域内において、前記第二表示領域の位置を示す前記位置情報を生成する、としてもよい。   Here, furthermore, there is provided a blank judging means for judging whether or not there is a blank area larger than the size of the second data and in which no data is displayed in an area around the first display area, When it is determined that the second display area exists, the generation unit may generate the position information indicating the position of the second display area in the blank area.

ここで、前記視点判断手段は、さらに、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、第三表示領域内に存する前記視点の数が、所定数以上であるか否かを判断し、前記生成手段は、さらに、所定数以上である場合、前記第三表示領域を拡大した拡大領域の範囲を示す拡大範囲情報を生成し、前記出力手段は、さらに、前記第三表示領域を拡大して表示するため、前記拡大範囲情報を前記表示装置に対して出力する、としてもよい。   Here, the viewpoint determination means may further include, among the respective viewpoints on the display surface of the plurality of users gazing at the display surface, the number of the viewpoints present in the third display area is equal to or greater than a predetermined number. And determining whether or not, if the number is greater than or equal to a predetermined number, the generating means generates expanded range information indicating a range of an expanded area obtained by expanding the third display area, and the output means further includes: The enlarged range information may be output to the display device in order to enlarge and display the third display area.

ここで、前記表示面上において、前記第一表示領域から所定距離内に前記第二表示領域が存し、前記第一表示領域に接して前記第二表示領域が存し、前記第一表示領域に重複して前記第二表示領域が存し、又は、前記第一表示領域に包含されて前記第二表示領域が存する、としてもよい。   Here, on the display surface, the second display area exists within a predetermined distance from the first display area, and the second display area exists in contact with the first display area, and the first display area The second display area may be present in an overlapping manner, or the second display area may be included in the first display area.

ここで、前記生成手段は、さらに、前記第一表示領域内における表示色又は表示パターンと、前記第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成し、前記出力手段は、さらに、前記表示色又は前記表示パターンを用いて表示させるため、前記色パターン情報を前記表示装置に対して出力する、としてもよい。   Here, the generation unit further generates the same color pattern information indicating the display color or display pattern in the first display area and the display color or display pattern in the second display area, and The means may further output the color pattern information to the display device for displaying using the display color or the display pattern.

ここで、さらに、前記表示面を注視する利用者の前記表示面における視点を検出する検出手段を備える、としてもよい。   Here, the apparatus may further include a detection unit that detects a viewpoint on the display surface of a user who gazes at the display surface.

ここで、前記検出手段は、前記利用者を被写体とする画像データを取得するカメラと、前記画像データから前記利用者の立ち位置と前記利用者の視線方向とを抽出し、抽出した前記立ち位置と前記視線方向に基づいて、前記表示面に注視する前記利用者の当該表示面における視点を算出する算出部とを備える、としてもよい。   In this case, the detecting means extracts a standing position of the user and a viewing direction of the user from the image data, and a camera for acquiring image data of the user as a subject, and the extracted standing position And a calculation unit that calculates a viewpoint on the display surface of the user who gazes at the display surface based on the gaze direction.

ここで、前記表示装置は、矩形状の前記表示面を上方に向けた姿勢で設けられ、前記利用者は、前記表示装置の周囲に立ち、前記生成手段は、さらに、前記第二データを構成する文字が、前記利用者の立ち位置から、正立して見えるように、前記第二データを回転させて配した画像データを生成し、前記出力手段は、前記第二データとして、前記画像データを出力し、前記表示装置は、前記第二表示領域に前記画像データを表示する、としてもよい。   Here, the display device is provided with the rectangular display surface facing upward, the user stands around the display device, and the generation unit further configures the second data. The image data generated by rotating the second data is generated so that the character to be displayed looks upright from the user's standing position, and the output unit outputs the image data as the second data. And the display device may display the image data in the second display area.

ここで、さらに、前記複数の利用者について、各々の利用者に親和性のある表記法を示す表記法情報を記憶している記憶手段を備え、前記決定手段は、前記記憶手段から前記表記法情報を取得し、取得した前記表記法情報により示される表記法を用いて、前記複数の利用者に親和性のある表記法を決定する、としてもよい。   Here, the information processing apparatus further includes a storage unit that stores notation information indicating a notation system compatible with each of the plurality of users, and the determining unit stores the notation information from the storage unit. Information may be acquired, and a notation that is compatible with the plurality of users may be determined using a notation indicated by the acquired notation information.

ここで、前記視点判断手段は、利用者の顔面に装着され、カメラと算出部とを備えた当該表記変換装置外部の眼鏡から前記視点を取得し、前記カメラは、利用者の視線方向を撮影して画像データを生成し、前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出する、としてもよい。   Here, the viewpoint determination unit is attached to the user's face, acquires the viewpoint from glasses outside the notation conversion device including a camera and a calculation unit, and the camera captures an eye direction of the user. And generating the image data, and the calculation unit may calculate a position of an object appearing in a central portion of the image data as a viewpoint.

ここで、前記視点判断手段は、利用者の顔面に装着され、カメラを備えた眼鏡型の前記表示装置から前記視点を取得し、前記表示装置は、前記カメラにより、利用者の視線方向を撮影して画像データを生成し、生成した前記画像データの中央部に写るオブジェクトの位置を視点として算出する、としてもよい。   Here, the viewpoint determination unit is mounted on the user's face and acquires the viewpoint from the glasses-type display device equipped with a camera, and the display device captures the user's line of sight with the camera. Then, image data may be generated, and the position of an object appearing at the center of the generated image data may be calculated as a viewpoint.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示装置であって、前記第一表示領域に前記第一データを表示する表示手段と、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点を取得する視点取得手段と、取得した前記視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記表示手段に対して出力する出力手段とを備え、前記表示手段は、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示すること特徴とする。   Further, another aspect of the present invention is a conversion display device that converts the first data written in the first notation into the first notation in the first display area on the display surface and converts the first data into the notation in the second notation, and displays the converted data. Display means for displaying the first data in the first display area, viewpoint acquisition means for acquiring respective viewpoints on the display surface of a plurality of users who gaze at the display surface, among the acquired viewpoints, Determining means for determining whether a plurality of viewpoints are present in the first display area, and only when the plurality of viewpoints are present in the first display area, excluding the first notation, the first display Determining means for determining a notation compatible with a plurality of users who pour eyes at the area as the second notation, and the first data written in the first display area, the second notation Notation converter that converts to the second data notation And a generating means for generating position information indicating a position of a second display area on the display surface, and an output means for outputting the second data and the position information to the display means, The means receives the second data and the position information, and displays the second data in the second display area.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、表記変換装置、表示装置及び検出装置を備え、前記検出装置は、利用者の顔面に装着され、カメラと算出部とを備えた眼鏡であり、前記カメラは、利用者の視線方向を撮影して画像データを取得し、前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記表記変換装置は、前記検出装置から取得し、前記表示面を注視する複数の利用者の当該表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記表示装置に対して出力する出力手段とを備え、前記表示装置は、前記表示面を有し、前記表示面の前記第一表示領域に前記第一データを表示し、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示することを特徴とする。   Further, another aspect of the present invention is a conversion display system that converts and displays the first data written in the first notation in the first display area on the display surface into the notation in the second notation, It has a notation conversion device, a display device, and a detection device, wherein the detection device is a pair of glasses that is mounted on the face of the user and includes a camera and a calculation unit, and the camera captures the gaze direction of the user. Acquisition of image data, the calculation unit calculates a position of an object appearing in a central portion of the image data as a viewpoint, and the notation conversion device acquires from the detection device, and uses a plurality of methods of gazing at the display surface. Viewpoint determination means for determining whether or not a plurality of viewpoints are present in the first display area among respective viewpoints on the display surface of the user, and only when a plurality of viewpoints exist in the first display area. , Except for the first notation A notation method that is compatible with a plurality of users who pour eyes at the first display area, a determination unit that determines the second notation method, and the first data written in the first display area, Notation conversion means for converting into second data written in the second notation, generating means for generating position information indicating a position of a second display area on the display surface, and the second data and the position Output means for outputting information to the display device, wherein the display device has the display surface, displays the first data in the first display area of the display surface, the second data And receiving the position information and displaying the second data in the second display area.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、表記変換装置、掲示板及び検出表示装置を備え、前記掲示板は、前記表示面を有し、前記検出表示装置は、利用者の顔面に装着され、カメラを備えたメガネ型の表示装置であって、前記カメラにより、利用者の視線方向を撮影して画像データを取得し、取得した前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記画像データを表示し、前記表記変換装置は、前記検出表示装置から取得し、前記表示面に注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記検出表示装置に対して出力する出力手段とを備え、前記検出表示装置は、前記第二データ及び前記位置情報を受信し、前記位置情報により示される前記第二表示領域に、前記第二データを表示することを特徴とする。   Further, another aspect of the present invention is a conversion display system that converts and displays the first data written in the first notation in the first display area on the display surface into the notation in the second notation, It is provided with a notation conversion device, a bulletin board, and a detection display device, wherein the bulletin board has the display surface, and the detection display device is a glasses-type display device equipped with a camera, which is mounted on a user's face, The camera obtains image data by capturing the direction of the user's line of sight, calculates the position of an object in the center of the obtained image data as a viewpoint, displays the image data, and displays the image data. A viewpoint determination that determines whether a plurality of viewpoints are obtained from the detection display device and a plurality of viewpoints are present in the first display area among respective viewpoints on the display surface of a plurality of users who gaze at the display surface. Means Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who pour eyes at the first display area, a second notation. Determining means to determine as, the first data written in the first display area, the notation conversion means to convert to the second data written by the second notation, on the display surface, Generating means for generating position information indicating the position of the second display area, and output means for outputting the second data and the position information to the detection display device, wherein the detection display device is the second data And receiving the position information, and displaying the second data in the second display area indicated by the position information.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御方法であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップとを含むこと特徴とする。   Another aspect of the present invention is a control method used in a notation conversion device that converts first data written in a first notation in a first display area on a display surface into a notation in a second notation. A viewpoint determining step of determining whether a plurality of viewpoints are present in the first display area among respective viewpoints on the display surface of a plurality of users who gaze at the display surface; and Only when there are a plurality of viewpoints in the area, except for the first notation, a notation that is compatible with a plurality of users who pour eyes at the first display area is determined as the second notation. And a notation conversion step of converting the first data written in the first display area into second data written in the second notation, and, on the display surface, Location information indicating the location A generation step of forming, for displaying the second data to the second display area, the second data and the location information, and wherein the and an output step of outputting to an external display device.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御用のコンピュータープログラムを記録しているコンピューター読み取り可能な記録媒体であって、コンピューターである前記表記変換装置に、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップとを実行させるためのコンピュータープログラムを記録していることを特徴とする。   Another aspect of the present invention is a control computer used in a notation conversion device that converts first data written in a first notation in a first display area on a display surface into a notation in a second notation. A computer-readable recording medium that records a program, wherein the notation conversion device that is a computer has a plurality of viewpoints among the viewpoints on the display surface of a plurality of users who gaze at the display surface. A viewpoint determining step of determining whether or not the first display area exists, and only when there are a plurality of viewpoints in the first display area, except for the first notation, a line of sight to the first display area. Determining a notation that has an affinity for a plurality of users who pours, as a second notation, and the first data described in the first display area, the second notation A notation conversion step of converting the data into second data, a generation step of generating position information indicating a position of a second display area on the display surface, and displaying the second data in the second display area. And outputting an output step of outputting the second data and the position information to an external display device.

上記の態様によると、第一表記法により第一データが表示されている第一表示領域に、複数の利用者の視点が存するときに限り、これらの視点に視線を注ぐ複数の利用者に親和性のある第二表記法(第一表記法を除く)により、第一データを変換して、第二表示領域に、第二データを表示する。   According to the above aspect, only when there are a plurality of viewpoints of the user in the first display area in which the first data is displayed by the first notation, the first display area is compatible with a plurality of users who look at these viewpoints. The first data is converted according to the second notation (excluding the first notation), and the second data is displayed in the second display area.

このように第二表示領域に第二データが表示されることにより、複数の利用者が第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人の利用者は、自分以外にも、第一表示領域に注目している利用者が存在し、その利用者が、自分と同様に、第一表示領域に表示されている第一データに関心を持っていることを知ることができる。その結果、複数の利用者の間で、意思疎通を図ることができる。また、第二表示領域には、第二データが表示されるので、第一表記法に親和性のない利用者であっても、第一表示領域に表示された第一データの意味を知ることができる。   By displaying the second data in the second display area in this manner, it can be understood that a plurality of users are paying attention to the first display area. In other words, one user who is paying attention to the first display area has a user who is paying attention to the first display area other than his / her own, and that user, like his / her own, is in the first display area. It is possible to know that the user is interested in the first data displayed in the area. As a result, communication can be achieved between a plurality of users. Also, since the second data is displayed in the second display area, even a user who does not have an affinity for the first notation can know the meaning of the first data displayed in the first display area. Can be.

実施の形態の翻訳表示装置1の外観斜視図を示す。1 shows an external perspective view of a translation display device 1 according to an embodiment. 翻訳表示装置1が備えるカメラ12a〜12dのそれぞれの水平画角321〜324を示す。The horizontal view angles 321 to 324 of the cameras 12a to 12d included in the translation display device 1 are shown. 翻訳表示装置1の内部の構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of the translation display device 1. 表示データテーブル171のデータ構造の一例を示す。5 shows an example of the data structure of a display data table 171. 翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。4 shows a relationship between text data displayed on the display unit 102 of the translation display device 1 and a user's standing position. ユーザー属性テーブル191のデータ構造の一例及び顔画像データの一例を示す。13 shows an example of a data structure of a user attribute table 191 and an example of face image data. 画像データの一例を示す。1 shows an example of image data. オブジェクト情報テーブル121のデータ構造の一例及びオブジェクトデータの一例を示す。4 shows an example of a data structure of an object information table 121 and an example of object data. パーツ情報テーブル131のデータ構造の一例及びパーツデータの一例を示す。2 shows an example of a data structure of a parts information table 131 and an example of parts data. ユーザー位置テーブル141のデータ構造の一例を示す。4 shows an example of a data structure of a user position table 141. 水平方向テーブル156のデータ構造の一例を示す。4 shows an example of the data structure of a horizontal direction table 156. 視線情報テーブル151のデータ構造の一例を示す。4 shows an example of the data structure of a line-of-sight information table 151. 視点位置テーブル161のデータ構造の一例を示す。4 shows an example of the data structure of a viewpoint position table 161. 表示領域テーブル181のデータ構造の一例を示す。9 shows an example of the data structure of a display area table 181. 翻訳テキストデータテーブル201のデータ構造の一例を示す。4 shows an example of the data structure of a translation text data table 201. (a)三方向に向いたユーザーの頭部の概略図を示す。(b)ユーザーの頭部の水平方向の向きを示す。(c)鉛直方向に対して三つの傾きを有するユーザーの頭部の概略図を示す。(d)ユーザーの頭部の鉛直方向からの傾きを示す。(A) shows a schematic view of the user's head facing in three directions. (B) Indicates the horizontal orientation of the user's head. (C) A schematic diagram of a user's head having three inclinations with respect to the vertical direction is shown. (D) The inclination of the user's head from the vertical direction is shown. 翻訳表示装置1の表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。2 shows an example of text data and translated text data displayed on the display unit 102 of the translation display device 1. (a)第一表示領域351aと第二表示領域352aとが接触している場合の一例を示す。(b)第一表示領域351bから、所定距離内に、第二表示領域352bが存する場合の一例を示す。(c)第一表示領域351cに重複して、第二表示領域352cが存する場合の一例を示す。(d)第一表示領域351dに包含されて第二表示領域352dが存する場合の一例を示す。(e)第一表示領域351e内の背景に施されたハッチングパターンと、第二表示領域352e内の背景に施されたハッチングパターンとが一致する場合の一例を示す。(f)第一表示領域351f内の背景に施されたドットパターンと、第二表示領域352f内の背景に施されたドットパターンとが一致する場合の一例を示す。(g)第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされている場合の一例を示す。(h)第一表示領域351hの枠の表示パターンと、第二表示領域352hの枠の表示パターンとが一致する場合の一例を示す。(A) An example in which the first display area 351a and the second display area 352a are in contact with each other is shown. (B) An example in which the second display area 352b exists within a predetermined distance from the first display area 351b. (C) An example in which the second display area 352c exists so as to overlap the first display area 351c. (D) An example in which the second display area 352d is included in the first display area 351d is shown. (E) An example in which the hatching pattern applied to the background in the first display area 351e matches the hatching pattern applied to the background in the second display area 352e. (F) An example in which the dot pattern applied to the background in the first display area 351f matches the dot pattern applied to the background in the second display area 352f. (G) An example in which the first display area 351g and the second display area 352g are linked by a line image 353. (H) An example in which the display pattern of the frame of the first display area 351h matches the display pattern of the frame of the second display area 352h. 翻訳表示装置1の動作を示すフローチャートである。図20へ続く。4 is a flowchart illustrating an operation of the translation display device 1. It continues to FIG. 翻訳表示装置1の動作を示すフローチャートである。図19から続く。4 is a flowchart illustrating an operation of the translation display device 1. Continued from FIG. (a)変形例(1)としての翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。(b)翻訳表示装置1の表示部102に大きく表示されるテキストデータ及び翻訳テキストデータの一例を示す。(A) The relationship between the text data displayed on the display unit 102 of the translation display device 1 as a modification (1) and the user's standing position is shown. (B) shows an example of text data and translated text data which are displayed on the display unit 102 of the translation display device 1 in a large scale. 変形例(2)としての翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係、及び、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。The relationship between the text data displayed on the display unit 102 of the translation display device 1 and the user's standing position as a modified example (2), and an example of the text data and translated text data displayed on the display unit 102 are shown. 変形例(3)としての翻訳表示システム501の概略構成を示す。14 shows a schematic configuration of a translation display system 501 as a modification (3). (a)変形例(4)としての翻訳表示システム531の概略構成を示す。(b)メガネ533の表示部533bに表示される画像の一例を示す。(A) A schematic configuration of a translation display system 531 as a modification (4) is shown. (B) An example of an image displayed on the display unit 533b of the glasses 533 is shown.

1 実施の形態
本発明の一の実施の形態としての翻訳表示装置1について説明する。
1. Embodiment A translation display device 1 according to one embodiment of the present invention will be described.

1.1 翻訳表示装置1
図1は、翻訳表示装置1の外観斜視図を示す。
1.1 Translation display device 1
FIG. 1 is an external perspective view of the translation display device 1.

翻訳表示装置1は、この図に示すように、テーブル型の表示装置である。翻訳表示装置1の天板には、矩形の表示部102が組み込まれ、天板の4つの隅には、それぞれ、カメラ12a、12b、12c及び12dが設置されている。翻訳表示装置1の本体部は、脚部11により支持されている。また、天板の四周辺には、等間隔で、例えば、5cm間隔で、目盛り15a、15b、15c、15dが付されている。   The translation display device 1 is a table-type display device as shown in FIG. A rectangular display unit 102 is incorporated in the top plate of the translation display device 1, and cameras 12a, 12b, 12c, and 12d are installed at four corners of the top plate, respectively. The main body of the translation display device 1 is supported by legs 11. Scales 15a, 15b, 15c, and 15d are provided at equal intervals, for example, at intervals of 5 cm, around the four sides of the top plate.

表示部102は、矩形状の表示面を上方に向けた姿勢で設けられている。ユーザーは、表示部102を備えた翻訳表示装置1の周囲に立つ。   The display unit 102 is provided with a rectangular display surface facing upward. The user stands around the translation display device 1 including the display unit 102.

本明細書において、矩形の表示部102の一頂点102aに原点を設定し、矩形の表示部102の短辺102b及び長辺102cに沿って、X軸及びY軸を設定し、鉛直方向にZ軸を設定する。また、翻訳表示装置1が存在する空間を、X−Y−Z座標により特定し、表示部102の表示面をX−Y座標により特定する。   In this specification, the origin is set at one vertex 102a of the rectangular display unit 102, the X axis and the Y axis are set along the short side 102b and the long side 102c of the rectangular display unit 102, and Z is set in the vertical direction. Set the axis. In addition, the space in which the translation display device 1 exists is specified by XYZ coordinates, and the display surface of the display unit 102 is specified by XY coordinates.

図2は、カメラ12a〜12dのそれぞれの水平画角321〜324を示す。   FIG. 2 shows horizontal angles of view 321 to 324 of the cameras 12a to 12d.

カメラ12aは、その光軸が、水平面から略22.5度上方、対角の隅側に向くように、設置されており、その撮影方向は、固定されている。カメラ12aの水平画角321は、例えば、略90度であり、垂直画角は、例えば、略45度である。カメラ12b、12c及び12dについても、カメラ12aと同様である。   The camera 12a is installed such that its optical axis is directed upward by about 22.5 degrees from a horizontal plane toward a diagonal corner, and its shooting direction is fixed. The horizontal angle of view 321 of the camera 12a is, for example, approximately 90 degrees, and the vertical angle of view is, for example, approximately 45 degrees. The cameras 12b, 12c and 12d are the same as the camera 12a.

図2に示すように、カメラ12a〜12dによる撮影範囲は、翻訳表示装置1の周囲をほぼ覆い尽くしているので、カメラ12a〜12dにより、翻訳表示装置1の周囲に立つユーザー、特に、そのユーザーの顔を撮影することができる。   As shown in FIG. 2, the photographing range of the cameras 12 a to 12 d almost completely covers the periphery of the translation display device 1. Therefore, the users standing around the translation display device 1 by the cameras 12 a to 12 d, particularly, the user Face can be taken.

1.2 翻訳表示装置1の内部の構成
図3は、翻訳表示装置1の内部の構成を示すブロック図である。
1.2 Internal Configuration of Translation Display Apparatus 1 FIG. 3 is a block diagram showing the internal configuration of translation display apparatus 1.

この図に示すように、翻訳表示装置1は、カメラ12a〜12d、主制御部101、表示部102、出力部103、記憶部104、入力部105a〜105d、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110、翻訳部111及び合成部229から構成されている。   As shown in this figure, the translation display device 1 includes cameras 12a to 12d, a main control unit 101, a display unit 102, an output unit 103, a storage unit 104, input units 105a to 105d, a face recognition processing unit 106, a position calculation unit. 107, a gaze viewpoint calculation unit 108, a display area detection unit 109, a display control unit 110, a translation unit 111, and a synthesis unit 229.

ここで、主制御部101、記憶部104の一部、表示制御部110及び翻訳部111は、表示面上の一の表示領域に第一言語(第一表記法)により表記されたデータを第二言語(第二表記法)による表記に翻訳(変換)する翻訳装置(表記変換装置)を構成している。ここで、第一表記法は、第一言語による表現であり、第二表記法は、第二言語による表現である。また、カメラ12a〜12d、主制御部101、記憶部104の一部、入力部105a〜105d、顔認識処理部106、位置算出部107、視線視点算出部108及び表示領域検出部109は、表示面を注視するユーザーの表示面における視点を検出する検出手段を構成している。カメラ12a〜12dは、それぞれ、ユーザーを被写体とする画像データを取得する。顔認識処理部106、位置算出部107、視線視点算出部108及び表示領域検出部109は、画像データからユーザーの立ち位置とユーザーの視線方向とを抽出し、抽出した立ち位置と視線方向に基づいて、表示面に注視するユーザーの表示面における視点を算出する算出部を構成している。   Here, the main control unit 101, a part of the storage unit 104, the display control unit 110, and the translation unit 111 convert the data written in the first language (first notation) into one display area on the display surface. It constitutes a translation device (notation conversion device) that translates (converts) into notation in two languages (second notation). Here, the first notation is an expression in a first language, and the second notation is an expression in a second language. The cameras 12a to 12d, the main control unit 101, a part of the storage unit 104, the input units 105a to 105d, the face recognition processing unit 106, the position calculation unit 107, the line-of-sight viewpoint calculation unit 108, and the display area detection unit 109 A detection unit configured to detect a viewpoint on a display surface of a user who gazes at the surface is configured. Each of the cameras 12a to 12d acquires image data of a user as a subject. The face recognition processing unit 106, the position calculation unit 107, the line-of-sight viewpoint calculation unit 108, and the display area detection unit 109 extract the user's standing position and the user's line-of-sight direction from the image data, and based on the extracted standing position and line-of-sight direction. Thus, the calculation unit that calculates the viewpoint on the display surface of the user who gazes at the display surface is configured.

翻訳表示装置1は、制御用のコンピュータープログラムを記憶しているメモリ及びコンピュータープログラムに従って動作するプロセッサーを含んでいる。主制御部101、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110及び翻訳部111は、それぞれ、プロセッサーがコンピュータープログラムに従って動作することにより、その機能を果たす。   The translation display device 1 includes a memory that stores a computer program for control and a processor that operates according to the computer program. The main control unit 101, the face recognition processing unit 106, the position calculation unit 107, the line-of-sight viewpoint calculation unit 108, the display area detection unit 109, the display control unit 110, and the translation unit 111 are each operated by a processor according to a computer program. Perform its function.

(1)記憶部104
記憶部104は、例えば、ハードディスクから構成されている。
(1) Storage unit 104
The storage unit 104 includes, for example, a hard disk.

記憶部104は、画像データ111a、111b、111c、111d、オブジェクト情報テーブル121、オブジェクトデータ128、・・・、パーツ情報テーブル131、パーツデータ137a、137b、137c、・・・、ユーザー位置テーブル141、視線情報テーブル151、水平方向テーブル156、視点位置テーブル161、表示データテーブル171、表示領域テーブル181、ユーザー属性テーブル191、顔画像データ197a、197b、197c、・・・、翻訳テキストデータテーブル201、辞書データベース211、表示画像データ(図5)、及び、その他のデータ(図示していない)を記憶するための領域を備えている。   The storage unit 104 stores the image data 111a, 111b, 111c, 111d, the object information table 121, the object data 128,..., The parts information table 131, the parts data 137a, 137b, 137c,. Eye information table 151, horizontal direction table 156, viewpoint position table 161, display data table 171, display area table 181, user attribute table 191, face image data 197a, 197b, 197c, ..., translation text data table 201, dictionary It has an area for storing a database 211, display image data (FIG. 5), and other data (not shown).

(表示データテーブル171)
図4は、表示データテーブル171のデータ構造の一例を示す。
(Display data table 171)
FIG. 4 shows an example of the data structure of the display data table 171.

表示データテーブル171は、表示部102により表示されるテキストデータ(第一データ)を格納するためのデータテーブルである。表示データテーブル171は、この図に示すように、予め、複数の表示データ関連情報172を含んでいる。   The display data table 171 is a data table for storing text data (first data) displayed by the display unit 102. The display data table 171 includes a plurality of pieces of display data related information 172 in advance as shown in FIG.

各表示データ関連情報172は、データID173、表示位置174、幅175、高さ176、テキストデータ177及び使用言語178を含んでいる。   Each display data related information 172 includes a data ID 173, a display position 174, a width 175, a height 176, text data 177, and a language 178 to be used.

データID173は、表示データ関連情報172を識別するための識別子である。表示位置174は、テキストデータ177を表示する第一表示領域の左下点の表示部102における座標値(X座標、Y座標)を示す。幅175及び高さ176は、それぞれ、テキストデータ177を表示する第一表示領域の幅及び高さを示す。テキストデータ177は、表示部102の第一表示領域に表示される内容を示す。ここでは、翻訳の容易性を考慮して、テキストデータである。使用言語178は、テキストデータ177の言語を示す。   The data ID 173 is an identifier for identifying the display data related information 172. The display position 174 indicates a coordinate value (X coordinate, Y coordinate) of the lower left point of the first display area for displaying the text data 177 on the display unit 102. The width 175 and the height 176 indicate the width and the height of the first display area for displaying the text data 177, respectively. Text data 177 indicates the content displayed in the first display area of display unit 102. Here, the data is text data in consideration of ease of translation. The used language 178 indicates the language of the text data 177.

図5は、一例として、表示データテーブル171に基づいて、翻訳表示装置1の表示部102に表示される表示画像データを示す。   FIG. 5 shows display image data displayed on the display unit 102 of the translation display device 1 based on the display data table 171 as an example.

第一表示領域301、302、303、304、・・・には、それぞれ、表示データテーブル171において、データID「K001」、「K002」、「K003」、「K004」、・・・により識別される表示データ関連情報内のテキストデータが表示される。   The first display areas 301, 302, 303, 304,... Are identified by data IDs “K001”, “K002”, “K003”, “K004”,. The text data in the display data related information is displayed.

(ユーザー属性テーブル191)
図6は、ユーザー属性テーブル191のデータ構造の一例を示す。
(User attribute table 191)
FIG. 6 shows an example of the data structure of the user attribute table 191.

ユーザー属性テーブル191は、各ユーザーの属性を保持するデータテーブルである。   The user attribute table 191 is a data table that holds the attributes of each user.

ユーザー属性テーブル191は、この図に示すように、予め、複数のユーザー属性情報192を含んでいる。   The user attribute table 191 contains a plurality of pieces of user attribute information 192 in advance as shown in FIG.

各ユーザー属性情報192は、ユーザーID193、ユーザー名194、使用言語195及び顔画像ID196から構成されている。   Each user attribute information 192 is composed of a user ID 193, a user name 194, a language 195 used, and a face image ID 196.

ユーザーID193は、ユーザーを識別する識別子である。ユーザー名194は、ユーザーを示す名称である。使用言語195(表記法情報)は、当該ユーザーが理解可能な言語である。ここで、理解可能とは、当該ユーザーがその言語の文字を読んで(見て)理解できることを言うが、さらに、聞いて理解し、話すことができ、書くことができることを言うとしてもよい。このように、使用言語195は、各々のユーザーに親和性のある言語(表記法)を示す。顔画像ID196は、当該ユーザーの顔画像を表す顔画像データを識別する識別子である。   The user ID 193 is an identifier for identifying a user. The user name 194 is a name indicating a user. The language 195 (notation information) is a language that the user can understand. Here, “understandable” means that the user can read (see) and understand the characters in the language, but may also mean that he can listen, understand, speak, and write. As described above, the used language 195 indicates a language (notation) compatible with each user. The face image ID 196 is an identifier for identifying face image data representing a face image of the user.

(顔画像データ)
記憶部104は、複数の顔画像データを記憶するための領域を備えている。
(Face image data)
The storage unit 104 has an area for storing a plurality of face image data.

図6には、顔画像データの一例も示している。   FIG. 6 also shows an example of the face image data.

図6に示す顔画像データ197a、197b、197c、197d、・・・は、それぞれ、図6のユーザー属性テーブル191のユーザーID「U001」、「U002」、「U003」、「U004」、・・・に対応している。   The face image data 197a, 197b, 197c, 197d,... Shown in FIG. 6 are respectively user IDs “U001”, “U002”, “U003”, “U004”,.・ It supports.

顔画像データは、ユーザーを認識するために用いられるので、ユーザーの顔の正面から撮影した顔画像が好ましい。さらに、ユーザーの顔の左側から撮影した顔画像、及び、顔の右側から撮影した顔画像を含めるとしてもよい。   Since the face image data is used for recognizing the user, a face image taken from the front of the user's face is preferable. Furthermore, a face image taken from the left side of the user's face and a face image taken from the right side of the face may be included.

(画像データ)
記憶部104は、画像データ111a、111b、111c、111d(図3)を記憶するための領域を備えている。
(image data)
The storage unit 104 has an area for storing the image data 111a, 111b, 111c, 111d (FIG. 3).

画像データ111a、111b、111c、111dは、それぞれ、カメラ12a、12b、12c、12dによる撮影により、生成された多階調の画像データである。画像データには、複数の画素が行列状に配されている。   The image data 111a, 111b, 111c, and 111d are multi-gradation image data generated by shooting with the cameras 12a, 12b, 12c, and 12d, respectively. In the image data, a plurality of pixels are arranged in a matrix.

図7は、画像データの一例として、カメラ12aによる撮影により、生成された画像データ111aを示す。画像データ111aには、翻訳表示装置1の周囲に立つ複数のユーザーの画像343a、343b、343c、343d、及び、翻訳表示装置1の天板の一部の画像343eが含まれている。カメラ12aの撮影方向は、固定されているので、画像データ111aには、常に、翻訳表示装置1の天板の同じ部分が写り込んでいる。また、画像343eには、天板の周辺に付された目盛り344a、344b、344cが写り込んでいる。このため、画像343e内の目盛り344a、344b、344cと、画像343a、343b、343c、343dとの位置関係から、画像343a、343b、343c、343dが表すユーザーの立ち位置を知ることができる。   FIG. 7 shows, as an example of image data, image data 111a generated by shooting with the camera 12a. The image data 111a includes images 343a, 343b, 343c, and 343d of a plurality of users standing around the translation display device 1, and an image 343e of a part of the top plate of the translation display device 1. Since the shooting direction of the camera 12a is fixed, the same part of the top of the translation display device 1 is always reflected in the image data 111a. In the image 343e, scales 344a, 344b, and 344c provided on the periphery of the top board are reflected. Therefore, the user's standing position represented by the images 343a, 343b, 343c, 343d can be known from the positional relationship between the scales 344a, 344b, 344c in the image 343e and the images 343a, 343b, 343c, 343d.

図7に示す画像データ111aには、画像343a、343b、343c、343dのうち、ユーザーのそれぞれの顔部分であるオブジェクトデータ342a、342b、342c、342dを示している。各オブジェクトデータの形状は、矩形である。   The image data 111a illustrated in FIG. 7 shows object data 342a, 342b, 342c, and 342d, which are the face portions of the user, of the images 343a, 343b, 343c, and 343d. The shape of each object data is a rectangle.

カメラ12b、12c、12dによる撮影により、生成された画像データ111b、111c、111dについても、画像データ111aと同様である。   Image data 111b, 111c, and 111d generated by photographing with the cameras 12b, 12c, and 12d are the same as the image data 111a.

なお、画像データ111a、111b、111c、111dは、それぞれ、静止画であるが、動画像であるとしてもよい。   Each of the image data 111a, 111b, 111c, and 111d is a still image, but may be a moving image.

(オブジェクト情報テーブル121)
図8は、オブジェクト情報テーブル121のデータ構造の一例を示す。
(Object information table 121)
FIG. 8 shows an example of the data structure of the object information table 121.

オブジェクト情報テーブル121は、カメラ12a〜12dによる撮影により生成された画像データに写り込んだユーザーの顔部分であるオブジェクトデータを示すオブジェクト情報を記憶するためのデータテーブルである。   The object information table 121 is a data table for storing object information indicating object data which is a user's face portion reflected in image data generated by photographing by the cameras 12a to 12d.

オブジェクト情報テーブル121は、この図に示すように、複数のオブジェクト情報122を記憶するための領域を備えている。オブジェクト情報122は、一つのオブジェクトデータに対応しており、各オブジェクト情報122は、カメラID123、画像ID124、オブジェクトID125、オブジェクト範囲126及びユーザーID127を含んでいる。   The object information table 121 has an area for storing a plurality of pieces of object information 122 as shown in FIG. The object information 122 corresponds to one object data, and each object information 122 includes a camera ID 123, an image ID 124, an object ID 125, an object range 126, and a user ID 127.

カメラID123は、当該オブジェクトデータを含む画像データを生成したカメラを識別するための識別子である。画像ID124は、当該オブジェクトデータを含む画像データを識別するための識別子である。オブジェクトIDは、当該オブジェクトデータを識別するための識別子である。オブジェクト範囲126は、画像データ内において、矩形状の当該オブジェクトデータの左下点と右上点が存在する座標を示す。ユーザーIDは、当該オブジェクトデータとしてその顔が写り込んだユーザーを識別する識別子である。   The camera ID 123 is an identifier for identifying a camera that has generated image data including the object data. The image ID 124 is an identifier for identifying image data including the object data. The object ID is an identifier for identifying the object data. The object range 126 indicates coordinates where the lower left point and the upper right point of the rectangular object data exist in the image data. The user ID is an identifier for identifying a user whose face is reflected in the object data.

なお、異なるカメラが一人のユーザーを撮影することもありうるので、オブジェクト情報テーブル121には、同一のユーザーについて、複数のオブジェクト情報が含まれる場合がある。   Since different cameras may shoot one user, the object information table 121 may include a plurality of pieces of object information for the same user.

(オブジェクトデータ)
記憶部104は、複数のオブジェクトデータ128、・・・を記憶するための領域を備えている。
(Object data)
The storage unit 104 has an area for storing a plurality of object data 128,.

記憶部104に記憶されているオブジェクトデータ128、・・・は、画像データから、ユーザーの顔部分の画像データが切り出されたものである。   The object data 128,... Stored in the storage unit 104 is obtained by cutting out image data of a user's face from image data.

図8には、オブジェクトデータの一例も示している。   FIG. 8 also shows an example of the object data.

図8に示すオブジェクトデータ128は、図8のオブジェクト情報テーブル121のオブジェクトID「OB0001」に対応している。   The object data 128 shown in FIG. 8 corresponds to the object ID “OB0001” in the object information table 121 in FIG.

オブジェクトデータは、ユーザーの立ち位置及びユーザーの視線を検出するために用いられる。   The object data is used to detect the user's standing position and the user's line of sight.

(パーツ情報テーブル131)
図9は、パーツ情報テーブル131のデータ構造の一例を示す。
(Parts information table 131)
FIG. 9 shows an example of the data structure of the parts information table 131.

パーツ情報テーブル131は、この図に示すように、複数のパーツ情報132を記憶するための領域を備えている。   The parts information table 131 has an area for storing a plurality of parts information 132 as shown in FIG.

ここで、オブジェクト(顔)を構成する部分(左目、右目、口、鼻、左耳、右耳等)をパーツと呼び、画像データ内のユーザーの顔部分であるオブジェクトデータから、左目、右目、口、鼻、左耳、右耳等の部分画像であるパーツデータが切り出される。ここで、パーツデータの形状は、矩形である。   Here, the parts (the left eye, the right eye, the mouth, the nose, the left ear, the right ear, etc.) constituting the object (face) are referred to as parts, and the left eye, the right eye, Parts data as partial images of the mouth, nose, left ear, right ear, and the like are cut out. Here, the shape of the parts data is a rectangle.

パーツ情報132は、一つのパーツデータに対応しており、各パーツ情報132は、オブジェクトID133、パーツID134、パーツ範囲135及びパーツタイプ136を含んでいる。   The part information 132 corresponds to one part data, and each part information 132 includes an object ID 133, a part ID 134, a part range 135, and a part type 136.

オブジェクトID133は、当該パーツデータが含まれるオブジェクトデータを識別する識別子である。パーツID134は、当該パーツデータを識別する識別子である。パーツ範囲135は、当該パーツデータが含まれるオブジェクトデータ内において、矩形状の当該パーツデータの左下点と右上点が存在する座標を示す。パーツタイプ136は、当該パーツデータの種類を示す。つまり、パーツタイプ136は、当該パーツデータが左目、右目、口、鼻、左耳、右耳のいずれであるかを示す。   The object ID 133 is an identifier for identifying object data including the part data. The part ID 134 is an identifier for identifying the part data. The part range 135 indicates coordinates where the lower left point and the upper right point of the rectangular part data exist in the object data including the part data. The part type 136 indicates the type of the part data. That is, the part type 136 indicates whether the part data is the left eye, the right eye, the mouth, the nose, the left ear, or the right ear.

(パーツデータ)
記憶部104は、複数のパーツデータ137a、・・・を記憶するための領域を備えている。
(Part data)
The storage unit 104 has an area for storing a plurality of parts data 137a,.

記憶部104に記憶されているパーツデータ137a、・・・は、ユーザーの顔部分のオブジェクトデータから、その部分であるパーツの画像データが切り出されたものである。   The part data 137a,... Stored in the storage unit 104 is obtained by cutting out image data of a part as the part from object data of the user's face.

図9には、パーツデータの一例も示している。   FIG. 9 also shows an example of the part data.

図9に示すパーツデータ137a〜137fは、それぞれ、図9のパーツ情報テーブル131のオブジェクトID「OB0001」のパーツID「PT0001」〜「PT0006」に対応している。   The part data 137a to 137f illustrated in FIG. 9 correspond to the part IDs “PT0001” to “PT0006” of the object ID “OB0001” in the part information table 131 in FIG. 9, respectively.

パーツデータは、ユーザーの視線を検出するために用いられる。   The part data is used to detect the user's line of sight.

(ユーザー位置テーブル141)
図10は、ユーザー位置テーブル141のデータ構造の一例を示す。
(User position table 141)
FIG. 10 shows an example of the data structure of the user position table 141.

ユーザー位置テーブル141は、翻訳表示装置1の周囲におけるユーザーの立ち位置を示すユーザー位置情報を記憶するためのデータテーブルである。   The user position table 141 is a data table for storing user position information indicating a user's standing position around the translation display device 1.

ユーザー位置テーブル141は、この図に示すように、複数のユーザー位置情報142を記憶するための領域を備えている。ユーザー位置情報142は、一人のユーザーに対応している。   The user position table 141 includes an area for storing a plurality of pieces of user position information 142, as shown in FIG. The user location information 142 corresponds to one user.

各ユーザー位置情報142は、ユーザーID143及びユーザー位置144を含む。   Each user location information 142 includes a user ID 143 and a user location 144.

ユーザーID143は、当該ユーザーを識別するための識別子である。ユーザー位置144は、翻訳表示装置1の周囲に立つユーザーの顔の中心部分の位置(つまり、ユーザーの立ち位置)を、X−Y−Z座標で示す。   The user ID 143 is an identifier for identifying the user. The user position 144 indicates the position of the center of the user's face standing around the translation display device 1 (that is, the user's standing position) in XYZ coordinates.

(水平方向テーブル156)
図11は、水平方向テーブル156のデータ構造の一例を示す。
(Horizontal table 156)
FIG. 11 shows an example of the data structure of the horizontal direction table 156.

水平方向テーブル156は、ユーザーの顔の水平方向の向きを算出するために用いるデータテーブルである。   The horizontal direction table 156 is a data table used to calculate the horizontal direction of the user's face.

水平方向テーブル156は、この図に示すように、予め、複数の水平方向情報157を記憶している。水平方向情報157は、ユーザーの顔の一つの水平方向の向きに対応している。   The horizontal direction table 156 stores a plurality of pieces of horizontal direction information 157 in advance as shown in FIG. The horizontal direction information 157 corresponds to one horizontal direction of the user's face.

各水平方向情報157は、比率158及び水平方向角度159を含む。   Each horizontal information 157 includes a ratio 158 and a horizontal angle 159.

比率158は、左側交差位置と右側交差位置との間における中央線の位置を比率(%)で示す。具体的には、比率「左0」は、中央線が左側交差位置に一致することを示す。比率「左25」は、左側交差位置と右側交差位置との間において、中央線が左側交差位置から25%の位置に存在することを示す。比率「50」は、中央線が、左側交差位置と右側交差位置との中央の位置に存在することを示す。比率「右25」は、左側交差位置と右側交差位置との間において、中央線が右側交差位置から25%の位置に存在することを示す。比率「右0」は、中央線が右側交差位置に一致することを示す。   The ratio 158 indicates the position of the center line between the left intersection position and the right intersection position by a ratio (%). Specifically, the ratio “left 0” indicates that the center line matches the left intersection position. The ratio “left 25” indicates that the center line exists between the left intersection position and the right intersection position at a position 25% from the left intersection position. The ratio “50” indicates that the center line exists at the center between the left intersection position and the right intersection position. The ratio “right 25” indicates that the center line exists between the left intersection position and the right intersection position at a position 25% from the right intersection position. The ratio “right 0” indicates that the center line coincides with the right intersection position.

ここで、中央線、左側交差位置及び右側交差位置について、図16(a)を参照しながら、説明する。   Here, the center line, the left intersection position, and the right intersection position will be described with reference to FIG.

中央線364aは、ユーザーの頭部363aにおいて、左目と右目との中間点を頭部の上下方向に貫く直線である。左側交差位置367は、両目を結ぶ線369と左側輪郭線366aが交差する位置であり、右側交差位置368は、両目を結ぶ線369と右側輪郭線365aが交差する位置である。なお、左側輪郭線366aは、頭部363aの左側の輪郭線を示し、右側輪郭線365aは、頭部363aの右側の輪郭線を示す。   The center line 364a is a straight line that passes through the midpoint between the left eye and the right eye in the user's head 363a in the vertical direction of the head. The left intersection position 367 is a position where the line 369 connecting both eyes intersects with the left outline 366a, and the right intersection position 368 is a position where the line 369 connecting both eyes intersects with the right outline 365a. Note that the left contour line 366a indicates the contour line on the left side of the head 363a, and the right contour line 365a indicates the right contour line of the head 363a.

ここで、中央線と左側交差位置との距離を左距離と呼び、中央線と右側交差位置との距離を右距離と呼ぶ。   Here, the distance between the center line and the left intersection is called a left distance, and the distance between the center line and the right intersection is called a right distance.

水平方向角度は、ユーザーの顔の水平方向の向きを角度(度)で示す。   The horizontal angle indicates the horizontal direction of the user's face in degrees (degrees).

例えば、図11に示す水平方向テーブル156において、比率「左0」と水平方向角度「左90」とが対応している。比率「左0」の場合、ユーザーの顔は、正面から、90度だけ、左側を向いていることを示す。   For example, in the horizontal direction table 156 shown in FIG. 11, the ratio “left 0” corresponds to the horizontal angle “left 90”. In the case of the ratio “left 0”, it indicates that the user's face is facing left by 90 degrees from the front.

また、比率「左25」と水平方向角度「左45」とが対応している。ここで、比率「左25」の場合、ユーザーの顔は、正面から、45度だけ、左側を向いていることを示す。   The ratio “left 25” corresponds to the horizontal angle “left 45”. Here, when the ratio is “left 25”, it indicates that the user's face is facing left by 45 degrees from the front.

さらに、比率「50」と水平方向角度「0」とが対応している。ここで、比率「50」の場合、ユーザーの顔は、正面を向いていることを示す。   Further, the ratio “50” corresponds to the horizontal direction angle “0”. Here, when the ratio is “50”, it indicates that the user's face is facing the front.

その他の場合についても、同様である。   The same applies to other cases.

(視線情報テーブル151)
図12は、視線情報テーブル151のデータ構造の一例を示す。
(Gaze information table 151)
FIG. 12 shows an example of the data structure of the eye-gaze information table 151.

視線情報テーブル151は、ユーザーの視線を示す視線情報を記憶するためのデータテーブルである。   The line-of-sight information table 151 is a data table for storing line-of-sight information indicating the line of sight of the user.

視線情報テーブル151は、この図に示すように、複数の視線情報152を記憶するための領域を備えている。視線情報152は、一人のユーザーの視線に対応している。   The gaze information table 151 has an area for storing a plurality of gaze information 152 as shown in FIG. The line of sight information 152 corresponds to the line of sight of one user.

各視線情報152は、ユーザーID153、ユーザー位置154及び方向情報155を含む。   Each line of sight information 152 includes a user ID 153, a user position 154, and direction information 155.

ユーザーID153は、当該ユーザーを識別するための識別子である。ユーザー位置144は、翻訳表示装置1の周囲に立つユーザーの顔の中心部分の位置を、X−Y−Z座標で示す。方向情報155は、ユーザーの視線の向く方向を、ユーザー位置144からのベクトル(X、Y、Z)により、示す。   The user ID 153 is an identifier for identifying the user. The user position 144 indicates the position of the center portion of the user's face standing around the translation display device 1 by XYZ coordinates. The direction information 155 indicates the direction in which the user's line of sight is directed by a vector (X, Y, Z) from the user position 144.

(視点位置テーブル161)
図13は、視点位置テーブル161のデータ構造の一例を示す。
(Viewpoint position table 161)
FIG. 13 shows an example of the data structure of the viewpoint position table 161.

視点位置テーブル161は、表示部102の表示面における、ユーザーの視点を示す視点位置情報を記憶するためのデータテーブルである。   The viewpoint position table 161 is a data table for storing viewpoint position information indicating the viewpoint of the user on the display surface of the display unit 102.

視点位置テーブル161は、この図に示すように、複数の視点位置情報162を記憶するための領域を備えている。視点位置情報162は、一人のユーザーの視点に対応している。   The viewpoint position table 161 has an area for storing a plurality of viewpoint position information 162 as shown in FIG. The viewpoint position information 162 corresponds to the viewpoint of one user.

各視点位置情報162は、ユーザーID163及び視点位置164を含む。   Each viewpoint position information 162 includes a user ID 163 and a viewpoint position 164.

ユーザーID163は、当該ユーザーを識別するための識別子である。視点位置164は、表示部102の表示面における、ユーザーの視点の位置を、X−Y座標で示す。   The user ID 163 is an identifier for identifying the user. The viewpoint position 164 indicates the position of the user's viewpoint on the display surface of the display unit 102 by XY coordinates.

(表示領域テーブル181)
図14は、表示領域テーブル181のデータ構造の一例を示す。
(Display area table 181)
FIG. 14 shows an example of the data structure of the display area table 181.

表示領域テーブル181は、表示部102により表示される各第一表示領域に注目しているユーザーを示す表示領域情報を記憶するためのデータテーブルである。   The display area table 181 is a data table for storing display area information indicating a user who is paying attention to each first display area displayed by the display unit 102.

表示領域テーブル181は、この図に示すように、複数の表示領域情報182を記憶するための領域を備えている。表示領域情報182は、一つのテキストデータに対応している。   The display area table 181 has an area for storing a plurality of pieces of display area information 182 as shown in FIG. The display area information 182 corresponds to one piece of text data.

各表示領域情報182がデータID183のみを含む場合と、各表示領域情報182がデータID183及び一つ以上のユーザーID184を含む場合とがある。   Each display area information 182 includes only the data ID 183, and each display area information 182 includes the data ID 183 and one or more user IDs 184.

データID183は、表示部102により表示されるテキストデータを識別するための識別子である。ユーザーID184は、ユーザーを識別する識別子である。   The data ID 183 is an identifier for identifying text data displayed by the display unit 102. The user ID 184 is an identifier for identifying a user.

表示領域情報182がデータID183のみを含む場合、データID183により示されるテキストデータが表示される第一表示領域に注目しているユーザーが存在しないことを示す。また、表示領域情報182がデータID183及び一つのユーザーID184を含む場合、データID183により示されるテキストデータが表示される第一表示領域に、一人のユーザーが注目していることを示す。さらに、表示領域情報182がデータID183及び複数のユーザーID184を含む場合、データID183により示されるテキストデータが表示される第一表示領域に、複数のユーザーが注目していることを示す。   When the display area information 182 includes only the data ID 183, it indicates that there is no user who is paying attention to the first display area where the text data indicated by the data ID 183 is displayed. Further, when the display area information 182 includes the data ID 183 and one user ID 184, it indicates that one user is paying attention to the first display area where the text data indicated by the data ID 183 is displayed. Further, when the display area information 182 includes the data ID 183 and the plurality of user IDs 184, it indicates that the plurality of users are paying attention to the first display area where the text data indicated by the data ID 183 is displayed.

(翻訳テキストデータテーブル201)
図15は、翻訳テキストデータテーブル201のデータ構造の一例を示す。
(Translation text data table 201)
FIG. 15 shows an example of the data structure of the translation text data table 201.

翻訳テキストデータテーブル201は、翻訳されたテキスト(翻訳テキストデータ、第二データ)を示す翻訳情報を記憶するためのデータテーブルである。   The translated text data table 201 is a data table for storing translation information indicating translated text (translated text data, second data).

翻訳テキストデータテーブル201は、この図に示すように、複数の翻訳情報202を記憶するための領域を備えている。翻訳情報202は、一つのテキストデータに対応している。   The translation text data table 201 has an area for storing a plurality of pieces of translation information 202 as shown in FIG. The translation information 202 corresponds to one piece of text data.

各翻訳情報202は、データID203、翻訳テキスト204及び使用言語205を含む。   Each translation information 202 includes a data ID 203, a translation text 204, and a language 205 to be used.

データID203は、表示部102により表示されるテキストデータを識別するための識別子である。翻訳テキスト204は、表示データテーブル171において、データID203により識別されるテキストデータを翻訳した結果の文字列である。使用言語205は、翻訳の際に用いられた言語を示す。   The data ID 203 is an identifier for identifying text data displayed by the display unit 102. The translation text 204 is a character string obtained by translating the text data identified by the data ID 203 in the display data table 171. The used language 205 indicates the language used for translation.

(辞書データベース211)
辞書データベース211は、翻訳部111により用いられ、複数の言語について、第一言語の用語と第二言語の用語との対応関係を記憶しているデータベースである。
(Dictionary database 211)
The dictionary database 211 is a database that is used by the translation unit 111 and stores, for a plurality of languages, the correspondence between terms in the first language and terms in the second language.

(2)カメラ12a〜12d及び入力部105a〜105d
カメラ12aは、対象を撮影して、画像データを生成し、生成した画像データを入力部105aに対して出力する。入力部105aは、カメラ12aから画像データを受信し、受信した画像データを画像データ111aとして、カメラ12aを識別するカメラIDとともに、記憶部104に、書き込む。
(2) Cameras 12a to 12d and input units 105a to 105d
The camera 12a captures an object, generates image data, and outputs the generated image data to the input unit 105a. The input unit 105a receives image data from the camera 12a, and writes the received image data as image data 111a in the storage unit 104 together with a camera ID for identifying the camera 12a.

カメラ12b〜12d及び入力部105b〜105dについても、カメラ12a及び入力部105aと同様であり、カメラ12b〜12dは、それぞれ、撮影により画像データを生成し、入力部105b〜105dは、画像データを記憶部104に、カメラIDとともに、画像データ111b〜111dとして、書き込む。   The cameras 12b to 12d and the input units 105b to 105d are the same as the camera 12a and the input unit 105a. The cameras 12b to 12d respectively generate image data by shooting, and the input units 105b to 105d generate the image data. The image data 111b to 111d are written into the storage unit 104 together with the camera ID.

(3)顔認識処理部106
顔認識処理部106は、記憶部104から、カメラIDとともに、各々の画像データを読み出し、読み出した画像データから、ユーザーの顔部分であるオブジェクトデータを切り出す。オブジェクトデータの切り出しは、例えば、画像データにおいて、目、鼻、口、耳のセットを認識することにより、行う。また、顔認識処理部106は、目、鼻、口、耳も、パーツデータとして、切り出す。さらに、顔認識処理部106は、パーツデータ毎に、当該パーツデータが目、鼻、口、耳のいずれであるかを判断して、そのパーツタイプを特定する。
(3) Face recognition processing unit 106
The face recognition processing unit 106 reads each image data together with the camera ID from the storage unit 104, and cuts out object data that is a user's face from the read image data. The extraction of the object data is performed, for example, by recognizing a set of eyes, nose, mouth and ears in the image data. The face recognition processing unit 106 also cuts out the eyes, nose, mouth, and ear as part data. Further, the face recognition processing unit 106 determines, for each part data, whether the part data is an eye, a nose, a mouth, or an ear, and specifies the part type.

顔認識処理部106は、各画像データから、切り出したオブジェクトデータ、及び、パーツデータを、記憶部104に書き込む。   The face recognition processing unit 106 writes the object data and the part data cut out from each image data into the storage unit 104.

また、顔認識処理部106は、切り出したオブジェクトデータを識別するオブジェクトIDを生成し、切り出したオブジェクトデータの範囲を示すオブジェクト範囲を生成する。次に、顔認識処理部106は、カメラID、画像ID、オブジェクトID及びオブジェクト範囲からなるオブジェクト情報を、オブジェクト情報テーブル121に書き込む。   In addition, the face recognition processing unit 106 generates an object ID for identifying the extracted object data, and generates an object range indicating the range of the extracted object data. Next, the face recognition processing unit 106 writes the object information including the camera ID, the image ID, the object ID, and the object range in the object information table 121.

また、顔認識処理部106は、切り出したオブジェクトデータの特徴部分が、記憶部104に予め記憶されている顔画像データ197a、197b、197c、・・・のいずれかの特徴部分と一致するか否かを判断する。いずれかの顔画像データの特徴部分と一致する場合には、その顔画像データを識別する顔画像IDに対応するユーザーIDを、ユーザー属性テーブル191から抽出する。顔認識処理部106は、抽出したユーザーIDを、オブジェクト情報テーブル121に書き込む。切り出したオブジェクトデータの特徴部分が、いずれの顔画像データの特徴部分とも一致しないする場合には、オブジェクト情報テーブル121には、ユーザーIDは、書き込まれない。   Further, the face recognition processing unit 106 determines whether or not the feature portion of the cut object data matches any one of the face image data 197a, 197b, 197c,... Stored in the storage unit 104 in advance. Judge. If it matches the characteristic part of any of the face image data, the user ID corresponding to the face image ID for identifying the face image data is extracted from the user attribute table 191. The face recognition processing unit 106 writes the extracted user ID in the object information table 121. If the characteristic portion of the extracted object data does not match the characteristic portion of any face image data, the user ID is not written in the object information table 121.

また、顔認識処理部106は、オブジェクトデータから切り出したパーツデータ毎に、パーツデータを識別するパーツIDを生成し、切り出したパーツデータの範囲を示すパーツを生成する。次に、顔認識処理部106は、パーツデータ毎に、オブジェクトID、パーツID、パーツ範囲及びパーツタイプからなるパーツ情報を、パーツ情報テーブル131に書き込む。   In addition, the face recognition processing unit 106 generates a part ID for identifying the part data for each part data cut out from the object data, and generates a part indicating a range of the cut out part data. Next, the face recognition processing unit 106 writes, in the part information table 131, part information including an object ID, a part ID, a part range, and a part type for each part data.

(4)位置算出部107
位置算出部107は、オブジェクト情報テーブル121から、オブジェクト情報毎に、オブジェクト範囲を抽出し、抽出したオブジェクト範囲と、画像データに含まれ、翻訳表示装置1の天板の周辺に付された目盛りの位置とを比較して、ユーザーの立ち位置を示すユーザー位置を、X−Y−Z座標で、算出する。なお、上記の通り、ユーザーの立ち位置とは、翻訳表示装置1の周囲に立つ当該ユーザーの顔の中心部分の位置を示す。位置算出部107は、ユーザーを識別するユーザーIDと、算出したユーザー位置とからなるユーザー位置情報を、ユーザー位置テーブル141に書き込む。
(4) Position calculation unit 107
The position calculation unit 107 extracts an object range for each object information from the object information table 121, and displays the extracted object range and a scale included in the image data and attached to the periphery of the top plate of the translation display device 1. By comparing the position with the position, the user position indicating the standing position of the user is calculated by XYZ coordinates. As described above, the standing position of the user indicates the position of the center of the user's face standing around the translation display device 1. The position calculation unit 107 writes the user position information including the user ID for identifying the user and the calculated user position in the user position table 141.

(5)視線視点算出部108
(ユーザーの顔の水平方向の向きの算出)
視線視点算出部108は、次のようにして、ユーザー毎に、ユーザーの顔の水平方向の向きを算出する。
(5) Eye-gaze viewpoint calculation unit 108
(Calculation of the horizontal orientation of the user's face)
The gaze viewpoint calculation unit 108 calculates the horizontal direction of the user's face for each user as follows.

図16(a)には、三方向に向いたユーザーの頭部の概略図を示す。つまり、左側を向くユーザーの頭部363a、正面を向くユーザーの頭部363b、及び、右側を向くユーザーの頭部363cを示している。   FIG. 16A is a schematic view of a user's head facing in three directions. That is, the user's head 363a facing the left, the user's head 363b facing the front, and the user's head 363c facing the right are shown.

左側を向く頭部363aにおいて、左目と右目との中間点を頭部363aの上下方向に貫く直線である中央線364aを設定し、頭部363aの左側の輪郭を示す左側輪郭線366aを設定し、頭部363aの右側の輪郭を示す右側輪郭線365aを設定すると、中央線364aは、右側輪郭線365aよりも、左側輪郭線366aに近い位置に存在する。   In the head 363a facing the left side, a center line 364a which is a straight line passing through the midpoint between the left eye and the right eye in the vertical direction of the head 363a is set, and a left outline 366a indicating the left outline of the head 363a is set. When the right outline 365a indicating the right outline of the head 363a is set, the center line 364a is located closer to the left outline 366a than the right outline 365a.

また、正面を向く頭部363bにおいて、頭部363aと同様に、中央線364b、左側輪郭線366b、及び、右側輪郭線365bを設定すると、中央線364bは、右側輪郭線365bと左側輪郭線366bの略中央の位置に存在する。   In addition, when a center line 364b, a left contour line 366b, and a right contour line 365b are set in the head 363b facing the front in the same manner as the head 363a, the center line 364b becomes the right contour line 365b and the left contour line 366b. Exists in the approximate center position of.

右側を向く頭部363cにおいて、頭部363aと同様に、中央線364c、左側輪郭線366c、及び、右側輪郭線365cを設定すると、中央線364cは、左側輪郭線366cよりも、右側輪郭線365cに近い位置に存在する。   When a center line 364c, a left contour line 366c, and a right contour line 365c are set in the head 363c facing the right side similarly to the head 363a, the center line 364c is more likely to be a right contour line 365c than a left contour line 366c. Exists close to

このように、視線視点算出部108は、頭部の中央線が、左側輪郭線に近い側に存在するか、又は、右側輪郭線に近い側に存在するかを判断することにより、具体的には、水平方向テーブル156を用いて、ユーザーの顔の水平方向の向きを推定することができる。   In this way, the eye gaze viewpoint calculation unit 108 specifically determines whether the center line of the head exists on the side close to the left contour line or on the side close to the right contour line. Can use the horizontal table 156 to estimate the horizontal orientation of the user's face.

翻訳表示装置1の天板の4つの隅には、それぞれ、カメラ12a、12b、12c及び12dが設置されているので、いずれかのカメラがユーザーの頭部(特に、左目、右目、鼻、口等を含む顔部)を撮影することができる。その結果、図16(b)に示すように、ユーザーの頭部361a、361b、361cが向いている水平方向の向き362a、362b、362cを推定することができる。   Cameras 12a, 12b, 12c, and 12d are installed at the four corners of the top plate of the translation display device 1, respectively, so that any one of the cameras is located at the head (particularly, left eye, right eye, nose, and mouth) of the user. Etc.) can be photographed. As a result, as shown in FIG. 16B, it is possible to estimate the horizontal orientations 362a, 362b, 362c where the user's heads 361a, 361b, 361c face.

視線視点算出部108は、オブジェクト情報テーブル121に記憶されている各オブジェクトIDについて、記憶部104から一つのオブジェクトIDにより識別されるオブジェクトデータ読み出す。また、視線視点算出部108は、当該オブジェクトIDについて、パーツ情報テーブル131から、左目のパーツ情報内のパーツID及びパーツ範囲、並びに、右目のパーツ情報内のパーツID及びパーツ範囲を抽出し、抽出した左目のパーツID及び右目のパーツIDによりそれぞれ識別されるパーツデータを記憶部104から読み出す。   The line-of-sight viewpoint calculation unit 108 reads, for each object ID stored in the object information table 121, object data identified by one object ID from the storage unit 104. The gaze viewpoint calculation unit 108 extracts and extracts the part ID and the part range in the left-eye part information and the part ID and the part range in the right-eye part information from the part information table 131 for the object ID. The part data identified by the left eye part ID and the right eye part ID are read from the storage unit 104.

次に、視線視点算出部108は、左目のパーツデータ及びパーツ範囲、右目のパーツデータ及びパーツ範囲、並びに、オブジェクトデータを用いて、中央線を算出する。また、視線視点算出部108は、オブジェクトデータを用いて、左側輪郭線及び右側輪郭線を算出する。次に、視線視点算出部108は、オブジェクトデータを用いて、中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率を算出する。例えば、中央線が、左側輪郭線と右側輪郭線との中央に存在する場合には、比率は、50%である。中央線が、左側輪郭線と一致する場合には、比率は、左0%である。中央線が、右側輪郭線と一致する場合には、比率は、右0%である。中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率が1:3である場合、比率は、左25%である。中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率が3:1である場合、比率は、右25%である。   Next, the line-of-sight viewpoint calculation unit 108 calculates the center line using the part data and part range of the left eye, the part data and part range of the right eye, and the object data. Further, the line-of-sight viewpoint calculation unit 108 calculates a left outline and a right outline using the object data. Next, the line-of-sight viewpoint calculation unit 108 calculates the ratio of the left distance between the center line and the left outline and the right distance between the center line and the right outline using the object data. For example, when the center line exists at the center between the left contour line and the right contour line, the ratio is 50%. If the center line matches the left contour line, the ratio is 0% left. If the center line coincides with the right outline, the ratio is 0% to the right. If the ratio of the left distance between the center line and the left contour line and the right distance between the center line and the right contour line is 1: 3, the ratio is left 25%. If the ratio of the left distance between the center line and the left contour line to the right distance between the center line and the right contour line is 3: 1, the ratio is 25% to the right.

次に、視線視点算出部108は、水平方向テーブル156から、算出した比率に対応する水平方向角度を抽出する。算出した比率に対応する水平方向角度が水平方向テーブル156に存在しない場合には、直線補間法を用いる。   Next, the line-of-sight viewpoint calculation unit 108 extracts a horizontal angle corresponding to the calculated ratio from the horizontal direction table 156. If the horizontal angle corresponding to the calculated ratio does not exist in the horizontal table 156, the linear interpolation method is used.

このようにして、ユーザーの顔が向いている水平方向の向きを算出する。   In this way, the horizontal direction in which the user's face faces is calculated.

(ユーザーの顔の鉛直方向からの傾きの算出)
視線視点算出部108は、次のようにして、ユーザー毎に、ユーザーの顔(頭部)の鉛直方向からの傾きを算出する。
(Calculation of the inclination of the user's face from the vertical direction)
The gaze viewpoint calculation unit 108 calculates the inclination of the user's face (head) from the vertical direction for each user as follows.

図16(c)には、鉛直方向に対して傾きのないユーザーの顔375a、鉛直方向に対してやや傾いたユーザーの顔375b、及び、鉛直方向に対してさらに傾いたユーザーの顔375cを示す。   FIG. 16C shows a user's face 375a that is not inclined with respect to the vertical direction, a user's face 375b that is slightly inclined with respect to the vertical direction, and a user's face 375c that is further inclined with respect to the vertical direction. .

鉛直方向に対して傾きのないユーザーの顔375aでは、中央線374aは、ほぼ鉛直方向を維持している。また、鉛直方向に対してやや傾いたユーザーの顔375bでは、中央線374bは、鉛直方向からやや傾いている。また、鉛直方向に対してさらに傾いたユーザーの顔375cでは、中央線374cは、鉛直方向からさらに傾いている。   For the user's face 375a that is not inclined with respect to the vertical direction, the center line 374a maintains substantially the vertical direction. In the user's face 375b slightly inclined with respect to the vertical direction, the center line 374b is slightly inclined from the vertical direction. In the user's face 375c further inclined with respect to the vertical direction, the center line 374c is further inclined from the vertical direction.

従って、ユーザーの頭部の中央線を用いれば、ユーザーの顔の鉛直方向からの傾きを知ることができる。つまり、図16(d)に示すように、ユーザーの顔371a、371bの中央線372a、372bの鉛直方向からの傾きから、視線方向373a、373bを知ることができる。   Accordingly, the inclination of the user's face from the vertical direction can be known by using the center line of the user's head. That is, as shown in FIG. 16D, the viewing directions 373a and 373b can be known from the inclination of the center lines 372a and 372b of the user's faces 371a and 371b from the vertical direction.

ユーザーの顔の水平方向の向きを算出する場合と同様に、視線視点算出部108は、左目のパーツデータ及びパーツ範囲、右目のパーツデータ及びパーツ範囲、並びに、オブジェクトデータを用いて、中央線を算出する。   As in the case of calculating the horizontal direction of the user's face, the line-of-sight viewpoint calculation unit 108 uses the left-eye part data and part range, the right-eye part data and part range, and the object data to set the center line. calculate.

次に、視線視点算出部108は、算出した中央線を基にして、中央線に鉛直をなす方向を算出し、これをユーザーの顔の鉛直方向からの傾きとする。   Next, the line-of-sight viewpoint calculation unit 108 calculates a direction perpendicular to the center line based on the calculated center line, and sets this as the inclination of the user's face from the vertical direction.

(視線情報の生成)
視線視点算出部108は、ユーザー毎に、算出したユーザーの顔の水平方向の向きと、ユーザーの顔の鉛直方向からの傾きを合成して、ユーザーの視線が向く方向情報(X、Y、Z)を算出する。
(Generation of gaze information)
The gaze viewpoint calculation unit 108 combines, for each user, the calculated horizontal direction of the user's face and the inclination of the user's face from the vertical direction to obtain direction information (X, Y, Z) to which the user's gaze is directed. ) Is calculated.

次に、視線視点算出部108は、ユーザー毎に、ユーザーを識別するユーザーID、ユーザー位置テーブル141に書き込まれたユーザー位置情報、及び、ユーザーの視線が向く方向情報からなる視線情報を、視線情報テーブル151に書き込む。   Next, the line-of-sight viewpoint calculation unit 108 converts, for each user, line-of-sight information including a user ID for identifying the user, user position information written in the user position table 141, and direction information on the line of sight of the user. Write to table 151.

(視点情報の生成)
視線視点算出部108は、視線情報テーブル151から、順に、視線情報を全て読み出す。視線視点算出部108は、読み出した視線情報に含まれるユーザー位置により示される位置を起点として、読み出した視線情報に含まれる方向情報が示す方向に、直線を延長し、延長した直線が表示部102の表示面と交差する点を、ユーザーの視点位置として算出する。視線視点算出部108は、ユーザーを識別するユーザーIDと視点位置とからなる視点位置情報を視点位置テーブル161に書き込む。
(Generation of viewpoint information)
The line-of-sight viewpoint calculation unit 108 sequentially reads out all line-of-sight information from the line-of-sight information table 151. The line-of-sight viewpoint calculation unit 108 extends the straight line from the position indicated by the user position included in the read line-of-sight information to the direction indicated by the direction information included in the read line-of-sight information. Is calculated as the viewpoint position of the user. The line-of-sight viewpoint calculation unit 108 writes viewpoint position information including a user ID for identifying a user and a viewpoint position in the viewpoint position table 161.

(6)表示領域検出部109
表示領域検出部109は、表示データテーブル171から、順に、表示データ関連情報を全て読み出し、読み出した表示データ関連情報内のデータIDを含む表示領域情報を、表示領域テーブル181に書き込む。この結果、表示領域テーブル181は、表示データテーブル171に含まれる表示データ関連情報と同じ数の表示領域情報を含むこととなる。
(6) Display area detection unit 109
The display area detection unit 109 sequentially reads out all the display data related information from the display data table 171 and writes the display area information including the data ID in the read display data related information to the display area table 181. As a result, the display area table 181 includes the same number of display area information as the display data related information included in the display data table 171.

次に、表示領域検出部109は、視点位置テーブル161から、順に、視点位置情報を全て読み出す。視点位置情報を読み出す毎に、表示領域検出部109は、読み出した視点位置情報に含まれる視点位置が、表示データテーブル171内の、どの表示データ関連情報により示される表示位置、幅、高さにより示される第一表示領域内に、存在するかを判断する。視点位置が第一表示領域内に存在する場合、表示領域テーブル181において、同じデータIDを含む表示領域情報内に、視点位置に対応するユーザーIDを書き込む。視点位置が第一表示領域内に存在しない場合、ユーザーIDの書き込みを行わない。   Next, the display area detection unit 109 sequentially reads out all viewpoint position information from the viewpoint position table 161. Each time the viewpoint position information is read, the display area detection unit 109 determines the viewpoint position included in the read viewpoint position information by the display position, width, and height indicated by any display data related information in the display data table 171. It is determined whether it exists in the first display area shown. When the viewpoint position exists in the first display area, the user ID corresponding to the viewpoint position is written in the display area information including the same data ID in the display area table 181. If the viewpoint position does not exist in the first display area, the user ID is not written.

こうして、第一表示領域毎に、その第一表示領域に注目するユーザーのユーザーIDをまとめることができる。   Thus, the user ID of the user who pays attention to the first display area can be collected for each first display area.

(7)表示制御部110
表示制御部110は、表示データテーブル171から、全ての表示データ関連情報を読み出す。読み出した表示データ関連情報毎に、当該表示データ関連情報に含まれる表示位置、幅及び高さにより示される第一表示領域に、当該表示データ関連情報に含まれるテキストデータを表示した表示画像データを生成する。ここで、当該表示データ関連情報に含まれる使用言語、つまり、表示されるテキストデータの元になる言語を第一言語(第一表記法)と呼ぶ。次に、表示制御部110は、生成した表示画像データを合成部229に対して、出力する。
(7) Display control unit 110
The display control unit 110 reads out all display data related information from the display data table 171. For each read-out display data-related information, display image data that displays the text data included in the display data-related information is displayed in the first display area indicated by the display position, width, and height included in the display data-related information. Generate. Here, the language used in the display data-related information, that is, the language on which the displayed text data is based is referred to as a first language (first notation). Next, the display control unit 110 outputs the generated display image data to the combining unit 229.

また、表示制御部110(視点判断手段)は、表示領域テーブル181に含まれる各表示領域情報について、複数のユーザーの視点が、一つの第一表示領域内に存在するか否か、一人のユーザーの視点のみが一つの第一表示領域内に存在するか否か、また、一つの第一表示領域内にユーザーの視点が存在しないかを判断する。つまり、表示制御部110は、表示面を注視する複数のユーザーの表示面におけるそれぞれの視点のうち、複数の視点が第一表示領域内に存するか否かを判断する。   The display control unit 110 (viewpoint determining means) determines whether or not the viewpoints of a plurality of users are present in one first display area for each display area information included in the display area table 181. It is determined whether only one viewpoint exists in one first display area, and whether the user's viewpoint exists in one first display area. That is, the display control unit 110 determines whether or not a plurality of viewpoints among the respective viewpoints on the display surface of the plurality of users who gaze at the display surface exist in the first display area.

表示制御部110(決定手段)は、複数のユーザーの視点が、一つの第一表示領域内に存在する場合に限り、処理対象である表示領域情報に含まれるデータIDについて、用いられている使用言語(第一言語)を表示データテーブル171から取得し、取得した使用言語を除いて、一つの第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうち、少なくとも一つの言語を、第二言語(第二表記法)として決定する。つまり、表示制御部110は、取得した使用言語を用いて、第一表示領域に視線を注ぐ複数のユーザーに親和性のある言語(表記法)を、第二言語として決定する。ここで、表示制御部110(決定手段)により、決定される親和性のある表記法とは、ユーザー毎に馴染みのある表記法として予め登録されている表記法である、としてもよい。表示制御部110は、翻訳部111に対して、第一表示領域に表示されるテキストデータを、前記第二言語により翻訳するように、制御する。表示制御部110(生成手段)は、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成する。なお、位置情報の生成の詳細については、後述する。表示制御部110(出力手段)は、合成部229に対して、翻訳テキストデータ及び位置情報を出力する。   The display control unit 110 (determination means) uses the used data ID included in the display area information to be processed only when the viewpoints of a plurality of users exist in one first display area. A language (first language) is acquired from the display data table 171 and, except for the acquired language used, the language used by a plurality of users who pays their eyes to a plurality of viewpoints existing in one first display area is represented by a user attribute table. At least one of the acquired languages used by the plurality of users acquired from 191 is determined as a second language (second notation). That is, the display control unit 110 determines, as the second language, a language (notation) compatible with a plurality of users who look at the first display area by using the acquired language. Here, the notation with affinity determined by the display control unit 110 (determination means) may be a notation registered in advance as a notation familiar to each user. The display control unit 110 controls the translation unit 111 to translate text data displayed in the first display area in the second language. The display control unit 110 (generation unit) generates position information indicating a position of a second display area attached to the first display area on the display surface. The details of the generation of the position information will be described later. The display control unit 110 (output unit) outputs the translated text data and the position information to the synthesizing unit 229.

ここで、複数のユーザーの視点が、一つの第一表示領域内に存在する場合、当該第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語が全て第一言語であるときには、第二表示領域の表示は、行わない。   Here, when the viewpoints of the plurality of users are present in one first display area, the languages used by the plurality of users who pour eyes at the plurality of viewpoints existing in the first display area are all the first language. In some cases, the display of the second display area is not performed.

一方、表示制御部110は、一つのユーザーの視点のみが、一つの第一表示領域内に存在する場合、当該ユーザーの使用言語と、第一表示領域に表示されるテキストデータの言語が一致するか否かを判断する。   On the other hand, when only one user's viewpoint is present in one first display area, the display control unit 110 matches the language used by the user with the language of the text data displayed in the first display area. It is determined whether or not.

一致しない場合、表示制御部110は、翻訳部111に対して、第一表示領域に表示されるテキストデータを、当該ユーザーの使用言語により翻訳するように、制御する。また、表示制御部110(生成手段)は、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成する。表示制御部110(出力手段)は、合成部229に対して、翻訳テキストデータ及び位置情報を出力する。この場合、第二表示領域に表示される翻訳テキストデータは、ハーフトーンにより表示される。   If they do not match, the display control unit 110 controls the translation unit 111 to translate the text data displayed in the first display area in the language used by the user. Further, the display control unit 110 (generation unit) generates position information indicating the position of the second display area attached to the first display area on the display surface. The display control unit 110 (output unit) outputs the translated text data and the position information to the synthesizing unit 229. In this case, the translated text data displayed in the second display area is displayed in halftone.

当該ユーザーの使用言語と、第一表示領域に表示されるテキストデータの言語が一致する場合、表示制御部110は、処理を行わない。   When the language used by the user matches the language of the text data displayed in the first display area, the display control unit 110 does not perform the processing.

(8)翻訳部111
翻訳部111(表記変換手段)は、第一表示領域に表記されているテキストデータを、第二言語により翻訳(表記)された翻訳テキストデータに変換する。
(8) Translation unit 111
The translation unit 111 (notation conversion unit) converts the text data written in the first display area into translated text data translated (written) in a second language.

具体的には、翻訳部111は、表示制御部110の制御により、決定した第二言語により、辞書データベース211を用いて、テキストデータを翻訳し、データID、翻訳されたテキストデータである翻訳テキスト及び使用言語からなる翻訳情報を、翻訳テキストデータテーブル201に書き込む。   Specifically, under the control of the display control unit 110, the translation unit 111 translates the text data in the determined second language using the dictionary database 211, and converts the data ID and the translated text that is the translated text data. And the translation information including the language to be used is written in the translation text data table 201.

(9)合成部229
合成部229は、表示制御部110から、表示画像データを受信し、受信した表示画像データを、出力部103を介して、表示部102に出力し、表示部102に表示画像データを表示させる。
(9) Synthesizing unit 229
The combining unit 229 receives the display image data from the display control unit 110, outputs the received display image data to the display unit 102 via the output unit 103, and causes the display unit 102 to display the display image data.

また、合成部229は、表示制御部110から、翻訳テキストデータ及び位置情報を受信する。翻訳テキストデータ及び位置情報を受信すると、前に受信した表示画像データに、受信した位置情報により示される位置において、受信した翻訳テキストデータを合成し、合成した表示画像データを、出力部103を介して、表示部102に出力し、表示部102に表示画像データを表示させる。   Further, the synthesizing unit 229 receives the translated text data and the position information from the display control unit 110. When the translated text data and the position information are received, the received translated text data is combined with the previously received display image data at the position indicated by the received position information, and the combined display image data is output via the output unit 103. Output to the display unit 102 to display the display image data on the display unit 102.

(10)出力部103及び表示部102
出力部103は、合成部229から、表示画像データを受信し、受信した表示画像データを表示部102に対して出力する。
(10) Output unit 103 and display unit 102
The output unit 103 receives the display image data from the combining unit 229 and outputs the received display image data to the display unit 102.

表示部102は、出力部103から、表示画像データを受信し、受信した表示画像データを表示する。   The display unit 102 receives the display image data from the output unit 103 and displays the received display image data.

表示画像データは、表示データテーブル171に含まれる表示位置において、その幅及び高さにより、テキストデータを含む。また、位置情報により示される位置において、翻訳テキストデータを含む。   The display image data includes text data at a display position included in the display data table 171 due to its width and height. Also, at the position indicated by the position information, the translated text data is included.

(11)主制御部101
主制御部101は、カメラ12a〜12d、表示部102、出力部103、入力部105a〜105d、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110、翻訳部111及び合成部229を、統一的に制御する。
(11) Main control unit 101
The main control unit 101 includes cameras 12a to 12d, a display unit 102, an output unit 103, input units 105a to 105d, a face recognition processing unit 106, a position calculation unit 107, a line-of-sight viewpoint calculation unit 108, a display area detection unit 109, and display control. The unit 110, the translation unit 111, and the synthesis unit 229 are controlled in a unified manner.

1.3 表示部102により表示される画面の例示
図17は、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。
1.3 Example of Screen Displayed by Display Unit FIG. 17 shows an example of text data and translated text data displayed on the display unit 102.

この図に示すように、表示部102には、第一表示領域301において、日本語により、「原因と対策」が表示されている。第一表示領域301には、視点311c、312c及び313cが存在する。   As shown in the figure, the display unit 102 displays “cause and countermeasure” in Japanese in the first display area 301. In the first display area 301, viewpoints 311c, 312c, and 313c exist.

視点311cは、位置311aに立ち、ユーザーID「U001」により識別されるユーザーが注ぐ視線311bの先にある。このユーザーの使用する言語は、「英語」である。また、視点312cは、位置312aに立ち、ユーザーID「U002」により識別されるユーザーが注ぐ視線312bの先にある。このユーザーの使用する言語は、「日本語」である。さらに、視点313cは、位置313aに立ち、ユーザーID「U003」により識別されるユーザーが注ぐ視線313bの先にある。このユーザーの使用する言語は、「スペイン語」である。   The viewpoint 311c stands at the position 311a, and is beyond the line of sight 311b poured by the user identified by the user ID “U001”. The language used by this user is "English". Further, the viewpoint 312c stands at the position 312a, and is ahead of the line of sight 312b poured by the user identified by the user ID “U002”. The language used by this user is "Japanese". Furthermore, the viewpoint 313c stands at the position 313a, and is beyond the line of sight 313b poured by the user identified by the user ID “U003”. The language used by this user is "Spanish".

このように、第一表示領域301には、日本語が表示され、視点311c、312c及び313cが存在し、視点311c及び313cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、それぞれ、英語及びスペイン語であるので、第一表示領域301に付随する第二表示領域401a及び401bには、それぞれ、英語及びスペイン語により、「Cause and Action」及び「Causa y Medidas」が表示されている。   As described above, in the first display area 301, Japanese is displayed, and the viewpoints 311c, 312c, and 313c are present. The language used by the user who looks at the viewpoints 311c and 313c is not the displayed Japanese but the displayed language. In English and Spanish, respectively, "Cause and Action" and "Causay Medidas" are displayed in the second display areas 401a and 401b associated with the first display area 301 in English and Spanish, respectively. Have been.

従って、第一表示領域301に視点に視線を注ぐ三人のユーザーは、第一表示領域301に付随する第二表示領域401a、401bが表示されていることにより、第一表示領域301に注目する他のユーザーの存在を知ることができる。また、第一表示領域301に視点に視線を注ぐ三人のユーザーは、第一表示領域301及び付随する第二表示領域401a、401bに表示された文字データの意味を理解することができ、三人のユーザーの間において、意思の疎通を図ることができる。   Therefore, three users who look at the viewpoint in the first display area 301 pay attention to the first display area 301 because the second display areas 401a and 401b attached to the first display area 301 are displayed. You can know the existence of other users. Also, three users who look at the viewpoint in the first display area 301 can understand the meaning of the character data displayed in the first display area 301 and the associated second display areas 401a and 401b. Communication can be achieved between two users.

また、表示部102には、第一表示領域302において、日本語により、「気温」が表示されている。第一表示領域302には、視点314cが存在する。   The display unit 102 displays “temperature” in Japanese in the first display area 302. In the first display area 302, a viewpoint 314c exists.

視点314cは、位置314aに立ち、ユーザーID「U004」により識別されるユーザーの視線314bの先にある。このユーザーの使用する言語は、「ドイツ語」である。   The viewpoint 314c stands at the position 314a and is located beyond the line of sight 314b of the user identified by the user ID “U004”. The language used by this user is "German".

このように、第一表示領域302には、日本語が表示され、視点314cが存在し、視点314cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、ドイツ語であるので、第一表示領域302に付随する第二表示領域402には、ドイツ語により、「Temperatur」と表示されている。ただし、第一表示領域302には、一つの視点314cしか存在しないので、第二表示領域402において、「Temperatur」は、ハーフトーンにより表示される。   As described above, in the first display area 302, Japanese is displayed and the viewpoint 314c is present, and the language used by the user who looks at the viewpoint 314c is not the displayed Japanese, but German. In the second display area 402 attached to the first display area 302, "Temperature" is displayed in German. However, since only one viewpoint 314c exists in the first display area 302, “Temperature” is displayed in halftone in the second display area 402.

また、表示部102には、第一表示領域303において、日本語により、「太陽の軌道」が表示されている。第一表示領域303には、視点315c及び視点316cが存在する。   In addition, on the display unit 102, the “trajectory of the sun” is displayed in the first display area 303 in Japanese. In the first display area 303, there are a viewpoint 315c and a viewpoint 316c.

視点315cは、位置315aに立ち、ユーザーID「U005」により識別されるユーザーの視線315bの先にある。このユーザーの使用する言語は、「英語」である。また、視点316cは、位置316aに立ち、ユーザーID「U006」により識別されるユーザーの視線316bの先にある。このユーザーの使用する言語は、「日本語」である。   The viewpoint 315c stands at the position 315a and is located beyond the line of sight 315b of the user identified by the user ID “U005”. The language used by this user is "English". Further, the viewpoint 316c stands at the position 316a and is located beyond the line of sight 316b of the user identified by the user ID "U006". The language used by this user is "Japanese".

このように、第一表示領域303には、日本語が表示され、視点315c及び316cが存在し、視点315cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、英語であるので、第一表示領域303に付随する第二表示領域403には、英語により、「Sun’s career」と表示されている。   As described above, Japanese is displayed in the first display area 303, and the viewpoints 315c and 316c are present. The language used by the user who pours his or her gaze on the viewpoint 315c is not the displayed Japanese but English. Therefore, “Sun's career” is displayed in the second display area 403 attached to the first display area 303 in English.

従って、第一表示領域303に視点に視線を注ぐ二人のユーザーは、第一表示領域303及び付随する第二表示領域403が表示されていることにより、第一表示領域303に注目するユーザーの存在を知ることができる。また、第一表示領域303に視点に視線を注ぐ二人のユーザーは、第一表示領域303及び付随する第二表示領域403に表示された文字データの意味を理解することができ、二人のユーザーの間において、意思の疎通を図ることができる。   Therefore, the two users who look at the viewpoint in the first display area 303 are displayed by the first display area 303 and the associated second display area 403, so that the two users who pay attention to the first display area 303 are displayed. You can know its existence. Also, two users who look at the viewpoint to the first display area 303 can understand the meaning of the character data displayed in the first display area 303 and the associated second display area 403, and Communication can be achieved between users.

また、表示部102には、第一表示領域304において、日本語により、「衛星写真」が表示されている。第一表示領域304には、視点が存在しない。このため、翻訳された文字データの表示もない。   In the display unit 102, “satellite photograph” is displayed in the first display area 304 in Japanese. The first display area 304 has no viewpoint. Therefore, there is no display of translated character data.

(第一表示領域と第二表示領域との関係)
第一表示領域と、第一表示領域に付随する第二表示領域との位置の関係について、図18(a)〜(d)を用いて、説明する。
(Relationship between first display area and second display area)
The positional relationship between the first display area and the second display area attached to the first display area will be described with reference to FIGS.

図18(a)は、第一表示領域351aと第二表示領域352aとが接触している場合の一例を示す。このように、第一表示領域351aの一辺と、第二表示領域352aの一辺が接触してもよい。第一表示領域351aと第二表示領域352aとが接触しているので、第一表示領域351aと第二表示領域352aとの関係が明らかである。   FIG. 18A shows an example in which the first display area 351a and the second display area 352a are in contact with each other. As described above, one side of the first display area 351a may be in contact with one side of the second display area 352a. Since the first display area 351a is in contact with the second display area 352a, the relationship between the first display area 351a and the second display area 352a is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に接触する第二表示領域の位置を示す位置情報を生成する。   In this case, the display control unit 110 (generation unit) generates position information indicating the position of the second display area that contacts the first display area on the display surface.

図18(b)は、第一表示領域351bから、所定距離内に、第二表示領域352bが存する場合の一例を示す。このように、第一表示領域351bの近傍に、第二表示領域352bが存するとしてもよい。ここで、第一表示領域351bと第二表示領域352bとの距離は、例えば、第一表示領域351bの重心と、第二表示領域352bの重心との距離であるとしてもよい。また、所定距離は、例えば、第一表示領域351bと第二表示領域352bとが接触している場合における重心間の距離の2倍の距離であるとしてもよい。第一表示領域351bから、所定距離内に、第二表示領域352bが存するので、第一表示領域351bと第二表示領域352bとの関係が明らかである。   FIG. 18B shows an example in which the second display area 352b exists within a predetermined distance from the first display area 351b. Thus, the second display area 352b may exist near the first display area 351b. Here, the distance between the first display area 351b and the second display area 352b may be, for example, the distance between the center of gravity of the first display area 351b and the center of gravity of the second display area 352b. The predetermined distance may be, for example, twice as long as the distance between the centers of gravity when the first display area 351b and the second display area 352b are in contact with each other. Since the second display area 352b exists within a predetermined distance from the first display area 351b, the relationship between the first display area 351b and the second display area 352b is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域の近傍に存する第二表示領域の位置を示す位置情報を生成する。   In this case, the display control unit 110 (generation unit) generates position information indicating the position of the second display area near the first display area on the display surface.

図18(c)は、第一表示領域351cに重複して、第二表示領域352cが存する場合の一例を示す。この場合、第一表示領域351cに表示されている文字が、第二表示領域352cに表示されている文字に重複しないことが好ましい。第一表示領域351cに重複して、第二表示領域352cが存するので、第一表示領域351cと第二表示領域352cとの関係が明らかである。   FIG. 18C shows an example in which the second display area 352c exists so as to overlap the first display area 351c. In this case, it is preferable that the characters displayed in the first display area 351c do not overlap with the characters displayed in the second display area 352c. Since the second display area 352c exists so as to overlap the first display area 351c, the relationship between the first display area 351c and the second display area 352c is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に重複する第二表示領域の位置を示す位置情報を生成する。   In this case, the display control unit 110 (generation unit) generates position information indicating the position of the second display area overlapping the first display area on the display surface.

図18(d)は、第一表示領域351dに包含されて第二表示領域352dが存する場合の一例を示す。この場合、第一表示領域351dに表示されている文字が、第二表示領域352dに表示されている文字に重複しないことが好ましい。第一表示領域351dに包含されて第二表示領域352dが存するので、第一表示領域351dと第二表示領域352dとの関係が明らかである。   FIG. 18D shows an example in which the second display area 352d is included in the first display area 351d. In this case, it is preferable that the characters displayed in the first display area 351d do not overlap with the characters displayed in the second display area 352d. Since the second display area 352d is included in the first display area 351d, the relationship between the first display area 351d and the second display area 352d is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に包含される第二表示領域の位置を示す位置情報を生成する。   In this case, the display control unit 110 (generation unit) generates position information indicating the position of the second display area included in the first display area on the display surface.

次に、第一表示領域における表示と第二表示領域における表示との対応関係について、図18(e)〜(h)を用いて、説明する。   Next, the correspondence between the display in the first display area and the display in the second display area will be described with reference to FIGS.

図18(e)は、第一表示領域351e内の背景に施されたハッチングパターンと、第二表示領域352e内の背景に施されたハッチングパターンとが一致する場合の一例を示す。さらに、ハッチングパターンの表示色が一致してもよい。このように、ハッチングパターンが同一であるので、第一表示領域351eと第二表示領域352eとの関係が明らかである。   FIG. 18E shows an example in which the hatching pattern applied to the background in the first display area 351e matches the hatching pattern applied to the background in the second display area 352e. Furthermore, the display colors of the hatching patterns may match. Thus, since the hatching patterns are the same, the relationship between the first display area 351e and the second display area 352e is clear.

図18(f)は、第一表示領域351f内の背景に施されたドットパターンと、第二表示領域352f内の背景に施されたドットパターンとが一致する場合の一例を示す。さらに、ドットパターンの表示色が一致してもよい。このように、ドットパターンが同一であるので、第一表示領域351fと第二表示領域352fとの関係が明らかである。   FIG. 18F shows an example in which the dot pattern applied to the background in the first display area 351f matches the dot pattern applied to the background in the second display area 352f. Further, the display colors of the dot patterns may match. As described above, since the dot patterns are the same, the relationship between the first display area 351f and the second display area 352f is clear.

図18(g)は、第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされている場合の一例を示す。この図のように、二重線の線画像により、リンクされてもよいし、破線、一点鎖線、波線等の線画像により、リンクされているとしてもよい。このように、第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされているので、第一表示領域351gと第二表示領域352gとの関係が明らかである。   FIG. 18G shows an example in which the first display area 351 g and the second display area 352 g are linked by a line image 353. As shown in this figure, the image may be linked by a double line image, or may be linked by a line image such as a broken line, a dash-dot line, or a wavy line. As described above, since the first display area 351g and the second display area 352g are linked by the line image 353, the relationship between the first display area 351g and the second display area 352g is clear.

図18(h)は、第一表示領域351hの枠の表示パターンと、第二表示領域352hの枠の表示パターンとが一致する場合の一例を示す。さらに、枠の表示色が一致してもよい。このように、枠の表示パターンが同一であるので、第一表示領域351hと第二表示領域352hとの関係が明らかである。   FIG. 18H illustrates an example in which the display pattern of the frame of the first display area 351h matches the display pattern of the frame of the second display area 352h. Further, the display colors of the frames may match. Thus, since the display patterns of the frames are the same, the relationship between the first display area 351h and the second display area 352h is clear.

また、第一表示領域内の文字の表示色と、第二表示領域内の文字の表示色が一致してもよい(不図示)。この場合、文字の表示色が同一であるので、第一表示領域内と第二表示領域内との関係が明らかである。   In addition, the display color of the characters in the first display area may match the display color of the characters in the second display area (not shown). In this case, since the display colors of the characters are the same, the relationship between the inside of the first display area and the inside of the second display area is clear.

なお、第一表示領域の表示色と、第一表示領域と対応関係がない第二表示領域の表示色とは、異なる色となるようにする。また、対応関係がない第一表示領域の表示パターンと第二表示領域の表示パターンとは、異なるパターンとなるようにする。   The display color of the first display area is different from the display color of the second display area that has no correspondence with the first display area. Further, the display pattern of the first display area and the display pattern of the second display area having no correspondence are different from each other.

上記の場合に、表示制御部110(生成手段)は、第一表示領域内における表示色又は表示パターンと、第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成してもよい。また、表示制御部110(出力手段)は、表示色又は表示パターンを用いて表示させるため、色パターン情報を、合成部229に対して出力してもよい。   In the above case, the display control unit 110 (generation unit) generates the same color pattern information indicating the display color or display pattern in the first display area and the display color or display pattern in the second display area. You may. Further, the display control unit 110 (output unit) may output color pattern information to the synthesizing unit 229 in order to display using the display color or the display pattern.

1.4 動作
翻訳表示装置1の動作について、図19〜図20に示すフローチャートを用いて説明する。
1.4 Operation The operation of the translation display device 1 will be described with reference to the flowcharts shown in FIGS.

表示部102は、表示制御部110の制御により、表示データテーブル171に含まれる全ての表示データ関連情報について、その表示位置において、その幅及び高さにより、テキストデータを表示する。ここで、表示されるテキストデータの元になる言語を第一言語と呼ぶ(ステップS101)。   Under the control of the display control unit 110, the display unit 102 displays the text data of all the display data related information included in the display data table 171 at the display position by the width and the height. Here, the language on which the displayed text data is based is called the first language (step S101).

次に、カメラ12a〜12dは、それぞれ、対象を撮影して、画像データを生成し、生成した画像データを、入力部105a〜105dを介して、記憶部104に、書き込む。顔認識処理部106は、記憶部104から画像データを取得する(ステップS102)。   Next, the cameras 12a to 12d respectively capture images of the target, generate image data, and write the generated image data to the storage unit 104 via the input units 105a to 105d. The face recognition processing unit 106 acquires image data from the storage unit 104 (Step S102).

次に、顔認識処理部106は、取得した画像データからユーザーの顔を検出する(ステップS103)。次に、位置算出部107は、取得した画像データからユーザーの立ち位置を検出する(ステップS104)。次に、顔認識処理部106は、ユーザー属性テーブル191及びユーザーの顔画像データを用いて、ユーザーを特定する(ステップS105)。   Next, the face recognition processing unit 106 detects a user's face from the acquired image data (step S103). Next, the position calculation unit 107 detects the standing position of the user from the acquired image data (Step S104). Next, the face recognition processing unit 106 specifies the user using the user attribute table 191 and the face image data of the user (step S105).

次に、視線視点算出部108は、ユーザーの顔の水平方向の向きを算出し(ステップS106)、続いて、ユーザーの顔の鉛直方向からの傾きを算出する(ステップS107)。続いて、視線視点算出部108は、ユーザーの顔の水平方向の向き及びユーザーの顔の鉛直方向からの傾きを用いて、ユーザーの視線を算出し(ステップS108)、続いて、表示部102の表示面におけるユーザーの視点を算出する(ステップS109)。   Next, the line-of-sight viewpoint calculation unit 108 calculates the horizontal direction of the user's face (step S106), and then calculates the inclination of the user's face from the vertical direction (step S107). Subsequently, the line-of-sight viewpoint calculation unit 108 calculates the user's line of sight using the horizontal direction of the user's face and the inclination of the user's face from the vertical direction (step S108). The viewpoint of the user on the display surface is calculated (step S109).

次に、表示制御部110は、表示領域テーブル181に含まれる表示領域情報毎に、ステップS111〜S124を繰り返す(ステップS110〜S125)。   Next, the display control unit 110 repeats steps S111 to S124 for each display area information included in the display area table 181 (steps S110 to S125).

表示制御部110は、一つの第一表示領域について、複数のユーザーの視点が、一つの第一表示領域内に存在するか否かを判断する。具体的には、表示制御部110は、一つの表示領域情報が、複数のユーザーIDを含むか否かを判断する(ステップS111)。   The display control unit 110 determines whether or not the viewpoints of a plurality of users exist in one first display area for one first display area. Specifically, the display control unit 110 determines whether one display area information includes a plurality of user IDs (Step S111).

複数のユーザーの視点が、一つの第一表示領域内に存在する場合、つまり、一つの表示領域情報が複数のユーザーIDを含む場合(ステップS111で「YES」)、表示制御部110は、これらの複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうちの少なくとも一つの使用言語を第二言語に決定する。ただし、第二言語を決定する際に、第一言語を除く(ステップS112)。次に、翻訳部111は、テキストデータを翻訳して翻訳テキストデータを取得する(ステップS113)。次に、表示制御部110は、第一表示領域に付随するように、翻訳テキストデータを表示すべき第二表示領域を設定する(ステップS114)。次に、表示制御部110は、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を合成部229に対して出力する(ステップS115)。次に、表示部102は、第二表示領域において、第二テキストデータを含む表示画像データを表示する(ステップS116)。   When the viewpoints of a plurality of users are present in one first display area, that is, when one display area information includes a plurality of user IDs ("YES" in step S111), the display control unit 110 Are acquired from the user attribute table 191 and at least one of the acquired languages used is determined as the second language. However, when determining the second language, the first language is excluded (step S112). Next, the translation unit 111 obtains translated text data by translating the text data (step S113). Next, the display control unit 110 sets a second display area where the translated text data is to be displayed so as to accompany the first display area (step S114). Next, the display control unit 110 outputs the translated text data and the position information indicating the position of the second display area to the synthesizing unit 229 (Step S115). Next, the display unit 102 displays the display image data including the second text data in the second display area (Step S116).

複数のユーザーの視点が、一つの第一表示領域内に存在しない場合、つまり、一つの表示領域情報が複数のユーザーIDを含まない場合(ステップS111で「NO」)、表示制御部110は、一人のユーザーの視点のみが一つの第一表示領域内に存在するか否かを判断、つまり、一つの表示領域情報が、一つのユーザーIDのみを含むか否かを判断する(ステップS119)。   When the viewpoints of a plurality of users do not exist in one first display area, that is, when one display area information does not include a plurality of user IDs ("NO" in step S111), the display control unit 110 It is determined whether only one user's viewpoint exists in one first display area, that is, it is determined whether one display area information includes only one user ID (step S119).

一人のユーザーの視点のみが一つの第一表示領域内に存在する場合、つまり、一つの表示領域情報が、一つのユーザーIDのみを含む場合(ステップS119で「YES」)、表示制御部110は、当該一人のユーザーの使用言語をユーザー属性テーブル191から取得し、表示テキストデータの使用言語(第一言語)とユーザーの使用言語が一致するか否かを判断する(ステップS120)。表示テキストデータの使用言語とユーザーの使用言語が一致しない場合(ステップS120で「NO」)、翻訳部111は、テキストデータを翻訳して翻訳テキストデータを取得し(ステップS121)、次に、表示制御部110は、例えば、第一表示領域に付随するように、翻訳テキストデータを表示すべき第二表示領域を設定する(ステップS122)。次に、表示制御部110は、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を合成部229に対して出力する(ステップS123)。次に、表示部102は、第二表示領域において、第二テキストデータを含む表示画像データを表示する。このとき、第二表示領域において、第二テキストデータは、ハーフトーンにより、表示される(ステップS124)。   When only one user's viewpoint exists in one first display area, that is, when one display area information includes only one user ID (“YES” in step S119), the display control unit 110 Then, the language used by the one user is acquired from the user attribute table 191, and it is determined whether or not the language used (first language) of the display text data matches the language used by the user (step S120). If the language used in the display text data does not match the language used by the user ("NO" in step S120), translation section 111 translates the text data to obtain translated text data (step S121), and then displays the translated text data. The control unit 110 sets a second display area where the translated text data is to be displayed, for example, so as to accompany the first display area (step S122). Next, the display control unit 110 outputs the translated text data and the position information indicating the position of the second display area to the synthesizing unit 229 (Step S123). Next, the display unit 102 displays the display image data including the second text data in the second display area. At this time, in the second display area, the second text data is displayed in halftone (step S124).

表示テキストデータの使用言語(第一言語)とユーザーの使用言語が一致する場合(ステップS120で「YES」)、表示制御部110は、何もしない。   If the language used (first language) of the display text data matches the language used by the user ("YES" in step S120), display control unit 110 does nothing.

また、ユーザーの視点が一つの第一表示領域内に存在しない場合、つまり、一つの表示領域情報が、ユーザーIDを含まない場合(ステップS119で「NO」)、表示制御部110は、何もしない。   When the user's viewpoint does not exist in one first display area, that is, when one display area information does not include a user ID (“NO” in step S119), the display control unit 110 do not do.

ステップS111〜S124の繰り返しが終了すると、表示制御部110は、制御をステップS102へ移し、処理を繰り返す。   When the repetition of steps S111 to S124 ends, the display control unit 110 shifts the control to step S102 and repeats the processing.

1.5 まとめ
以上説明したように、上記の実施の形態によると、第一言語によりテキストデータが表示されている第一表示領域に、複数のユーザーの視点が存するときに限り、これらの視点に視線を注ぐ複数のユーザーの使用する第二言語(第一言語を除く)により、テキストデータを変換して、第一表示領域に付随する第二表示領域に、翻訳テキストデータを表示する。
1.5 Summary As described above, according to the above-described embodiment, only when a plurality of user's viewpoints exist in the first display area in which text data is displayed in the first language, these viewpoints are displayed. The text data is converted in a second language (excluding the first language) used by a plurality of users who look at the line of sight, and the translated text data is displayed in a second display area attached to the first display area.

このように第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。その結果、複数のユーザーの間で、意思疎通を図ることができる。また、第二表示領域には、翻訳テキストデータが表示されるので、第一言語を理解できないユーザーであっても、第一表示領域に表示されたテキストデータの意味を知ることができる。   By displaying the translated text data in the second display area attached to the first display area in this way, it can be seen that a plurality of users are paying attention to the first display area. In other words, one user who is paying attention to the first display area has another user who is paying attention to the first display area other than himself, and that user is displayed in the first display area as well as himself. You can know that you are interested in the text data. As a result, communication can be achieved between a plurality of users. Further, since the translated text data is displayed in the second display area, even a user who cannot understand the first language can know the meaning of the text data displayed in the first display area.

2 変形例
本発明について、上記の実施の形態に基づいて説明しているが、上記の実施の形態に限定されない。以下に示すようにしてもよい。
2. Modifications Although the present invention has been described based on the above embodiment, it is not limited to the above embodiment. The following may be performed.

2.1 変形例(1)
上記の実施の形態においては、図5に示すように、第一表示領域301にユーザーの視点311c、312c、313cが集まった場合であっても、第一表示領域301の大きさは、変更されない。しかし、本発明は、これには限定されない。
2.1 Modification (1)
In the above embodiment, as shown in FIG. 5, even when the user's viewpoints 311c, 312c, and 313c are gathered in the first display area 301, the size of the first display area 301 is not changed. . However, the invention is not so limited.

表示部102の第一表示領域内に多くのユーザーの視点が集まる場合に、第一表示領域を大きくしてもよい。また、第一表示領域に付随して表示される第二表示領域も大きく表示してもよい。   When the viewpoints of many users are gathered in the first display area of the display unit 102, the first display area may be enlarged. Further, the second display area displayed along with the first display area may be displayed large.

図21(a)は、表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。また、図21(b)は、翻訳表示装置1の表示部102に大きく表示されるテキストデータ及び翻訳テキストデータの一例を示す。   FIG. 21A shows the relationship between text data displayed on the display unit 102 and the user's standing position. FIG. 21B shows an example of the text data and the translated text data which are largely displayed on the display unit 102 of the translation display device 1.

図21(a)に示すように、第一表示領域301に対して、多くのユーザーの視点が集まって存在している。一方で、第一表示領域302、303、304に対して、ユーザーの視点は集まっていない。   As shown in FIG. 21A, many user's viewpoints are present in the first display area 301. On the other hand, the viewpoints of the user are not gathered for the first display areas 302, 303, and 304.

このような場合に、第一表示領域301を大きくし、図21(b)に示すように、第一表示領域421aとするとともに、第一表示領域421aに付随する第二表示領域421b及び421cも大きくしてもよい。   In such a case, the first display area 301 is enlarged to be the first display area 421a as shown in FIG. 21B, and the second display areas 421b and 421c accompanying the first display area 421a are also provided. May be larger.

また、この場合、図21(a)の第一表示領域302、303、304を小さくし、その幅を細くしてもよい。また、図21(b)に示すように、第一表示領域421a並びに第二表示領域421b及び421cの余白領域に、その余白領域の形状に合わせて、図21(a)の第一表示領域302、303、304の形状を変形して、第一表示領域422、423、424のように、表示してもよい。例えば、図21(a)においては、第一表示領域302、303、304は、Y軸方向に長尺であるが、図21(b)においては、第一表示領域422、423、424は、X軸方向に長尺である。   In this case, the first display areas 302, 303, and 304 in FIG. 21A may be made smaller and their widths may be made smaller. As shown in FIG. 21B, the first display area 421a and the first display area 302 of FIG. , 303, 304 may be deformed and displayed as the first display areas 422, 423, 424. For example, in FIG. 21A, the first display areas 302, 303, and 304 are long in the Y-axis direction, but in FIG. 21B, the first display areas 422, 423, and 424 are It is long in the X-axis direction.

具体的には、表示制御部110(視点判断手段)は、第三表示領域内に存する複数の視点の数が、所定数以上であるか否かを判断してもよい。表示制御部110(生成手段)は、さらに、複数の視点の数が所定数以上である場合、第三表示領域を拡大した拡大領域の位置を示す拡大位置情報を生成する。表示制御部110(出力手段)は、さらに、拡大位置情報により示される拡大領域に、テキストデータを表示させるため、拡大位置情報を合成部229に対して出力する。   Specifically, the display control unit 110 (viewpoint determining unit) may determine whether the number of the plurality of viewpoints in the third display area is equal to or more than a predetermined number. When the number of the plurality of viewpoints is equal to or more than a predetermined number, the display control unit 110 (generating unit) further generates enlarged position information indicating the position of the enlarged region obtained by enlarging the third display region. The display control unit 110 (output unit) further outputs the enlarged position information to the combining unit 229 in order to display the text data in the enlarged area indicated by the enlarged position information.

また、複数の視点の数が所定数以上である場合、表示制御部110は、さらに、第二表示領域を拡大した領域の位置を示す第二拡大位置情報を生成し、翻訳テキストデータを拡大してもよい。表示制御部110は、さらに、第二拡大位置情報により示される拡大された第二表示領域に拡大された翻訳テキストデータを表示させるため、第二拡大位置情報及び拡大された翻訳テキストデータを合成部229に対して出力する
ここで、第三表示領域内に存する複数の視点の数が、所定数以上であるとは、例えば、第三表示領域内に存する複数の視点の数が、表示部102の表示面に存する全ての視点の数のうちの25%(又は、50%、75%、90%でもよい。)以上であることをいう。
Further, when the number of the plurality of viewpoints is equal to or more than the predetermined number, the display control unit 110 further generates second enlarged position information indicating the position of the enlarged region of the second display region, and enlarges the translated text data. May be. The display control unit 110 further combines the second enlarged position information and the enlarged translated text data in order to display the enlarged translated text data in the enlarged second display area indicated by the second enlarged position information. Here, the number of the plurality of viewpoints in the third display area is equal to or more than the predetermined number, for example, when the number of the plurality of viewpoints in the third display area is equal to Is 25% (or may be 50%, 75%, or 90%) of the number of all viewpoints on the display surface.

このように、変形例(1)によると、第三表示領域内に多くのユーザーの視点が集まる場合に、第三表示領域を大きくし、第三表示領域に付随して表示される第二表示領域も大きくし、さらに、表示されるテキストデータ及び翻訳テキストデータを大きくしている。   As described above, according to the modified example (1), when many user's viewpoints are gathered in the third display area, the third display area is enlarged, and the second display displayed along with the third display area. The area is enlarged, and the displayed text data and translated text data are enlarged.

このため、第三表示領域に注目するユーザーは、大きく表示されたテキストデータ及び翻訳テキストデータにより、これらの文字をはっきりと視認できる。   For this reason, the user who pays attention to the third display area can clearly recognize these characters with the large-displayed text data and translated text data.

2.2 変形例(2)
上記の実施の形態においては、図17に示すように、第一表示領域301、302、303、304内に表示されるテキストデータ内の各文字は、X軸正方向からX軸負方向に見て、正立している。また、第二表示領域401a、401b、402、403に表示される翻訳テキストデータについても、同様である。しかし、本発明は、これには、限定されない。
2.2 Modification (2)
In the above embodiment, as shown in FIG. 17, each character in the text data displayed in the first display area 301, 302, 303, 304 is viewed from the X axis positive direction to the X axis negative direction. And erect. The same applies to the translated text data displayed in the second display areas 401a, 401b, 402, and 403. However, the invention is not so limited.

ユーザーの視線の向きや、ユーザーの立ち位置に応じて、これらのユーザーに見やすいように、第一表示領域及び第二表示領域にそれぞれ表示されるテキストデータ内の各文字及び翻訳テキストデータ内の各文字が正立して見えるように、テキストデータ及び翻訳テキストデータの向きを調整してもよい。   Depending on the direction of the user's line of sight and the standing position of the user, each character in the text data displayed in the first display area and the second display area and each character in the translation text data are displayed in the first display area and the second display area, respectively. The orientation of the text data and the translated text data may be adjusted so that the characters appear to be upright.

図22は、翻訳表示装置1の表示部102に表示されるテキストデータ及び翻訳テキストデータとユーザーの立ち位置との関係、及び、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。   FIG. 22 shows an example of the relationship between the text data and translated text data displayed on the display unit 102 of the translation display device 1 and the user's standing position, and an example of the text data and translated text data displayed on the display unit 102. .

図5と同様に、この図においても、表示部102には、第一表示領域301において、日本語により、「原因と対策」が表示されている。第一表示領域301には、視点311c、312c及び313cが存在する。これらの視点に視線を注ぐユーザーの立ち位置等についても、図5と同じである。   As in FIG. 5, also in this figure, “cause and countermeasure” is displayed on the display unit 102 in the first display area 301 in Japanese. In the first display area 301, viewpoints 311c, 312c, and 313c exist. The standing position of the user who pours his or her gaze at these viewpoints is the same as in FIG.

このように、第一表示領域301には、日本語(第一言語)が表示され、視点311c、312c及び313cが存在し、視点311c及び313cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、それぞれ、英語及びスペイン語(第二言語)であるので、図5と同様に、第一表示領域301に付随する第二表示領域433及び432には、それぞれ、英語及びスペイン語により、「Cause and Action」及び「Causa y Medidas」と表示されている。   As described above, in the first display area 301, Japanese (first language) is displayed, and the viewpoints 311c, 312c, and 313c are present, and the language used by the user who looks at the viewpoints 311c and 313c is displayed. Since the language is English and Spanish (second language), respectively, instead of Japanese, the second display areas 433 and 432 attached to the first display area 301 are displayed in English and Spanish, respectively, as in FIG. The words are labeled “Cause and Action” and “Causey Medidas”.

ただし、図5と異なるのは、第二表示領域433及び432には、視点311c及び313cに視線を注ぐユーザーの立ち位置から見て、それぞれの表示文字が正立して見えるようにしている点である。さらに、第二表示領域431にも、視点312cに視線を注ぐユーザーの立ち位置から見て、日本語による文字データが正立して見えるようにしている。   However, what is different from FIG. 5 is that the second display areas 433 and 432 make the respective display characters appear to be erect when viewed from the standing position of the user who looks at the viewpoints 311c and 313c. It is. Further, in the second display area 431 as well, the character data in Japanese is made to look upright when viewed from the standing position of the user who looks at the viewpoint 312c.

第一表示領域302に付随する第二表示領域434及び第一表示領域303に付随する第二表示領域435についても、同様である。   The same applies to the second display area 434 attached to the first display area 302 and the second display area 435 attached to the first display area 303.

具体的には、表示制御部110(生成手段)は、翻訳テキストデータを構成する文字が、ユーザーの立ち位置から、正立して見えるように、翻訳テキストデータを回転させて配した画像データを生成する。表示制御部110(出力手段)は、画像データを出力する。表示部102は、第二表示領域に翻訳テキストデータを回転させて配した画像データを表示する。   Specifically, the display control unit 110 (generation unit) converts the image data in which the translated text data is rotated and arranged so that the characters constituting the translated text data appear to be upright from the user's standing position. Generate. The display control section 110 (output means) outputs image data. The display unit 102 displays image data obtained by rotating the translated text data in the second display area.

このように、ユーザーの視線の向きや、ユーザーの立ち位置に応じて、表示内容が正立して見えるので、表示内容に対するユーザーの理解を促進することができる。   In this way, the displayed content looks upright according to the direction of the user's line of sight and the standing position of the user, so that the user's understanding of the displayed content can be promoted.

2.3 変形例(3)
上記の実施の形態においては、翻訳表示装置1の天板の4つの隅に設けられた4台のカメラ12a、12b、12c及び12dにより撮影されたユーザーの画像を用いて、ユーザーの視線方向及びユーザーの表示部102の表示面における視点を求めている。しかし、本発明は、これには限定されない。
2.3 Modification (3)
In the above embodiment, the user's gaze direction and the user's gaze direction are determined using the images of the user captured by the four cameras 12a, 12b, 12c, and 12d provided at the four corners of the top plate of the translation display device 1. The user's viewpoint on the display surface of the display unit 102 is obtained. However, the invention is not so limited.

変形例(3)としての翻訳表示システム501は、表示面上の一部の第一表示領域に第一言語により表記されたテキストデータを第二言語に翻訳して表示するシステムであって、図23に示すように、モニター511、翻訳装置512及びユーザーの顔面に装着されるメガネ513、514、515から構成されている、としてもよい。モニター511と翻訳装置512とは、ケーブル516により接続されている。   A translation display system 501 as a modified example (3) is a system that translates and displays text data written in a first language in a second language in a part of a first display area on a display surface. As shown in FIG. 23, it may be constituted by a monitor 511, a translation device 512, and glasses 513, 514, 515 worn on the face of the user. The monitor 511 and the translation device 512 are connected by a cable 516.

翻訳表示システム501は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分をメガネ513、514、515に置き換え、翻訳表示装置1における表示部102をモニター511に置き換えたものである。   The translation display system 501 replaces a structural part for detecting a user's viewpoint in the translation display device 1 in the embodiment with glasses 513, 514, and 515, and replaces the display unit 102 in the translation display device 1 with a monitor 511. is there.

このため、翻訳装置512は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を除く残りの構成部分により、構成されている。   For this reason, the translation device 512 is configured by the structural components for detecting the user's viewpoint and the remaining components other than the display unit 102 in the translation display device 1 in the embodiment.

メガネ513は、翻訳装置512との間で、近距離無線により、通信を行う。メガネ514、515も、メガネ513と同様に、翻訳装置512との間で、近距離無線により、通信を行う。   The glasses 513 communicate with the translation device 512 by short-range wireless communication. Similarly to the glasses 513, the glasses 514 and 515 communicate with the translation device 512 by short-range wireless communication.

メガネ513のフレーム部分には、メガネ513を装着したユーザーの視線方向を撮影するカメラ513a及び算出部が配置されている。カメラ513aは、ユーザーの視線方向を撮影して画像データを生成し、算出部は、生成した画像データの中央部に写るオブジェクトの位置を視点として算出し、算出した視点を翻訳装置512に対して出力する。メガネ514、515も、メガネ513と同じ構造を有する。   In a frame portion of the glasses 513, a camera 513a that captures an eye direction of a user wearing the glasses 513 and a calculation unit are arranged. The camera 513a captures the direction of the user's line of sight to generate image data, and the calculation unit calculates the position of an object in the center of the generated image data as a viewpoint, and sends the calculated viewpoint to the translation device 512. Output. The glasses 514 and 515 also have the same structure as the glasses 513.

翻訳装置512は、メガネ513、514、515から、モニター511の表示面に注視する複数のユーザーの当該表示面におけるそれぞれの視点を取得し、取得した前記視点のうち、複数の視点が第一表示領域内に存するか否かを判断し、第一表示領域内に複数の視点が存する場合に限り、第一言語を除いて、当該複数の視点に視線を注ぐ複数のユーザーがそれぞれ理解する複数の言語のうち、少なくとも一つの言語を、第二言語として決定し、第一表示領域に表記されているテキストデータを、当該テキストデータの意味内容に関連し、前記第二言語により表現された翻訳テキストデータに翻訳し、表示面上において、第一表示領域に付随する第二表示領域の位置を示す位置情報を生成し、翻訳テキストデータ及び位置情報をモニター511に対して出力する。   The translation device 512 acquires, from the glasses 513, 514, and 515, respective viewpoints on the display surface of a plurality of users who gaze at the display surface of the monitor 511, and among the acquired viewpoints, a plurality of viewpoints are displayed on the first display. Judge whether or not it exists in the area, and only when the plurality of viewpoints exist in the first display area, except for the first language, a plurality of users who pour eyes at the plurality of viewpoints understand each Among the languages, at least one language is determined as a second language, and the text data written in the first display area is related to the meaning of the text data, and the translated text expressed in the second language It translates the data into data, generates position information indicating the position of the second display area associated with the first display area on the display surface, and displays the translated text data and the position information on the monitor 5. And outputs it to the 1.

モニター511は、表示面を有し、表示面の第一表示領域にテキストデータを表示し、翻訳テキストデータ及び位置情報を受信し、位置情報により示される第二表示領域に、翻訳テキストデータを表示する。   The monitor 511 has a display surface, displays text data in a first display area of the display surface, receives translated text data and position information, and displays translated text data in a second display area indicated by the position information. I do.

(まとめ)
以上説明したように、変形例(3)によると、第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。
(Summary)
As described above, according to the modification (3), a plurality of users pay attention to the first display area by displaying the translated text data in the second display area accompanying the first display area. I understand. In other words, one user who is paying attention to the first display area has another user who is paying attention to the first display area other than himself, and that user is displayed in the first display area as well as himself. You can know that you are interested in the text data.

この結果として、第一表示領域に視点を注ぐ複数のユーザーの間の意思疎通を図ることができる。   As a result, communication between a plurality of users who focus on the first display area can be achieved.

2.4 変形例(4)
上記の実施の形態においては、翻訳表示装置1の天板の4つの隅に設けられた4台のカメラ12a、12b、12c及び12dにより撮影されたユーザーの画像を用いて、ユーザーの視線方向及びユーザーの表示部102の表示面における視点を求めている。しかし、本発明は、これには限定されない。
2.4 Modification (4)
In the above embodiment, the user's gaze direction and the user's gaze direction are determined using the images of the user captured by the four cameras 12a, 12b, 12c, and 12d provided at the four corners of the top plate of the translation display device 1. The user's viewpoint on the display surface of the display unit 102 is obtained. However, the invention is not so limited.

変形例(4)として、図24(a)に概略構成を示す翻訳表示システム531は、表示面上の一部の第一表示領域に第一言語により表示されたテキストデータを第二言語により翻訳して表示するシステムであって、ホワイトボード532、翻訳装置536、ユーザーの顔面に装着されるメガネ533、534、535から構成されている。   As a modification (4), a translation display system 531 whose schematic configuration is shown in FIG. 24A translates text data displayed in a first language in a part of a first display area on a display surface in a second language. The system includes a whiteboard 532, a translation device 536, and glasses 533, 534, and 535 worn on the user's face.

翻訳表示システム531は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を、メガネ533、534、535に置き換えたものである。   The translation display system 531 is obtained by replacing the structural part for detecting the user's viewpoint and the display unit 102 in the translation display device 1 according to the embodiment with glasses 533, 534, and 535.

このため、翻訳装置536は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を除く残りの構成部分により、構成されている。   For this reason, the translation device 536 is configured by the structural components for detecting the user's viewpoint and the remaining components other than the display unit 102 in the translation display device 1 in the embodiment.

メガネ533は、翻訳装置536との間で、近距離無線により、通信を行う。メガネ534、535も、メガネ533と同様に、翻訳装置536との間で、近距離無線により、通信を行う。   The glasses 533 communicate with the translation device 536 by short-range wireless communication. Like the glasses 533, the glasses 534 and 535 communicate with the translation device 536 by short-range wireless communication.

ホワイトボード532は、表示面を有する。   The whiteboard 532 has a display surface.

メガネ533は、ユーザーの顔面に装着され、カメラ533aを備えたメガネ型の表示装置である。カメラ533aにより、ユーザーの視線方向を撮影して画像データを生成し、生成した画像データの中央部に写るオブジェクトの位置を視点として算出し、算出した視点を、近距離無線により、翻訳装置536に対して送信する。また、メガネ533は、撮影により取得した画像データを表示する。   The glasses 533 are glasses-type display devices that are worn on the user's face and include a camera 533a. The camera 533a captures the direction of the user's line of sight to generate image data, calculates the position of an object in the center of the generated image data as a viewpoint, and sends the calculated viewpoint to the translation device 536 by short-range wireless communication. Send to. In addition, the glasses 533 display image data obtained by shooting.

メガネ534、535も、メガネ533と同じ構成を有している。   The glasses 534 and 535 also have the same configuration as the glasses 533.

翻訳装置536は、メガネ533、534、535から、ホワイトボード532の表示面に注視する複数のユーザーの当該表示面におけるそれぞれの視点を取得し、取得した前記視点のうち、複数の視点が第一表示領域内に存するか否かを判断し、第一表示領域内に複数の視点が存する場合に限り、第一言語を除いて、当該複数の視点に視線を注ぐ複数のユーザーがそれぞれ理解する複数の言語のうち、少なくとも一つの言語を、第二言語として決定し、第一表示領域に表記されているテキストデータを、第二言語法に翻訳し、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成し、翻訳テキストデータ及び位置情報をメガネ533、534、535に対して、近距離無線により、送信する。   The translation device 536 acquires, from the glasses 533, 534, and 535, respective viewpoints of the plurality of users who gaze at the display surface of the whiteboard 532, and among the acquired viewpoints, a plurality of viewpoints are first. Judge whether or not it exists in the display area, and only when the plurality of viewpoints exist in the first display area, except for the first language, a plurality of users who look at the plurality of viewpoints and understand each other Among the languages, at least one language is determined as a second language, text data written in the first display area is translated into a second language method, and attached to the first display area on the display surface. The position information indicating the position of the second display area is generated, and the translated text data and the position information are transmitted to the glasses 533, 534, and 535 by short-range wireless communication.

メガネ533、534、535は、翻訳装置536から、近距離無線により、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を受信し、受信した位置情報により示される第二表示領域に、受信した翻訳テキストデータを表示する。   The glasses 533, 534, and 535 receive the translated text data and the position information indicating the position of the second display area from the translation device 536 by short-range wireless communication, and Display the translated text data.

(まとめ)
以上説明したように、変形例(4)によると、第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。
(Summary)
As described above, according to the modification (4), a plurality of users pay attention to the first display area by displaying the translated text data in the second display area accompanying the first display area. I understand. In other words, one user who is paying attention to the first display area has another user who is paying attention to the first display area other than himself, and that user is displayed in the first display area as well as himself. You can know that you are interested in the text data.

この結果として、第一表示領域に視点を注ぐ複数のユーザーの間の意思疎通を図ることができる。   As a result, communication between a plurality of users who focus on the first display area can be achieved.

2.5 その他の変形例
(1)上記実施の形態では、表示部102は、テキストデータ及び翻訳テキストデータの両方を表示している。つまり、図17に示すように、表示部102は、第一表示領域301にテキストデータを表示し、第一表示領域301に付随する第二表示領域401a、401bに、翻訳テキストデータを表示している。しかし、これには、限定されない。
2.5 Other Modifications (1) In the above embodiment, the display unit 102 displays both text data and translated text data. That is, as shown in FIG. 17, the display unit 102 displays text data in the first display area 301, and displays translated text data in the second display areas 401a and 401b attached to the first display area 301. I have. However, this is not a limitation.

表示部102は、テキストデータに代えて、第一表示領域301に、翻訳テキストデータを表示してもよい。   The display unit 102 may display the translated text data in the first display area 301 instead of the text data.

具体的には、表示制御部110(生成手段)は、第一表示領域の位置を示す位置情報を生成し、表示制御部110(出力手段)は、第二表示領域として、第一表示領域に翻訳テキストデータを表示させるため、生成された位置情報を出力してもよい。   Specifically, the display control unit 110 (generation unit) generates position information indicating the position of the first display area, and the display control unit 110 (output unit) sets the second display area as the second display area. In order to display the translated text data, the generated position information may be output.

第一表示領域に、複数のユーザーの視点が存在するとき、これらの視点に視線を注ぐ複数のユーザーのうち、第一言語を使用するユーザーがいないのであれば、表示面を有効に使用することができる。   When there are multiple users' viewpoints in the first display area, if there are no users who use the first language among the multiple users who look at these viewpoints, use the display surface effectively. Can be.

(2)上記実施の形態では、図17に示すように、表示部102は、第一表示領域301にテキストデータを表示し、第一表示領域301に付随する第二表示領域401a、401bに、翻訳テキストデータを表示している。しかし、これには、限定されない。   (2) In the above embodiment, as shown in FIG. 17, the display unit 102 displays text data in the first display area 301, and displays the text data in the second display areas 401a and 401b attached to the first display area 301. The translated text data is displayed. However, this is not a limitation.

表示制御部110(空白判断手段)は、第一表示領域の周辺に、翻訳テキストデータを表示するために十分な大きさの空白領域が存在するか否かを判断してもよい。つまり、翻訳テキストデータの表示サイズよりも大きく、文字の表示されていない空白領域が存在するか否かを判断する。空白領域が存在すると判断する場合に、表示制御部110(生成手段)は、当該空白領域内において、第二表示領域の位置を示す位置情報を生成し、表示制御部110は、表示部102に、第一表示領域の周辺の空白領域に翻訳文字データを表示させる、としてもよい。   The display control unit 110 (blank determining means) may determine whether there is a blank area large enough to display the translated text data around the first display area. That is, it is determined whether or not there is a blank area larger than the display size of the translated text data and in which no character is displayed. When determining that there is a blank area, the display control unit 110 (generation unit) generates position information indicating the position of the second display area in the blank area, and the display control unit 110 Alternatively, the translated character data may be displayed in a blank area around the first display area.

一方、表示制御部110は、第一表示領域の周辺に、翻訳テキストデータを表示するため十分な大きさの空白領域が存在しないと判断する場合、翻訳テキストデータを表示するサイズをやや小さくした後に、例えば、そのサイズを、例えば、面積で5%〜10%だけ小さくした後に、再度、サイズの小さくなった翻訳テキストデータを表示するために十分な大きさの空白領域が存在するか否かを判断してもよい。空白領域が存在する場合に、その空白領域に、サイズの小さくなった翻訳文字データを表示させる、としてもよい。   On the other hand, if the display control unit 110 determines that there is no blank area large enough to display the translated text data around the first display area, the display control unit 110 may reduce the size of displaying the translated text data to a small extent. For example, after reducing the size by, for example, 5% to 10% in area, it is again determined whether or not there is a blank area large enough to display the reduced-sized translated text data. You may decide. When there is a blank area, translated character data having a reduced size may be displayed in the blank area.

また、表示制御部110は、第一表示領域の周辺に、翻訳テキストデータを表示するために十分な大きさの空白領域が存在しないと判断する場合、例えば、第一表示領域を、当該第一表示領域の幅の5%〜10%程度の長さ分だけ、左方向又は右方向に、移動させた後に、又は、第一表示領域を、当該第一表示領域の高さの5%〜10%程度の長さ分だけ、上方向又は下方向に、移動させた後に、再度、空白領域が存在するか否かを判断してもよい。表示領域を移動させた後に、空白領域が存在する場合に、その空白領域に、翻訳テキストデータを表示させる、としてもよい。   If the display control unit 110 determines that there is no blank area large enough to display the translated text data around the first display area, for example, the display control unit 110 sets the first display area to the first display area. After being moved to the left or right by a length of about 5% to 10% of the width of the display area, or by moving the first display area from 5% to 10% of the height of the first display area. After moving upward or downward by a length of about%, it may be determined again whether or not a blank area exists. After the display area is moved, if there is a blank area, the translated text data may be displayed in the blank area.

このように、文字が表示されていない空白領域に翻訳テキストデータを配置することにより、翻訳テキストデータにより、他の必要な文字等が覆い隠されることがない。   By arranging the translated text data in a blank area where no character is displayed, other necessary characters and the like are not covered by the translated text data.

(3)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。   (3) In the above-described embodiment and modified examples, text data expressed in a first language (first notation) is displayed in a first display area, and text data is displayed in a second language (second notation). And the translated text data is displayed in the second display area. However, the invention is not so limited.

全国的に規範として用いられる標準語を一つの言語として捉え、地域によって異なる発達をした方言を別の言語として捉えてもよい。   Standard languages used as norms nationwide may be considered as one language, and dialects that have developed differently in different regions may be considered as different languages.

第一表記法は、全国的に規範として用いられる標準語による表現であり、第二表記法は、地域によって異なる発達をした方言による表現である、としてもよい。   The first notation may be an expression in a standard language used nationwide as a norm, and the second notation may be an expression in a dialect that has developed differently depending on the region.

言い換えると、第一言語は、標準語であり、第二言語は、方言であるとしてもよい。第一言語である標準語により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語である方言に翻訳して、翻訳テキストデータを第二表示領域に表示してもよい。   In other words, the first language may be a standard language and the second language may be a dialect. The text data expressed by the standard language that is the first language is displayed in the first display area, the text data is translated into a dialect that is the second language, and the translated text data may be displayed in the second display area. .

また、第一表記法は、方言による表現であり、第二表記法は標準語による表現であるとしてもよい。   Further, the first notation may be an expression in a dialect, and the second notation may be an expression in a standard language.

言い換えると、第一言語は、方言であり、第二言語は、標準語であるしてもよい。第一言語である方言により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語である標準語に翻訳して、翻訳テキストデータを第二表示領域に表示してもよい。   In other words, the first language may be a dialect and the second language may be a standard language. The text data expressed in the first language dialect may be displayed in the first display area, the text data may be translated into the second language standard language, and the translated text data may be displayed in the second display area. .

この方法によると、標準語を理解する人と、方言を理解する人との間で、意思疎通を図ることができる。   According to this method, communication can be achieved between a person who understands the standard language and a person who understands the dialect.

(4)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。   (4) In the above-described embodiment and modified examples, text data expressed in a first language (first notation) is displayed in a first display area, and text data is displayed in a second language (second notation). And the translated text data is displayed in the second display area. However, the invention is not so limited.

第一表記法は、漢字による表現であり、第二表記法は、片仮名、平仮名又はローマ字による表現である、としてもよい。   The first notation may be an expression in kanji, and the second notation may be an expression in katakana, hiragana, or romaji.

このとき、第一表記法である漢字により表記されたテキストデータを第一表示領域に表示し、テキストデータを第二表記法である片仮名(又は、平仮名、ローマ字)に変換して、変換テキストデータを第二表示領域に表示してもよい。   At this time, the text data represented by the kanji as the first notation is displayed in the first display area, and the text data is converted into katakana (or hiragana, romaji) as the second notation, and the converted text data May be displayed in the second display area.

また、第一表記法は、片仮名、平仮名又はローマ字による表現であり、第二表記法は、漢字による表現である、としてもよい。   Further, the first notation may be expressed in katakana, hiragana, or romaji, and the second notation may be expressed in kanji.

このとき、第一表記法である片仮名(又は、平仮名、ローマ字)により表記されたテキストデータを第一表示領域に表示し、テキストデータを第二表記法である漢字に変換して、変換テキストデータを第二表示領域に表示してもよい。   At this time, text data written in katakana (or hiragana, romaji) as the first notation is displayed in the first display area, and the text data is converted into kanji as the second notation, and converted text data May be displayed in the second display area.

この方法によると、漢字を理解する人と、片仮名、平仮名又はローマ字を理解する人との間で、意思疎通を図ることができる。   According to this method, communication can be achieved between a person who understands kanji and a person who understands katakana, hiragana, or romaji.

(5)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。   (5) In the above embodiment and the modified example, text data expressed in the first language (first notation) is displayed in the first display area, and text data is displayed in the second language (second notation). And the translated text data is displayed in the second display area. However, the invention is not so limited.

第一表記法は、所定の観念を象徴するシンボルマークによる表現であり、第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものである、としてもよい。また、第二表記法は、シンボルマークの説明文の表記である、としてもよい。ここで、シンボルマークは、所定の観念を象徴する図形である、としてもよい。   The first notation may be expressed by a symbol mark that symbolizes a predetermined idea, and the second notation may be expressed by a character that expresses the idea symbolized by the symbol mark. Further, the second notation may be a notation of a description of the symbol mark. Here, the symbol mark may be a graphic symbolizing a predetermined idea.

第一表記法により表現されたシンボルマークを第一表示領域に表示し、シンボルマークが象徴する所定の観念を説明文として、第二表記法により表して、第二表示領域に、説明文を表示してもよい。説明文として、各言語により翻訳した翻訳テキストデータを用いるとしてもよい。   A symbol mark represented by the first notation is displayed in the first display area, and a predetermined idea represented by the symbol mark is described as a description in the second notation, and a description is displayed in the second display area. May be. As the description, translated text data translated in each language may be used.

シンボルマークは、例えば、社章、紋章、記章、国章、家紋 記号、ロゴ、印影であり、個人、家系、会社、団体などを象徴する図形である。この場合、説明文は、個人、家系、会社、団体などを示す名称等を文字表現したものである。   The symbol mark is, for example, a company emblem, a crest, an insignia, a national emblem, a family crest symbol, a logo, a seal, and is a figure symbolizing an individual, a family, a company, an organization, and the like. In this case, the description is a character representation of a name indicating an individual, family, company, organization, or the like.

また、シンボルマークは、例えば、地図記号である。その具体例は、神社、城跡、裁判所、灯台を示す地図記号であり、鉄道(新幹線)の路線を示す図形である。また、説明文の具体例は、それぞれ、「神社」、「城跡」、「裁判所」、「灯台」及び「新幹線」である。さらに、これらの説明文に対して、英語、スペイン語、フランス語の翻訳文を付加してもよい。   The symbol mark is, for example, a map symbol. A specific example is a map symbol indicating a shrine, a castle ruin, a court, and a lighthouse, and is a figure indicating a route of a railway (shinkansen). Further, specific examples of the description are “shrine”, “castle ruins”, “court”, “lighthouse”, and “shinkansen”, respectively. Further, English, Spanish, and French translations may be added to these descriptions.

また、シンボルマークは、例えば、電気回路の記号である。その具体例は、トランス、抵抗器、トランジスタを示す記号である。また、説明文の具体例は、それぞれ、「トランス」、「抵抗器」、「トランジスタ」である。さらに、これらの説明文に対して、英語、スペイン語、フランス語の翻訳文を付加してもよい。   The symbol mark is, for example, a symbol of an electric circuit. Specific examples are symbols indicating transformers, resistors, and transistors. Specific examples of the description are “transformer”, “resistor”, and “transistor”, respectively. Further, English, Spanish, and French translations may be added to these descriptions.

(6)上記の実施の形態及び変形例においては、第一表記法により表現されたデータを第一表示領域に表示し、データを第二表記法により変換して、変換されたデータを第二表示領域に表示している。このように、データと変換されたデータとの間には、一対一の関係がある。しかし、本発明は、これには限定されない。   (6) In the above embodiments and modifications, the data represented by the first notation is displayed in the first display area, the data is converted by the second notation, and the converted data is converted to the second notation. It is displayed in the display area. Thus, there is a one-to-one relationship between the data and the converted data. However, the invention is not so limited.

第一表示領域に、トランジスタを示す記号を表示し、第二表示領域に、説明文として「トランジスタ」及び詳細な説明として、当該トランジスタの電気的特性や温度特性を示すグラフを表示してもよい。   In the first display area, a symbol indicating a transistor may be displayed, and in the second display area, “transistor” may be displayed as a descriptive sentence, and a graph showing electrical characteristics and temperature characteristics of the transistor may be displayed as a detailed description. .

また、第一表示領域に、神社を示す地図記号を表示し、第二表示領域に、説明文として「神社」及び詳細な説明として、神社の由来、歴史、信仰対象の説明などを表示してもよい。   In the first display area, a map symbol indicating a shrine is displayed, and in the second display area, "shrine" is described as a descriptive text, and the origin, history, religion, etc. of the shrine are described as a detailed description. Is also good.

また、第一表示領域に、新幹線(鉄道)の路線を示す図形を表示し、第二表示領域に、説明文として「新幹線」及び詳細な説明として、列車の時刻表及び運行状況を表示してもよい。   Also, in the first display area, a figure indicating the route of the Shinkansen (railroad) is displayed, and in the second display area, "Shinkansen" is displayed as a descriptive text, and the timetable and operation status of the train are displayed as the detailed description. Is also good.

このように、第一表記法は、所定の観念を象徴する図形であるシンボルマークによる表現であり、第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものであるとしてもよい。また、第一表記法は、簡易な表現によるものであり、第二表記法は、当該簡易な表現を詳細に解説する表現によるものである、としてもよい。ここで、簡単な表現を詳細に解説する表現は、文字又は文字を含む図形によるものである、としてもよい。   As described above, the first notation is an expression using a symbol mark that is a figure that symbolizes a predetermined idea, and the second notation is an expression that uses a character to express the idea symbolized by the symbol mark. Good. Further, the first notation may be based on a simple expression, and the second notation may be based on an expression that explains the simple expression in detail. Here, the expression that explains the simple expression in detail may be a character or a graphic including the character.

(7)上記の実施の形態及び変形例においては、第一表示領域に一つの視点のみが存在する場合に、第一表示領域に付随する第二表示領域に、ハーフトーンにより、翻訳テキストデータを表示する、としている。しかし、本発明は、これには限定されない。   (7) In the above-described embodiment and the modified example, when only one viewpoint is present in the first display area, the translated text data is converted to the second display area associated with the first display area by halftone. To display. However, the invention is not so limited.

第一表示領域に一つの視点しか存在しない場合に、第二表示領域そのものを表示しない、としてもよい。   When only one viewpoint is present in the first display area, the second display area itself may not be displayed.

(8)上記の実施の形態及び変形例においては、ユーザーの視点は、一点に固定されているとしている。しかし、本発明は、これには限定されない。   (8) In the above-described embodiment and modified examples, it is assumed that the viewpoint of the user is fixed at one point. However, the invention is not so limited.

ユーザーが第一表示領域に注目している場合、ユーザーの視点は、一点に固定しておらず、第一表示領域の内外において、不規則に移動していると考えられる。このような場合において、一定の期間(例えば、5秒間)のうち、例えば、80%の期間内において、ユーザーの視点が第一表示領域の内側に存在すれば、ユーザーの視点は、第一表示領域内側に存在すると、みなしてもよい。   When the user is paying attention to the first display area, it is considered that the viewpoint of the user is not fixed at one point and moves irregularly inside and outside the first display area. In such a case, if the user's viewpoint exists inside the first display area within a period of, for example, 80% of a certain period (for example, 5 seconds), the user's viewpoint is changed to the first display. It may be considered that it exists inside the region.

(9)上記の実施の形態においては、ユーザー属性テーブル191(図6)に、ユーザーに対応して、当該ユーザーが使用する使用言語が記憶されており、ユーザー属性テーブル191から、ユーザーの使用言語を取得している。しかし、本発明は、これには限定されない。   (9) In the above embodiment, the language used by the user is stored in the user attribute table 191 (FIG. 6) corresponding to the user. Has been acquired. However, the invention is not so limited.

カメラにより撮影されたユーザーの顔画像から、当該ユーザーが使用する言語を認識できれば、そのような方法を用いてもよい。   Such a method may be used as long as the language used by the user can be recognized from the face image of the user captured by the camera.

(10)上記の実施の形態においては、表示制御部110(決定手段)は、一つの第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうち、少なくとも一つの言語を、第二言語(第二表記法)として決定している。   (10) In the above embodiment, the display control unit 110 (determination unit) determines, from the user attribute table 191, the languages used by a plurality of users who look at a plurality of viewpoints existing in one first display area. At least one of the acquired languages used by the plurality of users is determined as the second language (second notation).

ここで、第一表示領域に視点を注ぐ複数のユーザーに親和性のある表記法が複数存在する場合、前記複数のユーザーのうち、最も多くのユーザーに親和性のある一つの表記法を、第二表記法として決定してもよい。   Here, when there are a plurality of notations having an affinity for a plurality of users who focus on the viewpoint in the first display area, one notation having an affinity for the most users among the plurality of users is referred to as a second notation. You may decide as two notations.

また、使用言語毎に、優先順位が設定されており、第一表示領域に視点を注ぐ複数のユーザーに親和性のある表記法が複数存在する場合、これらのユーザーの使用言語のうち、最も高い優先度が設定された使用言語を、第二表記法として決定してもよい。   In addition, priority is set for each language used, and when there are a plurality of notations that are compatible with a plurality of users who focus on the viewpoint in the first display area, among the languages used by these users, the highest priority is set. The language in which the priority is set may be determined as the second notation.

また、表示制御部110(決定手段)により、複数のユーザーに親和性のある複数の表記法が、第二表記法として決定された場合、翻訳部111(表記変換手段)は、テキストデータ(第一データ)を、それぞれ、決定された複数の言語(表記法)により翻訳(変換)してもよい。この場合に、複数の翻訳テキストデータが生成される。   When the display control unit 110 (determination unit) determines a plurality of notations compatible with a plurality of users as the second notation, the translation unit 111 (notation conversion unit) transmits the text data (second notation). May be translated (converted) in a plurality of determined languages (notations). In this case, a plurality of translated text data is generated.

このように、複数の翻訳テキストデータが生成される場合、第二表示領域は、決定された複数の表記法により、それぞれ、翻訳テキストデータを表示する複数の部分領域に区分される、としてもよい。表示制御部110(生成手段)は、複数の部分領域を示す部分領域情報を生成してもよい。表示制御部110(出力手段)は、部分領域情報を出力してもよい。表示部102は、第二表示領域内の複数の部分領域に、それぞれ、翻訳テキストデータを表示する。   As described above, when a plurality of translated text data is generated, the second display area may be divided into a plurality of partial areas for displaying the translated text data, according to the determined plurality of notations. . The display control unit 110 (generation unit) may generate partial area information indicating a plurality of partial areas. The display control unit 110 (output unit) may output the partial area information. The display unit 102 displays the translated text data in a plurality of partial areas in the second display area.

また、上記のように、複数の翻訳テキストデータが生成される場合、表示制御部110(出力手段)は、一つの第二表示領域に、複数の翻訳テキストデータの各々を、切り換えて表示させるため、複数の翻訳テキストデータを、順次、出力する。表示部102は、一つの第二表示領域において、複数の翻訳テキストデータを、切換ながら、表示する。   Further, as described above, when a plurality of translated text data is generated, the display control unit 110 (output means) switches and displays each of the plurality of translated text data in one second display area. , And sequentially outputs a plurality of translated text data. The display unit 102 displays a plurality of translated text data in one second display area while switching.

(11)上述したように、各装置は、マイクロプロセッサーとメモリとを備えたコンピューターシステムである。メモリは、制御用のコンピュータープログラムを記憶しており、マイクロプロセッサーは、制御用のコンピュータープログラムに従って動作する、としてもよい。   (11) As described above, each device is a computer system including a microprocessor and a memory. The memory may store a computer program for control, and the microprocessor may operate according to the computer program for control.

ここで、制御用のコンピュータープログラムは、所定の機能を達成するために、コンピューターに対する指令を示す命令コードが複数個組み合わされて構成されたものである。   Here, the control computer program is configured by combining a plurality of instruction codes indicating instructions to the computer in order to achieve a predetermined function.

また、制御用のコンピュータープログラムは、コンピューター読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、光ディスク、半導体メモリなどに記録されている、としてもよい。   Further, the control computer program may be recorded on a computer-readable recording medium, for example, a flexible disk, a hard disk, an optical disk, a semiconductor memory, or the like.

(12)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。   (12) The above embodiment and the above modified examples may be combined.

本発明に係る表記変換装置は、第一表示領域に付随する第二表示領域に、第二データが表示された場合に、第一表示領域に視点を注ぐ複数の利用者は、第一表示領域に注目している利用者の存在を知って、異なる表記法を理解する利用者間の意思疎通を図ることができ、第一表記法により表記されたデータを第二表記法による表記に変換する技術として、有用である。   The notation conversion device according to the present invention is such that, when the second data is displayed in the second display area associated with the first display area, a plurality of users who pour a viewpoint on the first display area are provided in the first display area. Knowing the existence of the user who is paying attention to, can communicate with users who understand different notations, and convert the data written in the first notation into the notation in the second notation It is useful as technology.

1 翻訳表示装置
11 脚部
12a〜12d カメラ
101 主制御部
102 表示部
103 出力部
104 記憶部
105a〜105d 入力部
106 顔認識処理部
107 位置算出部
108 視線視点算出部
109 表示領域検出部
110 表示制御部
111 翻訳部
229 合成部
501 翻訳表示システム
511 モニター
512 翻訳装置
513〜515 メガネ
513a〜515a カメラ
516 ケーブル
531 翻訳表示システム
532 ホワイトボード
533〜535 メガネ
533a〜535a カメラ
533b〜535b 表示部
536 翻訳装置
Reference Signs List 1 translation display device 11 legs 12a to 12d camera 101 main control unit 102 display unit 103 output unit 104 storage unit 105a to 105d input unit 106 face recognition processing unit 107 position calculation unit 108 gaze viewpoint calculation unit 109 display area detection unit 110 display Control unit 111 Translation unit 229 Synthesis unit 501 Translation display system 511 Monitor 512 Translation device 513-515 Glasses 513a-515a Camera 516 Cable 531 Translation display system 532 Whiteboard 533-535 Glasses 533a-535a Camera 533b-535b Display unit 536 Translation device

Claims (28)

表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と
を備えること特徴とする表記変換装置。
A notation conversion device that converts first data written in a first notation in a first display area on a display surface into a notation in a second notation,
Among viewpoints on the display surface of a plurality of users who gaze at the display surface, viewpoint determination means for determining whether a plurality of viewpoints are present in the first display area,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who look at the first display area, a second notation. Determining means for determining as
Notation conversion means for converting the first data described in the first display area into second data represented by the second notation,
On the display surface, generating means for generating position information indicating the position of the second display area,
An output unit that outputs the second data and the position information to an external display device in order to display the second data in the second display area.
前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現である
ことを特徴とする請求項1に記載の表記変換装置。
The notation conversion device according to claim 1, wherein the first notation is an expression in a first language, and the second notation is an expression in a second language.
前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、又は、前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現である
ことを特徴とする請求項1に記載の表記変換装置。
The first notation is an expression in kanji, the second notation is an expression in katakana, hiragana or romaji, or the first notation is an expression in katakana, hiragana or romaji, The notation conversion device according to claim 1, wherein the second notation is an expression using Chinese characters.
前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とする請求項1に記載の表記変換装置。
The first notation is an expression in a standard language used nationwide as a norm, the second notation is an expression in a dialect developed differently depending on the region, or the first notation is a dialect The notation conversion device according to claim 1, wherein the second notation is an expression in a standard language.
前記第一表記法は、所定の観念を象徴するシンボルマークによる表現であり、前記第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものである
ことを特徴とする請求項1に記載の表記変換装置。
The said 1st notation is expression by the symbol mark which symbolizes a predetermined idea, and the said 2nd notation expresses the idea symbolized by the said symbol mark by a character. 2. The notation conversion device according to 1.
前記第一表記法は、簡易な表現によるものであり、前記第二表記法は、当該簡易な表現を詳細に解説する表現によるものである
ことを特徴とする請求項1に記載の表記変換装置。
The notation conversion device according to claim 1, wherein the first notation is based on a simple expression, and the second notation is based on an expression that explains the simple expression in detail. .
前記表現を詳細に解説する表現は、文字又は文字を含む図形によるものである
ことを特徴とする請求項6に記載の表記変換装置。
The expression conversion device according to claim 6, wherein the expression for explaining the expression in detail is a character or a graphic including the character.
前記決定手段により、決定される親和性のある表記法とは、利用者毎に馴染みのある表記法として予め登録されている表記法である
ことを特徴とする請求項1に記載の表記変換装置。
The notation conversion device according to claim 1, wherein the notation having an affinity determined by the determination means is a notation registered in advance as a notation familiar to each user. .
前記決定手段は、前記複数の利用者に親和性のある表記法が複数存在する場合、前記複数の利用者のうち、最も多くの利用者に親和性のある一つの表記法を、前記第二表記法として決定する
ことを特徴とする請求項1に記載の表記変換装置。
The determining means, when there are a plurality of notations having an affinity for the plurality of users, the one notation having an affinity for the most users among the plurality of users is used as the second notation. The notation conversion device according to claim 1, wherein the notation is determined.
前記決定手段により、前記複数の利用者に親和性のある複数の表記法が、前記第二表記法として決定された場合、前記表記変換手段は、前記第一データを、それぞれ、決定された複数の表記法により変換する
ことを特徴とする請求項1に記載の表記変換装置。
When the plurality of notations compatible with the plurality of users are determined as the second notation by the determining unit, the notation conversion unit converts the first data into the determined plurality, respectively. The notation conversion device according to claim 1, wherein the conversion is performed by the following notation.
前記第二表示領域は、前記複数の表記法により、それぞれ、変換された前記第一データを表示する複数の部分領域に区分され、
前記生成手段は、さらに、前記複数の部分領域を示す部分領域情報を生成し、
前記出力手段は、さらに、前記部分領域情報を出力する
ことを特徴とする請求項10に記載の表記変換装置。
The second display area is divided into a plurality of partial areas each displaying the converted first data, by the plurality of notations,
The generating means further generates partial area information indicating the plurality of partial areas,
The notation conversion device according to claim 10, wherein the output unit further outputs the partial area information.
前記出力手段は、前記第二表示領域に、複数の前記変換された第一データの各々を、切り換えて表示させるため、複数の前記変換された第一データを、順次、出力する
ことを特徴とする請求項10に記載の表記変換装置。
The output means sequentially outputs a plurality of the converted first data in order to switch and display each of the plurality of converted first data in the second display area. The notation conversion device according to claim 10.
前記生成手段は、前記第一表示領域の位置を示す前記位置情報を生成し、
前記出力手段は、前記第二表示領域として、前記第一表示領域に前記第二データを表示させるため、前記位置情報を出力する
ことを特徴とする請求項1に記載の表記変換装置。
The generating means generates the position information indicating the position of the first display area,
The notation conversion device according to claim 1, wherein the output unit outputs the position information in order to display the second data in the first display area as the second display area.
さらに、前記第一表示領域の周辺の領域に、前記第二データのサイズより大きく、データが表示されていない空白領域が存在するか否かを判断する空白判断手段を備え、
空白領域が存在すると判断される場合に、前記生成手段は、当該空白領域内において、前記第二表示領域の位置を示す前記位置情報を生成する
ことを特徴とする請求項1に記載の表記変換装置。
Further, in the area around the first display area, a blank determining means for determining whether there is a blank area larger than the size of the second data and in which no data is displayed,
The notation conversion according to claim 1, wherein when it is determined that a blank area exists, the generation unit generates the position information indicating a position of the second display area in the blank area. apparatus.
前記視点判断手段は、さらに、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、第三表示領域内に存する前記視点の数が、所定数以上であるか否かを判断し、
前記生成手段は、さらに、所定数以上である場合、前記第三表示領域を拡大した拡大領域の範囲を示す拡大範囲情報を生成し、
前記出力手段は、さらに、前記第三表示領域を拡大して表示するため、前記拡大範囲情報を前記表示装置に対して出力する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determination means may further include, among the respective viewpoints on the display surface of the plurality of users gazing at the display surface, whether the number of the viewpoints present in the third display area is equal to or greater than a predetermined number. Judge,
The generation unit, further, when the number is equal to or more than a predetermined number, generates expansion range information indicating a range of an expansion area obtained by expanding the third display area,
The notation conversion device according to claim 1, wherein the output unit further outputs the enlarged range information to the display device so as to enlarge and display the third display area.
前記表示面上において、前記第一表示領域から所定距離内に前記第二表示領域が存し、前記第一表示領域に接して前記第二表示領域が存し、前記第一表示領域に重複して前記第二表示領域が存し、又は、前記第一表示領域に包含されて前記第二表示領域が存する
ことを特徴とする請求項1に記載の表記変換装置。
On the display surface, the second display area exists within a predetermined distance from the first display area, and the second display area exists in contact with the first display area, and overlaps with the first display area. The notation conversion device according to claim 1, wherein the second display area exists or the second display area is included in the first display area.
前記生成手段は、さらに、
前記第一表示領域内における表示色又は表示パターンと、前記第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成し、
前記出力手段は、さらに、前記表示色又は前記表示パターンを用いて表示させるため、前記色パターン情報を前記表示装置に対して出力する
ことを特徴とする請求項1に記載の表記変換装置。
The generating means further includes:
A display color or display pattern in the first display area and the same color pattern information indicating a display color or display pattern in the second display area are generated,
2. The notation conversion device according to claim 1, wherein the output unit further outputs the color pattern information to the display device in order to display the display using the display color or the display pattern. 3.
さらに、前記表示面を注視する利用者の前記表示面における視点を検出する検出手段を備える
ことを特徴とする請求項1に記載の表記変換装置。
The notation conversion device according to claim 1, further comprising a detection unit configured to detect a viewpoint on the display surface of a user who gazes at the display surface.
前記検出手段は、
前記利用者を被写体とする画像データを取得するカメラと、
前記画像データから前記利用者の立ち位置と前記利用者の視線方向とを抽出し、抽出した前記立ち位置と前記視線方向に基づいて、前記表示面に注視する前記利用者の当該表示面における視点を算出する算出部とを備える
ことを特徴とする請求項18に記載の表記変換装置。
The detecting means,
A camera for acquiring image data with the user as a subject,
Extracting the standing position of the user and the line-of-sight direction of the user from the image data, and based on the extracted standing position and the line-of-sight direction, the viewpoint on the display surface of the user who gazes at the display surface The notation conversion device according to claim 18, further comprising: a calculation unit that calculates the notation.
前記表示装置は、矩形状の前記表示面を上方に向けた姿勢で設けられ、
前記利用者は、前記表示装置の周囲に立ち、
前記生成手段は、さらに、前記第二データを構成する文字が、前記利用者の立ち位置から、正立して見えるように、前記第二データを回転させて配した画像データを生成し、
前記出力手段は、前記第二データとして、前記画像データを出力し、
前記表示装置は、前記第二表示領域に前記画像データを表示する
ことを特徴とする請求項1に記載の表記変換装置。
The display device is provided in a posture in which the rectangular display surface faces upward,
The user stands around the display device,
The generating means further generates image data in which the second data is rotated and arranged so that characters constituting the second data are viewed from the user's standing position as being upright,
The output means outputs the image data as the second data,
The notation conversion device according to claim 1, wherein the display device displays the image data in the second display area.
さらに、前記複数の利用者について、各々の利用者に親和性のある表記法を示す表記法情報を記憶している記憶手段を備え、
前記決定手段は、前記記憶手段から前記表記法情報を取得し、取得した前記表記法情報により示される表記法を用いて、前記複数の利用者に親和性のある表記法を決定する
ことを特徴とする請求項1に記載の表記変換装置。
Further, a storage means for storing notation information indicating notation that is compatible with each of the plurality of users,
The determining unit acquires the notation information from the storage unit, and determines a notation compatible with the plurality of users by using a notation indicated by the acquired notation information. The notation conversion device according to claim 1, wherein
前記視点判断手段は、利用者の顔面に装着され、カメラと算出部とを備えた当該表記変換装置外部の眼鏡から前記視点を取得し、
前記カメラは、利用者の視線方向を撮影して画像データを生成し、
前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determining means is attached to the user's face, acquires the viewpoint from glasses outside the notation conversion device including a camera and a calculation unit,
The camera generates image data by photographing the user's line of sight,
The notation conversion device according to claim 1, wherein the calculation unit calculates, as a viewpoint, a position of an object appearing in a central portion of the image data.
前記視点判断手段は、利用者の顔面に装着され、カメラを備えた眼鏡型の前記表示装置から前記視点を取得し、
前記表示装置は、前記カメラにより、利用者の視線方向を撮影して画像データを生成し、生成した前記画像データの中央部に写るオブジェクトの位置を視点として算出する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determination means is attached to the user's face, acquires the viewpoint from the display device of the glasses type equipped with a camera,
The display device according to claim 1, wherein the camera captures an image of a user's line of sight with the camera to generate image data, and calculates a position of an object in a central portion of the generated image data as a viewpoint. The notation conversion device according to 1.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示装置であって、
前記第一表示領域に前記第一データを表示する表示手段と、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点を取得する視点取得手段と、
取得した前記視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記表示手段に対して出力する出力手段とを備え、
前記表示手段は、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示する
こと特徴とする変換表示装置。
A conversion display device that converts the first data written in the first notation into the first notation in the first notation on the display surface and converts the first data into the notation in the second notation, and
Display means for displaying the first data in the first display area,
Viewpoint acquisition means for acquiring respective viewpoints on the display surface of a plurality of users gazing at the display surface,
Judging means for judging whether or not a plurality of viewpoints are present in the first display area among the obtained viewpoints,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who look at the first display area, a second notation. Determining means for determining as
Notation conversion means for converting the first data described in the first display area into second data represented by the second notation,
On the display surface, generating means for generating position information indicating the position of the second display area,
Output means for outputting the second data and the position information to the display means,
The conversion display device, wherein the display unit receives the second data and the position information, and displays the second data in the second display area.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、
表記変換装置、表示装置及び検出装置を備え、
前記検出装置は、利用者の顔面に装着され、カメラと算出部とを備えた眼鏡であり、
前記カメラは、利用者の視線方向を撮影して画像データを取得し、
前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出し、
前記表記変換装置は、
前記検出装置から取得し、前記表示面を注視する複数の利用者の当該表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記表示装置に対して出力する出力手段とを備え、
前記表示装置は、前記表示面を有し、前記表示面の前記第一表示領域に前記第一データを表示し、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示する
ことを特徴とする変換表示システム。
A conversion display system that converts the first data written in the first notation into the notation in the second notation in the first display area on the display surface and displays the data.
Including a notation conversion device, a display device, and a detection device,
The detection device is a pair of glasses mounted on a user's face and including a camera and a calculation unit,
The camera captures image data by capturing the user's line of sight,
The calculation unit calculates a position of an object appearing in a central portion of the image data as a viewpoint,
The notation conversion device,
Obtained from the detection device, among the respective viewpoints on the display surface of a plurality of users who gaze at the display surface, viewpoint determination means for determining whether a plurality of viewpoints are present in the first display area. ,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who pour eyes at the first display area, a second notation. Determining means for determining as
Notation conversion means for converting the first data described in the first display area into second data represented by the second notation,
On the display surface, generating means for generating position information indicating the position of the second display area,
Output means for outputting the second data and the position information to the display device,
The display device has the display surface, displays the first data in the first display area of the display surface, receives the second data and the position information, in the second display area, A conversion display system for displaying second data.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、
表記変換装置、掲示板及び検出表示装置を備え、
前記掲示板は、前記表示面を有し、
前記検出表示装置は、利用者の顔面に装着され、カメラを備えたメガネ型の表示装置であって、前記カメラにより、利用者の視線方向を撮影して画像データを取得し、取得した前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記画像データを表示し、
前記表記変換装置は、
前記検出表示装置から取得し、前記表示面に注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記検出表示装置に対して出力する出力手段とを備え、
前記検出表示装置は、前記第二データ及び前記位置情報を受信し、前記位置情報により示される前記第二表示領域に、前記第二データを表示する
ことを特徴とする変換表示システム。
A conversion display system that converts the first data written in the first notation into the notation in the second notation in the first display area on the display surface and displays the data.
Equipped with a notation conversion device, a bulletin board and a detection display device,
The bulletin board has the display surface,
The detection and display device is a glasses-type display device that is mounted on a user's face and includes a camera, and the camera captures an image of a user's line of sight to acquire image data. Calculate the position of the object reflected in the center of the data as a viewpoint, display the image data,
The notation conversion device,
Viewpoint determination means for acquiring from the detection display device and determining whether or not a plurality of viewpoints are present in the first display area among respective viewpoints on the display surface of a plurality of users who gaze at the display surface. When,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who pour eyes at the first display area, a second notation. Determining means for determining as
Notation conversion means for converting the first data described in the first display area into second data represented by the second notation,
On the display surface, generating means for generating position information indicating the position of the second display area,
Output means for outputting the second data and the position information to the detection display device,
The conversion display system, wherein the detection display device receives the second data and the position information, and displays the second data in the second display area indicated by the position information.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御方法であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップと
を含むこと特徴とする制御方法。
A control method used in a notation conversion device that converts first data written in a first notation in a first display area on a display surface into a notation in a second notation,
Of the respective viewpoints on the display surface of the plurality of users who gaze at the display surface, a viewpoint determination step of determining whether a plurality of viewpoints are present in the first display region,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who pour eyes at the first display area, a second notation. A determining step to determine as
The notation conversion step of converting the first data described in the first display area into second data represented by the second notation,
On the display surface, a generating step of generating position information indicating the position of the second display area,
Outputting the second data and the position information to an external display device in order to display the second data in the second display area.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御用のコンピュータープログラムを記録しているコンピューター読み取り可能な記録媒体であって、
コンピューターである前記表記変換装置に、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップと
を実行させるためのコンピュータープログラムを記録している記録媒体。
Computer readable recording a computer program for control used in a notation conversion device that converts first data written in a first notation into a second notation in a first display area on a display surface. A recording medium,
In the notation conversion device that is a computer,
Of the respective viewpoints on the display surface of the plurality of users who gaze at the display surface, a viewpoint determination step of determining whether a plurality of viewpoints are present in the first display region,
Only when there are a plurality of viewpoints in the first display area, except for the first notation, a notation compatible with a plurality of users who pour eyes at the first display area, a second notation. A determining step to determine as
The notation conversion step of converting the first data described in the first display area into second data represented by the second notation,
On the display surface, a generating step of generating position information indicating the position of the second display area,
An output step of outputting the second data and the position information to an external display device in order to display the second data in the second display area. Medium.
JP2018120363A 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium Active JP7115061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120363A JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120363A JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Publications (2)

Publication Number Publication Date
JP2020003892A true JP2020003892A (en) 2020-01-09
JP7115061B2 JP7115061B2 (en) 2022-08-09

Family

ID=69099955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120363A Active JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Country Status (1)

Country Link
JP (1) JP7115061B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344245A (en) * 2006-09-08 2006-12-21 Fujitsu Ltd Program recording medium and data processor
WO2010018770A1 (en) * 2008-08-11 2010-02-18 コニカミノルタホールディングス株式会社 Image display device
WO2010021240A1 (en) * 2008-08-21 2010-02-25 コニカミノルタホールディングス株式会社 Image display device
JP2017502438A (en) * 2014-10-24 2017-01-19 シャオミ・インコーポレイテッド Description Information Display Method, Description Information Display Device, Electronic Device, Program, and Recording Medium
JP2018045459A (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344245A (en) * 2006-09-08 2006-12-21 Fujitsu Ltd Program recording medium and data processor
WO2010018770A1 (en) * 2008-08-11 2010-02-18 コニカミノルタホールディングス株式会社 Image display device
WO2010021240A1 (en) * 2008-08-21 2010-02-25 コニカミノルタホールディングス株式会社 Image display device
JP2017502438A (en) * 2014-10-24 2017-01-19 シャオミ・インコーポレイテッド Description Information Display Method, Description Information Display Device, Electronic Device, Program, and Recording Medium
JP2018045459A (en) * 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program

Also Published As

Publication number Publication date
JP7115061B2 (en) 2022-08-09

Similar Documents

Publication Publication Date Title
US6396598B1 (en) Method and apparatus for electronic memo processing for integrally managing document including paper document and electronic memo added to the document
US10958890B2 (en) Method and apparatus for rendering timed text and graphics in virtual reality video
US9098195B2 (en) Presentation system and display device for use in the presentation system
US9978182B2 (en) Technique for more efficiently displaying text in virtual image generation system
JP6455435B2 (en) Information processing apparatus, information processing method, and program
US20130321703A1 (en) Video output device and video output method
WO2013051180A1 (en) Image processing apparatus, image processing method, and program
US8952989B2 (en) Viewer unit, server unit, display control method, digital comic editing method and non-transitory computer-readable medium
RU2008139959A (en) INPUT PROCESSING SYSTEM FOR INFORMATION PROCESSING DEVICE
CN105843390A (en) Method for image scaling and AR (Augmented Reality) glasses based on method
KR20200040716A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP7115061B2 (en) Notation conversion device, conversion display device, conversion display system, control method and recording medium
JP2001008064A (en) Electronic camera and superimpostion display information layout method
JP3860560B2 (en) Display interface method and apparatus
JPH07282192A (en) Photographing device
KR20160133335A (en) System for making dynamic digital image by voice recognition
US20220277672A1 (en) Display device, display method, and program
WO2019138682A1 (en) Information processing device, information processing method, and program
JP3805161B2 (en) Character reading device, character reading method, and computer-readable information storage medium recording character reading program
JP2892416B2 (en) Image interactive communication system
JP2024042545A (en) Work support system and work support method
JPH06337628A (en) Sign language translation confirming device
JP2022075202A (en) Image information processing device, electronic apparatus, and image information processing program
JP2024009686A (en) Image creation device, image creation method, and image creation program
JP2023176248A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R150 Certificate of patent or registration of utility model

Ref document number: 7115061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150