JP2014044735A - Information processing apparatus, information processing method, and computer program - Google Patents

Information processing apparatus, information processing method, and computer program Download PDF

Info

Publication number
JP2014044735A
JP2014044735A JP2013213850A JP2013213850A JP2014044735A JP 2014044735 A JP2014044735 A JP 2014044735A JP 2013213850 A JP2013213850 A JP 2013213850A JP 2013213850 A JP2013213850 A JP 2013213850A JP 2014044735 A JP2014044735 A JP 2014044735A
Authority
JP
Japan
Prior art keywords
user
unit
screen
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013213850A
Other languages
Japanese (ja)
Other versions
JP6200270B2 (en
Inventor
Yusuke Sakai
祐介 阪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013213850A priority Critical patent/JP6200270B2/en
Publication of JP2014044735A publication Critical patent/JP2014044735A/en
Application granted granted Critical
Publication of JP6200270B2 publication Critical patent/JP6200270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus where a plurality of users share the apparatus by using a large screen and suitably perform cooperative work between users through operation of a touch panel.SOLUTION: At each of four side edge parts of a large screen, a proximity sensor 511 is provided to detect existence or a state of a user, a user occupation area and a common area in the screen are set according to arrangement of the users. For an operated object placed in the user occupation area, right to operate the operated object is given to the corresponding user, and a display orientation is changed in a direction of facing the user.

Description

本明細書で開示する技術は、タッチパネル式などの入力部を兼用した表示画面を有する情報処理装置及び情報処理方法、並びにコンピューター・プログラムに係り、特に、大画面を有し、複数のユーザーで共用するとともに、タッチパネルの操作を介してユーザー同士が協調作業を行なう情報処理装置及び情報処理方法、並びにコンピューター・プログラムに関する。   The technology disclosed in this specification relates to an information processing apparatus and an information processing method having a display screen that also serves as an input unit such as a touch panel type, and a computer program, and in particular, has a large screen and is shared by a plurality of users. In addition, the present invention relates to an information processing apparatus, an information processing method, and a computer program in which users perform collaborative work through operation of a touch panel.

最近、タッチパネル式などの入力部を兼用した表示画面を有するタブレット端末が急速に普及してきている。タブレット端末は、ウィジェットやデスクトップをインターフェースとし、操作方法が視覚的に分かり易いことから、ユーザーは、キーボードやマウスから入力操作を行なうパーソナル・コンピューターよりも手軽に利用することができる。   Recently, tablet terminals having a display screen that also serves as an input unit, such as a touch panel type, are rapidly spreading. Since the tablet terminal uses a widget or desktop as an interface and the operation method is easy to understand visually, the user can use it more easily than a personal computer that performs an input operation from a keyboard or a mouse.

例えば、マルチポイント・タッチ・スクリーンなどのマルチポイント感知デバイスからマルチポイント感知デバイスに関連するタッチ入力に属するデータを読み取り、マルチポイント感知デバイスからのデータに基づいてマルチポイント・ジェスチャーを識別するタッチ・センシティブ・デバイスについて提案がなされている(例えば、特許文献1を参照のこと)。   For example, a touch sensitive device that reads data belonging to a touch input associated with a multipoint sensing device from a multipoint sensing device, such as a multipoint touch screen, and identifies a multipoint gesture based on the data from the multipoint sensing device. A proposal has been made for a device (see, for example, Patent Document 1).

一般に、タブレット端末の画面上には、ユーザーの操作対象となる多数の被操作オブジェクトがさまざまな方位に配置されている。個々の被操作オブジェクトは、動画や静止画などの再生コンテンツ、他ユーザーから受信したメールやメッセージなどである。ユーザーは、所望の被操作オブジェクトを自分に正対して表示させるためには、個別にタブレット端末本体を回転操作する必要がある。例えば、A4、A5サイズのタブレット端末であれば回転操作は容易である。しかしながら、数十インチ程度の大画面になると、単一のユーザーが被操作オブジェクトを操作する度にタブレット端末を回転操作するのは面倒である。   In general, on a screen of a tablet terminal, a large number of operated objects that are user operation targets are arranged in various directions. Each operated object is a playback content such as a moving image or a still image, or an e-mail or a message received from another user. The user needs to individually rotate the tablet terminal body in order to display a desired operated object directly facing the user. For example, if it is an A4 or A5 size tablet terminal, the rotation operation is easy. However, when a large screen of about several tens of inches is used, it is troublesome to rotate the tablet terminal each time a single user operates the operated object.

また、大画面化したタブレット端末を、複数のユーザーで同時にそれぞれ個別の被操作オブジェクトの操作を行なうという利用形態も考えられる。   In addition, a usage mode in which a tablet terminal having a large screen is operated by a plurality of users at the same time on individual operated objects can be considered.

例えば、端末の側縁でユーザーが存在する場所を近接センサーで検出すると、右腕と左腕間の領域を識別して、そのユーザーのタッチ・ポイント領域にマッピングするタブレット端末について提案がなされている(例えば、非特許文献1を参照のこと)。タブレット端末は、複数のユーザーを検出したときには、被操作オブジェクト毎にユーザー個別の操作権を設定することや、あらかじめユーザーの追加参加を禁止することによって、あるユーザーが操作している被操作オブジェクトを他のユーザーが自分に正対する向きに回転するなどの操作を行なえないようにすることができる。   For example, there is a proposal for a tablet terminal that identifies a region between a right arm and a left arm when a location where a user is present on the side edge of the terminal is detected by a proximity sensor and maps the region to the touch point region of the user (for example, (See Non-Patent Document 1). When a tablet terminal detects a plurality of users, it sets the individual operation right for each operated object, or prohibits additional participation of the user in advance, thereby controlling the operated object operated by a certain user. It is possible to prevent other users from performing operations such as rotating in the direction that faces them.

ところが、大画面のタブレット端末を複数のユーザーで共有する利用形態として、上述のように各ユーザーが個別に被操作オブジェクトの操作を行なう以外に、ユーザー同士が被操作オブジェクトを交換して協調作業を行なう場合も想定される。ユーザー毎に占有するタッチ・ポイント領域を設定し、各自の領域内で操作権が与えられた被操作オブジェクトの操作を行なうのでは、協調作業の実現は困難である。   However, as a usage mode in which a large-screen tablet terminal is shared by a plurality of users, in addition to each user individually operating the operated object as described above, the users exchange the operated object to perform collaborative work. It is also envisaged to do so. It is difficult to realize collaborative work by setting a touch point area occupied for each user and operating an operated object to which an operation right is given in each area.

また、端末の画面に表示するGUIが、ユーザーから画面までの距離やユーザーの状態に依らず一定であると、ユーザーは遠くにいるのに画面に提示されている情報が細か過ぎてよく理解できない、あるいは、ユーザーは近くにいるのに画面に提示されている情報が少ない、といった問題がある。同様に、ユーザーが端末を操作するための入力手段が、ユーザーから画面までの距離やユーザーの状態に依らず一定であると、ユーザーは端末の近くにいてもリモコンがないため操作できない、あるいはユーザーはタッチパネルを操作するために端末に近づく必要があるなど、不便である。   Also, if the GUI displayed on the terminal screen is constant regardless of the distance from the user to the screen and the user's condition, the information presented on the screen is too fine to understand even though the user is far away. Or there is a problem that there is little information presented on the screen even though the user is nearby. Similarly, if the input means for the user to operate the terminal is constant regardless of the distance from the user to the screen and the user's state, the user cannot operate because there is no remote control even if the user is near the terminal, or the user Is inconvenient because it needs to be close to the terminal to operate the touch panel.

また、従来の物体表示システムでは、実在するオブジェクトの画像を、そのリアルサイズ情報を考慮せずに画面に表示する。このため、画面の大きさや解像度(dpi)に応じて表示されるオブジェクトのサイズが変動してしまう、という問題がある。   Further, in the conventional object display system, an image of an actual object is displayed on the screen without considering the real size information. For this reason, there is a problem that the size of the displayed object varies depending on the size of the screen and the resolution (dpi).

また、表示システムにおいて、複数のソースの映像コンテンツを、並列又は重畳するという形態で画面上に同時に表示する場合、同時表示する画像間の大小関係が正しく表示されず、画像同士の対応領域の大きさや位置がまちまちであると、ユーザーにとってとても見づらい画像になる。   In addition, in the display system, when video contents of a plurality of sources are simultaneously displayed on the screen in a form of being parallel or superimposed, the magnitude relationship between simultaneously displayed images is not correctly displayed, and the size of the corresponding region between the images is not displayed. If the sheath position is mixed, the image will be very difficult for the user to see.

また、回転機構を備えた端末などにおいて画面の向きを変えると、ユーザーから見え難くなるので、表示画面を回転させる必要がある。   Further, if the screen orientation is changed in a terminal or the like equipped with a rotation mechanism, it becomes difficult for the user to see the display screen, so the display screen needs to be rotated.

特開2010−170573号公報JP 2010-170573 A

http:・/www.autodeskresearch.com/publications/medusa (平成23年12月15日現在)http: // www. autodeskresearch. com / publications / medusa (as of December 15, 2011)

本明細書で開示する技術の目的は、大画面を有し、複数のユーザーで共用するとともに、タッチパネルの操作を介してユーザー同士が協調作業を好適に行なうことができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。   An object of the technology disclosed in the present specification is to provide an excellent information processing apparatus that has a large screen, is shared by a plurality of users, and that allows users to suitably perform cooperative work through operation of a touch panel. It is to provide an information processing method and a computer program.

また、本明細書で開示する技術の目的は、ユーザーの位置やユーザーの状態に拘わらず、ユーザーが操作するのに常に利便性の高い、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。   An object of the technology disclosed in the present specification is to provide an excellent information processing apparatus and information processing method, and a computer program that are always convenient for the user to operate regardless of the position of the user and the state of the user. Is to provide.

また、本明細書で開示する技術の目的は、実在するオブジェクトの大きさや、画面のサイズや解像度に依らず、オブジェクトの画像を常に適切な大きさで画面上に表示することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。   The purpose of the technology disclosed in this specification is to be able to display an image of an object on the screen at an appropriate size regardless of the size of the actual object, the size of the screen, and the resolution. To provide an information processing apparatus, an information processing method, and a computer program.

また、本明細書で開示する技術の目的は、複数のソースの映像コンテンツを、並列又は重畳するという形態で画面上に好適に同時表示することとができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。   In addition, an object of the technology disclosed in the present specification is to provide an excellent information processing apparatus and information processing method capable of simultaneously displaying video contents of a plurality of sources on a screen in a form of being parallel or superimposed. As well as providing computer programs.

また、本明細書で開示する技術の目的は、本体を回転させる際に、任意の回転角度やその遷移過程において、映像コンテンツの表示形態を最適に調整することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することにある。   In addition, an object of the technology disclosed in the present specification is to provide an excellent information processing apparatus capable of optimally adjusting a display form of video content at an arbitrary rotation angle and its transition process when rotating the main body. It is to provide an information processing method and a computer program.

本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
画面内に占有領域が設定された表示部と、
前記画面がタッチされたことを検出するタッチ検出部と、
前記タッチ検出部の検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算部と、
を具備し、
前記演算部は、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
情報処理装置である。
The present application has been made in consideration of the above problems, and the technology according to claim 1
A display with an occupied area set in the screen;
A touch detection unit for detecting that the screen is touched;
A calculation unit that processes the operated object to be displayed in the occupied area according to the detection result of the touch detection unit;
Comprising
The calculation unit performs a rotation process so that the operated object in the occupied area is in a direction facing a specific position on the screen.
Information processing apparatus.

本願の請求項2に記載の発明によれば、請求項1に記載の情報処理装置の前記画面には、被操作オブジェクトを回転処理しない共通領域がさらに設定されている。   According to the invention described in claim 2 of the present application, the screen of the information processing apparatus described in claim 1 is further set with a common area where the object to be operated is not rotated.

本願の請求項3に記載の発明によれば、請求項1に記載の情報処理装置の前記演算部は、前記占有領域外から前記占有領域内に移動してきた被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理するように構成されている。   According to invention of Claim 3 of this application, the said calculating part of the information processing apparatus of Claim 1 WHEREIN: The to-be-operated object which moved into the said occupied area from the said occupied area is specific of the said screen. The rotation processing is performed so as to be in the direction facing the position.

本願の請求項4に記載の発明によれば、請求項3に記載の情報処理装置の前記演算部は、ユーザーが被操作オブジェクトをドラッグして領域間を移動させる際に、被操作オブジェクトの重心位置に対してユーザーが操作した位置に応じて、被操作オブジェクトを回転処理する際の回転方向を制御するように構成されている。   According to the invention described in claim 4 of the present application, the arithmetic unit of the information processing apparatus according to claim 3 is configured such that the user can move the center of gravity of the operated object when the user drags the operated object to move between the areas. The rotation direction when the object to be operated is rotated is controlled according to the position operated by the user with respect to the position.

本願の請求項5に記載の発明によれば、請求項1に記載の情報処理装置の前記演算部は、前記占有領域内にユーザーの存在を表すインジケーターを表示させるように構成されている。   According to the invention described in claim 5 of the present application, the calculation unit of the information processing apparatus according to claim 1 is configured to display an indicator indicating the presence of the user in the occupied area.

本願の請求項6に記載の発明によれば、請求項1に記載の情報処理装置は、ユーザーが所持する端末とデータを送受信するデータ送受信部をさらに備えている。   According to the invention described in claim 6 of the present application, the information processing apparatus described in claim 1 further includes a data transmission / reception unit that transmits / receives data to / from a terminal possessed by the user.

本願の請求項7に記載の発明によれば、請求項6に記載の情報処理装置の前記データ送受信部は、ユーザーが所持する端末とデータ送受信処理を行ない、前記演算部は、前記端末から受信したデータに対応する被操作オブジェクトを、該当するユーザーの占有領域に出現させるように構成されている。   According to the invention described in claim 7 of the present application, the data transmission / reception unit of the information processing device according to claim 6 performs data transmission / reception processing with a terminal possessed by a user, and the arithmetic unit receives from the terminal. The operated object corresponding to the processed data is configured to appear in the area occupied by the corresponding user.

本願の請求項8に記載の発明によれば、請求項1に記載の情報処理装置は、前記画面内に複数の占有領域が設定されている。そして、前記演算部は、占有領域間で被操作オブジェクトを移動させたことに応じて、移動先の占有領域に被操作オブジェクトを複製又は分割するように構成されている。   According to the invention described in claim 8 of the present application, in the information processing apparatus described in claim 1, a plurality of occupied areas are set in the screen. The computing unit is configured to replicate or divide the operated object in the movement-destination occupied area according to the movement of the operated object between the occupied areas.

本願の請求項9に記載の発明によれば、請求項8に記載の情報処理装置の前記演算部は、移動先の占有領域に、別データとして作成した被操作オブジェクトの複製を表示させるように構成されている。   According to the invention described in claim 9 of the present application, the calculation unit of the information processing device according to claim 8 displays a copy of the operated object created as separate data in the occupied area of the movement destination. It is configured.

本願の請求項10に記載の発明によれば、請求項8に記載の情報処理装置の前記演算部は、移動先の占有領域に、ユーザー間で共同操作が可能なアプリケーションの別のウィンドウとなる被操作オブジェクトの複製を表示させるように構成されている。   According to the invention of claim 10 of the present application, the calculation unit of the information processing apparatus according to claim 8 is another window of an application that can be jointly operated between users in the occupied area of the movement destination. A copy of the operated object is displayed.

また、本願の請求項11に記載の発明は、
占有領域が設定された画面がタッチされたことを検出するタッチ検出ステップと、
前記タッチ検出ステップにおける検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算ステップと、
を有し、
前記演算ステップでは、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
情報処理方法である。
The invention according to claim 11 of the present application is
A touch detection step for detecting that the screen with the occupied area is touched;
A calculation step for processing the operated object to be displayed in the occupied area according to the detection result in the touch detection step;
Have
In the calculation step, rotation processing is performed so that the operated object in the occupied area is in a direction facing a specific position on the screen.
Information processing method.

また、本願の請求項12に記載の発明は、
画面内に占有領域が設定された表示部、
前記画面がタッチされたことを検出するタッチ検出部、
前記タッチ検出部の検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算部、
としてコンピューターを機能させ、
前記演算部は、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
コンピューター可読形式で記述されたコンピューター・プログラムである。
The invention according to claim 12 of the present application is
A display unit with an occupied area set in the screen,
A touch detection unit for detecting that the screen is touched;
A calculation unit that performs processing of an operated object to be displayed in the occupied area according to a detection result of the touch detection unit;
As a computer
The calculation unit performs a rotation process so that the operated object in the occupied area is in a direction facing a specific position on the screen.
A computer program written in a computer-readable format.

本願の請求項12に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項12に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る情報処理装置と同様の作用効果を得ることができる。   The computer program according to claim 12 of the present application defines a computer program written in a computer-readable format so as to realize predetermined processing on a computer. In other words, by installing the computer program according to claim 12 of the present application on a computer, a cooperative operation is exhibited on the computer, and the same effect as the information processing apparatus according to claim 1 of the present application is obtained. be able to.

本明細書で開示する技術によれば、画面を有し、複数のユーザーで共用するとともに、タッチパネルの操作を介してユーザー同士が協調作業を好適に行なうことができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。   According to the technology disclosed in the present specification, an excellent information processing apparatus and information that have a screen, can be shared by a plurality of users, and can be suitably collaborated by users through operation of the touch panel. A processing method as well as a computer program can be provided.

また、本明細書で開示する技術によれば、ユーザーの位置やユーザーの状態に応じて表示GUIや入力手段を最適化して、ユーザーの利便性がよい、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。   Further, according to the technology disclosed in the present specification, an excellent information processing apparatus and information processing method that optimizes the display GUI and input means according to the position of the user and the state of the user and is convenient for the user, As well as computer programs.

また、本明細書で開示する技術によれば、実在するオブジェクトの大きさや、画面のサイズや解像度に依らず、オブジェクトの画像を常に適切な大きさで画面上に表示することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。   Further, according to the technology disclosed in this specification, an image of an object can be always displayed on the screen in an appropriate size regardless of the size of the actual object, the size of the screen, and the resolution. An information processing apparatus, an information processing method, and a computer program can be provided.

また、本明細書で開示する技術によれば、複数のソースの映像コンテンツを、並列又は重畳するという形態で画面上に同時表示するときに、画像の正規化処理を行なうことで、画像同士の対応領域の大きさや位置がそろった、ユーザーに見易い画面を提示することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。   In addition, according to the technology disclosed in this specification, when the video contents of a plurality of sources are simultaneously displayed on the screen in a form of being parallel or superimposed, by performing image normalization processing, It is possible to provide an excellent information processing apparatus, information processing method, and computer program capable of presenting a user-friendly screen with a corresponding area having the same size and position.

また、本明細書で開示する技術によれば、本体を回転させる際に、任意の回転角度やその遷移過程において、映像コンテンツの表示形態を最適に調整することができる、優れた情報処理装置及び情報処理方法、並びにコンピューター・プログラムを提供することができる。   Further, according to the technology disclosed in the present specification, when rotating the main body, an excellent information processing apparatus capable of optimally adjusting the display form of video content at an arbitrary rotation angle and its transition process, and An information processing method and a computer program can be provided.

本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。   Other objects, features, and advantages of the technology disclosed in the present specification will become apparent from a more detailed description based on the embodiments to be described later and the accompanying drawings.

図1は、大画面を有する情報処理装置100の使用形態の一例(Wall)を示した図である。FIG. 1 is a diagram illustrating an example (Wall) of a usage pattern of an information processing apparatus 100 having a large screen. 図2は、大画面を有する情報処理装置100の使用形態の他の例(Tabletop)を示した図である。FIG. 2 is a diagram showing another example (Tabletop) of the usage pattern of the information processing apparatus 100 having a large screen. 図3Aは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。FIG. 3A is a diagram illustrating another example of a usage pattern of the information processing apparatus 100 having a large screen. 図3Bは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。FIG. 3B is a diagram illustrating another example of a usage pattern of the information processing apparatus 100 having a large screen. 図3Cは、大画面を有する情報処理装置100の使用形態の他の例を示した図である。FIG. 3C is a diagram illustrating another example of a usage pattern of the information processing apparatus 100 having a large screen. 図4は、情報処理装置100の機能的構成を模式的に示した図である。FIG. 4 is a diagram schematically illustrating a functional configuration of the information processing apparatus 100. 図5は、入力インターフェース部110の内部構成を示した図である。FIG. 5 is a diagram illustrating an internal configuration of the input interface unit 110. 図6は、出力インターフェース部130の内部構成を示した図である。FIG. 6 is a diagram showing an internal configuration of the output interface unit 130. 図7は、演算部120が被操作オブジェクトの処理を行なうための内部構成を示した図である。FIG. 7 is a diagram showing an internal configuration for the calculation unit 120 to process the operated object. 図8は、画面にユーザー占有領域を設定した様子を示した図である。FIG. 8 is a diagram showing a state where a user occupation area is set on the screen. 図9Aは、ユーザー占有領域Aが設定される前に、各被操作オブジェクト#1〜#6がランダムに向いている様子を示した図である。FIG. 9A is a diagram illustrating a state in which the operated objects # 1 to # 6 are randomly directed before the user occupation area A is set. 図9Bは、ユーザーAのユーザー占有領域Aが設定されたことにより、被操作オブジェクト#1〜#6がユーザーAと正対する向きに切り替わった様子を示した図である。FIG. 9B is a diagram illustrating a state in which the operated objects # 1 to # 6 are switched in a direction facing the user A due to the user-occupied area A of the user A being set. 図10は、ユーザーAに加え、ユーザーBの存在を検出したことにより、ユーザーBのユーザー占有領域Bと共通領域を画面内に追加して設定した様子を示した図である。FIG. 10 is a diagram showing a state where a user-occupied area B and a common area for user B are added and set in the screen by detecting the presence of user B in addition to user A. 図11は、ユーザーA、Bに加え、ユーザーDの存在を検出したことにより、ユーザーBのユーザー占有領域Dと共通領域を画面内に追加して設定した様子を示した図である。FIG. 11 is a diagram showing a state in which the user-occupied area D and the common area of the user B are added and set in the screen by detecting the presence of the user D in addition to the users A and B. 図12は、ユーザーA、B、Dに加え、ユーザーCの存在を検出したことにより、ユーザーBのユーザー占有領域Cと共通領域を画面内に追加して設定した様子を示した図である。FIG. 12 is a diagram showing a state in which the user-occupied area C and the common area of the user B are added and set in the screen by detecting the presence of the user C in addition to the users A, B, and D. 図13Aは、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示した図である。FIG. 13A is a diagram exemplifying an area division pattern for dividing a user-occupied area for each user on the screen according to the shape and size of the screen and the number of users. 図13Bは、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示した図である。FIG. 13B is a diagram exemplifying an area division pattern for dividing the user occupation area for each user on the screen in accordance with the shape and size of the screen and the number of users. 図13Cは、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示した図である。FIG. 13C is a diagram exemplifying an area division pattern for dividing the user occupation area for each user on the screen according to the shape and size of the screen and the number of users. 図13Dは、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示した図である。FIG. 13D is a diagram exemplifying an area division pattern for dividing the user occupation area for each user on the screen according to the shape and size of the screen and the number of users. 図13Eは、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示した図である。FIG. 13E is a diagram exemplifying an area division pattern for dividing a user occupation area for each user on the screen according to the shape and size of the screen and the number of users. 図14は、モニター領域分割部710が実行するモニター領域分割の処理手順を示したフローチャートである。FIG. 14 is a flowchart showing the processing procedure of the monitor area division executed by the monitor area dividing unit 710. 図15は、被操作オブジェクトをユーザー占有領域にドラッグ又はスロー移動したことによりユーザーに正対する方向に自動で回転する様子を示した図である。FIG. 15 is a diagram illustrating a state in which an object to be operated is automatically rotated in a direction facing the user by dragging or slow-moving the operated object to the user occupation area. 図16は、新たに出現したユーザー占有領域内の被操作オブジェクトがユーザーに正対する方向に自動で回転する様子を示した図である。FIG. 16 is a diagram illustrating a state in which an operated object in a newly occupied user occupation area automatically rotates in a direction facing the user. 図17は、オブジェクト最適処理部720が実行する被操作オブジェクトの最適処理の手順を示したフローチャートである。FIG. 17 is a flowchart showing the procedure of the optimization process for the operated object executed by the object optimization processing unit 720. 図18は、ユーザーが被操作オブジェクトをタッチ操作した位置に応じて回転方向を制御する様子を示した図である。FIG. 18 is a diagram illustrating a state in which the rotation direction is controlled according to the position where the user touches the operated object. 図19は、ユーザーが被操作オブジェクトをタッチ操作した位置に応じて回転方向を制御する様子を示した図である。FIG. 19 is a diagram illustrating a state in which the rotation direction is controlled according to the position where the user touches the operated object. 図20は、情報処理装置100とユーザーの所持端末との間で被操作オブジェクトの授受を行なうインタラクションの一例を示した図である。FIG. 20 is a diagram illustrating an example of an interaction in which an operated object is exchanged between the information processing apparatus 100 and a user's possession terminal. 図21は、機器連携データ送受信部730が実行する機器連携データ送受信の処理手順を示したフローチャートである。FIG. 21 is a flowchart showing a processing procedure of device cooperation data transmission / reception executed by the device cooperation data transmission / reception unit 730. 図22は、ユーザー占有領域間で被操作オブジェクトを移動させて、被操作オブジェクトを複製する様子を示した図である。FIG. 22 is a diagram illustrating a state in which the operated object is moved between user-occupied areas and the operated object is duplicated. 図23は、演算部120がユーザーの距離に応じて最適化処理を行なうための内部構成を示した図である。FIG. 23 is a diagram illustrating an internal configuration for the calculation unit 120 to perform optimization processing according to the distance of the user. 図24Aは、表示GUI最適化部2310によるユーザーの位置とユーザーの状態に応じたGUI表示の最適化処理を表にまとめた図である。FIG. 24A is a table in which optimization processing of GUI display according to the user position and the user state by the display GUI optimization unit 2310 is summarized in a table. 図24Bは、ユーザーの位置とユーザーの状態に応じた情報処理装置100の画面遷移を示した図である。FIG. 24B is a diagram illustrating screen transition of the information processing apparatus 100 according to the user position and the user state. 図24Cは、ユーザーの位置とユーザーの状態に応じた情報処理装置100の画面遷移を示した図である。FIG. 24C is a diagram illustrating screen transition of the information processing apparatus 100 according to the user position and the user state. 図24Dは、ユーザーの位置とユーザーの状態に応じた情報処理装置100の画面遷移を示した図である。FIG. 24D is a diagram illustrating a screen transition of the information processing apparatus 100 according to the user position and the user state. 図24Eは、ユーザーの位置とユーザーの状態に応じた情報処理装置100の画面遷移を示した図である。FIG. 24E is a diagram illustrating screen transition of the information processing apparatus 100 according to the user position and the user state. 図25Aは、さまざまな被操作オブジェクトをランダムに表示して、オート・ザッピングする画面の表示例を示した図である。FIG. 25A is a diagram showing a display example of a screen for performing automatic zapping by randomly displaying various manipulated objects. 図25Bは、オート・ザッピングする複数の被操作オブジェクトの表示位置や大きさを時々刻々と変化させる画面の表示例を示した図である。FIG. 25B is a diagram showing a display example of a screen in which the display positions and sizes of a plurality of operated objects to be auto-zapping are changed every moment. 図26は、ユーザーがTVを見ているが操作していない状態での画面表示例を示した図である。FIG. 26 is a diagram showing a screen display example in a state where the user is watching TV but not operating. 図27Aは、ユーザーがTVを操作している状態での画面表示例を示した図である。FIG. 27A is a diagram showing a screen display example in a state where the user is operating the TV. 図27Bは、ユーザーがTVを操作している状態での画面表示例を示した図である。FIG. 27B is a diagram showing a screen display example in a state where the user is operating the TV. 図28は、入力手段最適化部2320によるユーザーの位置とユーザーの状態に応じた入力手段の最適化処理を表にまとめた図である。FIG. 28 is a table summarizing the input unit optimization processing according to the user position and the user state by the input unit optimization unit 2320 in a table. 図29は、距離検出方式切替部2330によるユーザーの位置に応じた距離検出方式の切り替え処理を表にまとめた図である。FIG. 29 is a table summarizing the distance detection method switching processing according to the user's position by the distance detection method switching unit 2330 in a table. 図30は、従来の物体表示システムの問題点を説明するための図である。FIG. 30 is a diagram for explaining a problem of the conventional object display system. 図31は、従来の物体表示システムの問題点を説明するための図である。FIG. 31 is a diagram for explaining the problems of the conventional object display system. 図32は、演算部120がモニター性能に応じたオブジェクトのリアルサイズ表示処理を行なうための内部構成を示した図である。FIG. 32 is a diagram showing an internal configuration for the calculation unit 120 to perform real size display processing of an object according to monitor performance. 図33は、同じオブジェクトの画像を異なるモニター仕様の画面上でそれぞれリアルサイズ表示する例を示した図である。FIG. 33 is a diagram illustrating an example in which images of the same object are displayed in real size on screens with different monitor specifications. 図34は、リアルサイズの異なる2つのオブジェクトの画像を同じ画面上で相互の大小関係を正しく保って表示する例を示した図である。FIG. 34 is a diagram illustrating an example in which images of two objects having different real sizes are displayed on the same screen while maintaining the correct size relationship. 図35は、オブジェクト画像のリアルサイズ表示する例を示した図である。FIG. 35 is a diagram showing an example of displaying an object image in real size. 図36は、リアルサイズ表示したオブジェクト画像を回転若しくは姿勢変換した例を示した図である。FIG. 36 is a diagram illustrating an example in which an object image displayed in real size is rotated or posture-converted. 図37Aは、被写体のリアルサイズ情報を推定する様子を召した図である。FIG. 37A is a diagram illustrating a state in which real size information of a subject is estimated. 図37Bは、推定した被写体のリアルサイズ情報に基づいて被操作オブジェクトのリアルサイズ表示処理を行なう様子を示した図である。FIG. 37B is a diagram illustrating a state in which the real size display process of the operated object is performed based on the estimated real size information of the subject. 図38Aは、ビデオ・チャットしているユーザー間で顔の大きさや位置がまちまちになっている様子を示した図である。FIG. 38A is a diagram showing a state in which face sizes and positions vary among users who are in video chat. 図38Bは、複数画像間の正規化処理により、ビデオ・チャットしているユーザー間で顔の大きさや位置が揃えられた様子を示した図である。FIG. 38B is a diagram illustrating a state in which face sizes and positions are aligned among users who are in video chatting by a normalization process between a plurality of images. 図39Aは、画面に並列して表示するユーザーの姿とインストラクターの姿の大きさや位置が揃っていない様子を示した図である。FIG. 39A is a diagram showing a state in which the size and position of the user's figure displayed in parallel with the screen and the instructor's figure are not aligned. 図39Bは、複数画像間の正規化処理により、画面に並列して表示するユーザーの姿とインストラクターの姿の大きさや位置が揃えられた様子を示した図である。FIG. 39B is a diagram showing a state in which the size and position of the user's figure displayed in parallel with the screen and the instructor's figure are aligned by normalization processing between a plurality of images. 図39Cは、複数画像間の正規化処理により正規化したユーザーの姿をインストラクターの姿と重畳して表示する様子を示した図である。FIG. 39C is a diagram illustrating a state in which a user's figure normalized by a normalization process between a plurality of images is displayed superimposed on an instructor's figure. 図40Aは、商品のサンプル画像がユーザー本人の映像と正しい大小関係で適当な場所に重なっていない様子を示した図である。FIG. 40A is a diagram showing a state where the sample image of the product does not overlap with an appropriate place because of the correct size relationship with the video of the user himself / herself. 図40Bは、複数画像間の正規化処理により、商品のサンプル画像がユーザー本人の映像と正しい大小関係で適当な場所に重ねて表示している様子を示した図である。FIG. 40B is a diagram illustrating a state in which a sample image of a product is displayed in an appropriate location in a correct size relationship with the user's own image by normalization processing between a plurality of images. 図41は、演算部120が画像の正規化処理を行なうための内部構成を示した図である。FIG. 41 is a diagram illustrating an internal configuration for the calculation unit 120 to perform image normalization processing. 図42は、任意の回転角度において映像コンテンツが全く見切れないように、映像コンテンツの全領域を表示する表示形態を示した図である。FIG. 42 is a diagram showing a display form in which the entire area of the video content is displayed so that the video content is not completely visible at an arbitrary rotation angle. 図43は、各回転角度において、映像コンテンツ中の注目領域が最大となるようにする表示形態を示した図である。FIG. 43 is a diagram showing a display form in which the attention area in the video content is maximized at each rotation angle. 図44は、無効領域がないように映像コンテンツを回転する表示形態を示した図である。FIG. 44 is a diagram showing a display form in which video content is rotated so that there is no invalid area. 図45は、図42〜図44に示した各表示形態における、回転位置に対する映像コンテンツのズーム率の関係を示した図である。FIG. 45 is a diagram showing the relationship of the zoom ratio of the video content with respect to the rotation position in each display mode shown in FIGS. 図46は、情報処理装置100を回転させる際に、演算部120において映像コンテンツの表示形態を制御するための処理手順を示したフローチャートである。FIG. 46 is a flowchart illustrating a processing procedure for controlling the display form of the video content in the calculation unit 120 when the information processing apparatus 100 is rotated. 図47は、演算部120が情報処理装置100本体の任意の回転角度やその遷移過程において映像コンテンツの表示形態を調整する処理を行なうための内部構成を示した図である。FIG. 47 is a diagram illustrating an internal configuration for the calculation unit 120 to perform a process of adjusting the display form of the video content in an arbitrary rotation angle of the information processing apparatus 100 main body and its transition process.

以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。   Hereinafter, embodiments of the technology disclosed in this specification will be described in detail with reference to the drawings.

A.システム構成
本実施形態に係る情報処理装置100は、大画面を有するが、主な使用形態として、図1に示すように壁に掛ける「Wall」、並びに、図2に示すように卓上に設置する「Tabletop」が想定される。
A. System Configuration The information processing apparatus 100 according to the present embodiment has a large screen, but as a main usage pattern, a “Wall” that is hung on a wall as shown in FIG. 1 and a desktop as shown in FIG. “Tabletop” is assumed.

図1に示す「Wall」状態では、情報処理装置100は、例えば回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられている。また、回転・取り付け機構部180は情報処理装置100と外部との電気的接点を兼ねており、この回転・取り付け機構部180を介して情報処理装置100に電源ケーブルやネットワーク・ケーブル(いずれも図示しない)が接続されているものとし、情報処理装置100は、商用AC電源から駆動電力を受電できるとともに、インターネット上の各種サーバーにもアクセスすることができる。   In the “Wall” state illustrated in FIG. 1, the information processing apparatus 100 is attached in a state of being rotatable and detachable on the wall surface by, for example, a rotation / attachment mechanism unit 180. Further, the rotation / attachment mechanism unit 180 also serves as an electrical contact between the information processing apparatus 100 and the outside, and a power cable or a network cable (both shown) is connected to the information processing apparatus 100 via the rotation / attachment mechanism part 180. The information processing apparatus 100 can receive driving power from a commercial AC power source and can also access various servers on the Internet.

後述するように、情報処理装置100は、距離センサー、近接センサー、並びにタッチ・センサーを備えており、画面に正対しているユーザーの位置(距離、方位)を把握することができる。ユーザーを検出したとき、又は、ユーザーを検出している状態では、波紋状の検出インジケーター(後述)や、検出状態を示すイルミネーション表現などを画面上で行なって、ユーザーに視覚的なフィードバックを与えることができる。   As will be described later, the information processing apparatus 100 includes a distance sensor, a proximity sensor, and a touch sensor, and can grasp the position (distance, azimuth) of the user facing the screen. When a user is detected or in a state in which the user is detected, a ripple-shaped detection indicator (described later) or an illumination expression indicating the detection state is displayed on the screen to give the user visual feedback. Can do.

情報処理装置100は、ユーザーの位置に応じた最適なインタラクションを自動選択するようになっている。例えば、情報処理装置100は、ユーザーの位置に応じて、被操作オブジェクト枠組み、情報密度などのGUI(Graphical User Interface)表示を自動で選択し又は調整する。また、情報処理装置100は、画面へのタッチ、近接、手などを用いたジェスチャー、リモコン、ユーザー状態による間接操作など複数の入力手段の中から、ユーザーの位置若しくはユーザーまでの距離に応じて自動で選択することができる。   The information processing apparatus 100 automatically selects an optimal interaction according to the position of the user. For example, the information processing apparatus 100 automatically selects or adjusts a GUI (Graphical User Interface) display such as an operated object framework and information density according to the position of the user. In addition, the information processing apparatus 100 automatically selects a plurality of input means such as a touch on the screen, proximity, a gesture using a hand, a remote controller, an indirect operation according to a user state, and the like according to the position of the user or the distance to the user. Can be selected.

また、情報処理装置100は、1台以上のカメラも備えており、ユーザーの位置だけでなく、カメラの撮影画像から人物、物体、機器の認識も行なうことができる。また、情報処理装置100は、超近距離通信部も備えており、超近距離まで接近したユーザーが所持する機器との間で直接且つ自然なデータ送受信を行なうこともできる。   The information processing apparatus 100 also includes one or more cameras, and can recognize not only the position of the user but also a person, an object, and a device from a captured image of the camera. The information processing apparatus 100 also includes an ultra-short distance communication unit, and can directly and naturally transmit and receive data to and from a device held by a user approaching to an ultra-short distance.

Wallの大画面上には、ユーザーが操作する対象となる被操作オブジェクトが定義されている。被操作オブジェクトは、動画、静止画、テキスト・コンテンツを始め、任意のインターネット・サイト、アプリケーションやウィジェットなどの機能モジュールの特定の表示領域を有する。被操作オブジェクトには、テレビ放送の受信コンテンツ、記録メディアからの再生コンテンツ、ネットワークを介して取得したストリーミング動画、ユーザーが所持するモバイル端末など他の機器から取り込んだ動画、静止画コンテンツなどが含まれる。   On the large screen of the Wall, an object to be operated that is a target to be operated by the user is defined. The operated object has a specific display area of a functional module such as an arbitrary Internet site, an application, and a widget, including a moving image, a still image, and text content. The operated objects include TV broadcast reception content, playback content from recording media, streaming video acquired via a network, video captured from other devices such as mobile terminals owned by the user, still image content, etc. .

図1に示すように大画面が横置きとなるように、壁に掛けた情報処理装置100の回転位置を設定すると、画面全体の大きさを持つ被操作オブジェクトとして、ほぼムービーで描写する世界観そのままに映像を表示することができる。   As shown in FIG. 1, when the rotation position of the information processing apparatus 100 hung on the wall is set so that the large screen is placed horizontally, the view of the world that is almost drawn in a movie as an operated object having the size of the entire screen. The video can be displayed as it is.

ここで、大画面が縦向きとなるように、壁に掛けた情報処理装置100の回転位置を設定すると、図3Aに示すように、アスペクト比が16:9の画面を垂直方向に3つ配置することができる。例えば、異なる放送局から同時受信する放送コンテンツ、記録メディアからの再生コンテンツ、ネットワーク上のストリーミング動画など、3種類のコンテンツ#1〜#3を上下方向に並べて同時に表示することができる。さらに、ユーザーが例えば指先で画面上を上下方向に操作すると、図3Bに示すように、コンテンツが上下方向にスクロールする。また、ユーザーが3段のうちいずれかの場所で指先により左右方向に操作すると、図3Cに示すように、その段で画面が水平方向にスクロールする。   Here, when the rotation position of the information processing apparatus 100 hung on the wall is set so that the large screen is vertically oriented, as shown in FIG. 3A, three screens with an aspect ratio of 16: 9 are arranged in the vertical direction. can do. For example, three types of content # 1 to # 3 such as broadcast content simultaneously received from different broadcast stations, playback content from a recording medium, and streaming video on a network can be displayed side by side in the vertical direction. Furthermore, when the user operates the screen up and down with, for example, a fingertip, the content scrolls up and down as shown in FIG. 3B. Further, when the user operates the left and right directions with a fingertip at any of the three levels, the screen scrolls in the horizontal direction at that level as shown in FIG. 3C.

一方、図2に示す「Tabletop」状態では、情報処理装置100は卓上に直接設置される。図1に示した使用形態では回転・取り付け機構部180が電気的接点を兼ねているのに対し(前述)、図2に示すように卓上に設置された状態では、情報処理装置100への電気的接点が見当たらない。そこで、図示のTabletop状態では、情報処理装置100は、内蔵バッテリーにより無電源で動作可能に構成してもよい。また、情報処理装置100が例えば無線LAN(Local Area Network)の移動局機能に相当する無線通信部を備えるとともに、回転・取り付け機構部180が無線LANのアクセスポイント機能に相当する無線通信部を備えるようにすれば、情報処理装置100は、Tabletop状態においても、アクセスポイントとしての回転・取り付け機構部180との無線通信を通じてインターネット上の各種サーバーにアクセスすることができる。   On the other hand, in the “Tabletop” state shown in FIG. 2, the information processing apparatus 100 is directly installed on the desktop. In the usage mode shown in FIG. 1, the rotation / attachment mechanism unit 180 also serves as an electrical contact (as described above), whereas in the state where it is installed on a table as shown in FIG. I can't find the point of contact. Therefore, in the illustrated Tabletop state, the information processing apparatus 100 may be configured to be able to operate without a power source using a built-in battery. The information processing apparatus 100 includes a wireless communication unit corresponding to a mobile station function of, for example, a wireless LAN (Local Area Network), and the rotation / attachment mechanism unit 180 includes a wireless communication unit corresponding to an access point function of the wireless LAN. In this way, the information processing apparatus 100 can access various servers on the Internet through wireless communication with the rotation / attachment mechanism unit 180 as an access point even in the Tabletop state.

Tabletopの大画面上には、画面上には、被操作対象となる複数の被操作オブジェクトが定義されている。被操作オブジェクトは、動画、静止画、テキスト・コンテンツを始め、任意のインターネット・サイト、アプリケーションやウィジェットなどの機能モジュールの特定の表示領域を有する。   On the large screen of Tabletop, a plurality of objects to be operated are defined on the screen. The operated object has a specific display area of a functional module such as an arbitrary Internet site, an application, and a widget, including a moving image, a still image, and text content.

情報処理装置100は、大画面の4つの側縁部の各々に、ユーザーの存在又は状態を検出する近接センサーを備えている。上述と同様に、大画面に接近したユーザーをカメラで撮影して人物認識してもよい。また、超近距離通信部は、存在を検出したユーザーがモバイル端末などの機器を所持しているか否かを検出したり、ユーザーが所持する他端末からのデータ送受信要求を検出したりする。ユーザー又はユーザーの所持端末を検出したとき、又は、ユーザーを検出している状態では、波紋状の検出インジケーターや検出状態を示すイルミネーション表現(後述)などを画面上で行なって、ユーザーに視覚的なフィードバックを与えることができる。   The information processing apparatus 100 includes a proximity sensor that detects the presence or state of the user at each of the four side edges of the large screen. Similarly to the above, a user who approaches the large screen may be photographed with a camera to recognize a person. The ultra short-range communication unit detects whether or not the user who has detected the presence possesses a device such as a mobile terminal, or detects a data transmission / reception request from another terminal possessed by the user. When a user or a terminal owned by the user is detected or in a state where the user is detected, a ripple-shaped detection indicator or an illumination expression (described later) indicating the detection state is displayed on the screen to visually Give feedback.

情報処理装置100は、近接センサーなどでユーザーの存在を検出すると、その検出結果をUI制御に利用する。ユーザーの存在の有無だけでなく、胴体や両手足、頭の位置などを検出するようにすれば、より詳細なUI制御に利用することもできる。また、情報処理装置100は、超近距離通信部も備えており、超近距離まで接近したユーザーが所持する機器との間で直接且つ自然なデータ送受信を行なうこともできる(同上)。   When the information processing apparatus 100 detects the presence of a user with a proximity sensor or the like, the information processing apparatus 100 uses the detection result for UI control. By detecting not only the presence / absence of the user but also the position of the torso, both hands and feet, the head, etc., it can be used for more detailed UI control. The information processing apparatus 100 also includes an ultra-short-range communication unit, and can directly and naturally transmit and receive data to and from devices owned by a user who has approached the ultra-short distance (same as above).

ここで、UI制御の一例として、情報処理装置100は、検出されたユーザーの配置に応じて大画面内に、ユーザー毎のユーザー占有領域と各ユーザー間で共有する共通領域を設定する。そして、ユーザー占有領域並びに共通領域での各ユーザーのタッチ・センサー入力を検出する。画面の形状及び領域分割するパターンは、長方形に限定されず、正方形、丸型、円錐などの立体を含む形状に適応することができる。   Here, as an example of UI control, the information processing apparatus 100 sets a user-occupied area for each user and a common area shared among the users in the large screen according to the detected user arrangement. Then, the touch sensor input of each user in the user occupation area and the common area is detected. The shape of the screen and the pattern for dividing the region are not limited to a rectangle, and can be applied to a shape including a solid such as a square, a circle, or a cone.

情報処理装置100の画面を大型化すれば、Tabletop状態では、複数のユーザーが同時にタッチ入力するだけのスペースの余裕が生じる。上述したように、画面内にユーザー毎のユーザー占有領域と共通領域を設定することで、複数のユーザーにより快適且つ効率的な同時操作を実現することができる。   If the screen of the information processing apparatus 100 is enlarged, in the Tabletop state, there will be enough space for a plurality of users to touch input simultaneously. As described above, by setting a user-occupied area and a common area for each user in the screen, a comfortable and efficient simultaneous operation can be realized by a plurality of users.

ユーザー占有領域に置かれている被操作オブジェクトは、該当するユーザーにその操作権が与えられている。ユーザーが、共通領域又は他のユーザーのユーザー占有領域から自分のユーザー占有領域に被操作オブジェクトを移動させることで、その操作権も自分に移動する。また、被操作オブジェクトが自分のユーザー占有領域内に入ると、被操作オブジェクトが自分に正対する方向となるように自動で表示が変わる。   The operation right of the operated object placed in the user occupation area is given to the corresponding user. When the user moves the operated object from the common area or another user's user-occupied area to his / her user-occupied area, the operation right is also moved to himself / herself. Further, when the operated object enters the user's own area, the display is automatically changed so that the operated object is in a direction facing the user.

ユーザー占有領域間を被操作オブジェクトが移動する場合において、移動操作がなされるタッチ位置に応じて、被操作オブジェクトは物理的に自然な動作で移動する。また、ユーザー同士で1つの被操作オブジェクトを引っ張り合うことで、被操作オブジェクトを分割又は複製するという操作が可能である。   When the operated object moves between user-occupied areas, the operated object moves with a physically natural motion according to the touch position where the moving operation is performed. Further, by pulling one operated object between users, an operation of dividing or duplicating the operated object is possible.

図4には、情報処理装置100の機能的構成を模式的に示している。情報処理装置100は、外部からの情報信号を入力する入力インターフェース部110と、入力された情報信号に基づいて表示画面の制御などのための演算処理を行なう演算部120と、演算結果に基づいて外部への情報出力を行なう出力インターフェース部130と、ハード・ディスク・ドライブ(HDD)などからなる大容量の記憶部140と、外部ネットワークと接続する通信部150と、駆動電力を扱う電源部160と、テレビ・チューナー部170を備えている。記憶部140には、演算部120で実行する各種処理アルゴリズムや、演算部120で演算処理に使用する各種データベースが格納されている。   FIG. 4 schematically illustrates a functional configuration of the information processing apparatus 100. The information processing apparatus 100 includes an input interface unit 110 that inputs an information signal from the outside, a calculation unit 120 that performs calculation processing for controlling the display screen based on the input information signal, and a calculation result. An output interface unit 130 that outputs information to the outside, a large-capacity storage unit 140 such as a hard disk drive (HDD), a communication unit 150 connected to an external network, and a power supply unit 160 that handles drive power The TV tuner unit 170 is provided. The storage unit 140 stores various processing algorithms executed by the calculation unit 120 and various databases used for calculation processing by the calculation unit 120.

入力インターフェース部110の主な機能は、ユーザーの存在の検出、検出したユーザーによる画面すなわちタッチパネルへのタッチ操作の検出、ユーザーが所持するモバイル端末などの機器の検出並びに機器からの送信データの受信処理である。図5には、入力インターフェース部110の内部構成を示している。   The main functions of the input interface unit 110 are detection of the presence of the user, detection of a touch operation on the screen, that is, the touch panel by the detected user, detection of a device such as a mobile terminal possessed by the user, and reception processing of transmission data from the device It is. FIG. 5 shows an internal configuration of the input interface unit 110.

リモコン受信部501は、リモコンやモバイル端末からのリモコン信号を受信する。信号解析部502は、受信したリモコン信号を復調、復号処理して、リモコン・コマンドを得る。   The remote control receiving unit 501 receives a remote control signal from a remote control or a mobile terminal. The signal analysis unit 502 demodulates and decodes the received remote control signal to obtain a remote control command.

カメラ部503は、単眼式、又は、2眼式若しくはアクティブ型のうち一方又は両方を採用する。カメラは、CMOS(Complememtary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子からなる。また、カメラ部503は、パンやチルト、ズームなどのカメラ制御部を備えている。カメラ部503は、パンやチルト、ズームなどのカメラ情報を演算部120に通知するとともに、演算部120からのカメラ制御情報に従ってカメラ部503のパン、チルト、ズームを制御できるものとする。   The camera unit 503 employs one or both of a monocular type, a binocular type, and an active type. The camera includes an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device). The camera unit 503 includes camera control units such as pan, tilt, and zoom. The camera unit 503 notifies camera information such as pan, tilt, and zoom to the calculation unit 120 and can control pan, tilt, and zoom of the camera unit 503 according to the camera control information from the calculation unit 120.

画像認識部504は、カメラ部503による撮影画像を認識処理する。具体的には、背景差分によりユーザーの顔や手の動きを検出してジェスチャー認識したり、撮影画像に含まれるユーザーの顔を認識したり、人体を認識したり、ユーザーまでの距離を認識したりする。   The image recognizing unit 504 performs a recognition process on an image captured by the camera unit 503. Specifically, it recognizes gestures by detecting the movement of the user's face and hands based on the background difference, recognizes the user's face included in the captured image, recognizes the human body, and recognizes the distance to the user. Or

マイク部505は、音やユーザーが発する会話を音声入力する。音声認識部506は、入力された音声信号を音声認識する。   The microphone unit 505 inputs sound or a conversation made by the user. The voice recognition unit 506 recognizes the input voice signal.

距離センサー507は、例えばPSD(Position Sensitive Detector)などからなり、ユーザーやその他の物体から返ってくる信号を検出する。信号解析部508は、その検出信号を解析して、ユーザーや物体までの距離を測定する。PDSセンサー以外に、焦電センサーや簡易カメラなどを距離センサー507に用いることができる。距離センサー507は、情報処理装置100から例えば5〜10メートルの半径内にユーザーが存在するかどうかを常時監視している。このため、距離センサー507には、消費電力の小さなセンサー素子を用いることが好ましい。   The distance sensor 507 includes, for example, a PSD (Position Sensitive Detector), and detects a signal returned from a user or other object. The signal analysis unit 508 analyzes the detection signal and measures the distance to the user or the object. In addition to the PDS sensor, a pyroelectric sensor, a simple camera, or the like can be used for the distance sensor 507. The distance sensor 507 constantly monitors whether or not a user is present within a radius of, for example, 5 to 10 meters from the information processing apparatus 100. For this reason, it is preferable to use a sensor element with low power consumption for the distance sensor 507.

タッチ検出部509は、画面に重畳されたタッチ・センサーなどからなり、画面にユーザーの指先が触れた場所から検出信号を出力する。信号解析部510は、その検出信号を解析して、位置情報を得る。   The touch detection unit 509 includes a touch sensor or the like superimposed on the screen, and outputs a detection signal from a location where the user's fingertip touches the screen. The signal analysis unit 510 analyzes the detection signal to obtain position information.

近接センサー511は、大画面の4つの側縁部の各々に設置され、例えば静電容量式によりユーザーの身体が画面に近接したことを検出する。信号解析部512は、その検出信号を解析する。   The proximity sensor 511 is installed at each of the four side edges of the large screen, and detects that the user's body is close to the screen by, for example, a capacitance type. The signal analysis unit 512 analyzes the detection signal.

超近距離通信部513は、例えばNFC(Near Field Communication)により、ユーザーが所持する機器などからの非接触通信信号を受信する。信号解析部514は、その受信信号を復調、復号処理して、受信データを得る。   The ultra short-range communication unit 513 receives a non-contact communication signal from a device owned by the user, for example, by NFC (Near Field Communication). The signal analysis unit 514 demodulates and decodes the received signal to obtain received data.

3軸センサー部515は、ジャイロなどで構成され、情報処理装置100のxyz各軸回りの姿勢を検出する。GPS(Global Positioning System)受信部516は、GPS衛星からの信号を受信する。信号解析部517は、3軸センサー部515並びにGPS受信部516からの信号を解析して、情報処理装置100の位置情報や姿勢情報を得る。   The triaxial sensor unit 515 is configured by a gyro or the like, and detects the posture of the information processing apparatus 100 around each xyz axis. A GPS (Global Positioning System) receiving unit 516 receives a signal from a GPS satellite. The signal analysis unit 517 analyzes signals from the triaxial sensor unit 515 and the GPS reception unit 516 to obtain position information and posture information of the information processing apparatus 100.

入力インターフェース統合部520は、上記の情報信号の入力を統合して演算部120に渡す。また、入力インターフェース統合部520は、各信号解析部508、510、512、514の解析結果を統合して、情報処理装置100の周囲にいるユーザーの位置情報を取得して演算部120に渡す。   The input interface integration unit 520 integrates the input information signals and passes them to the calculation unit 120. In addition, the input interface integration unit 520 integrates the analysis results of the signal analysis units 508, 510, 512, and 514, acquires position information of users around the information processing apparatus 100, and passes the information to the calculation unit 120.

演算部120の主な機能は、入力インターフェース部110によるユーザー検出結果、画面のタッチ検出結果、及びユーザーが所持する機器からの受信データに基づくUI画面の生成処理などの演算処理と、演算結果の出力インターフェース部130への出力である。演算部120は、例えば記憶部140にインストールされているアプリケーション・プログラムをロードし、実行することで、アプリケーション毎の演算処理を実現することができる。各アプリケーションに対応した演算部120の機能的構成については、後述に譲る。   The main functions of the calculation unit 120 are calculation processing such as a user detection result by the input interface unit 110, a touch detection result of the screen, and a UI screen generation process based on received data from a device owned by the user, and a calculation result This is an output to the output interface unit 130. The calculation unit 120 can realize calculation processing for each application by loading and executing an application program installed in the storage unit 140, for example. The functional configuration of the calculation unit 120 corresponding to each application will be described later.

出力インターフェース部130の主な機能は、演算部120の演算結果に基づく画面上へのUI表示と、ユーザーが所持する機器へのデータ送信である。図6には、出力インターフェース部130の内部構成を示している。   The main functions of the output interface unit 130 are UI display on the screen based on the calculation result of the calculation unit 120 and data transmission to the device owned by the user. FIG. 6 shows an internal configuration of the output interface unit 130.

出力インターフェース統合部610は、演算部120によるモニター分割処理、オブジェクト最適処理、機器連携データ送受信処理などの演算結果に基づく情報出力を統合して扱う。   The output interface integration unit 610 integrates and handles information output based on calculation results such as monitor division processing, object optimization processing, and device cooperation data transmission / reception processing by the calculation unit 120.

出力インターフェース統合部610は、コンテンツ表示部601に対して、受信したTV放送コンテンツや、ブルーレイ・ディスクなどの記録メディアから再生したコンテンツなど、動画又は静止画コンテンツの表示部603、スピーカー部604への画像及び音声出力を指示する。   The output interface integration unit 610 provides the content display unit 601 with the received TV broadcast content, content reproduced from a recording medium such as a Blu-ray disc, etc. Instructs image and sound output.

また、出力インターフェース統合部610は、GUI表示部602に対して、被操作オブジェクトなどのGUIの表示部603への表示を、GUI表示部602に指示する。   Further, the output interface integration unit 610 instructs the GUI display unit 602 to display the GUI such as the operated object on the display unit 603.

また、出力インターフェース統合部610は、イルミネーション部606からの検出状態を表すイルミネーションの表示出力を、イルミネーション表示部605に指示する。   Further, the output interface integration unit 610 instructs the illumination display unit 605 to display an illumination display indicating the detection state from the illumination unit 606.

また、出力インターフェース統合部610は、超近距離通信部513に対して、ユーザーが所持する機器などへの、非接触通信によるデータ送信を指示する。   In addition, the output interface integration unit 610 instructs the ultra short-range communication unit 513 to transmit data by non-contact communication to devices owned by the user.

情報処理装置100は、カメラ部503の撮影画像の認識や、距離センサー507、タッチ検出部509、近接センサー511、超近距離通信部513などの検出信号に基づいて、ユーザーを検出することができる。また、カメラ部503の撮影画像の顔認識や、超近距離通信部513でユーザーが所持する機器を認識することで、検出したユーザーの人物を特定することができる。特定されたユーザーは情報処理装置100にログインすることができる。勿論、ログインできるアカウントを特定のユーザーに限定することもできる。また、情報処理装置100は、ユーザーの位置やユーザーの状態に応じて、距離センサー507、タッチ検出部509、近接センサー511を使い分けて、ユーザーからの操作を受け取ることができる。   The information processing apparatus 100 can detect a user based on recognition of a captured image of the camera unit 503 and detection signals from the distance sensor 507, the touch detection unit 509, the proximity sensor 511, the ultra-short distance communication unit 513, and the like. . Further, the detected person of the user can be identified by recognizing the face of the captured image of the camera unit 503 and recognizing the device owned by the user by the ultra-short distance communication unit 513. The identified user can log in to the information processing apparatus 100. Of course, the login account can be limited to a specific user. Further, the information processing apparatus 100 can receive an operation from the user by using the distance sensor 507, the touch detection unit 509, and the proximity sensor 511 depending on the position of the user and the state of the user.

また、情報処理装置100は、通信部150を通じて外部ネットワークに接続している。外部ネットワークとの接続形態は、有線、無線を問わない。情報処理装置100は、通信部150を通じて、ユーザーが所持するスマートフォンなどのモバイル端末や、タブレット端末などの他の機器と通信することができる。情報処理装置100、モバイル端末、タブレット端末の3種類の装置により、いわゆる「3スクリーン」を構成することができる。情報処理装置100は、他の2スクリーンよりも大画面上で、3スクリーンを連携させるUIを提供することができる。   The information processing apparatus 100 is connected to an external network through the communication unit 150. The connection form with the external network may be wired or wireless. The information processing apparatus 100 can communicate with a mobile terminal such as a smartphone possessed by a user and other devices such as a tablet terminal through the communication unit 150. A so-called “three screens” can be configured by three types of devices, that is, the information processing apparatus 100, the mobile terminal, and the tablet terminal. The information processing apparatus 100 can provide a UI that links the three screens on a larger screen than the other two screens.

例えば、ユーザーが画面上でタッチ操作する、あるいは所持端末を情報処理装置100に接近させるなどのアクションを行なっているバックグランドで、情報処理装置100と対応する所持端末との間で、被操作オブジェクトの実体である動画、静止画、テキスト・コンテンツなどのデータ送受信が行なわれる。さらに外部ネットワーク上にはクラウド・サーバーなどが設置されており、3スクリーンは、クラウド・サーバーの演算能力を利用するなど、情報処理装置100を通じてクラウド・コンピューティングの恩恵を受けることができる。   For example, an object to be operated between the information processing apparatus 100 and the corresponding terminal in the background where the user performs a touch operation on the screen or performs an action such as bringing the possession terminal closer to the information processing apparatus 100. Data transmission / reception of moving images, still images, text contents, and the like, which are actual entities, is performed. Further, a cloud server or the like is installed on the external network, and the three screens can benefit from cloud computing through the information processing apparatus 100, such as using the computing power of the cloud server.

以下では、情報処理装置100の幾つかのアプリケーションについて順に説明する。   Hereinafter, several applications of the information processing apparatus 100 will be described in order.

B.大画面における複数ユーザーによる同時操作
情報処理装置100は、大画面における複数ユーザーによる同時操作が可能である。具体的には、大画面の4つの側縁部の各々に、ユーザーの存在又は状態を検出する近接センサー511を備えており、ユーザーの配置に応じて画面内にユーザー占有領域と共通領域を設定することで、複数のユーザーによる快適且つ効率的な同時操作を可能にする。
B. Simultaneous operation by a plurality of users on a large screen The information processing apparatus 100 can be operated simultaneously by a plurality of users on a large screen. Specifically, each of the four side edges of the large screen is equipped with a proximity sensor 511 that detects the presence or state of the user, and a user-occupied area and a common area are set in the screen according to the user's arrangement. This enables comfortable and efficient simultaneous operation by a plurality of users.

情報処理装置100の画面を大型化すれば、Tabletop状態では、複数のユーザーが同時にタッチ入力するだけのスペースの余裕が生じる。上述したように、画面内にユーザー毎のユーザー占有領域と共通領域を設定することで、複数のユーザーにより快適且つ効率的な同時操作を実現することができる。   If the screen of the information processing apparatus 100 is enlarged, in the Tabletop state, there will be enough space for a plurality of users to touch input simultaneously. As described above, by setting a user-occupied area and a common area for each user in the screen, a comfortable and efficient simultaneous operation can be realized by a plurality of users.

ユーザー占有領域に置かれている被操作オブジェクトは、該当するユーザーにその操作権が与えられている。ユーザーが、共通領域又は他のユーザーのユーザー占有領域から自分のユーザー占有領域に被操作オブジェクトを移動させることで、その操作権も自分に移動する。また、被操作オブジェクトが自分のユーザー占有領域内に入ると、被操作オブジェクトが自分に正対する方向となるように自動で表示が変わる。   The operation right of the operated object placed in the user occupation area is given to the corresponding user. When the user moves the operated object from the common area or another user's user-occupied area to his / her user-occupied area, the operation right is also moved to himself / herself. Further, when the operated object enters the user's own area, the display is automatically changed so that the operated object is in a direction facing the user.

ユーザー占有領域間を被操作オブジェクトが移動する場合において、移動操作がなされるタッチ位置に応じて、被操作オブジェクトは物理的に自然な動作で移動する。また、ユーザー同士で1つの被操作オブジェクトを引っ張り合うことで、被操作オブジェクトを分割又は複製するという操作が可能である。   When the operated object moves between user-occupied areas, the operated object moves with a physically natural motion according to the touch position where the moving operation is performed. Further, by pulling one operated object between users, an operation of dividing or duplicating the operated object is possible.

このアプリケーションを実現する際の演算部120の主な機能は、入力インターフェース部110によるユーザー検出結果、画面のタッチ検出結果、及びユーザーが所持する機器からの受信データに基づく被操作オブジェクトの最適化並びにUI生成である。図7には、演算部120が被操作オブジェクトの処理を行なうための内部構成を示している。演算部120は、モニター領域分割部710と、オブジェクト最適処理部720と、機器連携データ送受信処理部630を備えている。   The main function of the calculation unit 120 when realizing this application is to optimize the operated object based on the user detection result by the input interface unit 110, the touch detection result of the screen, and the received data from the device possessed by the user. UI generation. FIG. 7 shows an internal configuration for the calculation unit 120 to process the operated object. The computing unit 120 includes a monitor area dividing unit 710, an object optimization processing unit 720, and a device cooperation data transmission / reception processing unit 630.

モニター領域分割部710は、入力インターフェース統合部520からユーザーの位置情報を取得すると、記憶部140内に格納されている、形状やセンサー配置などに関する機器データベース711と、領域パターン・データベース711を参照して、画面上に上述したユーザー占有領域並びに共通領域を設定する。そして、モニター領域設定部710は、設定した領域情報をオブジェクト最適処理部720と、機器連携データ送受信部730に渡す。モニター領域分割の処理手順の詳細については後述に譲る。   When the monitor area dividing unit 710 obtains the user position information from the input interface integration unit 520, the monitor area dividing unit 710 refers to the device database 711 relating to the shape and sensor arrangement and the area pattern database 711 stored in the storage unit 140. Thus, the above-described user-occupied area and common area are set on the screen. Then, the monitor area setting unit 710 passes the set area information to the object optimization processing unit 720 and the device cooperation data transmission / reception unit 730. Details of the processing procedure of the monitor area division will be described later.

オブジェクト最適処理部720は、入力インターフェース統合部520から、ユーザーが画面上の被操作オブジェクトに対して行なった操作の情報を入力する。そして、オブジェクト最適処理部720は、記憶部140からロードした最適処理アルゴリズム721に従って、ユーザーが操作を行なった被操作オブジェクトを回転、移動、表示、分割、又はコピーするなど、ユーザー操作に対応した被操作オブジェクトの最適処理を行なって、最適処理された被操作オブジェクトを表示部603の画面に出力する。被操作オブジェクトの最適処理の詳細については、後述に譲る。   The object optimization processing unit 720 inputs, from the input interface integration unit 520, information on operations performed by the user on the operated object on the screen. Then, the object optimization processing unit 720 performs an operation corresponding to the user operation such as rotating, moving, displaying, dividing, or copying the operated object operated by the user according to the optimal processing algorithm 721 loaded from the storage unit 140. The operation object is optimized, and the object to be operated subjected to the optimization process is output to the screen of the display unit 603. Details of the optimum processing of the operated object will be described later.

機器連携データ送受信部730は、入力インターフェース統合部520から、ユーザーやユーザーが所持する機器の位置情報、機器との送受信データを入力する。そして、機器連携データ送受信部730は、記憶部140からロードした送受信処理アルゴリズム731に従って、ユーザーが所持する機器との連携によるデータ送受信処理を行なう。また、に対応した被操作オブジェクトの最適処理を行なう。被操作オブジェクトの最適処理の詳細については、後述に譲る。送受信データに関連する被操作オブジェクトを回転、移動、表示、又はコピーするなど、ユーザーが所持する機器と連携したデータ送受信に伴う被操作オブジェクトの最適処理を行なって、最適処理された被操作オブジェクトを表示部603の画面に出力する。機器連携に伴う被操作オブジェクトの最適処理の詳細については、後述に譲る。   The device cooperation data transmission / reception unit 730 inputs from the input interface integration unit 520 the position information of the user and the device possessed by the user and the transmission / reception data with the device. Then, the device cooperation data transmission / reception unit 730 performs data transmission / reception processing in cooperation with the device possessed by the user according to the transmission / reception processing algorithm 731 loaded from the storage unit 140. Further, the optimum processing of the operated object corresponding to is performed. Details of the optimum processing of the operated object will be described later. Performs the optimal processing of the manipulated object associated with the data transmission / reception in cooperation with the device owned by the user, such as rotating, moving, displaying, or copying the manipulated object related to the transmission / reception data. Output to the screen of the display unit 603. Details of the optimum processing of the operated object associated with device cooperation will be described later.

続いて、モニター領域分割処理の詳細について説明する。モニター領域分割は、主に情報処理装置100がTabletop状態で複数のユーザーで共有する利用形態での処理を想定しているが、勿論、Wall状態で複数のユーザーで共有する利用形態であってもよい。   Next, details of the monitor area dividing process will be described. Although the monitor area division mainly assumes processing in a usage form that the information processing apparatus 100 shares with a plurality of users in the Tabletop state, of course, even in a usage form that is shared with a plurality of users in the Wall state. Good.

モニター領域分割部710は、入力インターフェース統合部520を通じてユーザーの存在を検出すると、画面内にそのユーザーのユーザー占有領域を割り当てる。図8には、画面側縁部に設置された近接センサー511(若しくは距離センサー507)の検出信号によりユーザーAの存在を検出したことに応じて、モニター領域分割部710がユーザーAのユーザー占有領域Aを画面内に設定した様子を示している。存在を検出したユーザーが一人だけの場合は、図示のように画面全体をそのユーザーのユーザー占有領域に設定してもよい。   When the monitor area dividing unit 710 detects the presence of a user through the input interface integration unit 520, the monitor area dividing unit 710 allocates the user occupation area of the user in the screen. FIG. 8 shows that the monitor area dividing unit 710 detects the presence of the user A based on the detection signal of the proximity sensor 511 (or the distance sensor 507) installed at the screen side edge. A state where A is set in the screen is shown. When only one user has detected the presence, the entire screen may be set as the user-occupied area of the user as shown.

ここで、ユーザー占有領域Aが設定されると、オブジェクト最適処理部720は、入力インターフェース統合部520を通じて得たユーザーAの位置情報を基に、ユーザー占有領域A内の各被操作オブジェクトの向きを、そのユーザーと正対するように切り替える。図9Aには、ユーザー占有領域Aが設定される前に、各被操作オブジェクト#1〜#6がランダムに向いている様子を示している。そして、図9Bには、ユーザーAのユーザー占有領域Aが設定されたことにより、この領域内のすべての被操作オブジェクト#1〜#6がユーザーAと正対する向きに切り替わった様子を示している。   Here, when the user occupation area A is set, the object optimization processing unit 720 determines the direction of each operated object in the user occupation area A based on the position information of the user A obtained through the input interface integration unit 520. , Switch to face the user. FIG. 9A shows a state where the operated objects # 1 to # 6 are randomly oriented before the user occupation area A is set. FIG. 9B shows a state in which all the operated objects # 1 to # 6 in this area are switched to face the user A because the user-occupied area A of the user A is set. .

存在を検出したのがユーザーA一人だけの場合は、画面全体をユーザーAのユーザー占有領域Aに設定してもよい。これに対し、2人以上のユーザーの存在が検出されたときには、ユーザー同士が協調作業(Collaborative action)を行なうために、ユーザー間で共有できる共通領域を設定することが好ましい。   When only one user A has detected the presence, the entire screen may be set in the user-occupied area A of the user A. On the other hand, when the presence of two or more users is detected, it is preferable to set a common area that can be shared between users in order for the users to perform collaborative actions.

図10には、ユーザーAに加え、近接センサー511若しくは距離センサー507の検出信号により隣接する画面側縁でユーザーBの存在を検出したことにより、モニター領域分割部710がユーザーBのユーザー占有領域Bと共通領域を画面内に追加して設定した様子を示している。各ユーザーA、Bの位置情報に基づいて、ユーザーAのユーザー占有領域AはユーザーAの居る場所に向かって縮退するとともに、ユーザーBの居る場所近くにユーザーBのユーザー占有領域Bが出現する。また、新しくユーザーBの存在を検出したことにより、ユーザー占有領域B内で波紋状の検出インジケーターも表示される。そして、画面内のユーザー占有領域A、B以外の領域は共通領域となる。ユーザーBが情報処理装置100に接近したことに伴ってユーザー占有領域Bが新たに設定された後、最初にユーザー占有領域B内の任意の被操作オブジェクトがタッチされた時点でユーザー占有領域Bを有効にするようにしてもよい。なお、図10では省略したが、新しくユーザー占有領域Bとなった領域内の各被操作オブジェクトは、ユーザー占有領域Bが設定された時点、又は、ユーザー占有領域Bが有効になった時点で、ユーザーBに正対するように向きが切り替わる。   In FIG. 10, in addition to the user A, the presence of the user B at the adjacent screen side edge is detected by the detection signal of the proximity sensor 511 or the distance sensor 507. And a common area added and set in the screen. Based on the position information of each user A, B, the user-occupied area A of the user A shrinks toward the place where the user A is present, and the user-occupied area B of the user B appears near the place where the user B is present. Further, when the presence of the user B is newly detected, a ripple-shaped detection indicator is also displayed in the user occupation area B. The areas other than the user-occupied areas A and B in the screen are common areas. After the user-occupied area B is newly set as the user B approaches the information processing apparatus 100, the user-occupied area B is displayed when an arbitrary operated object in the user-occupied area B is first touched. You may make it validate. Although not shown in FIG. 10, each operated object in the area that becomes the new user occupied area B is displayed when the user occupied area B is set or when the user occupied area B becomes valid. The direction is switched to face user B.

図11には、ユーザーA、Bに加え、さらに他の画面側縁でユーザーDの存在を検出したことにより、モニター領域分割部710がユーザーDの居る場所近くにユーザーDのユーザー占有領域Dを画面内に追加して設定した様子を示している。ユーザー占有領域D内では、波紋状の検出インジケーターを表示して、新しくユーザーDの存在を検出したことを表現する。また、図12には、ユーザーA、B、Dに加え、さらに他の画面側縁でユーザーCの存在を検出したことにより、モニター領域分割部710がユーザーCの居る場所近くにユーザーCのユーザー占有領域Cを画面内に追加して設定した様子を示している。ユーザー占有領域C内では、波紋状の検出インジケーターを表示して、新しくユーザーCの存在を検出したことを表現するようにしている。   In FIG. 11, in addition to the users A and B, the presence of the user D is detected on the other side edge of the screen, so that the monitor area dividing unit 710 displays the user-occupied area D of the user D near the place where the user D is present. It shows how it is added and set in the screen. In the user occupation area D, a ripple-shaped detection indicator is displayed to express that the presence of the user D is newly detected. Further, in FIG. 12, in addition to the users A, B, and D, the presence of the user C is detected at the other side edge of the screen, so that the monitor area dividing unit 710 is located near the place where the user C is located. The state where the occupied area C is added and set in the screen is shown. In the user-occupied area C, a ripple-shaped detection indicator is displayed to express that the presence of the user C is newly detected.

なお、図8〜図12に示したユーザー占有領域並びに共通領域の領域分割パターンは一例に過ぎない。領域分割パターンは、画面の形状や存在を検出したユーザー数とその配置などにも依存する。領域分割パターン・データベース611には、画面の形状やサイズとユーザー数に応じた領域分割パターンに関する情報を蓄積している。また、機器データベース612には、当該情報処理装置100が使用する画面の形状やサイズの情報を蓄積している。そして、モニター領域分割部710は、入力インターフェース統合部520を通じて検出したユーザーの位置情報が入力されると、機器データベース612から画面の形状やサイズを読み出し、領域分割パターン・データベース611に該当する領域分割パターンを照会する。図13A〜図13Eには、画面の形状やサイズとユーザー数に応じて画面にユーザー毎のユーザー占有領域を分割する領域分割パターンを例示している。   Note that the user-occupied areas and the common area area division patterns shown in FIGS. 8 to 12 are merely examples. The region division pattern also depends on the number of users who have detected the shape and presence of the screen and their arrangement. The area division pattern database 611 stores information related to area division patterns according to the screen shape and size and the number of users. The device database 612 stores information on the shape and size of the screen used by the information processing apparatus 100. When the position information of the user detected through the input interface integration unit 520 is input, the monitor area dividing unit 710 reads the shape and size of the screen from the device database 612, and the area division corresponding to the area division pattern database 611 is performed. Queries the pattern. 13A to 13E illustrate area division patterns for dividing the user occupation area for each user on the screen according to the shape and size of the screen and the number of users.

図14には、モニター領域分割部710が実行するモニター領域分割の処理手順をフローチャートの形式で示している。   FIG. 14 shows a processing procedure of monitor area division executed by the monitor area dividing unit 710 in the form of a flowchart.

モニター領域分割部710は、まず、近接センサー511又は距離センサー507の検出信号の信号解析結果に基づいて、画面付近にユーザーが存在するかどうかをチェックする(ステップS1401)。   The monitor area dividing unit 710 first checks whether a user exists near the screen based on the signal analysis result of the detection signal of the proximity sensor 511 or the distance sensor 507 (step S1401).

ユーザーが存在することを検出したときには(ステップS1401のYes)、モニター領域分割部710は、続いて、存在するユーザーの人数を取得し(ステップS1402)、さらに各ユーザーがいる位置を取得する(ステップS1403)。ステップS1401〜S1403の処理は、入力インターフェース統合部520から渡されるユーザーの位置情報に基づいて実現される。   When it is detected that a user exists (Yes in step S1401), the monitor area dividing unit 710 subsequently acquires the number of existing users (step S1402), and further acquires a position where each user is present (step S1402). S1403). The processing in steps S1401 to S1403 is realized based on the user position information passed from the input interface integration unit 520.

続いて、モニター領域分割部710は、機器データベース511に照会して、情報処理装置100で使用する表示部603の画面形状や近接センサー511の配置などの機器情報を取得し、これとユーザー位置情報を併せて、該当する領域分割パターンを領域分割パターン・データベース712に照会する(ステップS1404)。   Subsequently, the monitor area dividing unit 710 inquires of the device database 511 to acquire device information such as the screen shape of the display unit 603 used in the information processing apparatus 100 and the arrangement of the proximity sensor 511, and the user position information. In addition, the corresponding area division pattern is referred to the area division pattern database 712 (step S1404).

そして、モニター領域分割部710は、得られた領域分割パターンに従って、画面上に各ユーザーのユーザー占有領域と共通領域を設定して(ステップS1405)、本処理ルーチンを終了する。   Then, the monitor area dividing unit 710 sets a user-occupied area and a common area for each user on the screen according to the obtained area division pattern (step S1405), and ends this processing routine.

続いて、オブジェクト最適処理部720によるオブジェクト最適処理の詳細について説明する。   Next, details of object optimization processing by the object optimization processing unit 720 will be described.

オブジェクト最適処理部720は、入力インターフェース統合部520を通じて、ユーザーが画面上の被操作オブジェクトに対して行なった操作の情報を入力すると、ユーザー操作に応じて、画面上の被操作オブジェクトを回転、移動、表示、分割、又はコピーするなどの表示処理を行なう。ユーザーによるドラッグやスローなどの操作に応じて被操作オブジェクトを回転、移動、表示、分割、又はコピーする処理は、コンピューターのデスクトップ画面上におけるGUI操作に類似する。   The object optimization processing unit 720 rotates and moves the operated object on the screen according to the user operation when the user inputs information on the operation performed on the operated object on the screen through the input interface integration unit 520. Display processing such as display, division, or copying. The process of rotating, moving, displaying, dividing, or copying an object to be operated in accordance with an operation such as dragging or throwing by a user is similar to a GUI operation on a computer desktop screen.

本実施形態では、画面上にユーザー占有領域並びに共通領域が設定されており、オブジェクト最適処理部720は、被操作オブジェクトが存在する領域に応じて、その表示を最適処理する。最適処理の代表例は、ユーザー占有領域内の各被操作オブジェクトの向きを、そのユーザーと正対するように切り替える処理である。   In the present embodiment, a user-occupied area and a common area are set on the screen, and the object optimization processing unit 720 optimally processes the display according to the area where the operated object exists. A typical example of the optimum process is a process of switching the direction of each operated object in the user-occupied area so as to face the user.

図15には、共通領域にある被操作オブジェクト#1をユーザーAのユーザー占有領域Aに向かってドラッグ又はスロー移動し、オブジェクトの一部又は中心座標がユーザー占有領域Aに入った時点で、オブジェクト最適処理部720がオブジェクトをユーザーAに正対する方向に自動で回転処理する様子を示している。また、図15には、ユーザーBのユーザー占有領域Bにある被操作オブジェクト#2をユーザーAのユーザー占有領域Aに向かってドラッグ又はスロー移動し、オブジェクトの一部又は中心座標がユーザー占有領域Aに入った時点でオブジェクトをユーザーAに正対する方向に自動で回転処理する様子も併せて示している。   In FIG. 15, the object # 1 in the common area is dragged or thrown toward the user-occupied area A of the user A, and when a part or center coordinates of the object enters the user-occupied area A, the object It shows a state where the optimum processing unit 720 automatically rotates the object in the direction facing the user A. Further, FIG. 15 shows that the operated object # 2 in the user occupied area B of the user B is dragged or thrown toward the user occupied area A of the user A, and a part of the object or the center coordinate is the user occupied area A. Also shown is a state in which the object is automatically rotated in the direction facing the user A when entering.

図10に示したように、ユーザーBが情報処理装置100に接近すると、画面上のユーザーBの近くにユーザー占有領域Bが新たに設定される。このユーザー占有領域B内に元々ユーザーAに正対していた被操作オブジェクト#3が存在する場合には、図16に示すように、新たにユーザー占有領域Bが出現すると、オブジェクト最適処理部720は、即座に、被操作オブジェクト#3がユーザーBに正対する方向に自動で回転処理する。   As shown in FIG. 10, when the user B approaches the information processing apparatus 100, a user occupation area B is newly set near the user B on the screen. In the case where the operated object # 3 that directly faces the user A exists in the user occupied area B, as shown in FIG. 16, when the user occupied area B newly appears, the object optimization processing unit 720 Immediately, the object to be operated # 3 automatically rotates in the direction facing the user B.

あるいは、即座に被操作オブジェクトを回転処理するのではなく、ユーザーBが情報処理装置100に接近したことに伴ってユーザー占有領域Bが新たに設定された後、最初にユーザー占有領域B内の任意の被操作オブジェクトがタッチされた時点でユーザー占有領域Bを有効にするようにしてもよい。この場合、ユーザー占有領域Bが有効になった時点で、ユーザー占有領域B内のすべての被操作オブジェクトをユーザーBに正対する方向となるよう同時に回転処理するようにしてもよい。   Alternatively, instead of immediately rotating the object to be operated, after the user B has newly set as the user B approaches the information processing apparatus 100, the user-occupied area B is initially set to an arbitrary one in the user-occupied area B. The user-occupied region B may be validated when the operated object is touched. In this case, when the user-occupied area B becomes valid, all the manipulated objects in the user-occupied area B may be simultaneously rotated so as to face the user B.

オブジェクト最適処理部720は、入力インターフェース統合部520を通じて取得するユーザーの操作情報と、モニター領域分割部710から渡される領域情報に基づいて、被操作オブジェクトの最適処理を行なうことができる。図17には、オブジェクト最適処理部720が実行する被操作オブジェクトの最適処理の手順をフローチャートの形式で示している。   The object optimization processing unit 720 can perform the optimum processing of the operated object based on the user operation information acquired through the input interface integration unit 520 and the area information passed from the monitor area dividing unit 710. FIG. 17 shows a flowchart of the procedure of the optimum process for the operated object executed by the object optimization processing unit 720.

オブジェクト最適処理部720は、ユーザーが操作いた被操作オブジェクトの位置情報を入力インターフェース統合部520から渡されるとともに、モニター領域分割部710から分割したモニター領域情報を取得すると、ユーザーが操作した被操作オブジェクトがどの領域にあるのかを確認する(ステップS1701)。   When the object optimization processing unit 720 receives the position information of the operated object operated by the user from the input interface integration unit 520 and acquires the monitor area information divided from the monitor area dividing unit 710, the object optimized processing unit 720 operates. It is confirmed in which area (step S1701).

ここで、ユーザーが操作した被操作オブジェクトがユーザー占有領域に存在するときには、オブジェクト最適処理部720は、その被操作オブジェクトが当該ユーザー占有領域内でユーザーと正対する方向を向いているかどうかをチェックする(ステップS1702)。   Here, when the operated object operated by the user exists in the user-occupied area, the object optimization processing unit 720 checks whether or not the operated object is facing the user in the user-occupied area. (Step S1702).

そして、被操作オブジェクトがユーザーと正対する方向を向いていないときには(ステップS1702のNo)、オブジェクト最適処理部720は、当該ユーザー占有領域内でユーザーと正対する方向となるよう、被操作オブジェクトを回転処理する(ステップS1703)。   Then, when the operated object is not facing the direction facing the user (No in step S1702), the object optimization processing unit 720 rotates the operated object so as to face the user within the user occupation area. Processing is performed (step S1703).

ユーザーが共通領域や他ユーザーのユーザー占有領域から自分のユーザー占有領域に被操作オブジェクトをドラッグ又はスロー移動する際に、ユーザーがこの被操作オブジェクトをタッチ操作した位置に応じて回転方向を制御するようにしてもよい。図18には、ユーザーが被操作オブジェクトの重心位置より右側をタッチしてドラッグ又はスロー移動したことにより、被操作オブジェクトはユーザー占有領域に入った時点で、重心位置を中心に時計回りに回転してユーザーに正対する向きになる様子を示している。また、図19には、ユーザーが被操作オブジェクトの重心位置より左側をタッチしてドラッグ又はスロー移動したことにより、被操作オブジェクトが重心位置を中心に反時計回りに回転してユーザーに正対する向きになる様子を示している。   When the user drags or slow-moves the operated object from the common area or the user-occupied area of another user to his own user-occupied area, the rotation direction is controlled according to the position where the user touches the operated object. It may be. In FIG. 18, when the user touches the right side of the centroid position of the operated object and drags or slows it, the operated object rotates clockwise around the centroid position when entering the user occupation area. It shows how it faces to the user. Further, FIG. 19 shows a direction in which the operated object rotates counterclockwise around the center of gravity and faces the user as a result of the user touching the left side of the operated object's center of gravity and dragging or slow-moving. It shows how it becomes.

図18並びに図19に示すように、重心位置を基準にして被操作オブジェクトの回転方向を切り替えることで、ユーザーに対して自然な操作感を提供することができる。   As shown in FIGS. 18 and 19, by switching the rotation direction of the operated object based on the position of the center of gravity, a natural operation feeling can be provided to the user.

続いて、機器連携データ送受信部730による機器連携データ送受信処理について説明する。   Next, device cooperation data transmission / reception processing by the device cooperation data transmission / reception unit 730 will be described.

図4に示したように、情報処理装置100は、通信部150を通じて、ユーザーが所持するモバイル端末などの他の機器と通信することができる。例えば、ユーザーが画面上でタッチ操作する、あるいは所持端末を情報処理装置100に接近させるなどのアクションを行なっているバックグランドで、情報処理装置100と対応する所持端末との間で、被操作オブジェクトの実体である動画、静止画、テキスト・コンテンツなどのデータ送受信が行なわれる。   As illustrated in FIG. 4, the information processing apparatus 100 can communicate with other devices such as a mobile terminal possessed by the user through the communication unit 150. For example, an object to be operated between the information processing apparatus 100 and the corresponding terminal in the background where the user performs a touch operation on the screen or performs an action such as bringing the possession terminal closer to the information processing apparatus 100. Data transmission / reception of moving images, still images, text contents, and the like, which are actual entities, is performed.

図20には、情報処理装置100とユーザーの所持端末との間で被操作オブジェクトの授受を行なうインタラクションの一例を図解している。図示の例では、ユーザーAが自分に割り当てられたユーザー占有領域Aの周辺に自分が所持する端末を接近させたことに応じて、被操作オブジェクトが端末付近から出現して、ユーザー占有領域A内へ流れ込んでいくUI表現がなされている。   FIG. 20 illustrates an example of an interaction in which an operated object is exchanged between the information processing apparatus 100 and a user's possession terminal. In the illustrated example, in response to the user A approaching the terminal owned by the user A in the vicinity of the user occupied area A assigned to the user A, the operated object appears from the vicinity of the terminal, and the user occupied area A UI expressions that flow into

情報処理装置100は、超近距離通信部513による検出信号の信号解析結果や、カメラ部503によるユーザーの撮影画像の認識結果に基づいて、ユーザーの所持端末がユーザー占有領域A付近に接近したことを検出することができる。また、機器連携データ送受信部730は、これまでのユーザーAと情報処理装置100(あるいは、情報処理装置100を介したユーザーAと他のユーザーとのやりとり)のコンテキストを通じて、ユーザーが情報処理装置100へ送信するデータがあるか、送信データが何であるかを特定するようにしてもよい。そして、機器連携データ送受信部730は、送信データがある場合には、ユーザーの所持端末がユーザー占有領域A付近に接近させるアクションのバックグランドで、情報処理装置100と対応する所持端末との間で、被操作オブジェクトの実体である動画、静止画、テキスト・コンテンツなどのデータ送受信を実行する。   The information processing apparatus 100 indicates that the user's possession terminal has approached the vicinity of the user occupation area A based on the signal analysis result of the detection signal by the ultra short-range communication unit 513 and the recognition result of the user's captured image by the camera unit 503. Can be detected. In addition, the device cooperation data transmission / reception unit 730 allows the user to process the information processing apparatus 100 through the context of the user A and the information processing apparatus 100 (or the interaction between the user A and another user via the information processing apparatus 100). It may be specified whether there is data to be transmitted to and what the transmitted data is. Then, when there is transmission data, the device cooperation data transmission / reception unit 730 is between the information processing apparatus 100 and the corresponding possession terminal in the background of the action that the user possession terminal approaches in the vicinity of the user occupation area A. Executes data transmission / reception of moving objects, still images, text contents, and the like, which are entities of the operated object.

バックグランドでは機器連携データ送受信部730がユーザーの所持端末とデータ送受信を行ないながら、表示部603の画面上では、オブジェクト最適処理部720によるオブジェクト最適処理によって、ユーザーの所持端末から被操作オブジェクトが出現するようなUI表現を行なう。図20には、端末から該当するユーザー占有領域へ、被操作オブジェクトが流れ込むようなUI表現を例示している。   In the background, while the device cooperation data transmission / reception unit 730 performs data transmission / reception with the user's possession terminal, an object to be operated appears from the user's possession terminal on the screen of the display unit 603 by object optimization processing by the object optimization processing unit 720. UI expression is performed. FIG. 20 illustrates a UI expression in which an operated object flows from a terminal to a corresponding user occupation area.

図21には、機器連携データ送受信部730が実行する機器連携データ送受信の処理手順をフローチャートの形式で示している。機器連携データ送受信部730による処理は、超近距離通信部513による検出信号の信号解析結果などに基づいて、ユーザーの所持端末がユーザー占有領域A付近に接近したことにより、起動する。   FIG. 21 shows a processing procedure of device cooperation data transmission / reception executed by the device cooperation data transmission / reception unit 730 in the form of a flowchart. The processing by the device cooperation data transmission / reception unit 730 is started when the user's possession terminal approaches the vicinity of the user occupation area A based on the signal analysis result of the detection signal by the ultra short-range communication unit 513 and the like.

機器連携データ送受信部730は、超近距離通信部513による検出信号の信号解析結果などに基づいて、通信をするユーザーの所持端末が存在するかどうかをチェックする(ステップS2101)。   The device cooperation data transmission / reception unit 730 checks whether there is a terminal owned by the user who performs communication based on the signal analysis result of the detection signal by the ultra short-range communication unit 513 (step S2101).

通信をするユーザーの所持端末が存在するときには(ステップS2101のYes)、機器連携データ送受信部730は、その端末が存在する位置を、超近距離通信部513による検出信号の信号解析結果などに基づいて取得する(ステップS2102)。   When there is a terminal possessed by the user who performs communication (Yes in step S2101), the device cooperation data transmission / reception unit 730 determines the position where the terminal exists based on the signal analysis result of the detection signal by the ultra-short-range communication unit 513, and the like. (Step S2102).

そして、機器連携データ送受信部730は、そのユーザー所持端末と送受信するデータがあるかどうかをチェックする(ステップS2103)。   Then, the device cooperation data transmission / reception unit 730 checks whether there is data to be transmitted / received to / from the user possessing terminal (step S2103).

ユーザー所持端末と送受信するデータがあるときには(ステップS2103のYes)、機器連携データ送受信部730は、送受信処理アルゴリズム731に従って、端末の位置に応じて被操作オブジェクトのUI表示(図20を参照のこと)を行なう。また、機器連携データ送受信部730は、UI表示のバックグランドで、端末との間で被操作オブジェクトの実体であるデータの送受信を行なう(ステップS2104)。   When there is data to be transmitted / received to / from the user possessing terminal (Yes in step S2103), the device cooperation data transmission / reception unit 730 displays the UI of the operated object according to the position of the terminal according to the transmission / reception processing algorithm 731 (see FIG. 20). ). In addition, the device cooperation data transmission / reception unit 730 transmits / receives data that is the substance of the operated object to / from the terminal in the background of the UI display (step S2104).

図20並びに図21に示したように、情報処理装置100がユーザーの所持端末から取得した被操作オブジェクトは、該当するユーザーのユーザー占有領域に配置される。さらに、ユーザー間でデータのやりとりを行なうときには、互いのユーザー占有領域間で被操作オブジェクトを移動させる操作を行なえばよい。図22には、ユーザー占有領域B内でユーザーBが保持している被操作オブジェクトを、ユーザーAが自身のユーザー占有領域Aに複製する様子を示している。あるいは、被操作オブジェクトを複製するのではなく、分割するのでもよい。   As shown in FIGS. 20 and 21, the operated object acquired by the information processing apparatus 100 from the user's possession terminal is arranged in the user occupation area of the corresponding user. Furthermore, when exchanging data between users, an operation of moving the operated object between the user occupied areas may be performed. FIG. 22 shows a state in which the user A copies the operated object held by the user B in the user occupied area B to the user occupied area A. Alternatively, the operated object may be divided instead of being copied.

画面上で複製された被操作オブジェクトは、動画や静止画などのコンテンツであれば、単純に独立した別データを作成することになる。また、複製された被操作オブジェクトがアプリケーションのウィンドウの場合には、被操作オブジェクトを元々保持するユーザーと複製先のユーザー間で共同操作が可能なアプリケーションの別のウィンドウを作成することになる。   If the operated object duplicated on the screen is content such as a moving image or a still image, simply separate independent data is created. Further, when the duplicated operated object is an application window, another window of the application capable of joint operation between the user who originally holds the operated object and the copy destination user is created.

C.ユーザーの位置に応じた入力手段及び表示GUIの最適選択
情報処理装置100は、距離センサー507や近接センサー511を備えており、例えば図1、図3に示したような壁掛け使用時において、情報処理装置100本体すなわち画面からユーザーまでの距離を検出することができる。
C. The optimum selection information processing apparatus 100 according to the position of the user and the display GUI includes a distance sensor 507 and a proximity sensor 511. For example, when using the wall hanging as shown in FIGS. The distance from the main body of the apparatus 100, that is, the screen to the user can be detected.

また、情報処理装置100は、タッチ検出部509、近接センサー511、カメラ部503、リモコン受信部501を備えており、画面へのタッチ、近接、手などを用いたジェスチャー、リモコン、ユーザー状態による間接操作など複数の入力手段をユーザーに提供することができる。各入力手段は、情報処理装置100本体すなわち画面からユーザーまでの距離に応じて操作の適否がある。例えば、情報処理装置100本体から50cm以内の範囲にいるユーザーであれば、画面上を直接触れることで、被操作オブジェクトを確実に操作することができる。また、情報処理装置100本体から2m以内の範囲にいるユーザーであれば、画面を直接触れるには遠いが、カメラ部503の撮影画像を認識処理して顔や手の動きを正確に捕捉することができるので、ジェスチャー入力が可能である。また、情報処理装置100本体から2m以上離れているユーザーは、画像認識の精度は低下しても、リモコン信号は確実に到達するので、リモコン操作は可能である。さらに、画面に表示する被操作オブジェクトの枠組みや情報密度などの最適なGUI表示も、ユーザーまでの距離に応じて変化する。   In addition, the information processing apparatus 100 includes a touch detection unit 509, a proximity sensor 511, a camera unit 503, and a remote control reception unit 501, and touches the screen, proximity, gestures using hands, etc., remote control, indirect by user status A plurality of input means such as operations can be provided to the user. Each input means is suitable for operation according to the distance from the main body of the information processing apparatus 100, that is, the screen to the user. For example, a user who is within a range of 50 cm from the main body of the information processing apparatus 100 can reliably operate the operated object by directly touching the screen. Also, if the user is within 2 m from the information processing apparatus 100 main body, it is far from touching the screen directly, but the captured image of the camera unit 503 is recognized and processed to accurately capture the movement of the face and hands. Gesture input is possible. A user who is 2 m or more away from the main body of the information processing apparatus 100 can perform a remote control operation because the remote control signal reliably arrives even if the accuracy of image recognition decreases. Furthermore, the optimum GUI display such as the framework of the operated object displayed on the screen and the information density also changes according to the distance to the user.

本実施形態では、情報処理装置100は、複数の入力手段の中から、ユーザーの位置若しくはユーザーまでの距離に応じて自動で選択するとともに、ユーザーの位置に応じてGUI表示を自動で選択し又は調整するようにしているので、ユーザーの利便性が向上する。   In the present embodiment, the information processing apparatus 100 automatically selects from a plurality of input means according to the position of the user or the distance to the user, and automatically selects the GUI display according to the position of the user. Since the adjustment is made, the user convenience is improved.

図23には、演算部120がユーザーの距離に応じて最適化処理を行なうための内部構成を示している。演算部120は、表示GUI最適化部2310と、入力手段最適化部2320と、距離検出方式切替部2330を備えている。   FIG. 23 shows an internal configuration for the calculation unit 120 to perform optimization processing according to the distance of the user. The calculation unit 120 includes a display GUI optimization unit 2310, an input means optimization unit 2320, and a distance detection method switching unit 2330.

表示GUI最適化部2310は、ユーザーの位置とユーザーの状態に応じて、表示部603の画面に表示する被操作オブジェクトの枠組みや情報密度などの最適なGUI表示を最適化処理する。   The display GUI optimizing unit 2310 optimizes an optimal GUI display such as the framework and information density of the operated object displayed on the screen of the display unit 603 according to the user position and the user state.

ここで、ユーザーの位置は、距離検出方式切替部2330によって切り替えられた距離検出方式によって得られる。ユーザーの位置が近付くと、カメラ部503の撮影画像の顔認識や、ユーザーの所持端末との近接通信などを通じて個人認証が可能になってくる。また、ユーザーの状態は、カメラ部503の撮影画像の画像認識や、距離センサー507の信号解析に基づいて特定される。ユーザーの状態は、大きくは、「ユーザーがいる(存在)」、「ユーザーがいない(不在)」の2状態に大別される。「ユーザーがいる」状態は、「ユーザーがTV(表示部603の画面)を見ている(視聴中)」、「ユーザーがTVを見ていない(非視聴)」の2状態に分類される。さらに、「ユーザーがTVを見ている」状態は、「ユーザーがTVを操作している(操作中)」、「ユーザーがTVを操作していない(操作なし)」の2状態に細分化される。   Here, the position of the user is obtained by the distance detection method switched by the distance detection method switching unit 2330. When the user's position approaches, personal authentication becomes possible through face recognition of the captured image of the camera unit 503, proximity communication with the user's possession terminal, and the like. Also, the user's state is specified based on image recognition of the captured image of the camera unit 503 and signal analysis of the distance sensor 507. The state of the user is roughly divided into two states, “there is a user (presence)” and “there is no user (absence)”. The “user is present” state is classified into two states: “user is watching TV (screen of display unit 603) (viewing)” and “user is not watching TV (non-viewing)”. Furthermore, the state where “the user is watching TV” is subdivided into two states, “the user is operating the TV (during operation)” and “the user is not operating the TV (no operation)”. The

表示GUI最適化部2310は、ユーザー状態の判別に際し、記憶部140内の機器入力手段データベースを参照する。また、判別したユーザーの位置及びユーザー状態に応じて、表示GUIを最適化するに際し、記憶部140内のGUI表示(枠組み・密度)データベース、及び、コンテンツ・データベースを参照する。   The display GUI optimizing unit 2310 refers to the device input means database in the storage unit 140 when determining the user state. Further, when optimizing the display GUI according to the determined user position and user state, the GUI display (framework / density) database and the content database in the storage unit 140 are referred to.

図24Aには、表示GUI最適化部2310によるユーザーの位置とユーザーの状態に応じた表示GUIの最適化処理を表にまとめている。また、図24B〜図24Eには、ユーザーの位置とユーザーの状態に応じた情報処理装置100の画面遷移を示している。   In FIG. 24A, the display GUI optimization processing according to the user position and the user state by the display GUI optimization unit 2310 is summarized in a table. 24B to 24E show screen transitions of the information processing apparatus 100 according to the user position and the user state.

「ユーザーがいない」状態では、表示GUI最適化部2310は、表示部603の画面表示を停止して、ユーザーの存在が検出されるまで待機する(図24Bを参照のこと)。   In the “no user” state, the display GUI optimization unit 2310 stops the screen display of the display unit 603 and waits until the presence of the user is detected (see FIG. 24B).

「ユーザーがいる」が「ユーザーがTVを見ていない」状態では、表示GUI最適化部2310は、最適な表示GUIとして、「オート・ザッピング」を選択する(図24Cを参照のこと)。オート・ザッピングは、さまざまな被操作オブジェクトをランダムに表示して、ユーザーの興味を引いてTVを視聴したくなるようにする。ザッピングに用いる被操作オブジェクトは、テレビ・チューナー部170で受信したTV放送の番組コンテンツの他、通信部150からインターネット経由で取得したネットワーク・コンテンツ、他ユーザーからのメールやメッセージなど、表示GUI最適化部2310がコンテンツ・データベースに基づいて選択した複数の被操作オブジェクトを含んでいる。   In a state where “the user is present” but “the user is not watching TV”, the display GUI optimizing unit 2310 selects “auto zapping” as the optimum display GUI (see FIG. 24C). Auto-zapping displays various objects to be operated at random, and makes the user interested in watching TV. The object to be used for zapping is display GUI optimization such as TV broadcast program content received by the TV tuner unit 170, network content acquired from the communication unit 150 via the Internet, mails and messages from other users, etc. The unit 2310 includes a plurality of operated objects selected based on the content database.

図25Aには、オート・ザッピングしている表示GUIの例を示している。また、表示GUI最適化部2310は、画面に表示される各被操作オブジェクトの位置や大きさ(すなわち、露出の度合い)を、図25Bに示すように時々刻々と変化させて、ユーザーの潜在意識に働きかけるようにしてもよい。また、ユーザーの位置が近付いて個人認証が可能になった場合には、表示GUI最適化部2310は、認識した個人の情報を利用して、オート・ザッピングする被操作オブジェクトを取捨選択するようにしてよい。   FIG. 25A shows an example of a display GUI that is auto-zapping. Further, the display GUI optimization unit 2310 changes the position and size (that is, the degree of exposure) of each operated object displayed on the screen from moment to moment as shown in FIG. You may try to work on. When the user's position approaches and personal authentication becomes possible, the display GUI optimization unit 2310 uses the recognized personal information to select the object to be auto-zapped. It's okay.

「ユーザーがTVを見ている」が「ユーザーがTVを操作していない」状態でも、表示GUI最適化部2310は、最適な表示GUIとして、「オート・ザッピング」を選択する(図24Dを参照のこと)。但し、上記とは相違し、コンテンツ・データベースに基づいて選択した複数の被操作オブジェクトを、図26に示すように段組みにするなど規則的に配置して、個々の被操作オブジェクトの表示内容を確認し易くする。また、ユーザーの位置が近付いて個人認証が可能になった場合には、表示GUI最適化部2310は、認識した個人の情報を利用して、オート・ザッピングする被操作オブジェクトを取捨選択するようにしてよい。また、ユーザーが遠くにいるときにはGUIの情報密度を抑制し、ユーザーが近づいてくるとGUIの情報密度を高くしていくといった具合に、表示GUI最適化部2310は、ユーザーの位置に応じて、表示GUIの情報密度を制御するようにしてもよい。   Even when “user is watching TV” or “user is not operating TV”, display GUI optimization unit 2310 selects “auto zapping” as the optimal display GUI (see FIG. 24D). ) However, unlike the above, a plurality of manipulated objects selected based on the content database are regularly arranged such as in a column as shown in FIG. Make it easy to check. When the user's position approaches and personal authentication becomes possible, the display GUI optimization unit 2310 uses the recognized personal information to select the object to be auto-zapped. It's okay. In addition, the display GUI optimization unit 2310 may reduce the GUI information density when the user is far away and increase the GUI information density when the user approaches, depending on the position of the user. The information density of the display GUI may be controlled.

一方、「ユーザーがTVを見ている」とともに「ユーザーがTVを操作している」状態では、ユーザーが入力手段最適化部2320により最適化された入力手段を用いて情報処理装置100を操作している(図24Eを参照のこと)。入力手段は、例えば、リモコン受信部501へのリモコン信号の送信、カメラ部503へのジェスチャー、タッチ検出部509で検出するタッチパネルへの接触、マイク505に対する音声入力、近接センサー511に対する近接入力などである。表示GUI最適化部2310は、最適な表示GUIとして、ユーザーの入力操作に応じて、被操作オブジェクトを段組み表示し、ユーザー操作に応じて、スクロールや被操作オブジェクトの選択操作が可能である。入力手段を介して指示された画面上の位置には、図27Aに示すようにカーソルが表示される。カーソルが置かれていない被操作オブジェクトは、ユーザーが注目していないと考えられることから、図中斜線で示すように輝度レベルを下げて、注目している被操作オブジェクトとのコントラストを表現するようにしてもよい(同図では、ユーザーが指先でタッチしている被操作オブジェクト#3上にカーソルが置かれている)。また、図27Bに示すようにカーソルが置かれた被操作オブジェクトをユーザーが選択すると、その被操作オブジェクトを全画面表示(若しくは、可能な最大サイズに拡大表示)するようにしてもよい(同図では、選択された被操作オブジェクト♯3が拡大表示されている)。   On the other hand, in a state where “the user is watching TV” and “the user is operating the TV”, the user operates the information processing apparatus 100 using the input means optimized by the input means optimization unit 2320. (See FIG. 24E). The input means includes, for example, transmission of a remote control signal to the remote control reception unit 501, gesture to the camera unit 503, contact with the touch panel detected by the touch detection unit 509, voice input to the microphone 505, proximity input to the proximity sensor 511, and the like. is there. The display GUI optimizing unit 2310 displays the operated objects in a column as an optimal display GUI in accordance with the user's input operation, and can perform scrolling and selection of the operated object in accordance with the user operation. As shown in FIG. 27A, a cursor is displayed at a position on the screen instructed via the input means. Since the operated object without the cursor is considered not to be noticed by the user, the brightness level is lowered as shown by the diagonal line in the figure to express the contrast with the operated object being noticed. Alternatively, the cursor may be placed on the operated object # 3 that the user is touching with a fingertip. Also, as shown in FIG. 27B, when the user selects the operated object on which the cursor is placed, the operated object may be displayed in full screen (or enlarged to the maximum possible size) (see FIG. 27B). The selected operated object # 3 is enlarged and displayed).

入力手段最適化部2320は、ユーザーの位置とユーザーの状態に応じて、ユーザーが情報処理装置100に対して操作を行なう入力手段の最適化を行なう。   The input means optimization unit 2320 optimizes the input means for the user to operate the information processing apparatus 100 according to the user's position and the user's state.

上述したように、ユーザーの位置は、距離検出方式切替部2330によって切り替えられた距離検出方式によって得られる。ユーザーの位置が近付くと、カメラ部503の撮影画像の顔認識や、ユーザーの所持端末との近接通信などを通じて個人認証が可能になってくる。また、ユーザーの状態は、カメラ部503の撮影画像の画像認識や、距離センサー507の信号解析に基づいて特定される。   As described above, the position of the user is obtained by the distance detection method switched by the distance detection method switching unit 2330. When the user's position approaches, personal authentication becomes possible through face recognition of the captured image of the camera unit 503, proximity communication with the user's possession terminal, and the like. Also, the user's state is specified based on image recognition of the captured image of the camera unit 503 and signal analysis of the distance sensor 507.

入力手段最適化部2320は、ユーザー状態の判別に際し、記憶部140内の機器入力手段データベースを参照する。   The input means optimization unit 2320 refers to the device input means database in the storage unit 140 when determining the user state.

図28には、入力手段最適化部2320によるユーザーの位置とユーザーの状態に応じた入力手段の最適化処理を表にまとめている。   In FIG. 28, the optimization process of the input means according to the user position and the user state by the input means optimization unit 2320 is summarized in a table.

「ユーザーがいない」状態、「ユーザーがいる」が「ユーザーがTVを見ていない」状態、並びに、「ユーザーがTVを見ている」が「ユーザーがTVを操作していない」状態では、入力手段最適化部2320は、ユーザーの操作が開始されるまで待機する。   Input in the "No user" state, "User is" is "User is not watching TV" state, and "User is watching TV" is "User is not operating TV" state The means optimizing unit 2320 waits until a user operation is started.

そして、「ユーザーがTVを見ている」とともに「ユーザーがTVを操作している」状態では、入力手段最適化部2320は、主にユーザーの位置に応じて各入力手段を最適化する。入力手段は、例えば、リモコン受信部501へのリモコン入力、カメラ部503へのジェスチャー入力、タッチ検出部509で検出するタッチ入力、マイク505に対する音声入力、近接センサー511に対する近接入力などである。   In the state where “the user is watching TV” and “the user is operating the TV”, the input means optimization unit 2320 optimizes each input means mainly according to the position of the user. The input means includes, for example, remote control input to the remote control receiving unit 501, gesture input to the camera unit 503, touch input detected by the touch detection unit 509, voice input to the microphone 505, proximity input to the proximity sensor 511, and the like.

リモコン受信部501は、すべてのユーザー位置にわたり(すなわち、ほぼ常時)起動して、リモコン信号の受信を待機している。   The remote control receiving unit 501 is activated over all user positions (that is, almost always) and waits for reception of a remote control signal.

カメラ部503の撮像画像に対する認識精度は、ユーザーが離れるに従って低下する。また、ユーザーが接近し過ぎると、ユーザーの姿がカメラ部503の視界から外れ易くなる。そこで、入力手段最適化部2320は、ユーザー位置が数十センチメートル〜数メートルの範囲で、カメラ部503へのジェスチャー入力をオンにする。   The recognition accuracy with respect to the captured image of the camera unit 503 decreases as the user leaves. In addition, when the user approaches too much, the user's figure is likely to be out of the field of view of the camera unit 503. Therefore, the input means optimization unit 2320 turns on gesture input to the camera unit 503 when the user position is in the range of several tens of centimeters to several meters.

表示部603の画面に重畳されたタッチパネルへのタッチは、ユーザーの手の届く範囲に限定される。そこで、入力手段最適化部2320は、ユーザー位置が数十センチメートルまでの範囲で、タッチ検出部509へのタッチ入力をオンにする。また、近接センサー511は、タッチしていなくても数十センチメートルまではユーザーを検出することができる。したがって、入力手段最適化部2320は、タッチ入力よりも遠いユーザー位置まで、近接入力をオンにする。   The touch on the touch panel superimposed on the screen of the display unit 603 is limited to a range that the user can reach. Therefore, the input means optimization unit 2320 turns on the touch input to the touch detection unit 509 within the range of the user position up to several tens of centimeters. Further, the proximity sensor 511 can detect the user up to several tens of centimeters even when the proximity sensor 511 is not touched. Therefore, the input means optimization unit 2320 turns on the proximity input to a user position farther than the touch input.

マイク部505への入力音声の認識精度は、ユーザーが離れるに従って低下する。そこで、入力手段最適化部2320は、ユーザー位置が数メートルまでの範囲で、カメラ部503へのジェスチャー入力をオンにする。   The recognition accuracy of the voice input to the microphone unit 505 decreases as the user leaves. Therefore, the input unit optimization unit 2320 turns on gesture input to the camera unit 503 within a range of the user position up to several meters.

距離検出方式切替部2330は、ユーザーの位置に応じて、情報処理装置100がユーザーまでの距離やユーザーの位置を検出する方式を切り替える処理を行なう。   The distance detection method switching unit 2330 performs processing for switching a method in which the information processing apparatus 100 detects the distance to the user and the position of the user according to the position of the user.

距離検出方式切替部2330は、ユーザー状態の判別に際し、記憶部140内の検出方式毎のカバー範囲データベースを参照する。   The distance detection method switching unit 2330 refers to the coverage database for each detection method in the storage unit 140 when determining the user state.

図29には、距離検出方式切替部2330によるユーザーの位置に応じた距離検出方式の切り替え処理を表にまとめている。   FIG. 29 is a table summarizing the distance detection method switching processing according to the user's position by the distance detection method switching unit 2330.

距離センサー507は、例えば、PSDセンサーや焦電センサーや簡易カメラなど、単純で消費電力の小さなセンサー素子からなる。情報処理装置100から例えば5〜10メートルの半径内にユーザーが存在するかどうかを常時監視するために、距離検出方式切替部2330は、距離センサー507を常時オンにする。   The distance sensor 507 includes a simple sensor element with low power consumption, such as a PSD sensor, a pyroelectric sensor, or a simple camera. In order to constantly monitor whether there is a user within a radius of, for example, 5 to 10 meters from the information processing apparatus 100, the distance detection method switching unit 2330 always turns on the distance sensor 507.

カメラ部503が単眼式を採用する場合、画像認識部504では、背景差分によるユーザーの動き認識、顔認識、人体認識などを行なう。距離検出方式切替部2330は、撮影画像に基づいて十分な認識精度が得られる、ユーザー位置が70センチメートル〜6メートルの範囲で、画像認識部504による認識(距離検出)機能をオンにする。   When the camera unit 503 adopts a monocular system, the image recognition unit 504 performs user motion recognition, face recognition, human body recognition, and the like based on background differences. The distance detection method switching unit 2330 turns on the recognition (distance detection) function by the image recognition unit 504 when the user position is in the range of 70 centimeters to 6 meters with sufficient recognition accuracy based on the captured image.

また、カメラ部503が2眼式若しくはアクティブ式を採用する場合には、画像認識部504が十分な認識精度を得られるのは、やや手前の60センチメートル〜5メートルであり、距離検出方式切替部2330はそのユーザー位置の範囲で画像認識部504による認識(距離検出)機能をオンにする。   In addition, when the camera unit 503 adopts a two-lens type or an active type, the image recognition unit 504 can obtain sufficient recognition accuracy from 60 centimeters to 5 meters slightly in front, and the distance detection method switching. The unit 2330 turns on the recognition (distance detection) function by the image recognition unit 504 within the range of the user position.

また、ユーザーが接近し過ぎると、ユーザーの姿がカメラ部503の視界から外れ易くなる。そこで、距離検出方式切替部2330は、ユーザーが接近し過ぎたときには、カメラ部503及び画像認識部504をオフにするようにしてもよい。   In addition, when the user approaches too much, the user's figure is likely to be out of the field of view of the camera unit 503. Therefore, the distance detection method switching unit 2330 may turn off the camera unit 503 and the image recognition unit 504 when the user approaches too much.

表示部603の画面に重畳されたタッチパネルへのタッチは、ユーザーの手の届く範囲に限定される。そこで、距離検出方式切替部2330は、ユーザー位置が数十センチメートルまでの範囲で、タッチ検出部509による距離検出機能をオンにする。また、近接センサー511は、タッチしていなくても数十センチメートルまではユーザーを検出することができる。したがって、距離検出方式切替部2330は、タッチ入力よりも遠いユーザー位置まで、距離検出機能をオンにする。   The touch on the touch panel superimposed on the screen of the display unit 603 is limited to a range that the user can reach. Therefore, the distance detection method switching unit 2330 turns on the distance detection function by the touch detection unit 509 in the range of the user position up to several tens of centimeters. Further, the proximity sensor 511 can detect the user up to several tens of centimeters even when the proximity sensor 511 is not touched. Therefore, the distance detection method switching unit 2330 turns on the distance detection function up to the user position farther than the touch input.

複数の距離検出方式を備えた情報処理装置100の設計論として、数メートルあるいは十メートルを超える遠方を検出する距離検出方式は、ユーザーの存在を確認する目的があり、常時オンにしなければならないことから、低消費電力のデバイスを用いることが好ましい。逆に、1メートル以内の至近距離を検出する距離検出方式は、密度の高い情報を得て顔認識や人体認識など認識機能を併せ持つことができるが、認識処理などに大きな電力を消費することから、十分な認識精度が得られない距離では機能をオフにすることが好ましい。   As a design theory of the information processing apparatus 100 having a plurality of distance detection methods, the distance detection method for detecting a distant place exceeding several meters or ten meters has a purpose of confirming the existence of the user and must be always turned on. Therefore, it is preferable to use a device with low power consumption. On the other hand, the distance detection method that detects a close distance within 1 meter can have high density information and have recognition functions such as face recognition and human body recognition, but consumes a lot of power for recognition processing etc. It is preferable to turn off the function at a distance where sufficient recognition accuracy cannot be obtained.

D.モニター性能に応じたオブジェクトのリアルサイズ表示
従来の物体表示システムでは、実在するオブジェクトの画像を、そのリアルサイズ情報を考慮せずに画面に表示する。このため、画面の大きさや解像度(dpi)に応じて表示されるオブジェクトのサイズが変動してしまう。例えば、横幅がaセンチメートルのバッグを32インチのモニターに表示したときの横幅a’と、50インチのモニターに表示したときの横幅a”は互いに異なる(a≠a’≠a”)(図30を参照のこと)。
D. Real size display of objects according to monitor performance In a conventional object display system, an image of an actual object is displayed on the screen without considering the real size information. For this reason, the size of the displayed object varies according to the size of the screen and the resolution (dpi). For example, the width a ′ when a bag having a width of a centimeter is displayed on a 32-inch monitor and the width a ″ when displayed on a 50-inch monitor are different from each other (a ≠ a ′ ≠ a ″) (FIG. 30).

また、複数のオブジェクトの画像を同じモニター画面上に同時表示する際、各オブジェクトのリアルサイズ情報を考慮しないと、オブジェクト相互の大小関係が正しく表示されない。例えば、横幅がaセンチメートルのバッグと、横幅がbセンチメートルのポーチを同じモニター画面上に同時表示する場合、バッグがa’センチメートルで表示される一方、ポーチがb’センチメートルで表示され、相互の大小関係が正しく表示されない(a:b≠a’:b’)(図31を参照のこと)。   Further, when simultaneously displaying images of a plurality of objects on the same monitor screen, the magnitude relationship between the objects cannot be correctly displayed unless the real size information of each object is taken into consideration. For example, if a bag with a width of a centimeter and a pouch with a width of b centimeter are displayed simultaneously on the same monitor screen, the bag is displayed with a 'centimeter, while the pouch is displayed with b' centimeter. The magnitude relationship between the two is not correctly displayed (a: b ≠ a ′: b ′) (see FIG. 31).

例えば、商品をネット・ショッピングする際、そのサンプル画像がリアルサイズを再現できていないと、ユーザーは自分の姿に的確にフィッティングすることができず、誤った商品購入を行なうおそれがある。また、ネット・ショッピングで複数の商品を同時購入しようとするとき、各商品のサンプル画像を画面に同時表示した際にサンプル画像相互の大小関係が正しく表示されていないと、ユーザーは商品を組み合わせて的確にフィッティングすることができず、相応しくない組み合わせで商品を購入してしまうというおそれがある。   For example, when online shopping for a product, if the sample image cannot reproduce the real size, the user cannot accurately fit his / her appearance and may purchase the wrong product. In addition, when trying to purchase multiple products at the same time via online shopping, if the sample images of each product are displayed on the screen at the same time, the size relationship between the sample images is not displayed correctly, the user can combine the products. There is a risk that the fitting cannot be performed accurately and the product is purchased in an inappropriate combination.

これに対し、本実施形態に係る情報処理装置100は、表示させたいオブジェクトのリアルサイズ情報と、表示部603の画面の大きさ及び解像度(画素ピッチ)情報を管理し、オブジェクトや画面の大きさが変わったとしても、常に画面上にリアルサイズでオブジェクトの画像を表示するようにしている。   On the other hand, the information processing apparatus 100 according to the present embodiment manages the real size information of the object to be displayed, the screen size and resolution (pixel pitch) information of the display unit 603, and the size of the object and the screen. Even if changes, the image of the object is always displayed in real size on the screen.

図32には、演算部120がモニター性能に応じたオブジェクトのリアルサイズ表示処理を行なうための内部構成を示している。演算部120は、リアルサイズ表示部3210と、リアルサイズ推定部3220と、リアルサイズ拡張部3230を備えている。但し、リアルサイズ表示部3210、リアルサイズ推定部3220、リアルサイズ拡張部3230のうち少なくとも1つの機能ブロックが、通信部150を介して接続されるクラウド・サーバー上で実現されることも想定される。   FIG. 32 shows an internal configuration for the calculation unit 120 to perform real size display processing of an object according to monitor performance. The calculation unit 120 includes a real size display unit 3210, a real size estimation unit 3220, and a real size expansion unit 3230. However, it is assumed that at least one functional block among the real size display unit 3210, the real size estimation unit 3220, and the real size extension unit 3230 is realized on a cloud server connected via the communication unit 150. .

リアルサイズ表示部3210は、複数のオブジェクトの画像を同じモニター画面上に同時表示する際、各オブジェクトのリアルサイズ情報を考慮することによって、表示部603の画面の大きさ及び解像度(画素ピッチ)に応じて、常にリアルサイズで表示する。また、リアルサイズ表示部3210は、複数のオブジェクトの画像を表示部603の画面に同時表示するときには、オブジェクト相互の大小関係を正しく表示するようにしている。   When the real size display unit 3210 simultaneously displays images of a plurality of objects on the same monitor screen, the real size display unit 3210 takes the real size information of each object into consideration, thereby reducing the screen size and resolution (pixel pitch) of the display unit 603. In response, always display in real size. The real size display unit 3210 correctly displays the magnitude relationship between objects when simultaneously displaying images of a plurality of objects on the screen of the display unit 603.

リアルサイズ表示部3210は、記憶部140から、表示部603の画面の大きさ及び解像度(画素ピッチ)などのモニター仕様を読み出す。また、リアルサイズ表示部3210は、回転・取り付け機構部180から、表示部603の画面の向き、傾きなどのモニター状態を取得する。   The real size display unit 3210 reads monitor specifications such as the screen size and resolution (pixel pitch) of the display unit 603 from the storage unit 140. In addition, the real size display unit 3210 acquires a monitor state such as a screen orientation and a tilt of the display unit 603 from the rotation / attachment mechanism unit 180.

また、リアルサイズ表示部3210は、記憶部140内のオブジェクト画像データベースから、表示したいオブジェクトの画像を読み出すとともに、オブジェクト・リアルサイズ・データベースからそのオブジェクトのリアルサイズ情報を読み出す。但し、オブジェクト画像データベースやオブジェクト・リアルサイズ・データベースは、通信部150を介して接続されるデータベース・サーバー上にあることも想定される。   The real size display unit 3210 reads an image of an object to be displayed from the object image database in the storage unit 140 and reads real size information of the object from the object real size database. However, it is assumed that the object image database and the object real size database are on a database server connected via the communication unit 150.

そして、リアルサイズ表示部3210は、表示したいオブジェクトが表示部603の画面上でリアルサイズとなるよう(あるいは、複数のオブジェクト相互の大小関係が正しくなるよう)、モニター性能及びモニター状態に基づいて、オブジェクトの画像を変換処理する。すなわち、同じオブジェクトの画像を異なるモニター仕様の画面に表示するときであっても、図33に示すようにa=a’=a”となる。   Then, the real size display unit 3210 is based on the monitor performance and the monitor state so that the object to be displayed has a real size on the screen of the display unit 603 (or the magnitude relationship between the plurality of objects is correct). Convert the object image. That is, even when an image of the same object is displayed on a screen with a different monitor specification, a = a ′ = a ″ as shown in FIG.

また、リアルサイズ表示部3210は、リアルサイズの異なる2つのオブジェクトの画像を同じ画面上に同時に表示する際には、図34に示すように、a:b=a’:b’すなわち相互の大小関係は正しく表示される。   When the real size display unit 3210 simultaneously displays images of two objects having different real sizes on the same screen, as shown in FIG. 34, a: b = a ′: b ′, that is, the magnitude of each other The relationship is displayed correctly.

例えばユーザーがサンプル画像の表示を通じて商品のネット・ショッピングを行なう際には、上述したように情報処理装置100がオブジェクトのリアルサイズ表示を実現したり、複数のサンプル画像を正しい大小関係で表示したりすることができるので、ユーザーは的確な商品のフィッティングを行なうことができ、誤った商品選択を行なうおそれが少なくなる。   For example, when a user performs online shopping for a product through display of sample images, as described above, the information processing apparatus 100 realizes real size display of objects, or displays a plurality of sample images in a correct size relationship. Therefore, the user can perform accurate product fitting, and the possibility of erroneous product selection is reduced.

リアルサイズ表示部3210におけるオブジェクト画像のリアルサイズ表示をネット・ショッピングのアプリケーションに適用した例で説明を追加する。カタログの表示画面上でユーザーが所望の商品の画像をタッチしたことに応答して、その商品の画像がリアルサイズ表示に切り換わる(図35を参照のこと)。また、リアルサイズ表示した画像を、ユーザーのタッチ操作に従って、回転若しくは姿勢変換して、リアルサイズのオブジェクトの向きを変えて表示することができる(図36を参照のこと)。   A description will be added with an example in which the real size display of the object image in the real size display unit 3210 is applied to a net shopping application. In response to the user touching an image of a desired product on the catalog display screen, the product image is switched to a real size display (see FIG. 35). In addition, an image displayed in real size can be displayed by changing the orientation of the real size object by rotating or changing the posture in accordance with the touch operation of the user (see FIG. 36).

また、リアルサイズ推定部3220は、カメラ部503で撮影した人物など、オブジェクト・リアルサイズ・データベースに照会しても、リアルサイズ情報が得られないオブジェクトのリアルサイズを推定する処理を行なう。例えば、リアルサイズを推定するオブジェクトがユーザーの顔の場合、画像認識部504からカメラ部503の撮像画像を画像認識して得られたユーザーの顔の大きさ、年齢、向きなどのユーザー顔データと、距離検出方式切替部2330が切り替えた距離検出方式により得られたユーザーの位置に基づいて、ユーザーのリアルサイズを推定する。   Further, the real size estimation unit 3220 performs processing for estimating the real size of an object for which real size information cannot be obtained even if a person such as a person photographed by the camera unit 503 is referred to the object real size database. For example, when the object whose real size is to be estimated is the user's face, user face data such as the size, age, and orientation of the user's face obtained by image recognition of the image captured by the camera unit 503 from the image recognition unit 504 The user's real size is estimated based on the user's position obtained by the distance detection method switched by the distance detection method switching unit 2330.

推定されたユーザーのリアルサイズ情報は、リアルサイズ表示部3210へのフィードバックとなり、例えばオブジェクト画像データベースに格納される。そして、ユーザー顔データから推定されたリアルサイズ情報は、リアルサイズ表示部3210における以降のモニター性能に応じたリアルサイズ表示に利用される。   The estimated real size information of the user serves as feedback to the real size display unit 3210 and is stored, for example, in an object image database. The real size information estimated from the user face data is used for real size display corresponding to the subsequent monitor performance in the real size display unit 3210.

例えば、図37Aに示すように、被写体(赤ん坊)の撮影画像を含んだ被操作オブジェクトが表示されているときに、リアルサイズ推定部3220は、その顔データを基にリアルサイズを推定する。その後、ユーザーがタッチ操作などによってその被操作オブジェクトを拡大表示しようとしても、図37Bに示すように被写体のリアルサイズを超えてまで拡大することはない。すなわち、赤ん坊の画像は不自然なまでには拡大せず、映像のリアリティーが保たれている。   For example, as shown in FIG. 37A, when an operated object including a captured image of a subject (baby) is displayed, the real size estimation unit 3220 estimates the real size based on the face data. Thereafter, even if the user attempts to enlarge and display the operated object by a touch operation or the like, the object is not enlarged beyond the real size of the subject as shown in FIG. 37B. That is, the image of the baby is not enlarged unnaturally, and the reality of the image is maintained.

また、ネットワーク・コンテンツとカメラ部503で撮影したコンテンツを表示部603の画面に並列又は重畳して表示する際、推定されたリアルサイズに基づいてコンテンツの映像を正規化処理することで、調和のとれた並列又は重畳表示を実現することができる。   In addition, when displaying the network content and the content photographed by the camera unit 503 in parallel or superimposed on the screen of the display unit 603, the content video is normalized based on the estimated real size, thereby achieving harmony. Excellent parallel or superimposed display can be realized.

さらに、リアルサイズ拡張部3230は、リアルサイズ表示部3210において表示部603の画面上で実現したオブジェクトのリアルサイズ表示を、3D、すなわち、奥行き方向を含めて実現する。なお、両眼方式又は水平方向のみの光線再現方式により3D表示する場合には、3D映像生成時に想定した視聴位置でのみ、所望の効果を得ることができる。全方位の光線再現方式では、任意の位置から実サイズ表示が可能である。   Further, the real size extension unit 3230 realizes the real size display of the object realized on the screen of the display unit 603 in the real size display unit 3210 including 3D, that is, the depth direction. In addition, when 3D display is performed by the binocular method or the light ray reproduction method only in the horizontal direction, a desired effect can be obtained only at the viewing position assumed at the time of 3D video generation. In the omnidirectional ray reproduction method, the actual size can be displayed from any position.

また、リアルサイズ拡張部3230は、両眼方式、水平方向のみの光線再現方式においても、ユーザーの視点位置を検出して、3D映像をその位置に対して補正することによって、同様のリアルサイズ表示を、任意の位置から得ることができる。   The real size extension unit 3230 also detects the user's viewpoint position and corrects the 3D image with respect to the position in both the binocular method and the horizontal ray reproduction method, thereby displaying the same real size display. Can be obtained from any position.

例えば、本出願人に既に譲渡されている特開2002−300602号公報、特開2005−149127号公報、特開2005−142957号公報を参照されたい。   For example, see Japanese Patent Laid-Open Nos. 2002-300602, 2005-149127, and 2005-142957, which have already been assigned to the present applicant.

E.画像群の同時表示
表示システムにおいて、複数のソースの映像コンテンツを、並列又は重畳するという形態で同じ画面上に同時に表示する場合がある。例えば、(1)複数のユーザー同士でビデオ・チャットを行なう場合や、(2)ヨガなどのレッスンの際に、DVDなどの記録メディアから再生した(あるいは、ネットワーク経由でストリーミング再生する)インストラクターの映像とカメラ部503で撮影したユーザー本人の映像を同時に表示する場合、(3)ネット・ショッピングにおいて商品のサンプル画像とカメラ部503で撮影したユーザー本人の映像を重ねて表示してフィッティングする場合を挙げることができる。
E. In a simultaneous display display system for image groups, video content of a plurality of sources may be simultaneously displayed on the same screen in a form of being parallel or superimposed. For example, (1) When video chatting with multiple users, (2) Instructor video played from a recording medium such as a DVD (or streamed via a network) during a lesson such as yoga When the user's own image captured by the camera unit 503 is displayed at the same time, (3) In the case of online shopping, the sample image of the product and the user's image captured by the camera unit 503 are overlapped and displayed. be able to.

上記の(1)〜(2)のいずれの場合においても、同時表示する画像間の大小関係が正しく表示されないと、ユーザーは適切に表示映像を利用できなくなる。例えば、ビデオ・チャットしているユーザー間で顔の大きさや位置がまちまちになってしまうと(図38A)、チャット相手との対面性が損なわれ、会話が弾まなくなる。また、ユーザーの姿とインストラクターの姿の大きさや位置が揃っていないと(図39A)、ユーザーは自分の動きとインストラクターの動きの相違を見極めにくくなり、修正・改善すべき点が分からず、十分なレッスンの成果を上げることができなくなる。また、商品のサンプル画像が、商品を手に取るようにしてポーズをとったユーザー本人の映像と正しい大小関係で適当な場所に重なっていないと、ユーザーは、その商品が自分に合っているかどうかを判断しづらく、的確なフィッティングを行なうことができない(図40A)。   In any of the above cases (1) to (2), if the magnitude relationship between simultaneously displayed images is not correctly displayed, the user cannot use the display video appropriately. For example, if face sizes and positions vary between users who are in video chat (FIG. 38A), the face-to-face relationship with the chat partner is impaired, and the conversation does not play. Also, if the size and position of the user's figure and the instructor's figure are not aligned (Fig. 39A), it will be difficult for the user to identify the difference between his / her movement and the instructor's movement, and the points to be corrected / improved will not be understood. You will not be able to improve the results of the lesson. In addition, if the sample image of the product does not overlap the appropriate location in the correct size relationship with the video of the user who took a pose by picking up the product, the user will check whether the product is suitable for him / her. Is difficult to determine, and accurate fitting cannot be performed (FIG. 40A).

これに対し、本実施形態に係る情報処理装置100は、複数のソースの映像コンテンツを、並列又は重畳する場合に、画像のスケールや対応領域などの情報を用いて画像同士を正規化して並列又は重畳して表示するようにしている。正規化する際には、静止画、動画などのディジタル画像データに対してディジタルでズーム処理するなどの画像加工を行なう。また、並列又は重畳する一方の画像がカメラ部503で撮影した画像の場合、実際のカメラをパン、チルト、ズームなどの光学制御を行なう。   On the other hand, the information processing apparatus 100 according to the present embodiment normalizes images using information such as image scales and corresponding areas when parallel or superimposing a plurality of source video contents in parallel or superimposed. It is displayed in a superimposed manner. When normalizing, image processing such as digital zoom processing is performed on digital image data such as still images and moving images. In addition, when one of the parallel or superimposed images is an image taken by the camera unit 503, optical control such as panning, tilting, and zooming is performed on the actual camera.

画像の正規化処理は、顔認識によって得られた顔の大きさ、年齢、向きなどの情報や、人物認識によって得られた身体形状や大きさなどの情報を用いて簡易に実現することができる。また、複数の画像を並列又は重畳表示する際に、一方の画像に対しミラーリングや回転の処理を自動的に行なって、他方の画像との対応を取り易くする。   Image normalization processing can be easily realized using information such as face size, age, and orientation obtained by face recognition, and information such as body shape and size obtained by person recognition. . In addition, when a plurality of images are displayed in parallel or superimposed, mirroring or rotation processing is automatically performed on one image to facilitate the correspondence with the other image.

図38Bには、複数画像間の正規化処理により、ビデオ・チャットしているユーザー間で顔の大きさや位置が揃えられた様子を示している。また、図39Bには、複数画像間の正規化処理により、画面に並列して表示するユーザーの姿とインストラクターの姿の大きさや位置が揃えられた様子を示している。また、図40Bには、複数画像間の正規化処理により、商品のサンプル画像が、商品を手に取るようにしてポーズをとったユーザー本人の映像と正しい大小関係で適当な場所に重ねて表示している様子を示している。なお、図39Bや図40Bでは、ユーザーはカメラ部503の撮影画像から自分の姿勢を修正し易くするために、大小関係の正規化処理だけでなく、ミラーリングも施されている。また、必要に応じて回転処理を行なう場合もある。また、ユーザーの姿をインストラクターの姿と正規化処理することができたなら、図39Bに示したようにこれらを並列表示するのではなく、図39Cに示すように重畳表示することもでき、ユーザーは自分の姿勢とインストラクターの姿勢との相違をさらに視認し易くなる。   FIG. 38B shows a state in which face sizes and positions are aligned among users who are in video chat by the normalization processing between a plurality of images. FIG. 39B shows a state in which the size and position of the user's figure and the instructor's figure displayed in parallel on the screen are aligned by the normalization process between a plurality of images. Also, in FIG. 40B, the sample image of the product is displayed in an appropriate place with the correct size relationship with the video of the user who poses as if the product is picked up by normalization processing between multiple images. It shows how they are doing. In FIG. 39B and FIG. 40B, in order to make it easier for the user to correct his / her posture from the captured image of the camera unit 503, not only the normalization process of the magnitude relationship but also mirroring is performed. Further, rotation processing may be performed as necessary. Also, if the user's figure can be normalized with the instructor's figure, they can be displayed in a superimposed manner as shown in FIG. 39C, instead of being displayed in parallel as shown in FIG. 39B. Makes it easier to see the difference between your posture and the posture of your instructor.

図41には、演算部120が画像の正規化処理を行なうための内部構成を示している。演算部120は、画像間正規化処理部4110と、顔正規化処理部4120と、リアルサイズ拡張部4130を備えている。但し、画像間正規化処理部4110、顔正規化処理部4120、リアルサイズ拡張部4130のうち少なくとも1つの機能ブロックが、通信部150を介して接続されるクラウド・サーバー上で実現されることも想定される。   FIG. 41 shows an internal configuration for the calculation unit 120 to perform image normalization processing. The calculation unit 120 includes an inter-image normalization processing unit 4110, a face normalization processing unit 4120, and a real size expansion unit 4130. However, at least one functional block among the inter-image normalization processing unit 4110, the face normalization processing unit 4120, and the real size expansion unit 4130 may be realized on a cloud server connected via the communication unit 150. is assumed.

画像間正規化処理部4110は、複数画像間でユーザーの顔画像と他のオブジェクトとの大小関係が正しく表示されるように、正規化処理を行なう。   The inter-image normalization processing unit 4110 performs normalization processing so that the magnitude relationship between the user's face image and other objects is correctly displayed among a plurality of images.

画像間正規化処理部4110は、入力インターフェース統合部520を通じて、カメラ部503で撮影したユーザーの画像を入力する。その際、ユーザーの撮影時におけるカメラ部503のパン、チルト、ズームなどのカメラ情報を併せて取得する。また、画像間正規化処理部4110は、ユーザーの画像と並列又は重畳して表示する他のオブジェクトの画像と取得するとともに、ユーザーの画像と他のオブジェクトの画像を並列又は重畳するパターンを、画像データベースから取得する。画像データベースは、記憶部140内に存在する場合もあれば、通信部150を通じてアクセスするデータベース・サーバー上に存在する場合もある。   The inter-image normalization processing unit 4110 inputs a user image captured by the camera unit 503 through the input interface integration unit 520. At this time, camera information such as pan, tilt, and zoom of the camera unit 503 at the time of shooting by the user is also acquired. The inter-image normalization processing unit 4110 obtains an image of another object to be displayed in parallel or superimposed with the user's image, and displays a pattern in which the user's image and the image of the other object are aligned or superimposed on the image. Get from database. The image database may exist in the storage unit 140 or may exist on a database server accessed through the communication unit 150.

そして、画像間正規化処理部4110は、正規化アルゴリズムに従って、他のオブジェクトとの大小関係や姿勢が正しくなるように、ユーザーの画像に対して拡大や回転、ミラーリングなどの画像加工を施すとともに、適切なユーザーの画像を撮影するよう、カメラ部503をパン、チルト、ズームなどの制御を行なうためのカメラ制御情報を生成する。画像間正規化処理部4110の処理によって、例えば図40Bに示したように、ユーザーの画像は他のオブジェクトの画像と大小関係が正しくなるように表示される。   The inter-image normalization processing unit 4110 performs image processing such as enlargement, rotation, and mirroring on the user's image so that the magnitude relationship and posture with other objects are correct according to the normalization algorithm, Camera control information for controlling the camera unit 503 such as panning, tilting, and zooming so as to capture an appropriate user image is generated. By the processing of the inter-image normalization processing unit 4110, for example, as shown in FIG. 40B, the user's image is displayed so that the magnitude relationship with the images of other objects is correct.

顔正規化処理部4120は、カメラ部503で撮影したユーザーの顔画像が、他の被操作オブジェクト内の顔画像(例えば、記録メディアから再生した画像中のインストラクターの顔や、ビデオ・チャットしている相手ユーザーの顔)と大小関係が正しく表示されるように、正規化処理を行なう。   The face normalization processing unit 4120 uses a face image of the user captured by the camera unit 503 as a face image in another object to be operated (for example, an instructor's face in an image reproduced from a recording medium, or video chatting). Normalization processing is performed so that the magnitude relationship with the face of the other user is correctly displayed.

顔正規化処理部4120は、入力インターフェース統合部520を通じて、カメラ部503で撮影したユーザーの画像を入力する。その際、ユーザーの撮影時におけるカメラ部503のパン、チルト、ズームなどのカメラ情報を併せて取得する。また、顔正規化処理部4120は、撮影したユーザーの画像と並列又は重畳して表示する他の被操作オブジェクト内の顔画像を、記憶部140又は通信部150を通じて取得する。   The face normalization processing unit 4120 inputs a user image captured by the camera unit 503 through the input interface integration unit 520. At this time, camera information such as pan, tilt, and zoom of the camera unit 503 at the time of shooting by the user is also acquired. In addition, the face normalization processing unit 4120 acquires a face image in another operated object to be displayed in parallel or superimposed with the captured user image through the storage unit 140 or the communication unit 150.

そして、顔正規化処理部4120は、互いの顔画像の大小関係が正しくなるように、ユーザーの画像に対して拡大や回転、ミラーリングなどの画像加工を施すとともに、適切なユーザーの画像を撮影するよう、カメラ部503をパン、チルト、ズームなどの制御を行なうためのカメラ制御情報を生成する。顔正規化処理部4120の処理によって、例えば図38B、図39B、図39Cに示したように、ユーザーの画像は他の顔画像と大小関係が正しくなるように表示される。   Then, the face normalization processing unit 4120 performs image processing such as enlargement, rotation, and mirroring on the user's image so as to correct the size relationship between the face images, and captures an appropriate user's image. Thus, camera control information for controlling the camera unit 503 such as pan, tilt, and zoom is generated. By the processing of the face normalization processing unit 4120, for example, as shown in FIG. 38B, FIG. 39B, and FIG. 39C, the user image is displayed so that the magnitude relationship with other face images is correct.

さらに、リアルサイズ拡張部4130は、画像間正規化処理部4110又は画像間正規化処理部4110において表示部603の画面上で実現した複数画像の並列又は重畳表示を、3D、すなわち、奥行き方向を含めて実現する。なお、両眼方式又は水平方向のみの光線再現方式により3D表示する場合には、3D映像生成時に想定した視聴位置でのみ、所望の効果を得ることができる。全方位の光線再現方式では、任意の位置から実サイズ表示が可能である。   Further, the real size extension unit 4130 performs parallel or superimposed display of a plurality of images realized on the screen of the display unit 603 in the inter-image normalization processing unit 4110 or the inter-image normalization processing unit 4110 in 3D, that is, in the depth direction. Realize including. In addition, when 3D display is performed by the binocular method or the light ray reproduction method only in the horizontal direction, a desired effect can be obtained only at the viewing position assumed at the time of 3D video generation. In the omnidirectional ray reproduction method, the actual size can be displayed from any position.

また、リアルサイズ拡張部4130は、両眼方式、水平方向のみの光線再現方式においても、ユーザーの視点位置を検出して、3D映像をその位置に対して補正することによって、同様のリアルサイズ表示を、任意の位置から得ることができる。   Also, the real size extension unit 4130 detects the user's viewpoint position and corrects the 3D image with respect to the position in both the binocular method and the horizontal ray reproduction method, thereby displaying the same real size display. Can be obtained from any position.

例えば、本出願人に既に譲渡されている特開2002−300602号公報、特開2005−149127号公報、特開2005−142957号公報を参照されたい。   For example, see Japanese Patent Laid-Open Nos. 2002-300602, 2005-149127, and 2005-142957, which have already been assigned to the present applicant.

F.回転する画面における映像コンテンツの表示方法
既に述べたように、本実施形態に係る情報処理装置100本体は、例えば回転・取り付け機構部180によって壁面上で回転可能且つ着脱可能な状態で取り付けられている。情報処理装置100の電源オンすなわち表示部603で被操作オブジェクトを表示している最中に本体を回転操作すると、これに伴って、ユーザーが正しい姿勢の被操作オブジェクトを観察できるよう、被操作オブジェクトを回転処理する。
F. Display Method of Video Content on Rotating Screen As already described, the information processing apparatus 100 main body according to the present embodiment is attached in a rotatable and detachable state on the wall surface by, for example, the rotation / attachment mechanism unit 180. . When the information processing apparatus 100 is turned on, that is, when the operation object is displayed on the display unit 603, the operation object is rotated so that the user can observe the operation object in the correct posture. Rotate the

以下では、情報処理装置100本体の任意の回転角度やその遷移過程において、映像コンテンツの表示形態を最適に調整する方法について説明する。   Hereinafter, a method for optimally adjusting the display form of the video content in an arbitrary rotation angle of the information processing apparatus 100 main body and the transition process thereof will be described.

画面の任意の回転角度やその遷移過程における映像コンテンツの表示形態として、(1)任意の回転角度において映像コンテンツが全く見切れないようにする表示形態、(2)各回転角度において、映像コンテンツ中の注目コンテンツが最大となるようにする表示形態、(3)無効領域がないように映像コンテンツを回転する表示形態、の3通りを挙げることができる。   As a display form of the video content in an arbitrary rotation angle of the screen or the transition process thereof, (1) a display form in which the video content is not completely visible at the arbitrary rotation angle, and (2) There are three display modes: a display mode that maximizes the content of interest, and a display mode that rotates video content so that there is no invalid area.

図42には、情報処理装置100(画面)を反時計回りに90度だけ回転させる間に、任意の回転角度において映像コンテンツが全く見切れないように、映像コンテンツの全領域を表示する表示形態を図解している。図示のように、横置き状態の画面に横長の映像コンテンツを表示しているときに、反時計回りに90度だけ回転させて縦置きにしようとすると、映像コンテンツは縮小するとともに、画面には黒色で表わされている無効領域が出現してしまう。また、画面を横置きから縦置きに遷移する過程で、映像コンテンツは最小になる。   FIG. 42 shows a display form in which the entire area of the video content is displayed so that the video content cannot be completely seen at an arbitrary rotation angle while the information processing apparatus 100 (screen) is rotated by 90 degrees counterclockwise. Illustrated. As shown in the figure, when a horizontally long video content is displayed on a horizontally placed screen, if it is rotated 90 degrees counterclockwise to be placed vertically, the video content is reduced and the screen An invalid area represented in black appears. Also, video content is minimized in the process of transitioning the screen from landscape to portrait.

映像コンテンツの少なくとも一部が見切れてしまうと、著作物としての映像コンテンツは同一性を喪失してしまうという問題がある。図42に知れしたような表示形態は、任意の回転角度やその遷移過程において、常に著作物としての同一性が保証される。すなわち、保護コンテンツには適した表示形態ということができる。   If at least a part of the video content is overlooked, there is a problem that the video content as a copyrighted work loses its identity. The display form as known in FIG. 42 always guarantees the identity as a copyrighted work at an arbitrary rotation angle and its transition process. That is, it can be said that the display form is suitable for protected content.

また、図43には、情報処理装置100(画面)を反時計回りに90度だけ回転させる間に、各回転角度において、映像コンテンツ中の注目領域が最大となるようにする表示形態を図解している。同図では、映像コンテンツ中の点線で囲んだ被写体を含む領域を注目領域に設定して、各回転角度にてこの注目領域が最大となるようにする。注目領域は縦長なので、横置きを縦置きに変えることによって、映像コンテンツは拡大する。また、横置きから縦置きに遷移する過程において、注目領域は画面の対角線方向に最大に拡大する。また、横置きから縦置きに遷移する過程において、画面には黒色で表わされている無効領域が出現してしまう。   FIG. 43 illustrates a display mode in which the attention area in the video content is maximized at each rotation angle while the information processing apparatus 100 (screen) is rotated counterclockwise by 90 degrees. ing. In the figure, an area including a subject surrounded by a dotted line in the video content is set as an attention area, and the attention area is maximized at each rotation angle. Since the region of interest is vertically long, changing the landscape orientation to the portrait orientation enlarges the video content. Further, in the process of transition from horizontal to vertical, the attention area expands to the maximum in the diagonal direction of the screen. In addition, in the process of transition from horizontal to vertical placement, an invalid area represented in black appears on the screen.

映像コンテンツ中の注目領域に着目した表示形態として、注目領域のサイズを一定にしながら映像コンテンツを回転させるという変形例も考えられる。画面の回転に伴って、注目領域は円滑に回転するようにも映るが、無効領域は拡大してしまう。   As a display form that focuses on the attention area in the video content, a modification in which the video content is rotated while keeping the size of the attention area constant is also conceivable. As the screen rotates, the attention area appears to rotate smoothly, but the invalid area expands.

また、図44には、情報処理装置100(画面)を反時計回りに90度だけ回転させる間に、無効領域がないように映像コンテンツを回転する表示形態を図解している。   Also, FIG. 44 illustrates a display form in which video content is rotated so that there is no invalid area while the information processing apparatus 100 (screen) is rotated 90 degrees counterclockwise.

図45には、図42〜図44に示した各表示形態における、回転位置に対する映像コンテンツのズーム率の関係を示している。図42に示した、任意の回転角度において映像コンテンツが全く見切れないようにする表示形態では、コンテンツを保護することはできるが、遷移過程において大きな無効領域が発生してしまう。また、遷移過程で映像が縮小するのでユーザーに違和感を与えることが懸念される。図43に示した、各回転角度で映像コンテンツ中の注目領域が最大となるようにする表示形態では、画面が回転する遷移過程で注目領域をより滑らかに表示することができるが、遷移過程において無効領域が発生してしまう。また、図44に示した表示形態では、遷移過程において無効領域が発生しないが、遷移過程において、映像コンテンツが大きく拡大してしまい、観察するユーザーに不自然な印象を与えることが懸念される。   FIG. 45 shows the relationship of the zoom ratio of the video content with respect to the rotation position in each of the display forms shown in FIGS. In the display form shown in FIG. 42 that prevents the video content from being completely seen at an arbitrary rotation angle, the content can be protected, but a large invalid area is generated in the transition process. Moreover, since the video is reduced in the transition process, there is a concern that the user may feel uncomfortable. In the display form shown in FIG. 43 that maximizes the attention area in the video content at each rotation angle, the attention area can be displayed more smoothly during the transition process in which the screen rotates. An invalid area occurs. In the display form shown in FIG. 44, an invalid area does not occur in the transition process, but in the transition process, the video content is greatly enlarged, and there is a concern that an unnatural impression is given to the user who observes.

図46には、情報処理装置100(表示部603の画面)を回転させる際に、演算部120において映像コンテンツの表示形態を制御するための処理手順をフローチャートの形式で示している。この処理手順は、例えば回転・取り付け機構部180において情報処理装置100本体が回転していることを検出したことや、3軸センサー515により情報処理装置100本体の回転位置の変化を検出したことに応じて起動する。   FIG. 46 shows a processing procedure for controlling the display form of the video content in the calculation unit 120 when the information processing apparatus 100 (screen of the display unit 603) is rotated in the form of a flowchart. This processing procedure is based on, for example, detecting that the main body of the information processing apparatus 100 is rotating in the rotation / attachment mechanism section 180, or detecting a change in the rotational position of the main body of the information processing apparatus 100 using the three-axis sensor 515. Starts accordingly.

情報処理装置100(表示部603の画面)を回転させる際に、演算部120は、まず、画面に表示している映像コンテンツの属性情報を取得する(ステップS4601)。そして、画面に表示している映像コンテンツが著作権などにより保護されているコンテンツであるかどうかをチェックする(ステップS4602)。   When rotating the information processing apparatus 100 (screen of the display unit 603), the calculation unit 120 first acquires attribute information of video content displayed on the screen (step S4601). Then, it is checked whether the video content displayed on the screen is content protected by copyright or the like (step S4602).

ここで、画面に表示している映像コンテンツが著作権などにより保護されているコンテンツである場合には(ステップS4602のYes)、演算部120は、図42に示したような、任意の回転角度において映像コンテンツが全く見切れないように、映像コンテンツの全領域を表示する表示形態を選択する(ステップS4603)。   Here, when the video content displayed on the screen is a content protected by copyright or the like (Yes in step S4602), the calculation unit 120 may select an arbitrary rotation angle as shown in FIG. In step S4603, a display form for displaying the entire area of the video content is selected so that the video content is not completely visible at step S4603.

また、画面に表示している映像コンテンツが著作権などにより保護されているコンテンツでない場合には(ステップS4602のNo)、続いて、ユーザーが指定した表示形態があるかどうかをチェックする(ステップS4604)。   When the video content displayed on the screen is not content protected by copyright or the like (No in step S4602), it is subsequently checked whether there is a display form designated by the user (step S4604). ).

ユーザーが映像コンテンツの全領域を表示する表示形態を選択しているときには、ステップS4603に進む。また、ユーザーが注目領域を最大表示する表示形態を選択しているときには、ステップS4605に進む。また、ユーザーが無効領域を表示しない表示形態を選択しているときには、ステップS4606に進む。また、ユーザーがいずれの表示形態も選択してないときには、上記の3つの表示形態のうちデフォルト値として設定された表示形態を選択する。   If the user has selected a display form that displays the entire area of the video content, the process advances to step S4603. If the user has selected a display form that displays the region of interest at maximum, the process advances to step S4605. If the user has selected a display form that does not display the invalid area, the process advances to step S4606. When the user has not selected any display form, the display form set as the default value is selected from the above three display forms.

図47には、演算部120が情報処理装置100本体の任意の回転角度やその遷移過程において映像コンテンツの表示形態を調整する処理を行なうための内部構成を示している。演算部120は、表示形態決定部4710と、回転位置入力部4720と、画像加工部4730を備え、受信したTV放送やメディアから再生した映像コンテンツの表示形態を調整する。   FIG. 47 shows an internal configuration for the calculation unit 120 to perform processing for adjusting the display form of the video content in an arbitrary rotation angle of the information processing apparatus 100 main body and the transition process thereof. The calculation unit 120 includes a display form determination unit 4710, a rotation position input unit 4720, and an image processing unit 4730, and adjusts the display form of video content reproduced from the received TV broadcast or media.

表示形態決定部4710は、情報処理装置100本体の任意の回転角度やその遷移過程において映像コンテンツを回転させる際の表示形態を、図46に示した処理手順に従って決定する。   The display form determination unit 4710 determines a display form when rotating the video content in an arbitrary rotation angle of the information processing apparatus 100 main body or in the transition process thereof according to the processing procedure shown in FIG.

回転位置入力部4720は、回転・取り付け機構部180や3軸センサー515で得られる情報処理装置100本体(若しくは、表示部602の画面)の回転位置を、入力インターフェース統合部520を介して入力する。   The rotation position input unit 4720 inputs the rotation position of the information processing apparatus 100 main body (or the screen of the display unit 602) obtained by the rotation / attachment mechanism unit 180 and the three-axis sensor 515 via the input interface integration unit 520. .

画像加工部4730は、受信したTV放送やメディアから再生した映像コンテンツが、回転位置入力部4720に入力された回転角度だけ傾いた表示部603の画面に適合するよう、表示形態決定部4710で決定した表示形態に従って画像加工する。   The image processing unit 4730 is determined by the display form determination unit 4710 so that the video content reproduced from the received TV broadcast or media is adapted to the screen of the display unit 603 inclined by the rotation angle input to the rotation position input unit 4720. The image is processed according to the displayed form.

G.本明細書で開示する技術
本明細書で開示する技術は、以下のような構成をとることも可能である。
(101)表示部と、前記表示部の周辺に存在するユーザーを検出するユーザー検出部と、前記ユーザー検出部がユーザーを検出したことに応じて、前記表示部に表示する被操作オブジェクトの処理を行なう演算部と、を具備する情報処理装置。
(102)前記ユーザー検出部は、前記表示部の画面の4つの側縁部の各々に配設された近接センサーを有し、各側縁付近に存在するユーザーを検出する、上記(101)に記載の情報処理装置。
(103)前記演算部は、前記ユーザー検出部が検出したユーザーの配置に応じて、前記表示部の画面内に、検出されたユーザー毎のユーザー占有領域と、ユーザー間で共有する共通領域を設定する、上記(101)に記載の情報処理装置。
(104)前記演算部は、前記表示部の画面上に、ユーザーの操作対象となる1以上の被操作オブジェクトを表示させる、上記(103)に記載の情報処理装置。
(105)前記演算部は、ユーザー占有領域内の被操作オブジェクトを最適化する、上記(104)に記載の情報処理装置。
(106)前記演算部は、ユーザー占有領域内の被操作オブジェクトが該当するユーザーに正対する方向となるように回転処理する、上記(104)に記載の情報処理装置。
(107)前記演算部は、共通領域又は他のユーザー占有領域からユーザー占有領域に移動してきた被操作オブジェクトが該当するユーザーに正対する方向となるように回転処理する、上記(104)に記載の情報処理装置。
(108)演算部は、ユーザーが被操作オブジェクトをドラッグして領域間を移動させる際に、被操作オブジェクトの重心位置に対してユーザーが操作した位置に応じて、被操作オブジェクトを回転処理する際の回転方向を制御する、上記(107)に記載の情報処理装置。
(109)前記演算部は、前記ユーザー検出部が新規に検出したユーザーのユーザー占有領域を前記表示部の画面内に設定するときに、ユーザーを新規に検出したことを表す検出インジケーターを表示させる、上記(103)に記載の情報処理装置。
(110)ユーザーが所持する端末とデータを送受信するデータ送受信部をさらに備える、上記(104)に記載の情報処理装置。
(111)前記データ送受信部は、前記ユーザー検出部が検出したユーザーが所持する端末とデータ送受信処理を行ない、前記演算部は、ユーザーが所持する端末から受信したデータに対応する被操作オブジェクトを、該当するユーザー占有領域に出現させる、上記(110)に記載の情報処理装置。
(112)前記演算部は、各ユーザーのユーザー占有領域間で被操作オブジェクトを移動させたことに応じて、移動先のユーザー占有領域に被操作オブジェクトを複製又は分割する、上記(104)に記載の情報処理装置。
(113)前記演算部は、移動先のユーザー占有領域に、別データとして作成した被操作オブジェクトの複製を表示させる、上記(112)に記載の情報処理装置。
(114)前記演算部は、移動先のユーザー占有領域に、ユーザー間で共同操作が可能なアプリケーションの別のウィンドウとなる被操作オブジェクトの複製を表示させる、上記(112)に記載の情報処理装置。
(115)周辺に存在するユーザーを検出するユーザー検出ステップと、前記ユーザー検出ステップでユーザーを検出したことに応じて、表示する被操作オブジェクトの処理を行なう演算ステップと、を有する情報処理方法。
(116)表示部、前記表示部の周辺に存在するユーザーを検出するユーザー検出部、前記ユーザー検出部がユーザーを検出したことに応じて、前記表示部に表示する被操作オブジェクトの処理を行なう演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(201)表示部と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部と、を具備する情報処理装置。
(202)前記演算部は、前記表示部の画面上に表示する、ユーザーの操作対象となる1以上の被操作オブジェクトの枠組み又は情報密度を、ユーザーの位置及びユーザーの状態に応じて制御する、上記(201)に記載の情報処理装置。
(203)前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、上記(201)に記載の情報処理装置。
(204)前記演算部は、ユーザーの位置に応じて前記表示部の画面に表示する被操作オブジェクトの情報密度を制御する、上記(201)に記載の情報処理装置。
(205)前記演算部は、ユーザーが個人認証可能な位置か否かに応じて、前記表示部の画面に表示する被操作オブジェクトの選択を制御する、上記(201)に記載の情報処理装置。
(206)ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段をさらに備え、前記演算部は、ユーザーが前記入力手段で被操作オブジェクトを操作している状態か否かに応じて、画面に表示する被操作オブジェクトの枠組みを制御する、上記(201)に記載の情報処理装置。
(207)表示部と、ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部と、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部と、を具備する情報処理装置。
(208)前記演算部は、ユーザーが前記表示部の画面を視聴している状態か否かに応じて、前記入力手段の最適化を制御する、上記(207)に記載の情報処理装置。
(209)前記演算部は、ユーザーが前記表示部の画面を視聴している状態において、前記ユーザー位置検出部が検出したユーザーの位置に応じて入力手段を最適化する、上記(207)に記載の情報処理装置。
(210)表示部と、前記表示部に対するユーザーの位置を検出するユーザー位置検出部と、前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式と、前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部と、を具備する情報処理装置。
(211)前記演算部は、遠方にいるユーザーまでの距離を検出する距離検出方式を常に機能オンにする、上記(210)に記載の情報処理装置。
(212)前記演算部は、近くにいるユーザーの距離を検出するとともに認識処理を兼ねた距離検出方式を、十分な認識精度が得られる距離範囲でのみ機能オンにする、上記(210)に記載の情報処理装置。
(213)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、前記表示画面に表示するGUIを制御する演算ステップと、を有する情報処理方法。
(214)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、前記表示画面に対するユーザーの状態を検出するユーザー状態検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置と、前記ユーザー状態検出ステップで検出したユーザーの状態に応じて、ユーザーが前記表示画面上に表示されている被操作オブジェクトを操作するための1以上の入力手段を最適化する演算ステップと、を有する情報処理方法。
(215)表示画面に対するユーザーの位置を検出するユーザー位置検出ステップと、前記ユーザー位置検出ステップで検出したユーザーの位置に応じて、前記表示画面からユーザーまでの距離を検出する複数の距離検出方式の切り替えを制御する演算ステップと、を有する情報処理方法。
(216)表示部、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記表示部に表示するGUIを制御する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(217)表示部、ユーザーが前記表示部の画面上に表示されている被操作オブジェクトを操作する1以上の入力手段、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の表示画面に対するユーザーの状態を検出するユーザー状態検出部、前記ユーザー位置検出部が検出したユーザーの位置と、前記ユーザー状態検出部が検出したユーザーの状態に応じて、前記入力手段を最適化する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(218)表示部、前記表示部に対するユーザーの位置を検出するユーザー位置検出部、前記表示部の画面からユーザーまでの距離を検出する複数の距離検出方式、前記ユーザー位置検出部が検出したユーザーの位置に応じて、距離検出方式の切り替えを制御する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(301)表示部と、前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部と、前記表示部の画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得部と、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算部と、を具備する情報処理装置。
(302)前記表示部の画面サイズ及び解像度を含む表示性能に関する情報を取得する表示性能取得部をさらに備え、前記演算部は、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズと、前記表示性能取得部が取得した表示性能に基づいて、前記表示部の画面上で、前記オブジェクトの画像がリアルサイズで表示されるよう処理する、上記(301)に記載の情報処理装置。
(303)前記オブジェクト画像取得部が取得した複数のオブジェクトの画像を前記表示部の画面に同時に表示する際に、前記演算部は、前記複数のオブジェクトの画像相互の大小関係が正しく表示されるように、前記複数のオブジェクトの画像を処理する、上記(301)に記載の情報処理装置。
(304)カメラ部と、前記カメラ部で撮影した画像に含まれるオブジェクトのリアルサイズを推定するリアルサイズ推定部をさらに備える、上記(301)に記載の情報処理装置。
(305)カメラ部と、前記カメラ部で撮影した画像に含まれるユーザーの顔を認識して顔データを取得する画像認識部と、前記ユーザーまでの距離を検出する距離検出部と、前記ユーザーの顔データと前記ユーザーまでの距離に基づいて、前記ユーザーの顔のリアルサイズを推定するリアルサイズ推定部と、をさらに備える上記(301)に記載の情報処理装置。
(306)画面に表示するオブジェクトの画像を取得するオブジェクト画像取得ステップと、前記画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得ステップと、前記リアルサイズ取得ステップで取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算ステップと、を有する情報処理方法。
(307)表示部、前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部、前記表示部の画面に表示する前記オブジェクトのリアルサイズに関する情報を取得するリアルサイズ取得部、前記リアルサイズ取得部が取得した前記オブジェクトのリアルサイズに基づいて、前記オブジェクトの画像を処理する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(401)カメラ部と、表示部と、前記表示部の画面に表示する際に、前記カメラ部で撮影したユーザーの画像を正規化する演算部と、を具備する情報処理装置。
(402)前記表示部の画面に表示するオブジェクトの画像を取得するオブジェクト画像取得部と、前記ユーザーの画像と前記オブジェクトの画像を前記表示部の画面上に並列又は重畳する並列・重畳パターンを取得する並列・重畳パターン取得部と、をさらに備え、前記演算部は、前記ユーザーの画像と前記オブジェクトの大小関係と位置が正しくなるように正規化し、正規化した後の前記ユーザーの画像と前記オブジェクトを取得した並列・重畳パターンに従って並列又は重畳する、上記(401)に記載の情報処理装置。
(403)前記演算部は、前記カメラ部で撮影した前記ユーザーの画像を正規化するための前記カメラ部への制御を行なう、上記(402)に記載の情報処理装置。
(404)前記カメラ部で撮影したユーザーの顔データを取得するユーザー顔データ取得部と、前記表示部の画面に表示するオブジェクト内の顔データを取得するオブジェクト内顔データ取得部をさらに備え、前記演算部は、前記ユーザーの顔データと前記オブジェクト内の顔データの大小関係と位置が正しくなるように正規化する、上記(401)に記載の情報処理装置。
(405)前記演算部は、前記カメラ部で撮影した前記ユーザーの画像を正規化するための前記カメラ部への制御を行なう、上記(404)に記載の情報処理装置。
(406)画面に表示するオブジェクトの画像を取得するオブジェクト画像取得ステップと、カメラ部で撮影したユーザーの画像と前記オブジェクトの画像を前記表示部の画面上に並列又は重畳する並列・重畳パターンを取得する並列・重畳パターン取得ステップと、前記ユーザーの画像と前記オブジェクトの大小関係と位置が正しくなるように正規化する正規化ステップと、正規化した後の前記ユーザーの画像と前記オブジェクトを取得した並列・重畳パターンに従って並列又は重畳する画像加工ステップと、を有する情報処理方法。
(407)カメラ部で撮影したユーザーの顔データを取得するユーザー顔データ取得ステップと、画面に表示するオブジェクト内の顔データを取得するオブジェクト内顔データ取得ステップと、前記ユーザーの顔データと前記オブジェクト内の顔データの大小関係と位置が正しくなるように正規化する正規化ステップと、を有する情報処理方法。
(408)カメラ部、表示部、前記表示部の画面に表示する際に、前記カメラ部で撮影したユーザーの画像を正規化する演算部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
(501)映像コンテンツを画面に表示する表示部と、前記画面の回転角度を検出する回転角度検出部と、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定部と、映像コンテンツが、前記回転角度検出部で検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定部で決定した表示形態に従って画像加工する画像加工部と、
を具備する情報処理装置。
(502)前記表示形態決定部は、任意の回転角度において映像コンテンツが全く見切れないようにする表示形態、各回転角度において、映像コンテンツ中の注目コンテンツが最大となるようにする表示形態、無効領域がないように映像コンテンツを回転する表示形態の3つを含む複数の表示形態の中から決定する、上記(501)に記載の情報処理装置。
(503)前記表示形態決定部は、映像コンテンツが持つ属性情報に基づいて、前記画面の任意の回転角度やその遷移過程における表示形態を決定する、上記(501)に記載の情報処理装置。
(504)前記表示形態決定部は、保護された映像コンテンツについて、任意の回転角度において映像コンテンツが全く見切れないようにする表示形態を決定する、上記(501)に記載の情報処理装置。
(505)映像コンテンツを表示する画面の回転角度を検出する回転角度検出ステップと、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定ステップと、映像コンテンツが、前記回転角度検出ステップで検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定ステップで決定した表示形態に従って画像加工する画像加工ステップと、を有する情報処理方法。
(506)映像コンテンツを画面に表示する表示部、前記画面の回転角度を検出する回転角度検出部、前記画面の任意の回転角度やその遷移過程において映像コンテンツの表示形態を決定する表示形態決定部、映像コンテンツが、前記回転角度検出部で検出された回転角度だけ傾いた前記画面に適合するよう、前記表示形態決定部で決定した表示形態に従って画像加工する画像加工部、としてコンピューターを機能させるようコンピューター可読形式で記述されたコンピューター・プログラム。
G. Technology disclosed in the present specification The technology disclosed in the present specification can be configured as follows.
(101) A display unit, a user detection unit that detects a user existing around the display unit, and a process of an operated object displayed on the display unit in response to detection of the user by the user detection unit And an information processing apparatus.
(102) In the above (101), the user detection unit includes a proximity sensor disposed on each of the four side edges of the screen of the display unit, and detects a user existing near each side edge. The information processing apparatus described.
(103) The calculation unit sets a user-occupied area for each detected user and a common area shared among the users in the screen of the display unit according to the arrangement of the users detected by the user detection unit. The information processing apparatus according to (101).
(104) The information processing apparatus according to (103), wherein the calculation unit displays one or more operated objects to be operated by a user on the screen of the display unit.
(105) The information processing apparatus according to (104), wherein the calculation unit optimizes an operated object in a user occupation area.
(106) The information processing apparatus according to (104), wherein the calculation unit performs a rotation process so that the operated object in the user occupation area is in a direction facing the corresponding user.
(107) The calculation unit according to (104), wherein the calculation unit performs a rotation process so that the operated object that has moved from the common area or another user-occupied area to the user-occupied area is in a direction facing the corresponding user. Information processing device.
(108) When the user drags the operated object to move between the areas, the calculation unit rotates the operated object according to the position operated by the user with respect to the gravity center position of the operated object. The information processing apparatus according to (107), wherein the information processing apparatus controls a rotation direction of the information processing apparatus.
(109) The calculation unit displays a detection indicator indicating that a user is newly detected when setting the user-occupied area of the user newly detected by the user detection unit in the screen of the display unit. The information processing apparatus according to (103) above.
(110) The information processing apparatus according to (104), further including a data transmission / reception unit that transmits / receives data to / from a terminal owned by the user.
(111) The data transmission / reception unit performs data transmission / reception processing with a terminal possessed by a user detected by the user detection unit, and the arithmetic unit obtains an object to be operated corresponding to data received from the terminal possessed by the user, The information processing apparatus according to (110), which is caused to appear in a corresponding user occupation area.
(112) The operation unit according to (104), wherein the operation unit duplicates or divides the operated object in a user-occupied area of the movement destination in response to moving the operated object between user-occupied areas of each user. Information processing device.
(113) The information processing apparatus according to (112), wherein the calculation unit displays a copy of the operated object created as separate data in the user-occupied area of the movement destination.
(114) The information processing apparatus according to (112), wherein the calculation unit displays a copy of an operated object serving as another window of an application that can be jointly operated between users in a user-occupied area of a movement destination. .
(115) An information processing method comprising: a user detection step for detecting a user existing in the vicinity; and a calculation step for processing an object to be displayed to be displayed in response to detection of the user in the user detection step.
(116) A display unit, a user detection unit for detecting a user existing around the display unit, and an operation for processing an object to be displayed on the display unit in response to detection of the user by the user detection unit A computer program written in a computer-readable format to make a computer function as a part.
(201) A display unit, a user position detection unit that detects a user position with respect to the display unit, a user state detection unit that detects a user state with respect to a display screen of the display unit, and the user position detection unit An information processing apparatus comprising: a user's position; and an arithmetic unit that controls a GUI displayed on the display unit according to a user state detected by the user state detection unit.
(202) The calculation unit controls the framework or information density of one or more operated objects to be operated by the user displayed on the screen of the display unit according to the position of the user and the state of the user. The information processing apparatus according to (201) above.
(203) The information processing unit according to (201), wherein the calculation unit controls a framework of the operated object displayed on the screen according to whether or not the user is viewing the screen of the display unit. apparatus.
(204) The information processing apparatus according to (201), wherein the calculation unit controls the information density of the operated object displayed on the screen of the display unit according to a user's position.
(205) The information processing apparatus according to (201), wherein the calculation unit controls selection of an operated object to be displayed on the screen of the display unit according to whether or not the user is in a position where personal authentication is possible.
(206) The apparatus further includes one or more input means for a user to operate the operated object displayed on the screen of the display unit, and the calculation unit is such that the user operates the operated object with the input means. The information processing apparatus according to (201), wherein the information processing apparatus controls a framework of an operated object to be displayed on a screen according to whether or not the state is present.
(207) a display unit, one or more input means for a user to operate an object to be operated displayed on the screen of the display unit, a user position detection unit for detecting the position of the user with respect to the display unit, A user status detection unit that detects a user status with respect to the display screen of the display unit, the user position detected by the user position detection unit, and the user status detected by the user status detection unit An information processing apparatus comprising: an arithmetic unit to be optimized.
(208) The information processing apparatus according to (207), wherein the calculation unit controls optimization of the input unit according to whether or not a user is viewing the screen of the display unit.
(209) In the state (207), the calculation unit optimizes the input unit according to the position of the user detected by the user position detection unit while the user is viewing the screen of the display unit. Information processing device.
(210) a display unit, a user position detection unit that detects a position of the user with respect to the display unit, a plurality of distance detection methods that detect a distance from the screen of the display unit to the user, and the user position detection unit detects And an arithmetic unit that controls switching of the distance detection method according to the position of the user.
(211) The information processing apparatus according to (210), wherein the calculation unit always turns on a distance detection method for detecting a distance to a user who is far away.
(212) The calculation unit described above in (210), wherein the calculation unit turns on the function of the distance detection method that detects the distance of a nearby user and also serves as a recognition process only in a distance range in which sufficient recognition accuracy can be obtained. Information processing device.
(213) A user position detection step for detecting a user position relative to the display screen, a user state detection step for detecting a user state relative to the display screen, a user position detected in the user position detection step, and the user state detection An information processing method comprising: a calculation step of controlling a GUI displayed on the display screen in accordance with a user state detected in the step.
(214) A user position detecting step for detecting a user position with respect to the display screen, a user state detecting step for detecting a user state with respect to the display screen, a user position detected in the user position detecting step, and the user state An information processing method comprising: an arithmetic step for optimizing one or more input means for a user to operate an operated object displayed on the display screen according to a user state detected in the detection step.
(215) a user position detecting step for detecting the position of the user with respect to the display screen, and a plurality of distance detection methods for detecting the distance from the display screen to the user according to the position of the user detected in the user position detecting step. An information processing method comprising: an arithmetic step for controlling switching.
(216) A display unit, a user position detection unit that detects a user position with respect to the display unit, a user state detection unit that detects a user state with respect to the display screen of the display unit, and a user position detected by the user position detection unit And a computer program written in a computer-readable format so as to cause the computer to function as a calculation unit that controls the GUI displayed on the display unit according to the user status detected by the user status detection unit.
(217) a display unit, one or more input means for a user to operate an operated object displayed on the screen of the display unit, a user position detection unit for detecting a position of the user with respect to the display unit, and the display unit A user state detection unit for detecting a user state with respect to a display screen, a calculation for optimizing the input unit according to a user position detected by the user position detection unit and a user state detected by the user state detection unit A computer program written in a computer-readable format to make a computer function as a part.
(218) a display unit, a user position detection unit that detects the position of the user with respect to the display unit, a plurality of distance detection methods for detecting a distance from the screen of the display unit to the user, and the user position detected by the user position detection unit A computer program written in a computer-readable format so that the computer functions as an arithmetic unit that controls the switching of the distance detection method according to the position.
(301) A display unit, an object image acquisition unit that acquires an image of an object to be displayed on the screen of the display unit, and a real size acquisition unit that acquires information on the real size of the object displayed on the screen of the display unit An information processing apparatus comprising: an arithmetic unit that processes an image of the object based on the real size of the object acquired by the real size acquisition unit.
(302) A display performance acquisition unit that acquires information on display performance including the screen size and resolution of the display unit, and the calculation unit includes the real size of the object acquired by the real size acquisition unit, and the display The information processing apparatus according to (301), wherein processing is performed so that an image of the object is displayed in a real size on the screen of the display unit based on display performance acquired by the performance acquisition unit.
(303) When simultaneously displaying the images of the plurality of objects acquired by the object image acquisition unit on the screen of the display unit, the arithmetic unit correctly displays the magnitude relation between the images of the plurality of objects. The information processing apparatus according to (301), wherein the images of the plurality of objects are processed.
(304) The information processing apparatus according to (301), further including a camera unit and a real size estimation unit that estimates a real size of an object included in an image captured by the camera unit.
(305) a camera unit, an image recognition unit that recognizes a user's face included in an image captured by the camera unit and acquires face data, a distance detection unit that detects a distance to the user, and the user's The information processing apparatus according to (301), further comprising: a real size estimation unit configured to estimate a real size of the user's face based on face data and a distance to the user.
(306) An object image acquisition step of acquiring an image of an object displayed on the screen, a real size acquisition step of acquiring information on the real size of the object displayed on the screen, and the object acquired in the real size acquisition step An information processing method comprising: an arithmetic step of processing an image of the object based on a real size of the object.
(307) a display unit, an object image acquisition unit that acquires an image of an object to be displayed on the screen of the display unit, a real size acquisition unit that acquires information on a real size of the object displayed on the screen of the display unit, and the real A computer program written in a computer-readable format for causing a computer to function as an arithmetic unit that processes an image of the object based on the real size of the object acquired by a size acquisition unit.
(401) An information processing apparatus comprising: a camera unit; a display unit; and an arithmetic unit that normalizes a user's image captured by the camera unit when displayed on the screen of the display unit.
(402) An object image acquisition unit for acquiring an image of an object to be displayed on the screen of the display unit, and a parallel / superimposition pattern for paralleling or superimposing the user image and the object image on the screen of the display unit A parallel / superimposed pattern acquisition unit that performs normalization so that a magnitude relationship and position between the user image and the object are correct, and the user image and the object after normalization The information processing apparatus according to (401), wherein the information is paralleled or superimposed according to the acquired parallel / superimposition pattern.
(403) The information processing apparatus according to (402), wherein the calculation unit controls the camera unit to normalize the user's image captured by the camera unit.
(404) A user face data acquisition unit that acquires user face data captured by the camera unit, and an in-object face data acquisition unit that acquires face data in an object displayed on the screen of the display unit, The information processing apparatus according to (401), wherein the calculation unit normalizes the size relationship and the position of the face data of the user and the face data in the object to be correct.
(405) The information processing apparatus according to (404), wherein the calculation unit controls the camera unit to normalize the user's image captured by the camera unit.
(406) An object image acquisition step for acquiring an image of an object to be displayed on the screen, and a parallel / superimposition pattern for parallelly or superimposing a user image captured by the camera unit and the object image on the screen of the display unit A parallel / superimposition pattern acquisition step, a normalization step for normalizing the user image and the object so that the magnitude relationship and position are correct, and a parallel operation for acquiring the user image and the object after normalization And an image processing step of parallel or superimposing according to the superposition pattern.
(407) A user face data acquisition step for acquiring user face data captured by the camera unit, an in-object face data acquisition step for acquiring face data in an object displayed on the screen, the user face data, and the object And a normalizing step of normalizing the face data so that the size relationship and the position of the face data are correct.
(408) A computer described in a computer-readable format so that the computer functions as a camera unit, a display unit, and an arithmetic unit that normalizes a user image captured by the camera unit when displayed on the screen of the display unit. ·program.
(501) A display unit that displays video content on a screen, a rotation angle detection unit that detects a rotation angle of the screen, and a display mode that determines a display mode of video content in an arbitrary rotation angle of the screen or a transition process thereof. An image processing unit that processes an image according to the display mode determined by the display mode determination unit so that the video content is adapted to the screen tilted by the rotation angle detected by the rotation angle detection unit;
An information processing apparatus comprising:
(502) The display form determination unit includes a display form that prevents the video content from being completely seen at an arbitrary rotation angle, a display form that maximizes the content of interest in the video content at each rotation angle, and an invalid area. The information processing apparatus according to (501), wherein the information processing apparatus determines a plurality of display forms including three display forms for rotating the video content so that there is no video content.
(503) The information processing apparatus according to (501), wherein the display form determination unit determines an arbitrary rotation angle of the screen and a display form in the transition process based on attribute information of video content.
(504) The information processing apparatus according to (501), wherein the display form determination unit determines a display form that prevents the video content from being completely viewed at an arbitrary rotation angle with respect to the protected video content.
(505) A rotation angle detection step for detecting a rotation angle of a screen for displaying video content, a display mode determination step for determining a video content display mode in an arbitrary rotation angle of the screen or a transition process thereof, and the video content An image processing step of processing an image in accordance with the display form determined in the display form determining step so as to be adapted to the screen tilted by the rotation angle detected in the rotation angle detecting step.
(506) A display unit that displays video content on a screen, a rotation angle detection unit that detects a rotation angle of the screen, and a display mode determination unit that determines a display mode of video content in an arbitrary rotation angle of the screen and its transition process The computer is caused to function as an image processing unit that performs image processing according to the display mode determined by the display mode determination unit so that the video content is adapted to the screen inclined by the rotation angle detected by the rotation angle detection unit. A computer program written in a computer-readable format.

以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。   As described above, the technology disclosed in this specification has been described in detail with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the scope of the technology disclosed in this specification.

本明細書では、本命採取で開示する技術を適用した情報処理装置100として、大画面を有するTV受像機を想定した実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。パーソナル・コンピューターやタブレット端末など、TV受像機以外の情報処理装置や、画面サイズが大きくない情報処理装置に対しても、同様に本明細書で開示する技術を適用することができる。   In the present specification, the information processing apparatus 100 to which the technology disclosed in the favorite collection is applied has been described focusing on an embodiment assuming a TV receiver having a large screen. However, the gist of the technology disclosed in the present specification is as follows. It is not limited to this. The technology disclosed in the present specification can be similarly applied to an information processing apparatus other than a TV receiver such as a personal computer or a tablet terminal, or an information processing apparatus having a small screen size.

要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。   In short, the technology disclosed in the present specification has been described in the form of exemplification, and the description content of the present specification should not be interpreted in a limited manner. In order to determine the gist of the technology disclosed in this specification, the claims should be taken into consideration.

100…情報処理装置
110…入力インターフェース部
120…演算部
130…出力インターフェース部
140…記憶部
150…通信部
160…電源部
170…テレビ・チューナー部
180…回転・取り付け機構部
501…リモコン受信部、502…信号解析部
503…カメラ部、504…画像認識部
505…マイク部、506…音声認識部
507…距離センサー、508…信号解析部
509…タッチ検出部、510…信号解析部
511…近接センサー、512…信号解析部
513…超近距離通信部、514…信号解析部
515…3軸センサー部、516…GPS受信部、517…信号解析部
520…入力インターフェース統合部
601…コンテンツ表示部、602…GUI表示部
603…表示部、604…スピーカー部
605…イルミネーション表示部、606…イルミネーション部
710…モニター領域分割部
711…機器データベース、712…領域パターン・データベース
720…オブジェクト最適処理部、721…最適処理アルゴリズム
730…機器連携データ送受信部、731…送受信処理アルゴリズム
2310…表示GUI最適化部、2320…入力手段最適化部
2330…距離検出方式切替部
3210…リアルサイズ表示部、3220…リアルサイズ推定部
3230…リアルサイズ拡張部
4110…画像間正規化処理部、4120…顔正規化処理部
4130…リアルサイズ拡張部
4710…表示形態決定部、4720…回転位置入力部
4730…画像加工部
DESCRIPTION OF SYMBOLS 100 ... Information processing apparatus 110 ... Input interface part 120 ... Operation part 130 ... Output interface part 140 ... Memory | storage part 150 ... Communication part 160 ... Power supply part 170 ... Television tuner part 180 ... Rotation and attachment mechanism part 501 ... Remote control receiving part, 502 ... Signal analysis unit 503 ... Camera unit, 504 ... Image recognition unit 505 ... Microphone unit, 506 ... Voice recognition unit 507 ... Distance sensor, 508 ... Signal analysis unit 509 ... Touch detection unit, 510 ... Signal analysis unit 511 ... Proximity sensor DESCRIPTION OF SYMBOLS 512 ... Signal analysis part 513 ... Super near field communication part 514 ... Signal analysis part 515 ... 3-axis sensor part 516 ... GPS receiving part 517 ... Signal analysis part 520 ... Input interface integration part 601 ... Content display part, 602 ... GUI display part 603 ... Display part, 604 ... Speaker part 60 ... Illumination display section, 606 ... Illumination section 710 ... Monitor area division section 711 ... Equipment database, 712 ... Area pattern database 720 ... Object optimization processing section, 721 ... Optimal processing algorithm 730 ... Equipment cooperation data transmission / reception section, 731 ... Transmission / reception processing Algorithm 2310: Display GUI optimization unit, 2320 ... Input means optimization unit 2330 ... Distance detection method switching unit 3210 ... Real size display unit, 3220 ... Real size estimation unit 3230 ... Real size expansion unit 4110 ... Inter-image normalization processing unit 4120 ... Face normalization processing unit 4130 ... Real size expansion unit 4710 ... Display form determination unit, 4720 ... Rotation position input unit 4730 ... Image processing unit

Claims (12)

画面内に占有領域が設定された表示部と、
前記画面がタッチされたことを検出するタッチ検出部と、
前記タッチ検出部の検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算部と、
を具備し、
前記演算部は、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
情報処理装置。
A display with an occupied area set in the screen;
A touch detection unit for detecting that the screen is touched;
A calculation unit that processes the operated object to be displayed in the occupied area according to the detection result of the touch detection unit;
Comprising
The calculation unit performs a rotation process so that the operated object in the occupied area is in a direction facing a specific position on the screen.
Information processing device.
前記画面には、被操作オブジェクトを回転処理しない共通領域がさらに設定されている、
請求項1に記載の情報処理装置。
In the screen, a common area that does not rotate the operated object is further set.
The information processing apparatus according to claim 1.
前記演算部は、前記占有領域外から前記占有領域内に移動してきた被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
請求項1に記載の情報処理装置。
The calculation unit performs a rotation process so that the operated object that has moved from outside the occupied area into the occupied area is in a direction facing a specific position on the screen.
The information processing apparatus according to claim 1.
前記演算部は、ユーザーが被操作オブジェクトをドラッグして領域間を移動させる際に、被操作オブジェクトの重心位置に対してユーザーが操作した位置に応じて、被操作オブジェクトを回転処理する際の回転方向を制御する、
請求項3に記載の情報処理装置。
When the user drags the operated object to move between the regions, the calculation unit rotates when the operated object is rotated according to the position operated by the user with respect to the gravity center position of the operated object. Control the direction,
The information processing apparatus according to claim 3.
前記演算部は、前記占有領域内にユーザーの存在を表すインジケーターを表示させる、
請求項1に記載の情報処理装置。
The calculation unit displays an indicator indicating the presence of a user in the occupied area.
The information processing apparatus according to claim 1.
ユーザーが所持する端末とデータを送受信するデータ送受信部をさらに備える、
請求項1に記載の情報処理装置。
A data transmission / reception unit for transmitting / receiving data to / from a terminal owned by the user;
The information processing apparatus according to claim 1.
前記データ送受信部は、ユーザーが所持する端末とデータ送受信処理を行ない、
前記演算部は、前記端末から受信したデータに対応する被操作オブジェクトを、該当するユーザーの占有領域に出現させる、
請求項6に記載の情報処理装置。
The data transmission / reception unit performs data transmission / reception processing with a terminal possessed by a user,
The calculation unit causes the operated object corresponding to the data received from the terminal to appear in the area occupied by the corresponding user.
The information processing apparatus according to claim 6.
前記画面内に複数の占有領域が設定され、
前記演算部は、占有領域間で被操作オブジェクトを移動させたことに応じて、移動先の占有領域に被操作オブジェクトを複製又は分割する、
請求項1に記載の情報処理装置。
A plurality of occupied areas are set in the screen,
The calculation unit replicates or divides the operated object in the occupied area of the movement destination according to the movement of the operated object between the occupied areas.
The information processing apparatus according to claim 1.
前記演算部は、移動先の占有領域に、別データとして作成した被操作オブジェクトの複製を表示させる、
請求項8に記載の情報処理装置。
The calculation unit displays a copy of the operated object created as separate data in the occupied area of the movement destination.
The information processing apparatus according to claim 8.
前記演算部は、移動先の占有領域に、ユーザー間で共同操作が可能なアプリケーションの別のウィンドウとなる被操作オブジェクトの複製を表示させる、
請求項8に記載の情報処理装置。
The operation unit displays a copy of the operated object that is another window of the application that can be jointly operated between users in the occupied area of the movement destination.
The information processing apparatus according to claim 8.
占有領域が設定された画面がタッチされたことを検出するタッチ検出ステップと、
前記タッチ検出ステップにおける検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算ステップと、
を有し、
前記演算ステップでは、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
情報処理方法。
A touch detection step for detecting that the screen with the occupied area is touched;
A calculation step for processing the operated object to be displayed in the occupied area according to the detection result in the touch detection step;
Have
In the calculation step, rotation processing is performed so that the operated object in the occupied area is in a direction facing a specific position on the screen.
Information processing method.
画面内に占有領域が設定された表示部、
前記画面がタッチされたことを検出するタッチ検出部、
前記タッチ検出部の検出結果に応じて前記占有領域内に表示する被操作オブジェクトの処理を行なう演算部、
としてコンピューターを機能させ、
前記演算部は、前記占有領域内の被操作オブジェクトが前記画面の特定の位置に正対する方向となるように回転処理する、
コンピューター可読形式で記述されたコンピューター・プログラム。
A display unit with an occupied area set in the screen,
A touch detection unit for detecting that the screen is touched;
A calculation unit that performs processing of an operated object to be displayed in the occupied area according to a detection result of the touch detection unit;
As a computer
The calculation unit performs a rotation process so that the operated object in the occupied area is in a direction facing a specific position on the screen.
A computer program written in a computer-readable format.
JP2013213850A 2013-10-11 2013-10-11 Information processing apparatus, information processing method, and computer program Expired - Fee Related JP6200270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013213850A JP6200270B2 (en) 2013-10-11 2013-10-11 Information processing apparatus, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013213850A JP6200270B2 (en) 2013-10-11 2013-10-11 Information processing apparatus, information processing method, and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012005258A Division JP6196017B2 (en) 2012-01-13 2012-01-13 Information processing apparatus, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2014044735A true JP2014044735A (en) 2014-03-13
JP6200270B2 JP6200270B2 (en) 2017-09-20

Family

ID=50395907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013213850A Expired - Fee Related JP6200270B2 (en) 2013-10-11 2013-10-11 Information processing apparatus, information processing method, and computer program

Country Status (1)

Country Link
JP (1) JP6200270B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071866A (en) * 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method, and program
JP2016122379A (en) * 2014-12-25 2016-07-07 三菱電機株式会社 Display control device, display control method and display control program
JP6101393B1 (en) * 2016-08-28 2017-03-22 功 藤野 Information processing apparatus, control method, and program
JP2017092518A (en) * 2015-11-02 2017-05-25 コニカミノルタ株式会社 Compound machine
JP2020109607A (en) * 2018-12-28 2020-07-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Method, system and computer program for deactivating display of smart display device based on vision-based mechanism
WO2020152849A1 (en) * 2019-01-25 2020-07-30 三菱電機株式会社 Touch panel control device and touch panel control method
US10732808B2 (en) 2014-06-24 2020-08-04 Sony Corporation Information processing device, information processing method, and program
WO2021131862A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, method, and program
US11076125B2 (en) 2018-03-28 2021-07-27 Sony Corporation Information processing apparatus and information processing method
CN113362782A (en) * 2020-03-03 2021-09-07 瑞昱半导体股份有限公司 Display device and image display method
US11520453B2 (en) 2020-02-17 2022-12-06 Fujitsu Limited Information processing apparatus, program, and system for a display capable of determining continuous operation and range determination of multiple operators operating multiple objects

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220028951A (en) 2020-08-31 2022-03-08 삼성전자주식회사 Electronic apparatus and controlling method thereof

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100809A (en) * 1991-10-07 1993-04-23 Fujitsu Ltd Display method for object by touch panel
JP2000047788A (en) * 1998-07-28 2000-02-18 Canon Inc Display controller, display control method, and storage medium
JP2000222133A (en) * 1999-01-28 2000-08-11 Canon Inc Electronic information display device, display control method therefor and storage medium
JP2005227487A (en) * 2004-02-12 2005-08-25 Hitachi Ltd Display/operation method of table type information terminal
JP2005346354A (en) * 2004-06-02 2005-12-15 Fuji Photo Film Co Ltd Image display control table, and method and program for allocating display area
JP2005346353A (en) * 2004-06-02 2005-12-15 Fuji Photo Film Co Ltd Image display control table, image top and bottom control method and image top and bottom control program
JP2006048139A (en) * 2004-07-30 2006-02-16 Fuji Photo Film Co Ltd Image display controller and image display control program
JP2008269044A (en) * 2007-04-17 2008-11-06 Sharp Corp Display control device and display control program
JP2008293419A (en) * 2007-05-28 2008-12-04 Sharp Corp Information display device and information display method
WO2010140849A2 (en) * 2009-06-05 2010-12-09 삼성전자 주식회사 Method for providing uis by user and device applied therewith

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05100809A (en) * 1991-10-07 1993-04-23 Fujitsu Ltd Display method for object by touch panel
JP2000047788A (en) * 1998-07-28 2000-02-18 Canon Inc Display controller, display control method, and storage medium
JP2000222133A (en) * 1999-01-28 2000-08-11 Canon Inc Electronic information display device, display control method therefor and storage medium
JP2005227487A (en) * 2004-02-12 2005-08-25 Hitachi Ltd Display/operation method of table type information terminal
JP2005346354A (en) * 2004-06-02 2005-12-15 Fuji Photo Film Co Ltd Image display control table, and method and program for allocating display area
JP2005346353A (en) * 2004-06-02 2005-12-15 Fuji Photo Film Co Ltd Image display control table, image top and bottom control method and image top and bottom control program
JP2006048139A (en) * 2004-07-30 2006-02-16 Fuji Photo Film Co Ltd Image display controller and image display control program
JP2008269044A (en) * 2007-04-17 2008-11-06 Sharp Corp Display control device and display control program
JP2008293419A (en) * 2007-05-28 2008-12-04 Sharp Corp Information display device and information display method
WO2010140849A2 (en) * 2009-06-05 2010-12-09 삼성전자 주식회사 Method for providing uis by user and device applied therewith

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10732808B2 (en) 2014-06-24 2020-08-04 Sony Corporation Information processing device, information processing method, and program
EP3907590A2 (en) 2014-06-24 2021-11-10 Sony Group Corporation Information processing device, information processing method, and computer program
JP2016071866A (en) * 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method, and program
JP2016122379A (en) * 2014-12-25 2016-07-07 三菱電機株式会社 Display control device, display control method and display control program
JP2017092518A (en) * 2015-11-02 2017-05-25 コニカミノルタ株式会社 Compound machine
JP2018032360A (en) * 2016-08-28 2018-03-01 功 藤野 Information processing unit, control method, and program
WO2018043123A1 (en) * 2016-08-28 2018-03-08 株式会社ノビアス Information processing device, control method and program
JP6101393B1 (en) * 2016-08-28 2017-03-22 功 藤野 Information processing apparatus, control method, and program
US11076125B2 (en) 2018-03-28 2021-07-27 Sony Corporation Information processing apparatus and information processing method
JP2020109607A (en) * 2018-12-28 2020-07-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC Method, system and computer program for deactivating display of smart display device based on vision-based mechanism
US11029741B2 (en) 2018-12-28 2021-06-08 Baidu Usa Llc Deactivating a display of a smart display device based on a vision-based mechanism
WO2020152849A1 (en) * 2019-01-25 2020-07-30 三菱電機株式会社 Touch panel control device and touch panel control method
WO2021131862A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, method, and program
US11899834B2 (en) 2019-12-27 2024-02-13 Sony Group Corporation Information processing device and method
US11520453B2 (en) 2020-02-17 2022-12-06 Fujitsu Limited Information processing apparatus, program, and system for a display capable of determining continuous operation and range determination of multiple operators operating multiple objects
CN113362782A (en) * 2020-03-03 2021-09-07 瑞昱半导体股份有限公司 Display device and image display method

Also Published As

Publication number Publication date
JP6200270B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
JP6196017B2 (en) Information processing apparatus, information processing method, and computer program
JP6257329B2 (en) Information processing apparatus, information processing method, and computer program
JP5957892B2 (en) Information processing apparatus, information processing method, and computer program
JP5957893B2 (en) Information processing apparatus, information processing method, and computer program
JP6200270B2 (en) Information processing apparatus, information processing method, and computer program
JP2013145463A (en) Information processing apparatus and information processing method, and computer program
US20210337260A1 (en) Display apparatus and remote operation control apparatus
Schmitz et al. Ad-Hoc Multi-Displays for Mobile Interactive Applications.
JP2017108366A (en) Method of controlling video conference, system, and program
JP2015018296A (en) Display controller, program, and recording medium
JP6093074B2 (en) Information processing apparatus, information processing method, and computer program
JP7000289B2 (en) Programs, information processing equipment, and methods
US20230386162A1 (en) Virtual action center based on segmented video feed for a video communication session
US20220321853A1 (en) Electronic apparatus and method of controlling the same, and recording medium
US20230388445A1 (en) Non-mirrored preview of text based demonstration object in mirrored mobile webcam image
US20230388451A1 (en) Segmented video preview controls by remote participants in a video communication session
US20230409271A1 (en) Function based selective segmented video feed from a transmitting device to different participants on a video communication session

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160530

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160624

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees