JP7386583B1 - Program, information processing device and method - Google Patents

Program, information processing device and method Download PDF

Info

Publication number
JP7386583B1
JP7386583B1 JP2023047607A JP2023047607A JP7386583B1 JP 7386583 B1 JP7386583 B1 JP 7386583B1 JP 2023047607 A JP2023047607 A JP 2023047607A JP 2023047607 A JP2023047607 A JP 2023047607A JP 7386583 B1 JP7386583 B1 JP 7386583B1
Authority
JP
Japan
Prior art keywords
person
icons
screen
motion
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023047607A
Other languages
Japanese (ja)
Inventor
剛 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirrorx
Original Assignee
Mirrorx
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirrorx filed Critical Mirrorx
Priority to JP2023047607A priority Critical patent/JP7386583B1/en
Application granted granted Critical
Publication of JP7386583B1 publication Critical patent/JP7386583B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】仮想空間上で各種サービスの提供を受けるための操作を容易にするプログラム、情報処理装置及び方法を提供する。【解決手段】アバターサービス提供システムにおいて、端末装置10による方法は、人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から、人物の動作を検出し、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるポインタ制御処理と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させS311、検出した人物の、第2の動作に応じて、複数のアイコンを画面上で移動させS312、人物の手の動作に応じて、手の動作に合わせてポインタを動かしS313、複数のアイコンのうちの1のアイコンとの位置に応じて、アイコンに関連付けられた機能を実行させるS314アイコン制御処理と、を行う。【選択図】図7The present invention provides a program, an information processing device, and a method that facilitate operations for receiving various services in a virtual space. [Solution] In the avatar service providing system, a method using a terminal device 10 is to acquire a photographed image of a person with a camera, analyze the acquired photographed image, identify skeletal information of the person based on the analysis result, and identify the person. A pointer control process that detects a person's motion from the skeletal information obtained and displays a pointer on the screen that corresponds to the person's hand and indicates the position on the screen, and according to the first motion of the detected person, A plurality of predetermined icons are displayed on the screen S311, a plurality of icons are moved on the screen according to the second motion of the detected person, S312, and the hand motion is changed according to the hand motion of the person. At the same time, the pointer is moved to perform S313, and icon control processing is performed in S314 to execute a function associated with the icon according to the position with respect to one of the plurality of icons. [Selection diagram] Figure 7

Description

特許法第30条第2項適用 ウェブサイトによる発表(1)2022年12月14日_https://www.xrkaigi.com/pages/future_pitch(2)2022年12月16日_https://mirox.jimdosite.com/%E3%81%8A%E7%9F%A5%E3%82%89%E3%81%9B/(3)2023年1月5日_htpps://apps.apple.com/jp/app/mirrox/idl621968722(4)2023年1月5日_https://prtmes.jp/main/html/rd/p/000000001.000114425.html(5)2023年1月4日_https://youtu.be/2oTwXA_ksZIApplication of Article 30, Paragraph 2 of the Patent Act Announcement via website (1) December 14, 2022_https://www. xrkaigi. com/pages/future_pitch (2) December 16, 2022_https://mirox. jimdosite. com/%E3%81%8A%E7%9F%A5%E3%82%89%E3%81%9B/(3) January 5, 2023_httpps://apps. apple. com/jp/app/mirrox/idl621968722 (4) January 5, 2023_https://prtmes. jp/main/html/rd/p/000000001.000114425. html(5) January 4, 2023_https://youtu. be/2oTwXA_ksZI

本開示は、プログラム、情報処理装置及び方法に関する。 The present disclosure relates to a program, an information processing device, and a method.

昨今、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供することが行われている。このようなサービスは、実際の人物の外観を表示させずに各種サービスを提供するため、当該人物の外観を不特定のユーザに晒すことなく各種サービスの提供を受けることが可能であるため、一定のユーザにより利用されている。 Recently, it has become possible to take a picture of a person using a camera equipped with a mobile terminal such as a smartphone, display an avatar, which is a character associated with the photographed person, in a virtual space, and provide various services in the virtual space. It is being said. Such services provide various services without displaying the appearance of the actual person, so it is possible to receive various services without exposing the appearance of the person to unspecified users, so it is possible to receive various services without displaying the appearance of the person. of users.

特許文献1には、ユーザーアカウントに関連したアバター情報および骨格情報に基づいて人物オブジェクトがアバターに代替された合成画像を生成する技術が開示されている。 Patent Document 1 discloses a technique for generating a composite image in which a human object is replaced with an avatar based on avatar information and skeleton information related to a user account.

特開2021-157800号公報Japanese Patent Application Publication No. 2021-157800

ところで、仮想空間において、携帯端末で撮影された人物のアバターをリアルタイムで表示し、仮想空間上で各種サービスの提供を受ける場合、他の者により携帯端末を操作して当該各種サービスの提供を開始する、終了する等の操作をするか、当該人物が自身で携帯端末またはコントローラ等を操作する必要があった。そのため、このようなサービスの提供を受けるために煩わしい操作が必要となり、没入感やアバターとの一体感を喪失させていた。 By the way, when an avatar of a person photographed with a mobile terminal is displayed in real time in a virtual space and various services are provided in the virtual space, another person may operate the mobile terminal to start providing the various services. Either the person in question had to perform operations such as starting or ending the process, or the person concerned had to operate the mobile terminal or controller themselves. Therefore, in order to receive such services, cumbersome operations are required, causing a loss of immersion and sense of unity with the avatar.

そこで、本開示では、仮想空間上で各種サービスの提供を受けるための操作を容易にする技術について説明する。 Therefore, in the present disclosure, a technology that facilitates operations for receiving various services in a virtual space will be described.

本開示の一実施の形態によると、プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムが提供される。プログラムは、プロセッサに、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から、人物の動作を検出するステップと、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップと、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコン(例えば、アイコンボタン)を表示させるステップと、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップと、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップと、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップと、を実行させる。 According to an embodiment of the present disclosure, a program is provided that is executed by a computer including a processor and a memory to generate an image to be displayed on a screen. The program causes the processor to acquire an image of a moving person taken with a camera, analyze the acquired image, identify the person's skeletal information based on the analysis result, and use the identified skeletal information. , a step of detecting a motion of the person; a step of displaying a pointer on the screen corresponding to the hand of the person indicating the position on the screen; displaying a predetermined icon (e.g., an icon button), and displaying a plurality of icons displayed on the screen in response to a second action of the detected person that is different from the first action. a step of moving the pointer; a step of controlling the pointer to move in accordance with the person's hand motion in accordance with the person's hand motion extracted from the detected person's motion; and a step of detecting the pointer motion and controlling the pointer to A step of executing a function associated with one icon in accordance with a position with one of the plurality of icons.

本開示によれば、撮影した人物の動作に応じて複数の所定のアイコンを表示させ、画面上で移動させる。人物の手の動作に合わせてポインタを動かすように制御し、ポインタと1のアイコンとの位置に応じて当該アイコンに関連付けられた機能を実行させる。これにより、仮想空間上で各種サービスの提供を受けるための操作を容易にし、没入感やアバターとの一体感を喪失することなく各種サービスの提供を受けることが可能になる。 According to the present disclosure, a plurality of predetermined icons are displayed and moved on the screen according to the motion of the photographed person. The pointer is controlled to be moved in accordance with the movement of the person's hand, and the function associated with the first icon is executed according to the position of the pointer and the first icon. This facilitates operations for receiving various services in the virtual space, and it becomes possible to receive various services without losing the sense of immersion or oneness with the avatar.

本開示に係るアバターサービス提供システムの概略を示す構成図である。1 is a configuration diagram schematically showing an avatar service providing system according to the present disclosure. 実施の形態のアバターサービス提供システム1の全体の構成を示す構成図である。FIG. 1 is a configuration diagram showing the overall configuration of an avatar service providing system 1 according to an embodiment. 本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of a terminal device 10 that constitutes an avatar service providing system 1 according to the present embodiment. 本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a server 20 that constitutes the avatar service providing system 1 according to the present embodiment. 本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。It is a flowchart showing an example of the flow of user authentication processing performed by the avatar service providing system 1 of the present embodiment. 本実施の形態のアバターサービス提供システム1によるポインタ制御処理を行う流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of pointer control processing by avatar service provision system 1 of this embodiment. 本実施の形態のアバターサービス提供システム1によるアイコン制御処理を行う流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of icon control processing by avatar service provision system 1 of this embodiment. 表示画面30にポインタ31L,31Rが表示された画面例を示す図である。3 is a diagram showing an example of a screen in which pointers 31L and 31R are displayed on a display screen 30. FIG. 表示画面30にアイコン32A,32B,32Cが表示された画面例を示す図である。3 is a diagram showing an example of a screen in which icons 32A, 32B, and 32C are displayed on a display screen 30. FIG. 仮想空間VRにおける人物Hとアイコン32A~32Fとの仮想的な位置関係を示す図である。3 is a diagram showing a virtual positional relationship between a person H and icons 32A to 32F in virtual space VR. FIG. 表示画面30に表示されたアイコン32Bが選択された画面例を示す図である。FIG. 4 is a diagram showing an example of a screen in which an icon 32B displayed on the display screen 30 is selected.

以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。 Embodiments of the present disclosure will be described below with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<概要>
以下、本開示に係るアバターサービス提供システムについて説明する。このアバターサービス提供システムは、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供するするためのシステムである。仮想空間上で提供される各種サービスとは、例えば、アバターをユーザの動きにより操作して行うゲームのようなエンターテインメント、複数のアバターをそれぞれのユーザの動きにより表示させて行うオンラインフィットネスサービス、複数のアバターによるコミュニケーションサービス等が挙げられる。本開示に係るアバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばWebサービスとして提供するシステムであり、クラウドサーバ等によりWebサービスとして、いわゆるSaaS(Software as a Service)によって提供されるシステムである。また、アバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばスマートフォン等の携帯端末によって(Webサーバを介してもよく、介さなくてもよい)提供されるシステムである。
<Summary>
The avatar service providing system according to the present disclosure will be described below. This avatar service provision system takes a picture of a person using a camera equipped with a mobile terminal such as a smartphone, displays an avatar, which is a character associated with the photographed person, in a virtual space, and provides various services in the virtual space. It is a system for providing. Various services provided in virtual space include, for example, entertainment such as games in which avatars are manipulated by the user's movements, online fitness services in which multiple avatars are displayed according to the movements of each user, and multiple services. Examples include communication services using avatars. The avatar service providing system according to the present disclosure is a system that provides various services performed through an avatar that is a projection of such a user, for example, as a web service, and provides so-called SaaS (Software as a Service) as a web service using a cloud server or the like. This is a system provided by In addition, the avatar service providing system is a system in which various services provided through an avatar that is a projection of such a user are provided by a mobile terminal such as a smartphone (which may or may not be via a web server). It is.

図1は、本開示に係るアバターサービス提供システムの概略を示す構成図である。図1に示すように、アバターサービス提供システムは、スマートフォン等の端末装置10と、表示画面30とを含む。端末装置10は、スマートフォン、タブレット等の携帯端末である。表示画面30は、ディスプレイ、テレビジョン、プロジェクタ等の画像表示装置であり、一定の離れた位置で見ることが可能な大きさに構成されている。端末装置10のディスプレイ132には仮想空間が表示されており、端末装置10で人物Hを撮影すると、端末装置10のディスプレイ132に表示されている仮想空間上に、人物Hに関連付けられたキャラクタであるアバターAが表示される。また、表示画面30にも、仮想空間とアバターAが表示される。アバターAは、人物Hの身体の動きに対応して動くように構成されており、アバターAの動きにより各種サービスが提供される。さらに、アバターAの情報はWebサーバ等により共有されてもよく、共有されている複数のアバターAが表示画面30に表示されて各種サービスが提供されてもよい。 FIG. 1 is a configuration diagram showing an outline of an avatar service providing system according to the present disclosure. As shown in FIG. 1, the avatar service providing system includes a terminal device 10 such as a smartphone, and a display screen 30. The terminal device 10 is a mobile terminal such as a smartphone or a tablet. The display screen 30 is an image display device such as a display, a television, or a projector, and is configured to have a size that can be viewed from a certain distance. A virtual space is displayed on the display 132 of the terminal device 10, and when a person H is photographed with the terminal device 10, a character associated with the person H is displayed on the virtual space displayed on the display 132 of the terminal device 10. A certain avatar A is displayed. The virtual space and avatar A are also displayed on the display screen 30. Avatar A is configured to move in response to the body movements of person H, and various services are provided based on the movements of avatar A. Furthermore, the information on the avatars A may be shared by a web server or the like, and a plurality of shared avatars A may be displayed on the display screen 30 to provide various services.

ここで、端末装置10で人物Hの身体の動きを撮影しようとすると、人物Hから一定の離隔した距離で撮影する必要がある。その状態で、各種サービスの提供を開始するためには端末装置10を操作する必要があり、人物Hが1人で行っている場合、人物Hが端末装置10の位置まで移動して端末装置10を操作し、各種サービスの提供を開始させ、さらに端末装置10から離隔した位置に戻る必要があり、人物Hにとって煩わしい操作が必要となっていた。 Here, when trying to photograph the body movements of the person H using the terminal device 10, it is necessary to photograph the body at a certain distance from the person H. In this state, it is necessary to operate the terminal device 10 in order to start providing various services, and if the person H is doing it alone, the person H must move to the location of the terminal device 10 and operate the terminal device 10. , to start providing various services, and then to return to a position distant from the terminal device 10, which is a cumbersome operation for the person H.

そのため、本開示に係るアバターサービス提供システムでは、各種サービスの提供開始前の状態で、手の形状を模したポインタを表示させて人物Hの手の動作に合わせてポインタを動かすように制御し、ポインタの動作により各種サービスの提供を開始できるようにしている。例えば、表示画面30に各種サービスの提供を開始させるためのアイコンを表示させ、ポインタの動作によりアイコンを選択し、実行させることが可能になるように構成している。そのため、人物Hは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 Therefore, in the avatar service providing system according to the present disclosure, before the provision of various services is started, a pointer imitating the shape of a hand is displayed and the pointer is controlled to move in accordance with the hand movements of the person H. Various services can be started by operating the pointer. For example, icons for starting the provision of various services are displayed on the display screen 30, and the icon can be selected and executed by moving the pointer. Therefore, the person H does not need to return to the terminal device 10 and operate it, thereby eliminating the need for troublesome operations. This allows the avatar service providing system to smoothly provide various services.

また、本開示に係るアバターサービス提供システムでは、人物Hの所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物Hの所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。具体的には、表示画面30に各種サービスの提供を開始するためのアイコンが複数表示され、人物Hの所定の動作(第2の動作)に応じて複数のアイコン全体をスクロールさせる。それらのアイコンのうちの1のアイコンが人物Hの正面に表示されたときに当該アイコンを選択可能としている。これにより、煩わしい操作を不要にし、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 Further, in the avatar service providing system according to the present disclosure, a plurality of predetermined icons are displayed according to a predetermined action (first action) of person H, and a plurality of predetermined icons are displayed according to a predetermined action (second action) of person H. to move multiple predetermined icons on the screen. One of the plurality of icons is made selectable, and when that icon is selected with the pointer, the function associated with the icon is executed. Specifically, a plurality of icons for starting provision of various services are displayed on the display screen 30, and the plurality of icons are all scrolled in accordance with a predetermined action (second action) of the person H. When one of these icons is displayed in front of the person H, the icon can be selected. This eliminates the need for troublesome operations and allows the avatar service providing system to smoothly provide various services.

<実施の形態>
以下、アバターサービス提供システム1について説明する。以下の説明では、例えば、端末装置10がサーバ20へアクセスすることにより、サーバ20が、端末装置10で画面を生成するための情報を応答する。端末装置10は、サーバ20から受信した情報に基づいて画面を生成し表示する。
<Embodiment>
The avatar service providing system 1 will be explained below. In the following description, for example, when the terminal device 10 accesses the server 20, the server 20 responds with information for generating a screen on the terminal device 10. The terminal device 10 generates and displays a screen based on the information received from the server 20.

<1 アバターサービス提供システム1の全体構成>
図2は、アバターサービス提供システム1の全体の構成を示す構成図である。図2に示すように、アバターサービス提供システム1は、複数の端末装置(図2では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。
<1 Overall configuration of avatar service provision system 1>
FIG. 2 is a configuration diagram showing the overall configuration of the avatar service providing system 1. As shown in FIG. As shown in FIG. 2, the avatar service providing system 1 includes a plurality of terminal devices (in FIG. 2, a terminal device 10A and a terminal device 10B are shown. Hereinafter, they may be collectively referred to as "terminal devices 10"). and a server 20. The terminal device 10 and the server 20 are connected via a network 80 so that they can communicate with each other. The network 80 is configured by a wired or wireless network.

端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPCであるとしてもよい。端末装置10を操作するユーザとは、アバターサービス提供システム1において仮想空間上にアバターを表示させて各種サービスの提供を受ける者であり、例えば、アバターサービス提供システム1に会員登録している者である。 The terminal device 10 is a device operated by each user. The terminal device 10 is realized by a mobile terminal such as a smartphone or a tablet that is compatible with a mobile communication system. In addition, the terminal device 10 may be, for example, a portable notebook PC (Personal Computer) or a laptop PC. The user who operates the terminal device 10 is a person who displays an avatar in a virtual space in the avatar service providing system 1 and receives various services, and is, for example, a person who is registered as a member of the avatar service providing system 1. be.

端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。図2に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。 The terminal device 10 is communicably connected to the server 20 via the network 80. The terminal device 10 is a wireless base station 81 compatible with communication standards such as 4G, 5G, and LTE (Long Term Evolution), and a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11. It is connected to the network 80 by communicating with a corresponding communication device such as a wireless LAN router 82. As shown as a terminal device 10B in FIG. 2, the terminal device 10 includes a communication IF (Interface) 12, an input device 13, an output device 14, a memory 15, a storage section 16, and a processor 19.

通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、キーボード、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 communicates with an external device. The input device 13 is an input device (for example, a touch panel, a touch pad, a keyboard, a pointing device such as a mouse, etc.) for receiving input operations from a user. The output device 14 is an output device (display, speaker, etc.) for presenting information to the user. The memory 15 is for temporarily storing programs and data processed by the programs, and is a volatile memory such as DRAM (Dynamic Random Access Memory). The storage unit 16 is a storage device for storing data, and is, for example, a flash memory or an HDD (Hard Disc Drive). The processor 19 is hardware for executing a set of instructions written in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.

サーバ20は、ユーザから各種サービスの提供を受けるための入力を受け付け、仮想空間上にアバターを表示して仮想空間上で各種サービスを提供するサービスをWebサービスとして配信して提供する装置である。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、サーバ20は必須の構成ではない。 The server 20 is a device that receives input from a user for providing various services, displays an avatar in a virtual space, and distributes and provides various services in the virtual space as a web service. Note that the avatar service providing system 1 may provide various services only with the terminal device 10, and in this case, the server 20 is not an essential configuration.

サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。 Server 20 is a computer connected to network 80. The server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 , and a processor 29 .

通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The communication IF 22 is an interface for inputting and outputting signals so that the server 20 communicates with external devices. The input/output IF 23 functions as an interface with an input device for receiving input operations from a user and an output device for presenting information to the user. The memory 25 is for temporarily storing programs and data processed by the programs, and is a volatile memory such as DRAM (Dynamic Random Access Memory). The storage 26 is a storage device for storing data, and is, for example, a flash memory or an HDD (Hard Disc Drive). The processor 29 is hardware for executing a set of instructions written in a program, and is composed of an arithmetic unit, registers, peripheral circuits, and the like.

<1.1 端末装置10の構成>
図3は、本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。図3に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
<1.1 Configuration of terminal device 10>
FIG. 3 is a block diagram showing the functional configuration of the terminal device 10 that constitutes the avatar service providing system 1 of this embodiment. As shown in FIG. 3, the terminal device 10 includes a plurality of antennas (an antenna 111, an antenna 112), a wireless communication section (a first wireless communication section 121, a second wireless communication section 122) corresponding to each antenna, and an operation Reception unit 130 (including touch sensitive device 131 and display 132), audio processing unit 140, microphone 141, speaker 142, position information sensor 150, camera 160, storage unit 170, and control unit 180 including. The terminal device 10 also has functions and configurations that are not particularly illustrated in FIG. 3 (for example, a battery for holding power, a power supply circuit that controls the supply of power from the battery to each circuit, etc.). As shown in FIG. 3, each block included in the terminal device 10 is electrically connected by a bus or the like.

アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。 The antenna 111 radiates a signal emitted by the terminal device 10 as a radio wave. Further, the antenna 111 receives radio waves from space and provides a received signal to the first wireless communication unit 121.

アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。 The antenna 112 radiates a signal emitted by the terminal device 10 as a radio wave. Further, the antenna 112 receives radio waves from space and provides a received signal to the second wireless communication unit 122.

第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。 The first wireless communication unit 121 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 111 so that the terminal device 10 communicates with other wireless devices. The second wireless communication unit 122 performs modulation and demodulation processing for transmitting and receiving signals via the antenna 112 so that the terminal device 10 communicates with other wireless devices. The first wireless communication unit 121 and the second wireless communication unit 122 are communication modules including a tuner, an RSSI (Received Signal Strength Indicator) calculation circuit, a CRC (Cyclic Redundancy Check) calculation circuit, a high frequency circuit, and the like. The first wireless communication unit 121 and the second wireless communication unit 122 perform modulation/demodulation and frequency conversion of wireless signals transmitted and received by the terminal device 10 and provide received signals to the control unit 180.

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ(画面)132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。 The operation reception unit 130 has a mechanism for accepting user input operations. Specifically, the operation reception unit 130 is configured as a touch screen and includes a touch sensitive device 131 and a display (screen) 132. Note that the operation reception unit 130 may be configured by, for example, a keyboard, a mouse, or the like.

タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。 Touch sensitive device 131 receives input operations from the user of terminal device 10 . The touch sensitive device 131 uses, for example, a capacitive touch panel to detect the position of the user's touch on the touch panel. The touch sensitive device 131 outputs a signal indicating the user's touch position detected by the touch panel to the control unit 180 as an input operation.

ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。 The display 132 displays data such as images, videos, and text under the control of the control unit 180. The display 132 is realized by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 140 modulates and demodulates the audio signal. The audio processing unit 140 modulates the signal provided from the microphone 141 and provides the modulated signal to the control unit 180. The audio processing unit 140 also provides an audio signal to the speaker 142. The audio processing unit 140 is realized, for example, by a processor for audio processing. The microphone 141 receives a voice input and provides a voice signal corresponding to the voice input to the voice processing unit 140 . The speaker 142 converts the audio signal provided from the audio processing unit 140 into audio and outputs the audio to the outside of the terminal device 10 .

位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。 The position information sensor 150 is a sensor that detects the position of the terminal device 10, and is, for example, a GPS (Global Positioning System) module. A GPS module is a receiving device used in a satellite positioning system. The satellite positioning system receives signals from at least three or four satellites, and detects the current position of the terminal device 10 equipped with a GPS module based on the received signals.

カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。 The camera 160 is a device that receives light with a light receiving element and outputs it as a photographed image. The camera 160 is, for example, a depth camera that can detect the distance from the camera 160 to the object to be photographed.

記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、ユーザ情報171を記憶する。 The storage unit 170 is configured of, for example, a flash memory, and stores data and programs used by the terminal device 10. In one aspect, storage unit 170 stores user information 171.

ユーザ情報171は、端末装置10を使用してアバターサービス提供システム1の機能である、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザの情報である。ユーザの情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。 The user information 171 is information about a user who uses the terminal device 10 to display an avatar in a virtual space and receive various services, which is a function of the avatar service providing system 1 . The user information includes information for identifying the user (user ID), password, information such as the user's name, pseudonym, and avatar image information.

制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、通知制御部183と、データ処理部184としての機能を発揮する。 The control unit 180 controls the operation of the terminal device 10 by reading a program stored in the storage unit 170 and executing instructions included in the program. The control unit 180 is, for example, an application installed in the terminal device 10 in advance. The control unit 180 functions as an input operation reception unit 181, a transmission/reception unit 182, a notification control unit 183, and a data processing unit 184 by operating according to a program.

入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。また、入力操作受付部181は、マイク141からのユーザの音声を受け付ける処理を行う。 The input operation reception unit 181 performs a process of accepting a user's input operation on an input device such as the touch sensitive device 131. The input operation reception unit 181 determines whether the user's operation is a flick operation, a tap operation, or a drag ( Determine the type of operation, such as whether it is a swipe operation. In addition, the input operation receiving unit 181 performs a process of receiving the user's voice from the microphone 141.

送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmitting/receiving unit 182 performs processing for the terminal device 10 to transmit and receive data with an external device such as the server 20 according to a communication protocol.

通知制御部183は、ユーザに対し情報を提示する処理を行う。通知制御部183は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。 The notification control unit 183 performs a process of presenting information to the user. The notification control unit 183 performs processes such as displaying a display image on the display 132, outputting audio to the speaker 142, and generating vibrations on the camera 160.

データ処理部184は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。 The data processing unit 184 performs calculations according to a program on the data input by the terminal device 10, and outputs the calculation results to a memory or the like.

また、データ処理部184は、端末装置10のプロセッサ19がプログラムに従って処理を行うことにより、各種モジュールとして、動いている人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析して解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から人物の動作を検出し、ディスプレイ132の画面上に、人物の手に対応して画面上における位置を示すポインタを表示させ、検出した人物の第1の動作に応じて画面上に複数の所定のアイコンを表示させ、検出した人物の第2の動作に応じて画面上に表示されている複数のアイコンを画面上で移動させ、検出した人物の動作から抽出した人物の手の動作に応じて人物の手の動作に合わせてポインタを動かすように制御し、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させる機能を発揮する。さらに、データ処理部184は、複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、第2の動作に応じて画面上に表示されている複数のアイコンを移動させることで選択可能なアイコンを変更するように構成してもよい。 In addition, the data processing unit 184 acquires a captured image of a moving person captured by a camera as various modules by the processor 19 of the terminal device 10 performing processing according to a program, analyzes the captured captured image, and analyzes the captured image. The person's skeletal information is identified based on the analysis results, the person's motion is detected from the identified skeletal information, and a pointer indicating the position on the screen corresponding to the person's hand is displayed on the screen of the display 132, and the detection is performed. displaying a plurality of predetermined icons on the screen in response to a first action of the detected person; moving the plurality of icons displayed on the screen on the screen in response to a second action of the detected person; The pointer is controlled to move according to the person's hand movement, which is extracted from the detected person's movement, and the pointer movement is detected, and the pointer and one of the multiple icons are controlled to move according to the person's hand movement. Depending on the position with respect to the icon, it exhibits a function of executing a function associated with one icon. Further, the data processing unit 184 selectably displays only one of the plurality of icons, and moves the plurality of icons displayed on the screen in accordance with the second operation. It may be configured to change the icon.

<1.2 サーバ20の機能的な構成>
図4は、本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional configuration of server 20>
FIG. 4 is a block diagram showing the functional configuration of the server 20 that constitutes the avatar service providing system 1 of this embodiment. As shown in FIG. 4, the server 20 functions as a communication section 201, a storage section 202, and a control section 203.

通信部201は、サーバ20が外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the server 20 to communicate with external devices.

記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザデータベース2021等を記憶する。 The storage unit 202 stores data and programs used by the server 20. The storage unit 202 stores a user database 2021 and the like.

ユーザデータベース2021は、アバターサービス提供システム1において、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザに関する情報を保持するためのデータベースである。ユーザに関する情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。 The user database 2021 is a database for holding information regarding users who display avatars in a virtual space and receive various services in the avatar service providing system 1. The information regarding the user includes information for identifying the user (user ID), password, information such as the user's name, name, and pseudonym, avatar image information, and the like.

制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、ユーザ認証モジュール2033に示す機能を発揮する。 The control unit 203 performs functions shown in a reception control module 2031, a transmission control module 2032, and a user authentication module 2033 as various modules by the processor of the server 20 performing processing according to a program.

受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。 The reception control module 2031 controls the process by which the server 20 receives signals from an external device according to a communication protocol.

送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。 The transmission control module 2032 controls the process by which the server 20 transmits a signal to an external device according to a communication protocol.

ユーザ認証モジュール2033は、サーバ20にアクセスするユーザが正当なユーザであることを認証する処理を制御する。ユーザ認証モジュール2033によるユーザの認証は、例えば、ユーザIDが登録されていること、当該ユーザIDのパスワードとして登録されているパスワードと同一のパスワードが入力されたこと、等により行われる。 The user authentication module 2033 controls the process of authenticating that the user accessing the server 20 is a valid user. User authentication by the user authentication module 2033 is performed based on, for example, that the user ID is registered, that the same password as the password registered for the user ID is input, and so on.

<2 動作>
以下、図5ないし図7を参照しながら、第1の実施の形態におけるアバターサービス提供システム1により実行させるプログラム、及び方法であるユーザ認証処理、ポインタ移動処理、及びアイコン制御処理について説明する。
<2 Operation>
Hereinafter, a user authentication process, a pointer movement process, and an icon control process, which are programs and methods executed by the avatar service providing system 1 in the first embodiment, will be described with reference to FIGS. 5 to 7.

図5は、本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、図5に示すユーザ認証処理は行わなくてもよい。 FIG. 5 is a flowchart showing an example of the flow of user authentication processing performed by the avatar service providing system 1 of this embodiment. Note that the avatar service providing system 1 may provide various services only using the terminal device 10, and in this case, the user authentication process shown in FIG. 5 does not need to be performed.

ステップS111において、端末装置10の入力操作受付部181は、ユーザの操作によりアバターサービス提供システム1の専用アプリケーションを起動する。送受信部182は、ユーザID、パスワード等のユーザの情報を、サーバ20へ送信する。送受信部182は、サーバ20から送信された、仮想空間上にアバターを表示させて各種サービスの提供を受けるための各種情報を受け付ける。通知制御部183は、受け付けた各種情報を、ディスプレイ132に表示させる。 In step S111, the input operation reception unit 181 of the terminal device 10 starts the dedicated application of the avatar service providing system 1 according to the user's operation. The transmitter/receiver 182 transmits user information such as a user ID and password to the server 20 . The transmitting/receiving unit 182 receives various information transmitted from the server 20 for displaying an avatar in a virtual space and receiving various services. The notification control unit 183 causes the display 132 to display the received various information.

ステップS121において、サーバ20のユーザ認証モジュール2033は、端末装置10から送信されたユーザの情報を、通信部201を介して受け付ける。サーバ20のユーザ認証モジュール2033は、受け付けたユーザの情報が正当なユーザからのものであることを認証する。サーバ20は、受け付けたユーザの情報が正当なものであると判定した場合、仮想空間上にアバターを表示させて各種サービスを提供するための各種情報を当該ユーザの端末装置10のディスプレイ132に表示させるため、端末装置10へ通信部201を介して送信する。 In step S121, the user authentication module 2033 of the server 20 receives user information transmitted from the terminal device 10 via the communication unit 201. The user authentication module 2033 of the server 20 authenticates that the received user information is from a valid user. If the server 20 determines that the received user information is valid, it displays various information on the display 132 of the user's terminal device 10 to display an avatar in the virtual space and provide various services. In order to do so, the information is transmitted to the terminal device 10 via the communication unit 201.

図6は、本実施の形態のアバターサービス提供システム1によるポインタ制御処理を行う流れの一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of the flow of pointer control processing by the avatar service providing system 1 of this embodiment.

ステップS211において、端末装置10のデータ処理部184は、ユーザの操作により、動いている人物をカメラ160で撮影した撮影画像を取得する。例えば、データ処理部184は、図1に示すように、端末装置10がカメラ160のレンズ部分が人物Hの方向に向けられた状態で固定された状態で、アバターサービス提供システム1の専用アプリケーションにより人物Hを撮影した撮影画像、例えば動画を取得する。なお、このとき、人物Hを撮影する装置は端末装置10のカメラ160に限られず、外部装置としてのカメラであってもよく、例えば、LIDAR(Light Detection and Ranging)カメラ(センサ)、光学式または機械式(Inertial Measurement Unit)のモーションキャプチャシステム等であってもよい。端末装置10のデータ処理部184は、撮影画像を画像データとして記憶部170に記憶させる。 In step S211, the data processing unit 184 of the terminal device 10 obtains a captured image of a moving person captured by the camera 160 in response to a user's operation. For example, as shown in FIG. 1, the data processing unit 184 uses a dedicated application of the avatar service providing system 1 to A captured image of a person H, for example a video, is acquired. Note that at this time, the device for photographing the person H is not limited to the camera 160 of the terminal device 10, but may be a camera as an external device, for example, a LIDAR (Light Detection and Ranging) camera (sensor), an optical or A mechanical (Inertial Measurement Unit) motion capture system or the like may be used. The data processing unit 184 of the terminal device 10 stores the captured image in the storage unit 170 as image data.

ステップS212において、端末装置10のデータ処理部184は、ステップS211で取得した撮影画像に基づく画像データを解析し、解析結果に基づき、撮影された人物の骨格情報を特定する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物を、既知の画像認識技術を用いて身体の部位を特定し、それぞれの身体の部位を示す点の間を直線で結び、点と線で得られた情報を骨格情報とする。データ処理部184は、撮影画像における点の位置を撮影画像における座標の情報とする。この点は、例えば身体の関節部分に配置され、身体の動きに合わせて直線部分との角度を変更するように構成される。このような構成により、身体の動きを点と直線とで表現することを可能にしている。端末装置10のデータ処理部184は、特定した骨格情報を記憶部170に記憶させる。 In step S212, the data processing unit 184 of the terminal device 10 analyzes the image data based on the photographed image acquired in step S211, and identifies skeletal information of the photographed person based on the analysis result. For example, by analyzing the image data, the data processing unit 184 identifies the body parts of the person in the photographed image using known image recognition technology, and connects the points indicating the respective body parts with straight lines. Information obtained from points and lines is assumed to be skeleton information. The data processing unit 184 uses the position of a point in the photographed image as coordinate information in the photographed image. This point is arranged, for example, at a joint part of the body, and is configured to change the angle with the straight part according to the movement of the body. This configuration makes it possible to express body movements using points and straight lines. The data processing unit 184 of the terminal device 10 causes the storage unit 170 to store the identified skeleton information.

ステップS213において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、撮影された人物の動作を検出する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物の身体の部位を特定し、特定された身体の部位に配置された点の情報、例えば点の座標の情報を抽出し、人物の動作を検出する。このとき、データ処理部184は、人物の動作を、身体の部位に配置された点(座標)の移動情報として人物の動作を検出してもよく、例えば機械学習モデル等のアノテーションにより、当該人物の身体の移動情報から解釈される、当該人物の動作の情報(例えば、手を叩く、上半身を捻る、片手または両手を上げる、等)として人物の動作を検出してもよい。 In step S213, the data processing unit 184 of the terminal device 10 detects the motion of the photographed person from the skeleton information specified in step S212. For example, the data processing unit 184 identifies the body part of the person in the photographed image by analyzing the image data, extracts information about a point placed on the identified body part, for example, information about the coordinates of the point, Detect human movements. At this time, the data processing unit 184 may detect the person's movement as movement information of points (coordinates) placed on body parts, and may detect the person's movement by using annotations such as a machine learning model. The movement of the person may be detected as information on the movement of the person (for example, clapping hands, twisting the upper body, raising one or both hands, etc.) interpreted from the movement information of the person's body.

ステップS214において、端末装置10のデータ処理部184は、端末装置10のディスプレイ132上に、人物の手に対応し、ディスプレイ132上における位置を示すポインタを表示させる。ポインタは、例えば人間の手の形状を模した画像であるが、ディスプレイ132上のどこを指し示しているかを認識できるような形状であればよく、矢印のような形状であってもよい。表示させるポインタは、両手のものでもよく、左右どちらか一方の片手のものでもよい。ポインタの画像データは、記憶部170に記憶されたものである。また、端末装置10のデータ処理部184は、ポインタを、ディスプレイ132に表示させると共に、図1に示すような表示画面30に表示させる。 In step S214, the data processing unit 184 of the terminal device 10 displays on the display 132 of the terminal device 10 a pointer that corresponds to the person's hand and indicates the position on the display 132. The pointer is, for example, an image imitating the shape of a human hand, but may have any shape as long as it can be recognized where on the display 132 it is pointing, and may be in the shape of an arrow. The pointer to be displayed may be one of both hands, or one of either the left or right hand. The pointer image data is stored in the storage unit 170. Further, the data processing unit 184 of the terminal device 10 causes the pointer to be displayed on the display 132 and on the display screen 30 as shown in FIG.

ステップS215において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、ステップS213で検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせて、ステップS214で表示させたポインタを動かすように制御する。 In step S215, the data processing unit 184 of the terminal device 10 adjusts the motion of the person's hand, based on the skeleton information identified in step S212, to the hand motion of the person extracted from the person's motion detected in step S213. Then, the pointer displayed in step S214 is controlled to be moved.

以上のように、アバターサービス提供システム1では、画面上に手を模したポインタを表示させ、人物の手の動作に合わせてポインタを動かすように制御する。 As described above, in the avatar service providing system 1, a pointer imitating a hand is displayed on the screen, and the pointer is controlled to move in accordance with the movement of the person's hand.

図7は、本実施の形態のアバターサービス提供システム1によるアイコン制御処理を行う流れの例を示すフローチャートである。 FIG. 7 is a flowchart showing an example of the flow of icon control processing performed by the avatar service providing system 1 of this embodiment.

ステップS311において、端末装置10のデータ処理部184は、ステップS213で検出した人物の所定の動作(第1の動作)に応じて、端末装置10のディスプレイ132上に、複数の所定のアイコンを表示させる。このアイコンは、画面上でアバターサービス提供システム1が提供する各種サービスの提供を開始するためのアイコンであり、ポインタにより選択され、アイコンに関連付けられた機能(各種サービス)を実行させるものである。アイコンに関連付けられた機能とは、例えば上記のように、アバターを人物の動きにより操作して行うゲーム等において、ゲームのプレイデータをセーブする、スタート地点に戻る、ユーザ自身のアバターを表示する(三人称ビュー)/表示しない(一人称ビュー)、アバターの装備や服装を変更する、仮想空間の各種設定条件を変更する、等の機能を含む。ここで、人物の所定の動作(第1の動作)とは、例えば人物による両手を上げる動作、手を叩く動作、片手を上げる動作、人物による音声(例えば、「メニュー」と発話)を含む。 In step S311, the data processing unit 184 of the terminal device 10 displays a plurality of predetermined icons on the display 132 of the terminal device 10 in accordance with the predetermined motion (first motion) of the person detected in step S213. let This icon is an icon for starting the provision of various services provided by the avatar service providing system 1 on the screen, and is selected by the pointer to execute the function (various services) associated with the icon. The functions associated with the icon include, for example, as mentioned above, in a game where an avatar is controlled by the movement of a person, the functions include saving game play data, returning to the starting point, and displaying the user's own avatar ( Includes functions such as changing the avatar's equipment and clothing, changing various setting conditions of the virtual space, etc. Here, the predetermined action (first action) of the person includes, for example, the action of raising both hands by the person, the action of clapping hands, the action of raising one hand, and the voice of the person (for example, uttering "menu").

また、ステップS311において、端末装置10のデータ処理部184は、ディスプレイ132上に複数の所定のアイコンを表示させる際、複数のアイコンのうちの1のアイコンのみを選択可能に表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に表示されている複数のアイコンのうち、ディスプレイ132上の所定の位置にあるアイコン(例えば、人物の正面に位置するアイコン)のみをユーザが選択可能とし、後述するステップS312において、所定の位置にあるアイコンを移動させるように構成してもよい。さらに、データ処理部184は、ユーザが選択可能なアイコンのみをディスプレイ132上に表示させるように構成してもよい。 Furthermore, in step S311, the data processing unit 184 of the terminal device 10 is configured to selectably display only one of the plurality of icons when displaying a plurality of predetermined icons on the display 132. You can. For example, the data processing unit 184 allows the user to select only an icon located at a predetermined position on the display 132 (for example, an icon located in front of a person) from among the plurality of icons displayed on the display 132. , the icon at a predetermined position may be moved in step S312, which will be described later. Further, the data processing unit 184 may be configured to display only icons that can be selected by the user on the display 132.

また、ステップS311において、端末装置10のデータ処理部184は、ディスプレイ132上に複数の所定のアイコンを表示させ、人物による所定の動作に応じて複数のアイコンのうちの1のアイコンを選択可能に表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に複数のアイコンが表示されている状態で、ユーザが右手を上げた場合には右方向に配置されているアイコンを選択されたものと判定し、ユーザが左手を上げた場合には左方向に配置されているアイコンを選択されたものと判定してもよい。 Further, in step S311, the data processing unit 184 of the terminal device 10 displays a plurality of predetermined icons on the display 132, and allows one of the plurality of icons to be selected according to a predetermined action by the person. It may also be configured to be displayed. For example, if the user raises his or her right hand while a plurality of icons are displayed on the display 132, the data processing unit 184 determines that the icon placed on the right side has been selected, and the user If the user raises his or her left hand, it may be determined that the icon placed toward the left has been selected.

さらに、ステップS311において、端末装置10のデータ処理部184は、人物を含む仮想空間をディスプレイ132上に表示させ、この仮想空間に複数のアイコンが存在するように表示させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に当該人物に関連付けられたキャラクタであるアバターを表示し、アバターを含む仮想空間上に複数のアイコンが存在(例えば、仮想空間上に浮遊するように配置してもよい)し、当該アバターがそのアイコンを選択可能に構成してもよい。 Furthermore, in step S311, the data processing unit 184 of the terminal device 10 may be configured to display a virtual space including a person on the display 132, and display a plurality of icons in this virtual space. . For example, the data processing unit 184 displays an avatar, which is a character associated with the person, on the display 132, and a plurality of icons exist in the virtual space including the avatar (for example, they are arranged so as to float in the virtual space). ), and the icon may be configured to be selectable by the avatar.

ステップS312において、端末装置10のデータ処理部184は、ステップS213で検出した人物の所定の動作(第2の動作)に応じて、端末装置10のディスプレイ132上に表示されている複数の所定のアイコンをディスプレイ132上で移動させる。例えば、データ処理部184は、人物の所定の動作(第2の動作)であるジェスチャに応じて当該ジェスチャが示す方向へ、複数の所定のアイコンをディスプレイ132上で移動させる。このとき、データ処理部184は、複数のアイコンすべてを同一の態様(例えば、同一方向)で移動させてもよく、一部のアイコンのみを移動させてもよい。さらに、データ処理部184は、ディスプレイ132上に表示されている複数の所定のアイコンについて一部のアイコンをディスプレイ132上で非表示にしてもよく、一部のアイコンをディスプレイ132上に再度表示させてもよい。このような動作は、ディスプレイ132上でアイコンがスクロールすることで表示/非表示にしてもよく、ディスプレイ132上でアイコンを出現/削除等させることで表示/非表示にしてもよい。ここで、人物の所定の動作(第2の動作)とは、例えば人物による両手を合わせる動作、上半身を捻る動作、両手を同時に所定の方向に動かす動作、手を叩く動作、両手を上げる動作、片手を上げる動作、人物による音声を含むが、前出の第1の動作とは異なる動作である。 In step S312, the data processing unit 184 of the terminal device 10 selects a plurality of predetermined motions displayed on the display 132 of the terminal device 10 according to the predetermined motion (second motion) of the person detected in step S213. Move the icon on display 132. For example, the data processing unit 184 moves a plurality of predetermined icons on the display 132 in a direction indicated by the gesture, which is a predetermined action (second action) of the person. At this time, the data processing unit 184 may move all of the plurality of icons in the same manner (for example, in the same direction), or may move only some of the icons. Further, the data processing unit 184 may hide some of the plurality of predetermined icons displayed on the display 132, and display some of the icons again on the display 132. You can. Such an operation may be performed by scrolling the icon on the display 132 to display/hide the icon, or by causing the icon to appear/delete on the display 132 to display/hide the icon. Here, the predetermined action (second action) of the person is, for example, an action by the person of bringing both hands together, an action of twisting the upper body, an action of moving both hands in a predetermined direction at the same time, an action of clapping hands, an action of raising both hands, Although it includes the action of raising one hand and the voice of the person, it is a different action from the first action described above.

また、ステップS312において、端末装置10のデータ処理部184は、ディスプレイ132上に表示されている複数の所定のアイコンを移動させる際、複数のアイコンを移動させて、選択可能な1のアイコンを変更するように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に表示されている複数のアイコンのうち、ディスプレイ132上の所定の位置にあるアイコン(例えば、人物の正面に位置するアイコン)のみをユーザが選択可能とし、所定の位置にあるアイコンを移動させるように構成してもよい。 Further, in step S312, when moving the plurality of predetermined icons displayed on the display 132, the data processing unit 184 of the terminal device 10 moves the plurality of icons and changes one selectable icon. It may be configured to do so. For example, the data processing unit 184 allows the user to select only an icon located at a predetermined position on the display 132 (for example, an icon located in front of a person) from among the plurality of icons displayed on the display 132. , the icon at a predetermined position may be moved.

さらに、ステップS312において、端末装置10のデータ処理部184は、ディスプレイ132上に表示されている、当該人物を含む仮想空間において、ステップS311で表示された仮想空間上の複数のアイコンを仮想空上で移動させるように構成してもよい。例えば、データ処理部184は、ディスプレイ132上に当該人物に関連付けられたキャラクタであるアバターを表示した状態で、当該人物の所定の動作(第2の動作)に基づくアバターの動作に応じて、仮想空間上の複数のアイコンを移動させてもよい。 Furthermore, in step S312, the data processing unit 184 of the terminal device 10 displays the plurality of icons in the virtual space displayed in step S311 in the virtual space including the person displayed on the display 132. It may be configured to move by. For example, while an avatar, which is a character associated with the person, is displayed on the display 132, the data processing unit 184 may generate a virtual You may move multiple icons in space.

ステップS313において、端末装置10のデータ処理部184は、画面上におけるポインタの位置と、アイコンの位置とを検出する。例えば、データ処理部184は、画面上におけるポインタの位置を、画面上における座標位置の情報として、人物の手の動きに合わせて随時検出する。また、データ処理部184は、画面上におけるアイコンの位置を、画面上における座標位置の情報として検出し、ステップS312にて移動したアイコンの位置を、アイコンの移動に応じてその都度検出する。 In step S313, the data processing unit 184 of the terminal device 10 detects the position of the pointer and the position of the icon on the screen. For example, the data processing unit 184 detects the position of the pointer on the screen as information on the coordinate position on the screen at any time in accordance with the movement of the person's hand. The data processing unit 184 also detects the position of the icon on the screen as information on the coordinate position on the screen, and detects the position of the icon moved in step S312 each time the icon is moved.

ステップS314において、端末装置10のデータ処理部184は、ディスプレイ132上におけるポインタの位置とアイコンの位置とが一致したことを検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行する。このとき、データ処理部184は例えば、画面上における両手のポインタのうち、片手のポインタの位置がアイコンの位置と一致したことを検出すると、アイコンを選択状態(選択だけされた状態であり、機能は実行されない状態)にし、画面上における両手のポインタの両方のポインタの位置がアイコンの位置と一致したことを検出すると、アイコンを実行状態(アイコンに関連付けられた機能を実行させる状態)にしてもよい。 In step S314, when the data processing unit 184 of the terminal device 10 detects that the position of the pointer on the display 132 matches the position of the icon, the data processing unit 184 of the terminal device 10 selects the icon or executes the function associated with the icon. . At this time, for example, if the data processing unit 184 detects that the position of the pointer of one hand out of the pointers of both hands on the screen matches the position of the icon, the data processing unit 184 places the icon in the selected state (the selected state, and the function is When it detects that the position of both pointers on the screen matches the position of the icon, even if the icon is set to the execution state (the state in which the function associated with the icon is executed). good.

以上のように、アバターサービス提供システム1では、人物の所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物の所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。 As described above, in the avatar service providing system 1, a plurality of predetermined icons are displayed according to a predetermined action (first action) of a person, and a plurality of predetermined icons are displayed according to a predetermined action (second action) of a person. Move a predetermined icon on the screen. One of the plurality of icons is made selectable, and when that icon is selected with the pointer, the function associated with the icon is executed. This eliminates the need for the user to return to the terminal device 10 and operate it, thereby eliminating the need for troublesome operations.

<3 画面例>
以下、図8ないし図11を参照しながら、アバターサービス提供システム1におけるポインタによる操作の画面例について説明する。
<3 Screen example>
Hereinafter, examples of screens for operations using a pointer in the avatar service providing system 1 will be described with reference to FIGS. 8 to 11.

図8は、表示画面30にポインタ31L,31Rが表示された画面例を示す図である。図8の画面例は、図1に示す表示画面30に、人物Hの手の動作に合わせて移動させるポインタが表示された画面例を示す。図6のステップS214に相当する。 FIG. 8 is a diagram showing an example of a screen in which pointers 31L and 31R are displayed on the display screen 30. The screen example in FIG. 8 shows a screen example in which a pointer that is moved in accordance with the hand movements of the person H is displayed on the display screen 30 shown in FIG. This corresponds to step S214 in FIG.

図8に示すように、端末装置10のディスプレイ132には、人物Hに関連付けられたキャラクタであるアバターAが表示されている。また、表示画面30には、人物Hの手の動作に合わせて移動させるポインタ31L,31Rが表示されている。ポインタ31L,31Rは、それぞれ人物Hの左手の動作に合わせて移動させるもの、人物Hの右手の動作に合わせて移動させるものである。 As shown in FIG. 8, an avatar A, which is a character associated with a person H, is displayed on the display 132 of the terminal device 10. Further, on the display screen 30, pointers 31L and 31R are displayed that are moved in accordance with the hand movements of the person H. The pointers 31L and 31R are moved in accordance with the movements of the left hand of the person H and those moved in accordance with the movements of the right hand of the person H, respectively.

人物Hが右手を動かすと、その動きに合わせてポインタ31Rが表示画面30上で上下左右に移動する。同様に、人物Hが左手を動かすと、その動きに合わせてポインタ31Lが表示画面30上で上下左右に移動する。これにより、人物Hの手の動きに合わせてポインタを動かすことが可能である。 When the person H moves his right hand, the pointer 31R moves vertically and horizontally on the display screen 30 in accordance with the movement. Similarly, when the person H moves his left hand, the pointer 31L moves vertically and horizontally on the display screen 30 in accordance with the movement. Thereby, it is possible to move the pointer in accordance with the movement of the person H's hand.

図9は、表示画面30にアイコン32A,32B,32Cが表示された画面例を示す図である。図9の画面例は、ユーザが所定の動作(第1の動作)をしたことに応じて、図1に示す表示画面30に、複数の所定のアイコン32A,32B,32Cが表示された状態の画面例を示す。図7のステップS311に相当する。 FIG. 9 is a diagram showing an example of a screen in which icons 32A, 32B, and 32C are displayed on the display screen 30. The screen example in FIG. 9 shows a state in which a plurality of predetermined icons 32A, 32B, and 32C are displayed on the display screen 30 shown in FIG. 1 in response to the user performing a predetermined action (first action). An example screen is shown. This corresponds to step S311 in FIG.

図9に示すように、表示画面30には、アイコン32A,32B,32Cが表示画面30の横方向に沿って表示されている。このアイコン32A,32B,32Cは、例えば図8に示す表示画面30のように、ポインタ31L,31Rのみが表示されている状態で、ユーザが所定の動作(第1の動作)、例えばユーザが両手を上げる動作をすると、データ処理部184がその動作を検知して、図7のステップS311にてアイコン32A,32B,32Cを表示させる。 As shown in FIG. 9, icons 32A, 32B, and 32C are displayed on the display screen 30 along the horizontal direction of the display screen 30. These icons 32A, 32B, and 32C are used when the user performs a predetermined action (first action), for example, when the user performs a predetermined action (first action) with both hands, when only the pointers 31L and 31R are displayed, as in the display screen 30 shown in FIG. 8, for example. When the user performs an upward movement, the data processing unit 184 detects the movement and displays the icons 32A, 32B, and 32C in step S311 of FIG.

また、図9に示す状態で、ユーザが所定の動作(第2の動作)、例えばユーザが両手を合わせる動作をすると、データ処理部184がその動作を検知して、図7のステップS312にてアイコン32A,32B,32Cを移動させる。このときのアイコン32A,32B,32Cの移動方向は、例えば、ユーザが両手を合わせて動かした方向である。この移動により、例えばユーザが示した動きが表示画面30に向かって左方向であった場合、アイコン32A,32B,32Cはそれぞれ左方向へ1つずつ移動し、アイコン32Aがアイコン32Bの位置へ、アイコン32Bがアイコン32Cの位置へ、アイコン32Cが表示画面30の表示範囲外へそれぞれ移動する。また、アイコン32Aの位置には、新たなアイコンが表示されてもよい。なお、このとき、あるアイコン(例えば、アイコン32B)が選択されると、アイコン32Bにより実行される機能が変化するように構成してもよく、他のアイコン(例えば、アイコン32A,32C)も含めて実行される機能が変化するように構成してもよい。 Further, in the state shown in FIG. 9, when the user performs a predetermined action (second action), for example, the user puts both hands together, the data processing unit 184 detects the action and proceeds to step S312 in FIG. Move the icons 32A, 32B, and 32C. The moving direction of the icons 32A, 32B, and 32C at this time is, for example, the direction in which the user moves both hands together. Due to this movement, for example, if the movement indicated by the user is to the left toward the display screen 30, the icons 32A, 32B, and 32C each move one by one to the left, and the icon 32A moves to the position of the icon 32B. The icon 32B moves to the position of the icon 32C, and the icon 32C moves out of the display range of the display screen 30. Further, a new icon may be displayed at the position of the icon 32A. In addition, at this time, when a certain icon (for example, icon 32B) is selected, the function performed by the icon 32B may be configured to change, and other icons (for example, icons 32A, 32C) may also be selected. The configuration may be such that the functions executed by the system change.

図10は、仮想空間VRにおける人物Hとアイコン32A~32Fとの仮想的な位置関係を示す図である。図10に示す仮想空間VRは、データ処理部184がユーザを含む仮想空間VRをディスプレイ132上に表示させた場合の例であり、仮想空間VRに、図9に示すアイコン32A,32B,32Cを含むアイコン32A~32Fが存在している場合の例を模式的に示す図である。図7のステップS311に相当する。 FIG. 10 is a diagram showing the virtual positional relationship between the person H and the icons 32A to 32F in the virtual space VR. The virtual space VR shown in FIG. 10 is an example in which the data processing unit 184 displays the virtual space VR including the user on the display 132, and the icons 32A, 32B, and 32C shown in FIG. FIG. 4 is a diagram schematically showing an example where there are icons 32A to 32F that include the icons 32A to 32F. This corresponds to step S311 in FIG.

図10に示すように、仮想空間VRには、アイコン32A,32B,32C,32D,32E,32Fが、仮想空間VR上の人物Hを中心として環状に存在するように配置されている。図10に示すアイコン32A,32B,32C,32D,32E,32Fは、ユーザが所定の動作(第1の動作)をすると表示画面30に表示されるが、表示画面30には、人物Hの正面方向に存在しているアイコン、図10に示す状態ではアイコン32A,32B,32Cのみが表示されることになる。 As shown in FIG. 10, in the virtual space VR, icons 32A, 32B, 32C, 32D, 32E, and 32F are arranged in a ring shape around the person H in the virtual space VR. Icons 32A, 32B, 32C, 32D, 32E, and 32F shown in FIG. 10 are displayed on the display screen 30 when the user performs a predetermined action (first action). In the state shown in FIG. 10, only icons 32A, 32B, and 32C existing in the direction are displayed.

また、図10に示す状態で、ユーザが所定の動作(第2の動作)をすると、アイコン32A,32B,32C,32D,32E,32Fは、ユーザの動作の方向(例えば、図10に示す矢印方向)へ1つずつ、環状に沿って移動する。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32を選択することが可能である。 Furthermore, when the user performs a predetermined action (second action) in the state shown in FIG. direction) one by one along the ring. This allows the user to select the icon 32 without returning to the location of the terminal device 10.

図11は、表示画面30に表示されたアイコン32Bが選択された画面例を示す図である。図11の画面例は、図1に示す表示画面30に、ポインタ31L,31Rの位置と、アイコン32Bの位置とが一致した状態の画面例を示す。図7のステップS314に相当する。 FIG. 11 is a diagram showing an example of a screen in which the icon 32B displayed on the display screen 30 is selected. The screen example in FIG. 11 shows a screen example in which the positions of the pointers 31L and 31R match the position of the icon 32B on the display screen 30 shown in FIG. 1. This corresponds to step S314 in FIG.

図11に示すように、表示画面30には、人物Hの手の動作に合わせて移動させるポインタ31L,31Rが表示されている。また、表示画面30には、アイコン32A,32B,32Cが表示されている。 As shown in FIG. 11, the display screen 30 displays pointers 31L and 31R that are moved in accordance with the hand movements of the person H. Further, icons 32A, 32B, and 32C are displayed on the display screen 30.

人物Hの手の動きに合わせてポインタ31L,31Rが動き、その画面上の位置が検出される。そして、図11に示す状態では、画面上におけるポインタ31L,31Rの位置と、アイコン32Bの位置とが一致したことを検出する。このとき、アイコン32Bは、選択状態、または実行状態になる。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32Bを選択し、アイコン32Bによる機能を実行させることが可能である。 The pointers 31L and 31R move in accordance with the hand movements of the person H, and their positions on the screen are detected. In the state shown in FIG. 11, it is detected that the positions of the pointers 31L and 31R on the screen match the position of the icon 32B. At this time, the icon 32B becomes a selected state or an execution state. This allows the user to select the icon 32B and execute the function of the icon 32B without returning to the location of the terminal device 10.

なお、アイコン32Bを選択し、アイコン32による機能を実行させる操作は、図11に示す連とは限られない。例えば、ポインタ31L,31Rのいずれか一方の位置が一定時間以上アイコン32Bの位置と一致した場合、アイコン32Bを選択状態にし、ポインタ31L,31Rのいずれか一方の位置が一定時間以内に2回アイコン32Bの位置と一致した場合(いわゆるダブルクリック)、アイコン32Bによる機能を実行させるように構成してもよい。 Note that the operation of selecting the icon 32B and executing the function of the icon 32 is not limited to the sequence shown in FIG. 11. For example, if the position of either pointer 31L or 31R matches the position of icon 32B for a certain period of time or more, icon 32B is brought into a selected state, and the position of either pointer 31L or 31R matches the position of icon 32B twice within a certain period of time. 32B (so-called double click), the function of the icon 32B may be executed.

<小括>
以上のように、本実施の形態によると、ポインタを表示させてユーザの手の動作に合わせてポインタを動かすように制御し、ポインタの動作により、ポインタが各種サービスの提供を開始させるためのアイコンを選択し、実行させることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にし、没入感やアバターとの一体感を喪失することなく各種サービスの提供を受けることを可能にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
<Summary>
As described above, according to the present embodiment, the pointer is displayed, the pointer is controlled to move in accordance with the user's hand motion, and the pointer displays an icon that allows the pointer to start providing various services according to the pointer motion. It is configured so that it is possible to select and execute it. Therefore, the user does not have to return to the terminal device and operate it, eliminating the need for troublesome operations and making it possible to receive various services without losing the sense of immersion and unity with the avatar. This allows the avatar service providing system to smoothly provide various services.

また、本実施の形態によると、人物の所定の動作(第1の動作)に応じて複数の所定のアイコンを表示させ、人物の所定の動作(第2の動作)に応じて複数の所定のアイコンを画面上で移動させる。そして、複数のアイコンのうちの1のアイコンを選択可能とし、そのアイコンがポインタにより選択されると、アイコンに関連付けられた機能を実行させるようにしている。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 Further, according to the present embodiment, a plurality of predetermined icons are displayed according to a predetermined action (first action) of the person, and a plurality of predetermined icons are displayed according to the predetermined action (second action) of the person. Move the icon on the screen. One of the plurality of icons is made selectable, and when that icon is selected with the pointer, the function associated with the icon is executed. Therefore, the user does not have to return to the terminal device and operate it, thereby eliminating the need for troublesome operations. This allows the avatar service providing system to smoothly provide various services.

以上、開示に係る実施の形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施の形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。 Although the disclosed embodiments have been described above, they can be implemented in various other forms, and can be implemented with various omissions, substitutions, and changes. These embodiments and modifications, as well as omissions, substitutions, and changes, are included within the technical scope of the claims and their equivalents.

<付記>
以上の各実施の形態で説明した事項を、以下に付記する。
<Additional notes>
The matters described in each of the above embodiments are additionally described below.

(付記1)プロセッサ29と、メモリ25とを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、プログラムは、プロセッサ29に、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行させる、プログラム。 (Additional Note 1) A program for generating an image to be executed by a computer equipped with a processor 29 and a memory 25 and displayed on a screen, the program having the processor 29 take a picture of a moving person with a camera. A step of acquiring a photographed image (S211), a step of analyzing the acquired photographic image and identifying skeletal information of the person based on the analysis result (S212), and a step of detecting the motion of the person from the identified skeletal information (S212). S213), a step of displaying a pointer on the screen that corresponds to the person's hand and indicates the position on the screen (S214), and a plurality of predetermined points are displayed on the screen in accordance with the first movement of the detected person. A step of displaying an icon (S311), and a step of moving a plurality of icons displayed on the screen on the screen according to a second motion of the detected person that is different from the first motion (S312). and a step (S215) of controlling the pointer to move in accordance with the person's hand motion in accordance with the person's hand motion extracted from the detected person's motion; detecting the pointer motion; A program that causes a program to execute a step (S314) of executing a function associated with one icon according to a position with respect to one of the plurality of icons.

(付記2)画面上に複数のアイコンを表示させるステップにおいて、画面上に、複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、画面上に表示されている複数のアイコンを移動させて選択可能な1のアイコンを変更する、(付記1)に記載のプログラム。 (Additional note 2) In the step of displaying a plurality of icons on the screen, in the step of displaying only one icon among the plurality of icons on the screen in a selectable manner, and in the step of moving the plurality of icons, the second operation is performed. The program according to (Appendix 1), which moves a plurality of icons displayed on the screen and changes one selectable icon in accordance with the above.

(付記3)画面上に複数のアイコンを表示させるステップにおいて、画面上に、人物を含む仮想空間を表示させ、仮想空間に複数のアイコンが存在するように表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、仮想空間における複数のアイコンを仮想空間上で移動させる、(付記2)に記載のプログラム。 (Additional Note 3) In the step of displaying a plurality of icons on the screen, a step of displaying a virtual space including a person on the screen, displaying the plurality of icons as if they exist in the virtual space, and moving the plurality of icons. The program according to Supplementary Note 2, wherein a plurality of icons in the virtual space are moved in the virtual space according to the second operation.

(付記4)画面上に複数のアイコンを表示させるステップにおいて、仮想空間において、人物を中心として環状に複数のアイコンが存在するように表示させ、複数のアイコンを移動させるステップにおいて、第2の動作に応じて、仮想空間における複数のアイコンを環状に沿って移動させ、選択可能な前記1のアイコンを変更する、(付記3)に記載のプログラム。 (Additional note 4) In the step of displaying a plurality of icons on the screen, in the step of displaying a plurality of icons in a ring shape around a person in the virtual space, and moving the plurality of icons, a second operation is performed. The program according to (Appendix 3), which moves a plurality of icons in a virtual space along a ring according to the above, and changes the one selectable icon.

(付記5)第1の動作は、人物による両手を上げる動作、及び手を叩く動作を含む、(付記1)から(付記4)のいずれかに記載のプログラム。 (Additional Note 5) The program according to any one of (Appendix 1) to (Appendix 4), wherein the first action includes an action by the person of raising both hands and an action of clapping the hands.

(付記6)第2の動作は、人物による上半身を捻る動作、及び両手を同時に所定の方向に動かす動作を含む、(付記1)から(付記4)のいずれかに記載のプログラム。 (Additional Note 6) The program according to any one of (Appendix 1) to (Appendix 4), wherein the second action includes an action of twisting the upper body of the person and an action of moving both hands in a predetermined direction at the same time.

(付記7)制御部180と、記憶部170とを備え、画面上に表示させる画像を生成する情報処理装置であって、制御部180は、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行する、情報処理装置。 (Additional Note 7) An information processing device that includes a control unit 180 and a storage unit 170 and generates an image to be displayed on a screen, wherein the control unit 180 acquires a captured image of a moving person captured by a camera. (S211); a step (S212) of analyzing the acquired captured image and identifying skeletal information of the person based on the analysis result; and a step (S213) of detecting the motion of the person from the identified skeletal information. A step of displaying a pointer corresponding to the person's hand and indicating the position on the screen on the screen (S214), and displaying a plurality of predetermined icons on the screen according to the first movement of the detected person. a step (S311), a step (S312) of moving a plurality of icons displayed on the screen in accordance with a second motion of the detected person that is different from the first motion; A step (S215) of controlling the pointer to move according to the person's hand motion extracted from the person's hand motion (S215), and detecting the pointer motion and moving the pointer and the plurality of icons. An information processing apparatus that executes a step (S314) of causing a function associated with one of the icons to be executed according to a position with respect to one of the icons.

(付記7)プロセッサ29と、メモリ25とを備えるコンピュータにより実行され、画面上に表示させる画像を生成するための方法であって、方法は、プロセッサ29が、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物の手に対応し、画面上における位置を示すポインタを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に複数の所定のアイコンを表示させるステップ(S311)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されている複数のアイコンを画面上で移動させるステップ(S312)と、検出した人物の動作から抽出した人物の手の動作に応じて、人物の手の動作に合わせてポインタを動かすように制御するステップ(S215)と、ポインタの動作を検出し、ポインタと、複数のアイコンのうちの1のアイコンとの位置に応じて、1のアイコンに関連付けられた機能を実行させるステップ(S314)と、を実行する、方法。 (Additional Note 7) A method for generating an image to be displayed on a screen, which is executed by a computer including a processor 29 and a memory 25, and includes a method in which the processor 29 photographs a moving person with a camera. A step of acquiring a photographed image (S211), a step of analyzing the acquired photographic image and identifying skeletal information of the person based on the analysis result (S212), and a step of detecting the motion of the person from the identified skeletal information (S212). S213), a step of displaying a pointer on the screen that corresponds to the person's hand and indicates the position on the screen (S214), and a plurality of predetermined points are displayed on the screen in accordance with the first movement of the detected person. A step of displaying an icon (S311), and a step of moving a plurality of icons displayed on the screen on the screen according to a second motion of the detected person that is different from the first motion (S312). and a step (S215) of controlling the pointer to move in accordance with the person's hand motion in accordance with the person's hand motion extracted from the detected person's motion; detecting the pointer motion; A method for performing a step (S314) of causing a function associated with one icon to be executed depending on a position with respect to one of the plurality of icons.

1 :アバターサービス提供システム
10 :端末装置
10A :端末装置
10B :端末装置
13 :入力装置
14 :出力装置
15 :メモリ
16 :記憶部
19 :プロセッサ
20 :サーバ
25 :メモリ
26 :ストレージ
29 :プロセッサ
30 :表示画面
31L :ポインタ
31R :ポインタ
32 :アイコン
80 :ネットワーク
81 :無線基地局
82 :無線LANルータ
111 :アンテナ
112 :アンテナ
121 :第1無線通信部
122 :第2無線通信部
130 :操作受付部
131 :デバイス
132 :ディスプレイ
140 :音声処理部
141 :マイク
142 :スピーカ
150 :位置情報センサ
160 :カメラ
170 :記憶部
171 :ユーザ情報
180 :制御部
181 :入力操作受付部
182 :送受信部
183 :通知制御部
184 :データ処理部
201 :通信部
202 :記憶部
203 :制御部
2021 :ユーザデータベース
2031 :受信制御モジュール
2032 :送信制御モジュール
2033 :ユーザ認証モジュール
1: Avatar service providing system 10: Terminal device 10A: Terminal device 10B: Terminal device 13: Input device 14: Output device 15: Memory 16: Storage unit 19: Processor 20: Server 25: Memory 26: Storage 29: Processor 30: Display screen 31L: Pointer 31R: Pointer 32: Icon 80: Network 81: Wireless base station 82: Wireless LAN router 111: Antenna 112: Antenna 121: First wireless communication unit 122: Second wireless communication unit 130: Operation reception unit 131 : Device 132 : Display 140 : Audio processing part 141 : Microphone 142 : Speaker 150 : Position information sensor 160 : Camera 170 : Storage part 171 : User information 180 : Control part 181 : Input operation reception part 182 : Transmission/reception part 183 : Notification control Unit 184: Data processing unit 201: Communication unit 202: Storage unit 203: Control unit 2021: User database 2031: Reception control module 2032: Transmission control module 2033: User authentication module

Claims (8)

プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
前記プログラムは、前記プロセッサに、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から、前記人物の動作を検出するステップと、
前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行させ、
前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、プログラム。
A program for generating an image to be executed by a computer including a processor and a memory and displayed on a screen, the program comprising:
The program causes the processor to:
obtaining an image of a moving person taken with a camera;
analyzing the acquired photographed image and identifying skeletal information of the person based on the analysis result;
detecting the motion of the person from the identified skeletal information;
displaying a pointer on the screen that corresponds to the person's hand and indicates a position on the screen;
Displaying a plurality of predetermined icons on the screen according to the detected first movement of the person;
moving the plurality of icons displayed on the screen in response to a second motion of the detected person that is different from the first motion;
controlling the pointer to move in accordance with the person's hand movement in accordance with the person's hand movement extracted from the detected person's movement;
detecting a movement of the pointer and executing a function associated with the one icon according to the position of the pointer and one of the plurality of icons ;
The first action and the second action include an action using both hands by the person and an action using the upper body of the person,
In the step of identifying skeletal information of the person, analyzing the captured image of the whole body of the person, and identifying skeletal information of the person based on the analysis result,
The program detects a motion using both hands of the person and a motion using the upper body of the person in the step of detecting the motion of the person.
前記画面上に複数のアイコンを表示させるステップにおいて、前記画面上に、前記複数のアイコンのうちの1のアイコンのみを選択可能に表示させ、
前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを移動させて選択可能な前記1のアイコンを変更する、請求項1に記載のプログラム。
In the step of displaying a plurality of icons on the screen, displaying only one icon among the plurality of icons on the screen in a selectable manner;
According to claim 1, in the step of moving the plurality of icons, the first selectable icon is changed by moving the plurality of icons displayed on the screen according to the second operation. Programs listed.
前記画面上に複数のアイコンを表示させるステップにおいて、前記画面上に、前記人物を含む仮想空間を表示させ、前記仮想空間に前記複数のアイコンが存在するように表示させ、
前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記仮想空間における前記複数のアイコンを前記仮想空間上で移動させる、請求項2に記載のプログラム。
In the step of displaying a plurality of icons on the screen, a virtual space including the person is displayed on the screen, and the plurality of icons are displayed in the virtual space,
3. The program according to claim 2, wherein in the step of moving the plurality of icons, the plurality of icons in the virtual space are moved on the virtual space according to the second operation.
前記画面上に複数のアイコンを表示させるステップにおいて、前記仮想空間において、前記人物を中心として環状に前記複数のアイコンが存在するように表示させ、
前記複数のアイコンを移動させるステップにおいて、前記第2の動作に応じて、前記仮想空間における前記複数のアイコンを前記環状に沿って移動させ、選択可能な前記1のアイコンを変更する、請求項3に記載のプログラム。
In the step of displaying the plurality of icons on the screen, the plurality of icons are displayed in a ring shape around the person in the virtual space,
3. In the step of moving the plurality of icons, the plurality of icons in the virtual space are moved along the annular shape in response to the second operation, and the first selectable icon is changed. The program described in.
前記第1の動作は、前記人物による両手を上げる動作、及び手を叩く動作を含む、請求項1から請求項4のいずれか1項に記載のプログラム。 5. The program according to claim 1, wherein the first action includes an action by the person of raising both hands and an action of clapping hands. 前記第2の動作は、前記人物による上半身を捻る動作、及び両手を同時に所定の方向に動かす動作を含む、請求項1から請求項4のいずれか1項に記載のプログラム。 5. The program according to claim 1, wherein the second action includes an action of twisting the upper body of the person and an action of moving both hands simultaneously in a predetermined direction. 制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
前記制御部は、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から、前記人物の動作を検出するステップと、
前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行し、
前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、情報処理装置。
An information processing device that includes a control unit and a storage unit and generates an image to be displayed on a screen,
The control unit includes:
obtaining an image of a moving person taken with a camera;
analyzing the acquired photographed image and identifying skeletal information of the person based on the analysis result;
detecting the motion of the person from the identified skeletal information;
displaying a pointer on the screen that corresponds to the person's hand and indicates a position on the screen;
Displaying a plurality of predetermined icons on the screen according to the detected first movement of the person;
moving the plurality of icons displayed on the screen in response to a second motion of the detected person that is different from the first motion;
controlling the pointer to move in accordance with the person's hand movement in accordance with the person's hand movement extracted from the detected person's movement;
detecting a movement of the pointer and executing a function associated with the one icon according to the position of the pointer and one of the plurality of icons ;
The first action and the second action include an action using both hands by the person and an action using the upper body of the person,
In the step of identifying skeletal information of the person, analyzing the captured image of the whole body of the person, and identifying skeletal information of the person based on the analysis result,
In the step of detecting a motion of the person, an information processing device detects a motion using both hands of the person and a motion using the upper body of the person.
プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
前記方法は、前記プロセッサが、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から、前記人物の動作を検出するステップと、
前記画面上に、前記人物の手に対応し、前記画面上における位置を示すポインタを表示させるステップと、
検出した前記人物の第1の動作に応じて、前記画面上に複数の所定のアイコンを表示させるステップと、
検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記複数のアイコンを前記画面上で移動させるステップと、
検出した前記人物の動作から抽出した前記人物の手の動作に応じて、前記人物の手の動作に合わせて前記ポインタを動かすように制御するステップと、
前記ポインタの動作を検出し、前記ポインタと、前記複数のアイコンのうちの1のアイコンとの位置に応じて、前記1のアイコンに関連付けられた機能を実行させるステップと、を実行し、
前記第1の動作及び前記第2の動作は、前記人物による両手を用いた動作、及び前記人物による上半身を用いた動作を含み、
前記人物の骨格情報を特定するステップにおいて、前記人物の全身が撮像された前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定し、
前記人物の動作を検出するステップにおいて、前記人物の両手を用いた動作、及び前記人物による上半身を用いた動作を検出する、方法。
A method for generating an image to be displayed on a screen executed by a computer comprising a processor and a memory, the method comprising:
The method includes the processor:
obtaining an image of a moving person taken with a camera;
analyzing the acquired photographed image and identifying skeletal information of the person based on the analysis result;
detecting the motion of the person from the identified skeletal information;
displaying a pointer on the screen that corresponds to the person's hand and indicates a position on the screen;
Displaying a plurality of predetermined icons on the screen according to the detected first movement of the person;
moving the plurality of icons displayed on the screen in response to a second motion of the detected person that is different from the first motion;
controlling the pointer to move in accordance with the person's hand movement in accordance with the person's hand movement extracted from the detected person's movement;
detecting a movement of the pointer and executing a function associated with the one icon according to the position of the pointer and one of the plurality of icons ;
The first action and the second action include an action using both hands by the person and an action using the upper body of the person,
In the step of identifying skeletal information of the person, analyzing the captured image of the whole body of the person, and identifying skeletal information of the person based on the analysis result,
The method includes detecting a motion of the person using both hands and a motion of the person using the upper body.
JP2023047607A 2023-03-24 2023-03-24 Program, information processing device and method Active JP7386583B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023047607A JP7386583B1 (en) 2023-03-24 2023-03-24 Program, information processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023047607A JP7386583B1 (en) 2023-03-24 2023-03-24 Program, information processing device and method

Publications (1)

Publication Number Publication Date
JP7386583B1 true JP7386583B1 (en) 2023-11-27

Family

ID=88917894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023047607A Active JP7386583B1 (en) 2023-03-24 2023-03-24 Program, information processing device and method

Country Status (1)

Country Link
JP (1) JP7386583B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140123077A1 (en) 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
JP2014160323A (en) 2013-02-19 2014-09-04 Brother Ind Ltd Display device and display program
JP2023029950A (en) 2021-06-11 2023-03-07 Tis株式会社 Information processing system, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140123077A1 (en) 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
JP2014160323A (en) 2013-02-19 2014-09-04 Brother Ind Ltd Display device and display program
JP2023029950A (en) 2021-06-11 2023-03-07 Tis株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
CN108415705B (en) Webpage generation method and device, storage medium and equipment
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
US20160171773A1 (en) Display control method, information processing apparatus, and storage medium
CN109327608B (en) Song sharing method, terminal, server and system
WO2015102854A1 (en) Assigning virtual user interface to physical object
KR102004986B1 (en) Method and system for executing application, device and computer readable recording medium thereof
CN110932963A (en) Multimedia resource sharing method, system, device, terminal, server and medium
CN112581571B (en) Control method and device for virtual image model, electronic equipment and storage medium
CN111437600A (en) Plot showing method, plot showing device, plot showing equipment and storage medium
JP7236551B2 (en) CHARACTER RECOMMENDATION METHOD, CHARACTER RECOMMENDATION DEVICE, COMPUTER AND PROGRAM
JP7386583B1 (en) Program, information processing device and method
US20190212834A1 (en) Software gyroscope apparatus
JP7182324B1 (en) Program, information processing device and method
JP7372717B1 (en) Program, information processing device and method
CN114100121A (en) Operation control method, device, equipment, storage medium and computer program product
CN110569064B (en) Interface identifier generation method, device, equipment and storage medium
CN114826799A (en) Information acquisition method, device, terminal and storage medium
KR20170045101A (en) Electronic device and Method for sharing content thereof
CN112132472A (en) Resource management method and device, electronic equipment and computer readable storage medium
CN111539794A (en) Voucher information acquisition method and device, electronic equipment and storage medium
US20240078071A1 (en) Interaction method between display device and terminal device, storage medium and electronic device
CN114466237B (en) Display method, display device, computer equipment and medium
US11503361B1 (en) Using signing for input to search fields

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230421

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7386583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150