JP7182324B1 - Program, information processing device and method - Google Patents

Program, information processing device and method Download PDF

Info

Publication number
JP7182324B1
JP7182324B1 JP2022039127A JP2022039127A JP7182324B1 JP 7182324 B1 JP7182324 B1 JP 7182324B1 JP 2022039127 A JP2022039127 A JP 2022039127A JP 2022039127 A JP2022039127 A JP 2022039127A JP 7182324 B1 JP7182324 B1 JP 7182324B1
Authority
JP
Japan
Prior art keywords
pointer
person
screen
hand
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022039127A
Other languages
Japanese (ja)
Other versions
JP2023133885A (en
Inventor
剛 川▲崎▼
翔一郎 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirrorx
Original Assignee
Mirrorx
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirrorx filed Critical Mirrorx
Priority to JP2022039127A priority Critical patent/JP7182324B1/en
Priority to JP2022181625A priority patent/JP2023134340A/en
Application granted granted Critical
Publication of JP7182324B1 publication Critical patent/JP7182324B1/en
Publication of JP2023133885A publication Critical patent/JP2023133885A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】仮想空間上で各種サービスの提供を受けるための操作を容易にする技術を提供する。【解決手段】アバターサービス提供システム1の端末装置10は、その機能として、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から人物の手の骨格情報を抽出するステップと、画面上に、手を模した手画像を表示させるステップと、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップと、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップと、を実行させる。【選択図】図6A technique for facilitating operations for receiving various services in a virtual space is provided. A terminal device 10 of an avatar service providing system 1 has, as its functions, a step of obtaining a photographed image of a moving person photographed with a camera, an analysis of the obtained photographed image, and a determination of the person based on the analysis result. a step of identifying skeletal information; a step of extracting skeletal information of a person's hand from the identified skeletal information; a step of displaying a hand image imitating a hand on a screen; Based on this, the steps of controlling to move the hand image in accordance with the movement of the hand of the person, and the step of detecting a predetermined movement of the hand image and executing a function associated with the predetermined movement are executed. [Selection drawing] Fig. 6

Description

本開示は、プログラム、情報処理装置及び方法に関する。 The present disclosure relates to programs, information processing apparatuses, and methods.

昨今、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供することが行われている。このようなサービスは、実際の人物の外観を表示させずに各種サービスを提供するため、当該人物の外観を不特定のユーザに晒すことなく各種サービスの提供を受けることが可能であるため、一定のユーザにより利用されている。 In recent years, it has been practiced to take a picture of a person using a camera provided in a mobile terminal such as a smartphone, display an avatar, which is a character associated with the person photographed in a virtual space, and provide various services in the virtual space. It is Such services provide various services without displaying the appearance of the actual person. of users.

特許文献1には、ユーザーアカウントに関連したアバター情報および骨格情報に基づいて人物オブジェクトがアバターに代替された合成画像を生成する技術が開示されている。 Patent Literature 1 discloses a technique for generating a composite image in which a person object is replaced with an avatar based on avatar information and skeleton information associated with a user account.

特開2021-157800号公報Japanese Patent Application Laid-Open No. 2021-157800

ところで、仮想空間において、携帯端末で撮影された人物のアバターをリアルタイムで表示し、仮想空間上で各種サービスの提供を受ける場合、他の者により携帯端末を操作して当該各種サービスの提供を開始する、終了する等の操作をするか、当該人物が自身で操作する必要があった。そのため、このようなサービスの提供を受けるために煩わしい操作が必要となっていた。 By the way, in the virtual space, when a person's avatar photographed by a mobile terminal is displayed in real time and various services are provided in the virtual space, the mobile terminal is operated by another person to start providing the various services. It was necessary to perform an operation such as start or end, or the person in question had to operate by himself/herself. Therefore, troublesome operations have been required to receive such services.

そこで、本開示では、仮想空間上で各種サービスの提供を受けるための操作を容易にする技術について説明する。 Therefore, in the present disclosure, a technique for facilitating operations for receiving various services in virtual space will be described.

本開示の一実施形態によると、プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムが提供される。プログラムは、プロセッサに、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から人物の手の骨格情報を抽出するステップと、画面上に、手を模した手画像を表示させるステップと、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップと、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップと、を実行させる。 According to one embodiment of the present disclosure, there is provided a program for generating an image to be displayed on a screen, which is executed by a computer having a processor and memory. The program instructs the processor to obtain a photographed image of a person in motion taken by a camera, analyze the obtained photographed image, identify skeleton information of the person based on the analysis results, and perform a step of extracting skeleton information of a person's hand; a step of displaying a hand image imitating a hand on a screen; and a step of detecting a predetermined motion of the hand image and causing a function associated with the predetermined motion to be executed.

本開示によれば、撮影した人物の手の動作に合わせて手画像を動かすように制御し、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させる。これにより、仮想空間上で各種サービスの提供を受けるための操作を容易にすることが可能になる。 According to the present disclosure, the hand image is controlled to move according to the movement of the hand of the photographed person, the predetermined movement of the hand image is detected, and the function associated with the predetermined movement is executed. This makes it possible to facilitate the operation for receiving various services in the virtual space.

本開示に係るアバターサービス提供システムの概略を示す構成図である。1 is a configuration diagram showing an outline of an avatar service providing system according to the present disclosure; FIG. 実施の形態1のアバターサービス提供システム1の全体の構成を示す構成図である。1 is a configuration diagram showing the overall configuration of an avatar service providing system 1 according to Embodiment 1; FIG. 実施の形態1のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。2 is a block diagram showing a functional configuration of terminal device 10 configuring avatar service providing system 1 of Embodiment 1. FIG. 実施の形態1のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。2 is a block diagram showing a functional configuration of server 20 configuring avatar service providing system 1 of Embodiment 1. FIG. 実施の形態1のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of performing user authentication processing by the avatar service providing system 1 of Embodiment 1. FIG. 実施の形態1のアバターサービス提供システム1による手画像移動処理を行う流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of hand image movement processing by the avatar service providing system 1 of Embodiment 1. FIG. 実施の形態1のアバターサービス提供システム1によるアイコン制御処理を行う流れの一例を示すフローチャートである。4 is a flow chart showing an example of the flow of icon control processing by the avatar service providing system 1 of Embodiment 1. FIG. 表示画面30に手画像31L,31Rが表示された画面例を示す図である。3 is a diagram showing a screen example in which hand images 31L and 31R are displayed on a display screen 30. FIG. 表示画面30に表示されたアイコン32が選択された画面例を示す図である。FIG. 10 is a diagram showing a screen example in which an icon 32 displayed on the display screen 30 is selected; 表示画面30に表示されたアイコン32が実行された画面例を示す図である。FIG. 3 is a diagram showing an example of a screen in which an icon 32 displayed on a display screen 30 is executed; 表示画面30に表示された手画像31L,31Rによる画面スクロールの画面例を示す図である。FIG. 10 is a diagram showing a screen example of screen scrolling by hand images 31L and 31R displayed on the display screen 30. FIG.

以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, a detailed description thereof will not be repeated.

<概要>
以下、本開示に係るアバターサービス提供システムについて説明する。このアバターサービス提供システムは、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供するするためのシステムである。仮想空間上で提供される各種サービスとは、例えば、アバターをユーザの動きにより操作して行うゲームのようなエンターテインメント、複数のアバターをそれぞれのユーザの動きにより表示させて行うオンラインフィットネスサービス、複数のアバターによるコミュニケーションサービス等が挙げられる。本開示に係るアバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばWebサービスとして提供するシステムであり、クラウドサーバ等によりWebサービスとして、いわゆるSaaS(Software as a Service)によって提供されるシステムである。または、アバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばスマートフォン等の携帯端末によって(Webサーバを介してもよく、介さなくてもよい)提供されるシステムである。
<Overview>
An avatar service providing system according to the present disclosure will be described below. This avatar service providing system takes a picture of a person using a camera equipped with a mobile terminal such as a smartphone, displays an avatar, which is a character associated with the person photographed in the virtual space, and provides various services in the virtual space. It is a system for providing. The various services provided in the virtual space include, for example, entertainment such as games in which avatars are operated by the user's movements, online fitness services in which multiple avatars are displayed according to the movements of each user, and multiple Communication services using avatars, etc., can be mentioned. The avatar service providing system according to the present disclosure is a system that provides various services performed through such an avatar that projects a user, for example, as a Web service. Service). Alternatively, the avatar service providing system is a system that provides various services performed through such an avatar projecting a user by a mobile terminal such as a smartphone (either via a web server or not). is.

図1は、本開示に係るアバターサービス提供システムの概略を示す構成図である。図1に示すように、アバターサービス提供システムは、スマートフォン等の端末装置10と、表示画面30とを含む。端末装置10は、スマートフォン、タブレット等の携帯端末である。表示画面30は、ディスプレイ、テレビジョン、プロジェクタ等の画像表示装置であり、一定の離れた位置で見ることが可能な大きさに構成されている。端末装置10は、有線または無線の通信手段を介して表示画面30と通信可能に接続される。このときの通信手段の例は、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High Definition Multimedia Interface)等の規格による通信ケーブル、Miracast(登録商標)、WiDi、AirPlay(登録商標)等の規格による無線通信が挙げられるが、これらに限定されない。端末装置10のディスプレイ132には仮想空間が表示されており、端末装置10で人物Hを撮影すると、端末装置10のディスプレイ132に表示されている仮想空間上に、人物Hに関連付けられたキャラクタであるアバターAが表示される。このとき、例えば、端末装置10を横向きに撮影し、表示画面30のアスペクト比(縦横比)に近似するようにしてもよい。また、表示画面30にも、仮想空間とアバターAが表示される。アバターAは、人物Hの身体の動きに対応して動くように構成されており、アバターAの動きにより各種サービスが提供される。さらに、アバターAの情報はWebサーバ等により共有されてもよく、共有されている複数のアバターAが表示画面30に表示されて各種サービスが提供されてもよい。 FIG. 1 is a configuration diagram showing an outline of an avatar service providing system according to the present disclosure. As shown in FIG. 1 , the avatar service providing system includes a terminal device 10 such as a smart phone and a display screen 30 . The terminal device 10 is a mobile terminal such as a smart phone or a tablet. The display screen 30 is an image display device such as a display, a television, or a projector, and is configured to have a size that allows viewing from a fixed distance. The terminal device 10 is communicably connected to the display screen 30 via wired or wireless communication means. Examples of communication means at this time include, for example, USB (Universal Serial Bus), HDMI (registered trademark) (High Definition Multimedia Interface) and other standard communication cables, Miracast (registered trademark), WiDi, AirPlay (registered trademark), etc. wireless communication according to the standards of, but not limited to. A virtual space is displayed on the display 132 of the terminal device 10. When the terminal device 10 captures a picture of the person H, a character associated with the person H appears in the virtual space displayed on the display 132 of the terminal device 10. A certain avatar A is displayed. At this time, for example, the terminal device 10 may be photographed horizontally to approximate the aspect ratio (horizontal-to-horizontal ratio) of the display screen 30 . The virtual space and avatar A are also displayed on the display screen 30 . The avatar A is configured to move in response to the movement of the body of the person H, and the movement of the avatar A provides various services. Furthermore, the information of the avatar A may be shared by a Web server or the like, and a plurality of shared avatars A may be displayed on the display screen 30 and various services may be provided.

ここで、端末装置10で人物Hの身体の動きを撮影しようとすると、人物Hから一定の離隔した距離で撮影する必要がある。その状態で、各種サービスの提供を開始するためには端末装置10を操作する必要があり、人物Hが1人で行っている場合、人物Hが端末装置10の位置まで移動して端末装置10を操作し、各種サービスの提供を開始させ、さらに端末装置10から離隔した位置に戻る必要があり、人物Hにとって煩わしい操作が必要となっていた。 Here, when trying to photograph the movement of the body of the person H with the terminal device 10, it is necessary to photograph the person H at a certain distance. In that state, it is necessary to operate the terminal device 10 in order to start providing various services. to start providing various services, and then return to a position away from the terminal device 10, which is a troublesome operation for the person H.

そのため、本開示に係るアバターサービス提供システムでは、各種サービスの提供開始前の状態で、手を模した手画像を表示させて人物Hの手の動作に合わせて手画像を動かすように制御し、手画像の動作により各種サービスの提供を開始できるようにしている。例えば、表示画面30に各種サービスの提供を開始させるためのアイコンを表示させ、手画像の動作によりアイコンを選択し、実行させることが可能になるように構成している。そのため、人物Hは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 Therefore, in the avatar service providing system according to the present disclosure, before the start of provision of various services, a hand image imitating a hand is displayed, and the hand image is controlled to move in accordance with the movement of the hand of the person H, Various services can be started by the action of the hand image. For example, an icon for starting the provision of various services is displayed on the display screen 30, and the icon can be selected and executed by the action of the hand image. Therefore, the person H does not need to return to the position of the terminal device 10 and operate it, thus eliminating troublesome operations. This enables smooth provision of various services by the avatar service providing system.

また、本開示に係るアバターサービス提供システムでは、手画像の動作により各種サービスを提供するためのメニュー画面を操作できるようにしている。具体的には、表示画面30に各種サービスの提供を開始するためのアイコンが複数表示され、1画面では表示しきれないような場合に2画面以上で表示させる場合があり、そのような場合に複数画面間でスクロールさせることを可能にしている。これにより、煩わしい操作を不要にし、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 In addition, in the avatar service providing system according to the present disclosure, it is possible to operate a menu screen for providing various services by actions of hand images. Specifically, when a plurality of icons for starting the provision of various services are displayed on the display screen 30 and cannot be displayed on one screen, they may be displayed on two or more screens. Allows scrolling between multiple screens. This eliminates troublesome operations and enables smooth provision of various services by the avatar service providing system.

<第1の実施の形態>
以下、アバターサービス提供システム1について説明する。以下の説明では、例えば、端末装置10がサーバ20へアクセスすることにより、サーバ20が、端末装置10で画面を生成するための情報を応答する。端末装置10は、サーバ20から受信した情報に基づいて画面を生成し表示する。
<First embodiment>
The avatar service providing system 1 will be described below. In the following description, for example, when the terminal device 10 accesses the server 20 , the server 20 responds with information for generating a screen on the terminal device 10 . The terminal device 10 generates and displays a screen based on information received from the server 20 .

<1 アバターサービス提供システム1の全体構成>
図2は、アバターサービス提供システム1の全体の構成を示す構成図である。図2に示すように、アバターサービス提供システム1は、複数の端末装置(図2では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。また、端末装置10は、図1に示すように表示画面30と通信可能に接続されるが、図2では図示を省略する。
<1 Overall Configuration of Avatar Service Providing System 1>
FIG. 2 is a configuration diagram showing the overall configuration of the avatar service providing system 1. As shown in FIG. As shown in FIG. 2, the avatar service providing system 1 includes a plurality of terminal devices (terminal device 10A and terminal device 10B are shown in FIG. 2; hereinafter collectively referred to as "terminal device 10"). and the server 20 . The terminal device 10 and the server 20 are connected via a network 80 so as to be able to communicate with each other. Network 80 is configured by a wired or wireless network. Also, the terminal device 10 is communicably connected to the display screen 30 as shown in FIG. 1, but the illustration is omitted in FIG.

端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPC、デスクトップPC、スマートTVであるとしてもよい。端末装置10を操作するユーザとは、アバターサービス提供システム1において仮想空間上にアバターを表示させて各種サービスの提供を受ける者であり、例えば、アバターサービス提供システム1に会員登録している者である。 The terminal device 10 is a device operated by each user. The terminal device 10 is implemented by a mobile terminal such as a smart phone or a tablet compatible with a mobile communication system. In addition, the terminal device 10 may be, for example, a portable notebook PC (Personal Computer), a laptop PC, a desktop PC, or a smart TV. A user who operates the terminal device 10 is a person who displays an avatar in a virtual space in the avatar service providing system 1 and receives various services. be.

端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。図2に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。 The terminal device 10 is communicably connected to the server 20 via the network 80 . The terminal device 10 is a wireless base station 81 compatible with communication standards such as 4G, 5G, and LTE (Long Term Evolution), and a wireless LAN (Local Area Network) standard such as IEEE (Institute of Electrical and Electronics Engineers) 802.11. It is connected to the network 80 by communicating with a compatible communication device such as a wireless LAN router 82 . As shown as terminal device 10B in FIG.

通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、キーボード、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The communication IF 12 is an interface for inputting and outputting signals so that the terminal device 10 communicates with an external device. The input device 13 is an input device (for example, a touch panel, a touch pad, a keyboard, a pointing device such as a mouse, etc.) for receiving an input operation from a user. The output device 14 is an output device (display, speaker, etc.) for presenting information to the user. The memory 15 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory). The storage unit 16 is a storage device for storing data, and is, for example, a flash memory or a HDD (Hard Disc Drive). The processor 19 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

サーバ20は、ユーザから各種サービスの提供を受けるための入力を受け付け、仮想空間上にアバターを表示して仮想空間上で各種サービスを提供するサービスをWebサービスとして配信して提供する装置である。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、サーバ20は必須の構成ではない。 The server 20 is a device that receives an input from a user for receiving various services, displays avatars in a virtual space, and distributes and provides services as Web services for providing various services in the virtual space. Note that the avatar service providing system 1 may provide various services using only the terminal device 10, and in this case, the server 20 is not an essential component.

サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。 Server 20 is a computer connected to network 80 . The server 20 includes a communication IF 22 , an input/output IF 23 , a memory 25 , a storage 26 and a processor 29 .

通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。 The communication IF 22 is an interface for inputting and outputting signals for the server 20 to communicate with an external device. The input/output IF 23 functions as an interface with an input device for receiving input operations from the user and an output device for presenting information to the user. The memory 25 temporarily stores programs and data processed by the programs, and is a volatile memory such as a DRAM (Dynamic Random Access Memory). The storage 26 is a storage device for storing data, such as a flash memory or HDD (Hard Disc Drive). The processor 29 is hardware for executing an instruction set described in a program, and is composed of arithmetic units, registers, peripheral circuits, and the like.

<1.1 端末装置10の構成>
図3は、実施の形態1のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。図3に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
<1.1 Configuration of terminal device 10>
FIG. 3 is a block diagram showing a functional configuration of the terminal device 10 that constitutes the avatar service providing system 1 of the first embodiment. As shown in FIG. 3, the terminal device 10 includes a plurality of antennas (antenna 111, antenna 112), wireless communication units (first wireless communication unit 121, second wireless communication unit 122) corresponding to each antenna, and an operation unit. Reception unit 130 (including touch-sensitive device 131 and display 132), audio processing unit 140, microphone 141, speaker 142, position information sensor 150, camera 160, storage unit 170, and control unit 180 including. The terminal device 10 also has functions and configurations not particularly shown in FIG. 3 (for example, a battery for retaining power, a power supply circuit for controlling power supply from the battery to each circuit, etc.). As shown in FIG. 3, each block included in the terminal device 10 is electrically connected by a bus or the like.

アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。 The antenna 111 radiates a signal emitted by the terminal device 10 as radio waves. Antenna 111 also receives radio waves from space and provides a received signal to first wireless communication section 121 .

アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。 The antenna 112 radiates a signal emitted by the terminal device 10 as radio waves. Antenna 112 also receives radio waves from space and provides a received signal to second wireless communication section 122 .

第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。 The first wireless communication unit 121 performs modulation/demodulation processing and the like for transmitting and receiving signals via the antenna 111 in order for the terminal device 10 to communicate with other wireless devices. The second wireless communication unit 122 performs modulation/demodulation processing and the like for transmitting and receiving signals via the antenna 112 so that the terminal device 10 communicates with other wireless devices. The first radio communication unit 121 and the second radio communication unit 122 are communication modules including a tuner, an RSSI (Received Signal Strength Indicator) calculation circuit, a CRC (Cyclic Redundancy Check) calculation circuit, a high frequency circuit, and the like. The first radio communication unit 121 and the second radio communication unit 122 perform modulation/demodulation and frequency conversion of radio signals transmitted/received by the terminal device 10 and provide received signals to the control unit 180 .

操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。 The operation accepting unit 130 has a mechanism for accepting user input operations. Specifically, operation accepting unit 130 is configured as a touch screen and includes touch-sensitive device 131 and display 132 . Note that the operation reception unit 130 may be configured with, for example, a keyboard, a mouse, and the like.

タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。 The touch-sensitive device 131 receives input operations of the user of the terminal device 10 . The touch-sensitive device 131 detects the user's touch position on the touch panel by using, for example, a capacitive touch panel. The touch-sensitive device 131 outputs a signal indicating the user's touch position detected by the touch panel to the control unit 180 as an input operation.

ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。 The display 132 displays data such as images, moving images, and text under the control of the control unit 180 . The display 132 is implemented by, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display.

音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。 The audio processing unit 140 modulates and demodulates an audio signal. Audio processing unit 140 modulates the signal supplied from microphone 141 and supplies the modulated signal to control unit 180 . Also, the audio processing unit 140 provides an audio signal to the speaker 142 . The audio processing unit 140 is implemented by, for example, a processor for audio processing. Microphone 141 receives a voice input and provides voice signal corresponding to the voice input to voice processing section 140 . The speaker 142 converts the audio signal provided from the audio processing unit 140 into audio and outputs the audio to the outside of the terminal device 10 .

位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。 The position information sensor 150 is a sensor that detects the position of the terminal device 10, and is, for example, a GPS (Global Positioning System) module. A GPS module is a receiving device used in a satellite positioning system. The satellite positioning system receives signals from at least three or four satellites, and detects the current position of the terminal device 10 equipped with a GPS module based on the received signals.

カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できるデバイスである。 The camera 160 is a device for receiving light with a light receiving element and outputting it as a photographed image. The camera 160 is, for example, a device capable of detecting the distance from the camera 160 to the subject.

記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、ユーザ情報171を記憶する。 The storage unit 170 is configured by, for example, a flash memory or the like, and stores data and programs used by the terminal device 10 . In one aspect, storage unit 170 stores user information 171 .

ユーザ情報171は、端末装置10を使用してアバターサービス提供システム1の機能である、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザの情報である。ユーザの情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。 The user information 171 is information of a user who uses the terminal device 10 to display an avatar in the virtual space and receive various services, which is a function of the avatar service providing system 1 . The user information includes information for identifying the user (user ID) and password, information such as the user's name, title, and pseudonym, and avatar image information.

制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、通知制御部183と、データ処理部184としての機能を発揮する。 The control unit 180 reads a program stored in the storage unit 170 and executes instructions included in the program, thereby controlling the operation of the terminal device 10 . The control unit 180 is, for example, an application installed in the terminal device 10 in advance. The control unit 180 functions as an input operation reception unit 181, a transmission/reception unit 182, a notification control unit 183, and a data processing unit 184 by operating according to a program.

入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。また、入力操作受付部181は、マイク141からのユーザの音声を受け付ける処理を行う。 The input operation reception unit 181 performs processing for receiving a user's input operation to the input device such as the touch sensitive device 131 . The input operation reception unit 181 determines whether the user's operation is a flick operation, a tap operation, a drag ( swipe) operation is determined. Further, the input operation reception unit 181 performs processing for receiving the user's voice from the microphone 141 .

送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。 The transmission/reception unit 182 performs processing for the terminal device 10 to transmit/receive data to/from an external device such as the server 20 according to a communication protocol.

通知制御部183は、ユーザに対し情報を提示する処理を行う。通知制御部183は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理等を行う。 The notification control unit 183 performs processing for presenting information to the user. The notification control unit 183 performs processing for displaying a display image on the display 132, processing for outputting audio from the speaker 142, and the like.

データ処理部184は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。 The data processing unit 184 performs processing according to a program to perform computation on the data input by the terminal device 10, and outputs the computation result to a memory or the like.

また、データ処理部184は、端末装置10のプロセッサ19がプログラムに従って処理を行うことにより、各種モジュールとして、動いている人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析して解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から人物の手の骨格情報を抽出し、画面上に手を模した手画像を表示させ、抽出した人物の手の骨格情報に基づき人物の手の動作に合わせて手画像を動かすように制御し、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させる機能を発揮する。さらに、データ処理部184は、所定のアイコンを表示させ、手画像のアイコンに対する所定の動作を検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を発揮するように構成してもよい。 Further, the data processing unit 184 acquires a photographed image of a moving person photographed with a camera and analyzes the acquired photographed image as various modules by the processor 19 of the terminal device 10 performing processing according to a program. Based on the analysis results, the skeletal information of the person is specified, the skeletal information of the person's hand is extracted from the specified skeletal information, a hand image imitating a hand is displayed on the screen, and based on the extracted skeletal information of the person's hand The hand image is controlled to move in accordance with the motion of the hand of a person, and the function of detecting a predetermined motion of the hand image and executing a function associated with the predetermined motion is exhibited. Furthermore, the data processing unit 184 may be configured to display a predetermined icon and, when detecting a predetermined action on the icon of the hand image, select the icon or perform a function associated with the icon. .

<1.2 サーバ20の機能的な構成>
図4は、実施の形態1のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
<1.2 Functional Configuration of Server 20>
FIG. 4 is a block diagram showing a functional configuration of server 20 that constitutes avatar service providing system 1 of Embodiment 1. As shown in FIG. As shown in FIG. 4 , the server 20 functions as a communication section 201 , a storage section 202 and a control section 203 .

通信部201は、サーバ20が外部の装置と通信するための処理を行う。 The communication unit 201 performs processing for the server 20 to communicate with an external device.

記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザデータベース2021等を記憶する。 The storage unit 202 stores data and programs used by the server 20 . The storage unit 202 stores a user database 2021 and the like.

ユーザデータベース2021は、アバターサービス提供システム1において、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザに関する情報を保持するためのデータベースである。ユーザに関する情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。 The user database 2021 is a database for holding information about users who display avatars in the virtual space and receive various services in the avatar service providing system 1 . The information about the user includes information for identifying the user (user ID) and password, information such as the user's name, title, and pseudonym, image information of the avatar, and the like.

制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、ユーザ認証モジュール2033に示す機能を発揮する。 The processor of the server 20 performs processing according to a program, so that the control unit 203 exhibits functions indicated by a reception control module 2031, a transmission control module 2032, and a user authentication module 2033 as various modules.

受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。 The reception control module 2031 controls processing for the server 20 to receive a signal from an external device according to a communication protocol.

送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。 The transmission control module 2032 controls the processing by which the server 20 transmits signals to external devices according to a communication protocol.

ユーザ認証モジュール2033は、サーバ20にアクセスするユーザが正当なユーザであることを認証する処理を制御する。ユーザ認証モジュール2033によるユーザの認証は、例えば、ユーザIDが登録されていること、当該ユーザIDのパスワードとして登録されているパスワードと同一のパスワードが入力されたこと、等により行われる。 The user authentication module 2033 controls the process of authenticating that a user who accesses the server 20 is an authorized user. User authentication by the user authentication module 2033 is performed, for example, when a user ID is registered, when the same password as the password registered as the password for the user ID is entered, and the like.

<2 動作>
以下、図5ないし図7を参照しながら、第1の実施の形態におけるアバターサービス提供システム1によるユーザ認証処理、手画像移動処理、及びアイコン制御処理について説明する。
<2 Operation>
User authentication processing, hand image movement processing, and icon control processing by the avatar service providing system 1 according to the first embodiment will be described below with reference to FIGS. 5 to 7. FIG.

図5は、実施の形態1のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、図5に示すユーザ認証処理は行わなくてもよい。 FIG. 5 is a flow chart showing an example of the flow of user authentication processing by the avatar service providing system 1 according to the first embodiment. Note that the avatar service providing system 1 may provide various services using only the terminal device 10, and in this case, the user authentication processing shown in FIG. 5 may not be performed.

ステップS111において、端末装置10の入力操作受付部181は、ユーザの操作によりアバターサービス提供システム1の専用アプリケーションを起動する。送受信部182は、ユーザID、パスワード等のユーザの情報を、サーバ20へ送信する。送受信部182は、サーバ20から送信された、仮想空間上にアバターを表示させて各種サービスの提供を受けるための各種情報を受け付ける。通知制御部183は、受け付けた各種情報を、ディスプレイ132に表示させる。 In step S111, the input operation receiving unit 181 of the terminal device 10 activates the dedicated application of the avatar service providing system 1 by the user's operation. The transmitter/receiver 182 transmits user information such as a user ID and password to the server 20 . Transmitting/receiving unit 182 receives various information transmitted from server 20 for displaying an avatar in the virtual space and receiving various services. The notification control unit 183 causes the display 132 to display the received various information.

ステップS121において、サーバ20のユーザ認証モジュール2033は、端末装置10から送信されたユーザの情報を、通信部201を介して受け付ける。サーバ20のユーザ認証モジュール2033は、受け付けたユーザの情報が正当なユーザからのものであることを認証する。サーバ20は、受け付けたユーザの情報が正当なものであると判定した場合、仮想空間上にアバターを表示させて各種サービスを提供するための各種情報を当該ユーザの端末装置10のディスプレイ132に表示させるため、端末装置10へ通信部201を介して送信する。 In step S<b>121 , the user authentication module 2033 of the server 20 receives the user information transmitted from the terminal device 10 via the communication unit 201 . The user authentication module 2033 of the server 20 authenticates that the received user information is from an authorized user. When the server 20 determines that the received user information is valid, the server 20 displays various information for displaying an avatar in the virtual space and providing various services on the display 132 of the terminal device 10 of the user. In order to make it possible, it is transmitted to the terminal device 10 via the communication unit 201 .

図6は、実施の形態1のアバターサービス提供システム1による手画像移動処理を行う流れの一例を示すフローチャートである。 FIG. 6 is a flow chart showing an example of the flow of hand image movement processing by the avatar service providing system 1 according to the first embodiment.

ステップS211において、端末装置10のデータ処理部184は、ユーザの操作により動いている人物をカメラ160で撮影した撮影画像を取得する。例えば、データ処理部184は、図1に示すように、端末装置10がカメラ160のレンズ部分が人物Hの方向に向けられた状態で固定され、アバターサービス提供システム1の専用アプリケーションにより人物Hを撮影した撮影画像、例えば動画を取得する。なお、このとき、人物Hを撮影する装置は端末装置10のカメラ160に限られず、外部装置としてのカメラであってもよく、例えば、LIDAR(Light Detection and Ranging)カメラ(センサ)、光学式または機械式(Inertial Measurement Unit)のモーションキャプチャシステム等であってもよい。端末装置10のデータ処理部184は、撮影画像を画像データとして記憶部170に記憶させる。 In step S<b>211 , the data processing unit 184 of the terminal device 10 acquires an image captured by the camera 160 of a person moving according to user's operation. For example, as shown in FIG. 1, the data processing unit 184 fixes the terminal device 10 with the lens portion of the camera 160 directed toward the person H, and uses the dedicated application of the avatar service providing system 1 to capture the person H. A photographed image, for example, a moving image, is acquired. At this time, the device for photographing the person H is not limited to the camera 160 of the terminal device 10, and may be a camera as an external device. A mechanical (Inertial Measurement Unit) motion capture system or the like may be used. The data processing unit 184 of the terminal device 10 stores the captured image in the storage unit 170 as image data.

ステップS212において、端末装置10のデータ処理部184は、ステップS211で取得した撮影画像に基づく画像データを解析し、解析結果に基づき、撮影された人物の骨格情報を特定する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物を、既知の画像認識技術を用いて身体の部位を特定し、それぞれの身体の部位を示す点の間を直線で結び、点と線で得られた情報を骨格情報とする。データ処理部184は、撮影画像における点の位置を撮影画像における座標の情報とする。この点は、例えば身体の関節部分に配置され、身体の動きに合わせて直線部分との角度を変更するように構成される。このような構成により、身体の動きを点と直線とで表現することを可能にしている。端末装置10のデータ処理部184は、特定した骨格情報を記憶部170に記憶させる。 In step S212, the data processing unit 184 of the terminal device 10 analyzes the image data based on the captured image acquired in step S211, and identifies the skeleton information of the captured person based on the analysis result. For example, by analyzing the image data, the data processing unit 184 identifies the body parts of the person in the captured image using a known image recognition technology, connects the points indicating the body parts with straight lines, The information obtained from the points and lines is used as skeleton information. The data processing unit 184 treats the position of the point in the captured image as coordinate information in the captured image. This point is arranged, for example, at a joint portion of the body and configured to change the angle with the straight portion in accordance with the movement of the body. Such a configuration makes it possible to express body movements with points and straight lines. The data processing unit 184 of the terminal device 10 causes the storage unit 170 to store the identified skeleton information.

ステップS213において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、撮影された人物の手の骨格情報を抽出する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物の手の部分を特定し、手の部分に配置された点の情報、例えば点の座標の情報を抽出する。 In step S213, the data processing unit 184 of the terminal device 10 extracts the skeleton information of the hand of the photographed person from the skeleton information specified in step S212. For example, the data processing unit 184 identifies the hand portion of the person in the captured image by analyzing the image data, and extracts information on points placed on the hand portion, for example, information on the coordinates of the points.

ステップS214において、端末装置10のデータ処理部184は、画面上に手を模した手画像を表示させる。手画像は、例えば人間の手の形状を模した画像であるが、画面上のどこを指し示しているかを認識できるような形状であればよく、矢印のような形状であってもよい。また、手画像の画像データは、記憶部170に記憶されたものである。端末装置10のデータ処理部184は、手画像を、ディスプレイ132に表示させると共に、図1に示すような表示画面30に表示させる。表示させる手画像は、両手のものでもよく、左右どちらか一方の片手のものでもよい。 In step S214, the data processing unit 184 of the terminal device 10 displays a hand image imitating a hand on the screen. The hand image is, for example, an image that imitates the shape of a human hand, but any shape that allows recognition of where the hand is pointing on the screen may be used, such as an arrow shape. Image data of the hand image is stored in the storage unit 170 . The data processing unit 184 of the terminal device 10 displays the hand image on the display 132 and also on the display screen 30 as shown in FIG. The hand images to be displayed may be those of both hands or one of either the left or right hand.

ステップS215において、端末装置10のデータ処理部184は、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて、ステップS214で表示させた手画像を動かすように制御する。 In step S215, the data processing unit 184 of the terminal device 10 controls the hand image displayed in step S214 to move in accordance with the movement of the person's hand based on the extracted skeleton information of the person's hand.

以上のように、アバターサービス提供システム1では、画面上に手を模した手画像を表示させ、人物の手の動作に合わせて手画像を動かすように制御する。 As described above, the avatar service providing system 1 displays a hand image resembling a hand on the screen, and controls the hand image to move in accordance with the movement of a person's hand.

図7は、実施の形態1のアバターサービス提供システム1によるアイコン制御処理を行う流れの例を示すフローチャートである。 FIG. 7 is a flow chart showing an example of the flow of icon control processing by the avatar service providing system 1 according to the first embodiment.

ステップS311において、端末装置10のデータ処理部184は、画面上に所定のアイコンを表示させる。このアイコンは、画面上でアバターサービス提供システム1が提供する各種サービスの提供を開始するためのアイコンであり、手画像により選択され、アイコンに関連付けられた機能(各種サービス)を実行させるものである。 In step S311, the data processing unit 184 of the terminal device 10 displays a predetermined icon on the screen. This icon is an icon for starting the provision of various services provided by the avatar service providing system 1 on the screen, and is selected by the hand image to execute the function (various services) associated with the icon. .

ステップS312において、端末装置10のデータ処理部184は、画面上における手画像の位置と、アイコンの位置とを検出する。例えば、データ処理部184は、画面上における手画像の位置を、画面上における座標位置の情報として、人物の手の動きに合わせて随時検出する。また、データ処理部184は、画面上におけるアイコンの位置を、画面上における座標位置の情報として検出する。 In step S312, the data processing unit 184 of the terminal device 10 detects the position of the hand image and the position of the icon on the screen. For example, the data processing unit 184 detects the position of the hand image on the screen at any time as coordinate position information on the screen in accordance with the movement of the person's hand. The data processing unit 184 also detects the position of the icon on the screen as information on the coordinate position on the screen.

ステップS313において、端末装置10のデータ処理部184は、手画像のアイコンに対する所定の動作、例えば画面上における手画像の位置とアイコンの位置とが一致したことを検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行する。例えば、データ処理部184は、画面上における両手の手画像のうち、片手の手画像の位置がアイコンの位置と一致したことを検出すると、アイコンを選択状態(選択だけされた状態であり、機能は実行されない状態)にする。また、データ処理部184は、画面上における両手の手画像の両方の手画像の位置がアイコンの位置と一致したことを検出すると、アイコンを実行状態(アイコンに関連付けられた機能を実行させる状態)にする。 In step S313, when the data processing unit 184 of the terminal device 10 detects a predetermined operation for the icon of the hand image, for example, that the position of the hand image matches the position of the icon on the screen, it selects the icon, Or perform the function associated with the icon. For example, when the data processing unit 184 detects that the position of the hand image of one hand matches the position of the icon among the hand images of both hands on the screen, the data processing unit 184 puts the icon in a selected state (only selected state, function is not executed). Further, when the data processing unit 184 detects that the positions of the hand images of both hands on the screen match the positions of the icons, the data processing unit 184 puts the icons into an execution state (a state in which a function associated with the icon is executed). to

以上のように、アバターサービス提供システム1では、各種サービスの提供を開始させるためのアイコンを表示させ、手画像の動作によりアイコンを選択し、実行させることが可能になるように構成する。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。 As described above, the avatar service providing system 1 is configured so that icons for starting the provision of various services are displayed, and icons can be selected and executed by actions of hand images. This eliminates the need for the user to return to the position of the terminal device 10 and operate it, thereby eliminating troublesome operations.

なお、手画像による操作の他の例として、手画像を上下左右方向に移動する動作を検出すると、画面上に表示されている画像をスクロールさせるように構成してもよい。これにより、ユーザは端末装置10の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。 As another example of an operation using a hand image, the image displayed on the screen may be scrolled when an action of moving the hand image in the vertical and horizontal directions is detected. This eliminates the need for the user to return to the position of the terminal device 10 and operate it, thereby eliminating troublesome operations.

<3 画面例>
以下、図8ないし図11を参照しながら、アバターサービス提供システム1における手画像による操作の画面例について説明する。
<3 Screen example>
Hereinafter, examples of screens for operations using hand images in the avatar service providing system 1 will be described with reference to FIGS. 8 to 11. FIG.

図8は、表示画面30に手画像31L,31Rが表示された画面例を示す図である。図8の画面例は、図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示された画面例を示す。図6のステップS214に相当する。 FIG. 8 is a diagram showing a screen example in which hand images 31L and 31R are displayed on the display screen 30. As shown in FIG. The screen example of FIG. 8 shows a screen example in which a hand image to be moved in accordance with the motion of the hand of the person H is displayed on the display screen 30 shown in FIG. This corresponds to step S214 in FIG.

図8に示すように、端末装置10のディスプレイ132には、人物Hに関連付けられ、人物Hの手の動作に合わせて移動させる手画像132L,132Rが表示されている。また、表示画面30にも、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。手画像31L,31Rは、それぞれ人物Hの左手の動作に合わせて移動させるもの、右手の動作に合わせて移動させるものである。なお、このとき、端末装置10のディスプレイ132及び表示画面30の背景には仮想空間が表示されていてもよいが、図示を省略する。 As shown in FIG. 8, the display 132 of the terminal device 10 displays hand images 132L and 132R that are associated with the person H and that are moved in accordance with the motion of the hand of the person H. As shown in FIG. Further, on the display screen 30, hand images 31L and 31R to be moved in accordance with the movement of the hands of the person H are displayed. The hand images 31L and 31R are moved according to the motion of the left hand and right hand of the person H, respectively. At this time, a virtual space may be displayed in the background of the display 132 and the display screen 30 of the terminal device 10, but illustration thereof is omitted.

人物Hが右手を動かすと、その動きに合わせて手画像31Rが表示画面30上で上下左右に移動する。同様に、人物Hが左手を動かすと、その動きに合わせて手画像31Lが表示画面30上で上下左右に移動する。これにより、人物Hの手の動きに合わせて手画像を動かすことが可能である。 When the person H moves his/her right hand, the hand image 31R moves vertically and horizontally on the display screen 30 according to the movement. Similarly, when the person H moves his/her left hand, the hand image 31L moves vertically and horizontally on the display screen 30 in accordance with the movement. Thereby, it is possible to move the hand image according to the movement of the hand of the person H.

図9は、表示画面30に表示されたアイコン32が選択された画面例を示す図である。また、図10は、表示画面30に表示されたアイコン32が実行された画面例を示す図である。図9及び図10の画面例は、図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示され、各種サービスの提供を開始するためのアイコンが表示された画面例を示す。図7のステップS311に相当する。 FIG. 9 is a diagram showing a screen example in which the icon 32 displayed on the display screen 30 is selected. FIG. 10 is a diagram showing a screen example in which the icon 32 displayed on the display screen 30 is executed. In the screen examples of FIGS. 9 and 10, the display screen 30 shown in FIG. 1 displays a hand image to be moved in accordance with the motion of the hand of the person H, and icons for starting the provision of various services are displayed. A screen example is shown. This corresponds to step S311 in FIG.

図9及び図10に示すように、表示画面30には、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。また、表示画面30には、アイコン32が表示されている。 As shown in FIGS. 9 and 10, the display screen 30 displays hand images 31L and 31R that are moved in accordance with the motion of the hand of the person H. As shown in FIG. An icon 32 is also displayed on the display screen 30 .

人物Hの手の動きに合わせて手画像31L,31Rが動き、その画面上の位置が検出される。そして、図9に示す状態では、画面上における手画像31L,31Rのうちいずれか1つの位置と、アイコン32の位置とが一致したことを検出する。このとき、アイコン32は、選択状態になる。また、図10に示す状態では、画面上における手画像31L,31Rの両方の位置と、アイコン32の位置とが一致したことを検出する。このとき、アイコン32は、実行状態になる。これにより、ユーザは端末装置10の位置まで戻ることなく、アイコン32を選択し、アイコン32による機能を実行させることが可能である。 The hand images 31L and 31R move according to the movement of the hands of the person H, and their positions on the screen are detected. Then, in the state shown in FIG. 9, it is detected that the position of any one of the hand images 31L and 31R on the screen and the position of the icon 32 match. At this time, the icon 32 is in a selected state. Further, in the state shown in FIG. 10, it is detected that the positions of both the hand images 31L and 31R on the screen and the position of the icon 32 match. At this time, the icon 32 is in the running state. This allows the user to select the icon 32 and execute the function of the icon 32 without returning to the position of the terminal device 10 .

なお、アイコン32を選択し、アイコン32による機能を実行させる操作は、図9及び図10に示す連とは限られない。例えば、手画像31L,31Rのいずれか一方の位置が一定時間以上アイコン32の位置と一致した場合、アイコン32を選択状態にし、手画像31L,31Rのいずれか一方の位置が一定時間以内に2回アイコン32の位置と一致した場合(いわゆるダブルクリック)、アイコン32による機能を実行させるように構成してもよい。 Note that the operation of selecting the icon 32 and executing the function of the icon 32 is not limited to the series shown in FIGS. 9 and 10 . For example, if the position of one of the hand images 31L and 31R coincides with the position of the icon 32 for a certain period of time or more, the icon 32 is selected, and the position of either the hand images 31L or 31R is changed to 2 within a certain period of time. The function of the icon 32 may be executed when it coincides with the position of the turn icon 32 (so-called double-click).

図11は、表示画面30に表示された手画像31L,31Rによる画面スクロールの画面例を示す図である。図11の画面例は、図1に示す表示画面30に、人物Hの手の動作に合わせて移動させる手画像が表示された画面例を示す。図7のステップS311に相当する。 FIG. 11 is a diagram showing a screen example of screen scrolling by the hand images 31L and 31R displayed on the display screen 30. As shown in FIG. The screen example of FIG. 11 shows a screen example in which a hand image to be moved in accordance with the motion of the hand of the person H is displayed on the display screen 30 shown in FIG. This corresponds to step S311 in FIG.

図11に示すように、表示画面30には、人物Hの手の動作に合わせて移動させる手画像31L,31Rが表示されている。 As shown in FIG. 11, on the display screen 30, hand images 31L and 31R to be moved in accordance with the movement of the hands of the person H are displayed.

人物Hの手の動きに合わせて手画像31L,31Rが動き、その画面上の位置が検出される。そして、図11に示す状態では、手画像31L,31Rが矢印X方向にスライドするように移動したことを検出する。このとき、表示画面30に表示されている画像を矢印X方向にスクロールさせる。これにより、ユーザは端末装置10の位置まで戻ることなく、画面をスクロールさせる操作を実行させることが可能である。 The hand images 31L and 31R move according to the movement of the hands of the person H, and their positions on the screen are detected. In the state shown in FIG. 11, it is detected that the hand images 31L and 31R have slid in the arrow X direction. At this time, the image displayed on the display screen 30 is scrolled in the arrow X direction. As a result, the user can perform the operation of scrolling the screen without returning to the position of the terminal device 10 .

<小括>
以上のように、本実施形態によると、手画像を表示させてユーザの手の動作に合わせて手画像を動かすように制御する。手画像の動作により、手画像が各種サービスの提供を開始させるためのアイコンを選択し、実行させることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。
<Summary>
As described above, according to the present embodiment, a hand image is displayed and controlled to move in accordance with the motion of the user's hand. It is configured so that the action of the hand image enables the hand image to select an icon for starting the provision of various services and execute them. Therefore, the user does not need to return to the position of the terminal device to operate it, thus eliminating troublesome operations. This enables smooth provision of various services by the avatar service providing system.

また、手画像の動作により各種サービスの提供を開始させ、画像をスクロールさせることを可能にしているが、スマートフォン等の携帯端末による入力や、音声認識技術による音声入力も受け付ける構成(マルチモーダル)にしてもよい。このような構成にすることにより、誤作動を防止し、状況に応じて操作を簡便にする手段を選択可能とする効果が得られる。 In addition, it is possible to start providing various services and scrolling images by moving the hand image, but it is also configured (multimodal) to accept input from mobile terminals such as smartphones and voice input using voice recognition technology. may With such a configuration, it is possible to prevent erroneous operation and to select means for simplifying the operation depending on the situation.

なお、本開示に係るアバターサービス提供システムは、手画像の動作により、画像をスクロールさせることが可能になるように構成している。そのため、ユーザは端末装置の位置まで戻って操作する必要がなくなり、煩わしい操作を不要にしている。これにより、アバターサービス提供システムによる各種サービスの提供がスムーズに行われることを可能にしている。 Note that the avatar service providing system according to the present disclosure is configured so that the image can be scrolled by the action of the hand image. Therefore, the user does not need to return to the position of the terminal device to operate it, thus eliminating troublesome operations. This enables smooth provision of various services by the avatar service providing system.

以上、開示に係る実施形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。 Although the disclosed embodiments have been described above, they can be implemented in various other forms, and can be implemented with various omissions, substitutions, and modifications. These embodiments, modifications, omissions, substitutions and changes are included in the technical scope of the claims and their equivalents.

<付記>
以上の各実施形態で説明した事項を、以下に付記する。
<Appendix>
The items described in each of the above embodiments will be added below.

(付記1)プロセッサ29と、メモリ25とを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、プログラムは、プロセッサ29に、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行させる、プログラム。 (Appendix 1) A program for generating an image to be displayed on a screen by causing a computer comprising a processor 29 and a memory 25 to execute the program, the program instructing the processor 29 to photograph a person in motion with a camera. A step of acquiring a photographed image (S211), a step of analyzing the acquired photographed image and specifying skeleton information of a person based on the analysis result (S212), and extracting skeleton information of a person's hand from the identified skeleton information. step (S213); displaying a hand image imitating a hand on the screen (S214); A program for executing a step of controlling (S215) and a step of detecting a predetermined motion of a hand image and executing a function associated with the predetermined motion (S313).

(付記2)プログラムは、さらに、画面上に、所定のアイコンを表示させるステップ(S311)を実行させ、機能を実行させるステップにおいて、手画像の前記アイコンに対する所定の動作を検出すると、アイコンを選択状態にし、またはアイコンに関連付けられた機能を実行させる、(付記1)に記載のプログラム。 (Appendix 2) The program further executes a step (S311) of displaying a predetermined icon on the screen, and in the step of executing a function, when a predetermined action of the hand image on the icon is detected, the icon is selected. 1. The program of Claim 1 that causes a state or a function associated with the icon to be executed.

(付記3)手画像を表示させるステップにおいて、片手または両手を模した手画像を表示させ、機能を実行させるステップにおいて、片手の手画像の所定の動作と、両手の手画像の所定の動作とで異なる機能を実行させる、(付記2)に記載のプログラム。 (Appendix 3) In the step of displaying a hand image, in the step of displaying a hand image simulating one hand or both hands, and in executing a function, a predetermined action of the hand image of one hand and a predetermined action of the hand image of both hands are performed. The program according to (Appendix 2), which executes different functions in .

(付記4)片手の手画像がアイコンに接触する動作を検出すると、アイコンを選択状態にし、両手の手画像がアイコンに接触する動作を検出すると、アイコンに関連付けられた機能を実行させる、(付記3)に記載のプログラム。 (Appendix 4) When the hand image of one hand detects the action of touching the icon, the icon is selected, and when the hand image of both hands detects the action of touching the icon, the function associated with the icon is executed. 3) The program described in 3).

(付記5)機能を実行させるステップにおいて、手画像が上下左右方向に移動する動作を検出すると、画面上に表示されている画像をスクロールさせる、(付記1)から(付記4)のいずれかに記載のプログラム。 (Appendix 5) Any one of (Appendix 1) to (Appendix 4), wherein, in the step of executing the function, the image displayed on the screen is scrolled when the motion of moving the hand image in the vertical and horizontal directions is detected. program as described.

(付記6)制御部180と、記憶部170とを備え、画面上に表示させる画像を生成する情報処理装置であって、制御部180は、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行する、情報処理装置。 (Appendix 6) An information processing apparatus that includes a control unit 180 and a storage unit 170 and generates an image to be displayed on a screen, wherein the control unit 180 acquires a captured image of a moving person captured by a camera. (S211), analyzing the acquired photographed image and specifying the skeleton information of the person based on the analysis result (S212), and extracting the skeleton information of the person's hand from the specified skeleton information (S213). a step of displaying a hand image simulating a hand on the screen (S214); S215) and a step of detecting a predetermined action of a hand image and executing a function associated with the predetermined action (S313).

(付記7)プロセッサ29と、メモリ25とを備えるコンピュータにより実行され、画面上に表示させる画像を生成するための方法であって、方法は、プロセッサ29が、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から人物の手の骨格情報を抽出するステップ(S213)と、画面上に、手を模した手画像を表示させるステップ(S214)と、抽出した人物の手の骨格情報に基づき、人物の手の動作に合わせて手画像を動かすように制御するステップ(S215)と、手画像の所定の動作を検出して当該所定の動作に関連付けられた機能を実行させるステップ(S313)と、を実行する、方法。 (Appendix 7) A method for generating an image to be displayed on a screen, executed by a computer comprising a processor 29 and a memory 25, wherein the processor 29 captures a person in motion with a camera. A step of acquiring a photographed image (S211), a step of analyzing the acquired photographed image and specifying skeleton information of a person based on the analysis result (S212), and extracting skeleton information of a person's hand from the identified skeleton information. step (S213); displaying a hand image imitating a hand on the screen (S214); a step of controlling (S215); and detecting a predetermined action of the hand image and causing a function associated with the predetermined action to be performed (S313).

1 :アバターサービス提供システム
10 :端末装置
10A :端末装置
10B :端末装置
13 :入力装置
14 :出力装置
15 :メモリ
16 :記憶部
19 :プロセッサ
20 :サーバ
25 :メモリ
26 :ストレージ
29 :プロセッサ
30 :表示画面
31L :手画像
31R :手画像
32 :アイコン
80 :ネットワーク
81 :無線基地局
82 :無線LANルータ
111 :アンテナ
112 :アンテナ
121 :第1無線通信部
122 :第2無線通信部
130 :操作受付部
131 :デバイス
132 :ディスプレイ
140 :音声処理部
141 :マイク
142 :スピーカ
150 :位置情報センサ
160 :カメラ
170 :記憶部
171 :ユーザ情報
180 :制御部
181 :入力操作受付部
182 :送受信部
183 :通知制御部
184 :データ処理部
201 :通信部
202 :記憶部
203 :制御部
2021 :ユーザデータベース
2031 :受信制御モジュール
2032 :送信制御モジュール
2033 :ユーザ認証モジュール
1: Avatar service providing system 10: Terminal device 10A: Terminal device 10B: Terminal device 13: Input device 14: Output device 15: Memory 16: Storage unit 19: Processor 20: Server 25: Memory 26: Storage 29: Processor 30: Display screen 31L: Hand image 31R: Hand image 32: Icon 80: Network 81: Wireless base station 82: Wireless LAN router 111: Antenna 112: Antenna 121: First wireless communication unit 122: Second wireless communication unit 130: Operation reception Unit 131 : Device 132 : Display 140 : Audio processing unit 141 : Microphone 142 : Speaker 150 : Position information sensor 160 : Camera 170 : Storage unit 171 : User information 180 : Control unit 181 : Input operation reception unit 182 : Transmission/reception unit 183 : Notification control unit 184: data processing unit 201: communication unit 202: storage unit 203: control unit 2021: user database 2031: reception control module 2032: transmission control module 2033: user authentication module

Claims (7)

プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
前記プログラムは、前記プロセッサに、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行させる、プログラム。
A program for generating an image to be displayed on a screen to be executed by a computer comprising a processor and a memory,
The program causes the processor to:
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
detecting movements of the first pointer and the second pointer, and preventing execution of a function associated with the icon when either the first pointer or the second pointer touches the icon; causing a function associated with the icon to be executed when both the first pointer and the second pointer touch the icon.
プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
前記プログラムは、前記プロセッサに、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行させる、プログラム。
A program for generating an image to be displayed on a screen to be executed by a computer comprising a processor and a memory,
The program causes the processor to:
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
When the motions of the first pointer and the second pointer are detected, and when the motion of both the first pointer and the second pointer moving in the vertical and horizontal directions is detected, the pointer displayed on the screen is detected. and scrolling the image in the moving direction .
前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触する動作を検出すると、前記アイコンを選択状態にし、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触する動作を検出すると、前記アイコンに関連付けられた機能を実行させる、請求項1または請求項2に記載のプログラム。 When detecting that either the first pointer or the second pointer touches the icon, the icon is selected, and both the first pointer and the second pointer touch the icon. 3. A program according to claim 1 or 2 , which upon detection of motion causes a function associated with the icon to be executed. 制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
前記制御部は、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行する、情報処理装置。
An information processing device comprising a control unit and a storage unit and generating an image to be displayed on a screen,
The control unit
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
detecting movements of the first pointer and the second pointer, and preventing execution of a function associated with the icon when either the first pointer or the second pointer touches the icon; and executing a function associated with the icon when both the first pointer and the second pointer touch the icon.
制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
前記制御部は、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行する、情報処理装置。
An information processing device comprising a control unit and a storage unit and generating an image to be displayed on a screen,
The control unit
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
When the motions of the first pointer and the second pointer are detected, and the motions of both the first pointer and the second pointer moving in the vertical and horizontal directions are detected, the pointer displayed on the screen is detected. and a step of scrolling an image in the moving direction .
プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
前記方法は、前記プロセッサが、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタまたは前記第2のポインタのいずれかが前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させず、前記第1のポインタ及び前記第2のポインタがともに前記アイコンに接触すると、前記アイコンに関連付けられた機能を実行させるステップと、を実行する、方法。
A method for generating an image for display on a screen, executed by a computer comprising a processor and a memory, comprising:
The method comprises: the processor;
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
detecting movements of the first pointer and the second pointer, and preventing execution of a function associated with the icon when either the first pointer or the second pointer touches the icon; causing a function associated with the icon to be performed when both the first pointer and the second pointer touch the icon.
プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
前記方法は、前記プロセッサが、
動いている人物をカメラで撮影した撮影画像を取得するステップと、
取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
特定した前記骨格情報から前記人物の手の骨格情報を抽出するステップと、
前記画面上に、前記人物の右手に対応し、前記画面上における位置を示す第1のポインタと、前記人物の左手に対応し、前記画面上における位置を示す第2のポインタと、それぞれ表示させるステップと、
前記画面上に、所定のアイコンを表示させるステップと、
抽出した前記人物の右手及び左手の骨格情報に基づき、前記人物の右手の動作に合わせて前記第1のポインタを動かすように制御し、前記人物の左手の動作に合わせて前記第2のポインタを動かすように制御するステップと、
前記第1のポインタ及び前記第2のポインタの動作を検出し、前記第1のポインタ及び前記第2のポインタがともに上下左右方向に移動する動作を検出すると、前記画面上に表示されている前記画像を前記移動する方向へスクロールさせるステップと、を実行する、方法。
A method for generating an image for display on a screen, executed by a computer comprising a processor and a memory, comprising:
The method comprises: the processor;
obtaining a captured image of a person in motion captured by a camera;
a step of analyzing the acquired photographed image and specifying skeletal information of the person based on the analysis result;
a step of extracting skeletal information of the hand of the person from the identified skeletal information;
A first pointer corresponding to the person's right hand and indicating a position on the screen and a second pointer corresponding to the person's left hand and indicating a position on the screen are displayed on the screen . a step of causing
displaying a predetermined icon on the screen;
Based on the extracted skeletal information of the person's right hand and left hand , the first pointer is controlled to move in accordance with the movement of the person's right hand , and the second pointer is moved in accordance with the movement of the person's left hand. a step of controlling movement ;
When the motions of the first pointer and the second pointer are detected, and the motions of both the first pointer and the second pointer moving in the vertical and horizontal directions are detected, the pointer displayed on the screen is detected. scrolling an image in the moving direction .
JP2022039127A 2022-03-14 2022-03-14 Program, information processing device and method Active JP7182324B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022039127A JP7182324B1 (en) 2022-03-14 2022-03-14 Program, information processing device and method
JP2022181625A JP2023134340A (en) 2022-03-14 2022-11-14 Program, information processing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022039127A JP7182324B1 (en) 2022-03-14 2022-03-14 Program, information processing device and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022181625A Division JP2023134340A (en) 2022-03-14 2022-11-14 Program, information processing device and method

Publications (2)

Publication Number Publication Date
JP7182324B1 true JP7182324B1 (en) 2022-12-02
JP2023133885A JP2023133885A (en) 2023-09-27

Family

ID=84283981

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022039127A Active JP7182324B1 (en) 2022-03-14 2022-03-14 Program, information processing device and method
JP2022181625A Pending JP2023134340A (en) 2022-03-14 2022-11-14 Program, information processing device and method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022181625A Pending JP2023134340A (en) 2022-03-14 2022-11-14 Program, information processing device and method

Country Status (1)

Country Link
JP (2) JP7182324B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003136A (en) 2009-06-22 2011-01-06 Sony Corp Operation control device and method
JP2013257830A (en) 2012-06-14 2013-12-26 Sharp Corp Information processor
JP2016503915A (en) 2012-12-14 2016-02-08 マイクロソフト テクノロジー ライセンシング,エルエルシー Aim and press natural user input
WO2016103769A1 (en) 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー Manipulation input device, manipulation input method, and program
JP2017211960A (en) 2016-05-27 2017-11-30 株式会社エクスビジョン User interface device and user interface program
WO2021225044A1 (en) 2020-05-08 2021-11-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method based on user input operation, and computer program for executing said method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011003136A (en) 2009-06-22 2011-01-06 Sony Corp Operation control device and method
JP2013257830A (en) 2012-06-14 2013-12-26 Sharp Corp Information processor
JP2016503915A (en) 2012-12-14 2016-02-08 マイクロソフト テクノロジー ライセンシング,エルエルシー Aim and press natural user input
WO2016103769A1 (en) 2014-12-26 2016-06-30 株式会社ネクステッジテクノロジー Manipulation input device, manipulation input method, and program
JP2017211960A (en) 2016-05-27 2017-11-30 株式会社エクスビジョン User interface device and user interface program
WO2021225044A1 (en) 2020-05-08 2021-11-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method based on user input operation, and computer program for executing said method

Also Published As

Publication number Publication date
JP2023134340A (en) 2023-09-27
JP2023133885A (en) 2023-09-27

Similar Documents

Publication Publication Date Title
CN111417028B (en) Information processing method, information processing device, storage medium and electronic equipment
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
CN107742072B (en) Face recognition method and mobile terminal
CN111045344A (en) Control method of household equipment and electronic equipment
CN111176764B (en) Display control method and terminal equipment
KR102004986B1 (en) Method and system for executing application, device and computer readable recording medium thereof
CN109639569B (en) Social communication method and terminal
KR20170012979A (en) Electronic device and method for sharing image content
CN108920069A (en) A kind of touch operation method, device, mobile terminal and storage medium
CN109495638B (en) Information display method and terminal
CN113963108A (en) Medical image cooperation method and device based on mixed reality and electronic equipment
JP7182324B1 (en) Program, information processing device and method
CN108471549B (en) Remote control method and terminal
CN111045628A (en) Information transmission method and electronic equipment
JP7386583B1 (en) Program, information processing device and method
CN114296627B (en) Content display method, device, equipment and storage medium
WO2021136265A1 (en) Unlocking method and electronic device
CN115379113A (en) Shooting processing method, device, equipment and storage medium
CN109343782A (en) A kind of display methods and terminal
CN114100121A (en) Operation control method, device, equipment, storage medium and computer program product
CN111367492B (en) Webpage display method and device and storage medium
JP7372717B1 (en) Program, information processing device and method
CN112905087A (en) Interactive state display method, device and equipment and readable storage medium
CN114826799A (en) Information acquisition method, device, terminal and storage medium
US20240078071A1 (en) Interaction method between display device and terminal device, storage medium and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7182324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150