JP7052128B1 - 情報処理システム、プログラム及び情報処理方法 - Google Patents

情報処理システム、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP7052128B1
JP7052128B1 JP2021119379A JP2021119379A JP7052128B1 JP 7052128 B1 JP7052128 B1 JP 7052128B1 JP 2021119379 A JP2021119379 A JP 2021119379A JP 2021119379 A JP2021119379 A JP 2021119379A JP 7052128 B1 JP7052128 B1 JP 7052128B1
Authority
JP
Japan
Prior art keywords
user
finger
information processing
dimensional
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021119379A
Other languages
English (en)
Other versions
JP2023015540A (ja
Inventor
史宗 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc.
Original Assignee
Akatsuki Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akatsuki Inc. filed Critical Akatsuki Inc.
Priority to JP2021119379A priority Critical patent/JP7052128B1/ja
Priority to JP2022055932A priority patent/JP7163526B1/ja
Priority to JP2022055133A priority patent/JP2023015979A/ja
Application granted granted Critical
Publication of JP7052128B1 publication Critical patent/JP7052128B1/ja
Priority to US18/252,338 priority patent/US11908097B2/en
Priority to PCT/JP2022/027675 priority patent/WO2023002907A1/ja
Priority to JP2022167754A priority patent/JP7286857B2/ja
Publication of JP2023015540A publication Critical patent/JP2023015540A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

【課題】アプリケーション内の可動オブジェクトを操作する際の利便性を向上させることができる情報処理システム、プログラム及び情報処理方法を提供する。【解決手段】情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、ユーザの指の三次元の動作を検出する検出部と、検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御する動作制御部と、を備える。【選択図】図3

Description

本発明は、情報処理システム、プログラム及び情報処理方法に関する。
従来、コンピュータやスマートフォン等の情報処理装置(ユーザ端末)を介してアプリケーションを提供する情報処理システムが知られている。例えば近年では、ネットワークを介してサーバにアクセス可能なスマートフォンやゲーム端末等のユーザ端末で実行可能なゲームが提供されている(例えば、特許文献1を参照)。
ユーザ端末で実行可能なゲームでは、バーチャルスティックとも称される仮想的な操作部がゲーム画面に表示され、この操作部が例えばユーザのスワイプ動作によって操作されることによって、ユーザが使用するゲーム内のプレイヤ(可動オブジェクト)が制御されるものが存在している。
特許第5117466号公報
上記のような仮想的な操作部がゲーム画面に表示されるゲームでは、ユーザがゲーム画面に接触するスワイプ動作によってプレイヤが操作されることから、例えばゲーム画面に対する奥行き方向のプレイヤの三次元的な動作を実現することができない。したがって、プレイヤの動作が二次元的な動作に制限されることがあり、操作性に改善の余地がある。
本発明は、上記事情に鑑みてなされたものであり、アプリケーション内の可動オブジェクトを操作する際の利便性を向上させることができる情報処理システム、プログラム及び情報処理方法を提供することを課題とするものである。
上記課題を達成するための本発明は、情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることことを特徴としている。
これによれば、検出部で検出されるユーザの指の三次元の動作に応じて、アプリケーション内の可動オブジェクトが三次元に制御される。よって、ユーザは直感的にアプリケーションを操作することができることから、ゲーム等のアプリケーションを操作する際のユーザの利便性が向上する。
この発明によれば、アプリケーション内で可動オブジェクトを操作する際のユーザの利便性が向上する。
本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムのサーバのストレージの構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムで処理されるゲーム情報の構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムの情報処理プログラムの動作制御部の処理の概略を説明するフローチャートである。 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。 同じく、本実施の形態に係る情報処理システムのゲーム画面の一例を示す図である。 同じく、本実施の形態に係る情報処理システムのユーザ端末の構成の概略を説明するブロック図である。 同じく、本実施の形態に係る情報処理システムの処理の概略を説明するフローチャートである。
次に、図1~図11に基づいて、本発明の実施の形態に係る情報処理システムについて説明する。
図1は、本発明の実施の形態に係る情報処理システムの構成の概略を説明するブロック図である。図示のように、例えば情報処理システム10は、サーバ20及び1以上のユーザ端末30(情報処理端末)を備え、これらがインターネット網等のネットワーク100を介して互いにアクセス可能に接続される。なお、サーバ20の機能をユーザ端末30に設けることで、ユーザ端末30のみで情報処理システム10を構成してもよい。また、本例の情報処理システム10はゲーム分野のアプリケーションを提供するシステムであるが、これに限られず、ゲーム以外の様々な分野のアプリケーションを提供するシステムにも適用可能である。ゲーム以外の分野としては、例えば、不動産の内部を見学するアプリケーション等とすることができる。当該アプリケーション内の建物内でキャラクタを三次元に移動させたり、仮想カメラの三次元の動きを制御して、画面に表示される表示画像の視野(視界)を三次元で制御したりすることができる。
サーバ20は、本実施の形態では、情報処理システム10でアプリケーション(本例ではゲーム)を提供する事業者1(システム管理者)に配備され、ユーザ端末30は、事業者1が提供するアプリケーションを利用するユーザ2に保有される。
情報処理システム10で事業者1が提供するゲームは、例えば、対戦ゲーム、シューティングゲーム、パズルゲーム、アクションゲーム、野球ゲーム、サッカーゲーム、その他スポーツゲーム、クイズゲーム、ピンボールゲーム、カードゲーム、リズムゲーム、RPG(ロールプレイングゲーム)、位置情報ゲーム、ボードゲーム、アドベンチャーゲーム、カジノゲーム、シミュレーションゲーム、ストラテジーゲーム、レーシングゲーム又はこれらのうち何れか複数を組み合わせたゲーム等であってよい。
次に、本実施の形態の情報処理システム10の各部の具体的な構成について説明する。以下の説明において、「ゲーム」の記載は「アプリケーション」に置きかえ可能である。
サーバ20は、本実施の形態では、デスクトップ型あるいはノート型のコンピュータ(情報処理装置)によって実装される。
図2は、サーバ20の構成の概略を説明するブロック図である。図示のように、サーバ20は、プロセッサ21、メモリ22、ストレージ23、送受信部24、及び入出力部25を備え、これらが互いにバス26を介して電気的に接続される。
プロセッサ21は、サーバ20の動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。
このプロセッサ21は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ23に格納されてメモリ22に展開されたアプリケーションプログラムを実行して各処理を行う。
メモリ22は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。
このメモリ22は、プロセッサ21の作業領域として使用される一方、サーバ20の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。
ストレージ23は、プログラムや各種の処理に用いられる情報等が格納されている。このストレージ23の構成については、後述する。なお、本例ではサーバ20の記憶部が、メモリ22とストレージ23とで構成されているが、これに限られるものではない。
送受信部24は、サーバ20をネットワーク100に接続する。この送受信部24は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。
入出力部25は、キーボードやマウス、あるいはディスプレイ等の入出力機器が接続されるインターフェースである。
バス26は、接続したプロセッサ21、メモリ22、ストレージ23、送受信部24及び入出力部25の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。
図3は、ストレージ23の構成の概略を説明するブロック図である。図示のように、ストレージ23は、本実施の形態では、データベース40及び情報処理プログラム41を備える。
データベース40は、ストレージ23の提供する記憶領域として実現され、本実施の形態では、アプリケーション情報の一例としてのゲーム情報D1が格納される。
図4は、ゲーム情報D1の構成の概略を説明するブロック図である。図示のように、ゲーム情報D1は、ゲームデータd1a、イベントデータd1b、プレイヤデータd1c及び報酬データd1dを備える。
ゲームデータd1aは、本実施の形態では、ゲームに登場するキャラクタやアイテム、背景画像等、ゲームの種類に応じたゲームの設定に関するデータによって構成され、例えば、対戦ゲームである場合は、ステージのIDに関連づけられたステージ名等が含まれる。
ゲームデータd1aを構成するキャラクタは、本実施の形態では、ユーザ2がユーザ端末30を介して操作することによってゲーム内で行動するプレイヤ、プレイヤの仲間となるキャラクタ、あるいはプレイヤと対戦する敵のキャラクタ等が含まれる。
イベントデータd1bは、本実施の形態では、ユーザ2がプレイヤとして実行するトライアル(例えば敵のキャラクタとの対戦等)が設定された任意のイベントによって構成され、この種のイベントをクリアすると、ゲーム内で使用されるアイテムやプレイヤのエナジーの回復等といった後述するゲーム内報酬が付与される場合がある。
プレイヤデータd1cは、本実施の形態では、プレイヤ名、ユーザ2がプレイヤとして所有するキャラクタに関するデータ、ユーザ2のプレイヤの動作の設定に関するデータ、ユーザ2のプレイヤが所有するアイテムに関するデータ、プレイステージに関するデータ等によって構成される。
所有するキャラクタに関するデータは、例えば、キャラクタのIDに関連づけられたレベル、攻撃力、防御力及び体力等の各種のパラメータの現在の値が含まれる。
プレイヤの動作の設定に関するデータは、例えば、ユーザ2の指の三次元の動作のベクトルとプレイヤの動作のベクトルとを関連づける予め設定された任意の基準が含まれる。
本実施の形態では、例えば、ユーザ2の指がx方向に動いた場合はプレイヤもx方向に動き、ユーザ2の指がy方向に動いた場合はプレイヤもy方向に動く等といった基準が含まれる。プレイヤの動作の設定に関するデータは、例えば、指の動作のベクトルの方向と、可動オブジェクト(プレイヤ)の動作のベクトルの方向との関係を示す情報を含んでもよい。指の動作のベクトルの方向と、可動オブジェクトの動作のベクトルの方向とを一致させる場合に加え、所定の演算処理によって角度を補正する場合(例えば、ユーザ2の指がx方向に動いた場合はプレイヤがy方向に動き、ユーザ2の指がy方向に動いた場合はプレイヤがz方向に動く等といった場合等)も含むことができる。プレイヤの動作の設定に関するデータは、例えば、指の動作のベクトルの大きさと、可動オブジェクト(プレイヤ)の動作のベクトルの大きさとの関係を示す情報を含んでもよい。例えば、ユーザ2の指が基準位置から10mm移動した場合は、可動オブジェクトもアプリケーション内で10mm動く、あるいは所定の倍率を乗じた距離だけ動く、といった対応関係の情報を含む。また、ユーザ2の指の三次元の動作と、アプリケーション内の画面のズームイン動作、及びズームアウト動作とが関連付けられていてもよい。
所有するアイテムに関するデータは、例えば、アイテムのIDに関連づけられたアイテムの保有数等の値が含まれる。
プレイステージに関するデータは、設定された複数のステージのうち、ユーザ2がプレイヤとしてこれまでにプレイしたことがあるステージに関するデータであり、例えばプレイの回数やステージをクリアした際のデータ等が含まれる。
報酬データd1dは、プレイヤに付与されるゲーム内報酬に関するデータである。
このゲーム内報酬は、本実施の形態では、例えばゲーム内で実行される任意のイベントの実行、プレイヤが任意のアイテムを取得する際の確率を示すドロップ率の上昇、ゲーム内でアイテムと交換したりプレイヤのエナジーを回復したりする等の際に費消するゲーム内ポイント、あるいはゲーム内で実行される機能が制限されている場合にその制限を解除して機能を実行させる機能実行指令等が含まれる。
図3で示す情報処理プログラム41は、本実施の形態では、ゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備える。
ゲーム処理部41aは、本実施の形態では、ゲームの進行やキャラクタの制御といったゲームの基本的な処理を実行するモジュールであって、本実施の形態では、例えばキャラクタ育成処理、イベント処理、機能制限処理あるいは報酬付与処理等を実行する。
キャラクタ育成処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ2によって例えば走らせられたり泳がせられたりといった予め設定された任意のアクションに基づいて、キャラクタの経験値やエナジーの値を向上させて、キャラクタの育成を実行する処理である。
イベント処理は、本実施の形態では、ユーザ2がプレイヤとして選択したキャラクタの行動に応じてイベントを実行する処理であり、機能制限処理は、ゲーム内で実行される機能の制限及びその制限の解除を実行する処理であり、報酬付与処理は、ユーザ2が使用するプレイヤにゲーム内報酬を付与する処理である。
ゲーム処理部41aは、その他、ゲームの基本的な各種の処理を実行する。
図3で示す動作制御部41bは、本実施の形態では、ゲーム内におけるプレイヤの動作を制御するモジュールである。
図5は、動作制御部41bの処理の概略を説明するフローチャートである。まず、ゲームの起動後であってゲームを開始する際に、ユーザ端末30の後述する検出部としての三次元カメラ(デプスカメラ)でユーザ2の指の位置が検出されると、図示のように、動作制御部41bは、ステップS1において、検出されたユーザ2の指の位置をプレイヤの動作を制御する際の基準位置として設定する。
本実施の形態では、例えば、ユーザ2がユーザ端末30の正面側の任意の部位に対して指をかざすと、三次元カメラがその位置でユーザ2の指の位置を検出し、検出したその位置を基準位置として設定する。基準位置の設定のタイミングは、初めてアプリケーションを使う際の初期設定時など、予め設定されたタイミングであってもよいし、画面に表示される基準位置設定アイコンをユーザ2が選択した際などのユーザ2の操作に基づくタイミングであってもよい。
基準位置の設定に続いて、ゲームを開始すると、ステップS2において、ユーザ端末30の三次元カメラが検出したユーザ2の指の三次元の動作に応じて生成されてユーザ端末30から送信される検出信号に基づいて、ユーザ2の指の動作の態様を判別する。三次元カメラが検出したユーザ2の指の三次元の動作とは、基準位置に対する相対的な三次元の指の位置、または指の移動方向、移動距離、移動速度、加速度等を意味する。
本実施の形態では、例えば、ユーザ2が三次元で指をユーザ端末30の上下左右方向に動かす動作であるのか、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向に動かす動作であるのか等といったユーザ2の指の動作の態様を判別する。
ユーザ2の動作の態様を判別すると、ステップS3において、ゲーム内におけるプレイヤの仮想的な三次元の動作を制御する。
また、ユーザ端末30に表示される画像は、図6、7、8のようにプレイヤの三人称視点であってもよいし、一人称視点であってもよい。一人称視点は、FPS(First Person Shooter)等の3Dアクションシューティングの分野に適している。また、本システムでは、三人称視点と一人称視点とを切り替える視点切替部をサーバ20やユーザ端末30が備えていてもよい。かかる視点の切り替えは、ゲームの進行状況や場面に応じてサーバ20やユーザ端末30側で自動的に切り替えられてもよいし、ユーザ端末30を介したユーザの要求に応じて切り替えることができるようにしてもよい。一人称視点の場合、アプリケーション内の可動オブジェクト(キャラクタ、仮想カメラ等)の動作に応じて、ユーザ端末30に表示される表示画像の視野が変化する。具体的には、キャラクタが向いている方向(視線方向)に応じて、仮想的にキャラクタの視点から見える景色が表示される。三人称視点の場合、図6、7、8に示すように、所定の距離だけ離れた位置からキャラクタを撮像した画像が画面に表示される。なお、指の三次元の動作に基づいて、ユーザ端末に表示される画像の視野を直接的に制御するようにしてもよい。換言すれば、指の三次元の動作に基づいて、アプリケーション内の仮想カメラの撮像範囲(視野)の制御を行うこともできる(ズームイン、ズームアウトを含む)。その場合、アプリケーション内の背景画像や可動オブジェクトをアプリケーション内で仮想的に撮像する仮想カメラの動作が、指の三次元の動作に基づいて制御され、当該仮想カメラの撮像範囲が、ユーザ端末に表示される画像となる。
本実施の形態では、プレイヤデータd1cに含まれるプレイヤの動作の設定に関するデータに基づいて、ユーザ2の指の三次元の動作のベクトルとユーザ2がプレイヤとして選択したキャラクタCの動作のベクトルとを関連づけて(もしくは一致させて)動作を制御する。
図6は、ゲーム画面のビューが、ユーザ2がプレイヤとして選択したキャラクタCを正面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を矢線V1で示す画面上方向に動かす動作あるいは矢線V2で示す画面下方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Uで示す上方向あるいは矢線Dで示す下方向に動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
一方、ユーザ2の指の動作の態様を矢線V3で示す画面左方向に動かす動作あるいは矢線V4で示す画面右方向に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Rで示す右方向あるいは矢線Lで示す左方向に動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様を矢線V5で示すゲーム画面IF1に対する奥行き方向前方に動かす動作(例えば、指をカメラに近づける動作)あるいは矢線V6で示すゲーム画面IF1に対する奥行き方向後方に動かす動作(例えば、指をカメラから遠ざける動作)であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて矢線Fで示す前進方向あるいは矢線Bで示す後退方向に動くというように、動作を制御する。
図7は、ゲーム画面IF1のビューがキャラクタCを側面から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて前進方向Fあるいは後退方向Bに動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて左方向Lに動くあるいは右方向Rに動くというように、動作を制御する。
図8は、ゲーム画面IF1のビューがキャラクタCを上方から見る設定の場合における動作制御部41bの処理の概略を説明する図である。
図示のように、ユーザ2の指の動作の態様を画面上方向V1に動かす動作あるいは画面下方向V2に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて後退方向Bあるいは前進方向Fに動くというように、動作を制御する。
一方、ユーザ2の指の動作の態様を画面左方向V3に動かす動作あるいは画面右方向V4に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて右方向Rあるいは左方向Lに動くというように、動作を制御する。
さらに、ユーザ2の指の動作の態様をゲーム画面IF1に対する奥行き方向前方V5に動かす動作あるいはゲーム画面IF1に対する奥行き方向後方V6に動かす動作であると判別した場合は、ゲーム画面IF1に表示されるキャラクタCは、ユーザ2の指の動作の態様に応じて上方向Uあるいは下方向Dに動くというように、動作を制御する。
なお、上方向Uへの動作は、本実施の形態では、例えば、キャラクタCが歩行している場合はジャンプする動作であり、キャラクタCが飛行している場合は上昇する動作であり、下方向Dへの動作は、例えば、キャラクタCが歩行している場合はしゃがむ動作であり、キャラクタCが飛行している場合は下降する動作である。
図3で示すインターフェース生成部41cは、ユーザ2の指の三次元の動作の状態を示す状態表示インターフェースを生成するモジュールである。
図9は、状態表示インターフェースの概略を説明する図である。図示のように、状態表示インターフェースIF2は、x軸、y軸及びz軸からなる仮想的な三次元の領域に配置される透明(または半透明)な仮想球体Sを備える。
本実施の形態では、ユーザ2の指の三次元の動作の方向、すなわちプレイヤとして選択されたキャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから動作線Mが伸長し、動作線Mと仮想球体Sとが交差する仮想球体Sの球面に動作領域Aが表示される。
この状態表示インターフェースIF2は、例えばゲーム画面の左下等、ゲーム画面における任意の部位に表示される。状態表示インターフェースIF2の位置は変更可能であってもよい。その場合、例えば状態表示インターフェースIF2の位置変更を要求するボタン画像等をゲーム画面に表示して起き、ユーザ2は当該位置変更要求ボタンを選択してから、任意の画面の位置をタップ操作等で指定することで、状態表示インターフェースIF2の位置変更を行えるようにしてもよい。
これにより、ユーザ2は自らの指の三次元の動作及びそれに追従するキャラクタの仮想的な三次元の動作を同時に視認することができることから、ゲームを操作する際の利便性が向上する。
これらゲーム処理部41a、動作制御部41b及びインターフェース生成部41cを備える情報処理プログラム41での処理に基づいて、本実施の形態では、ユーザ端末30においてゲームが実行される。
図1で示すユーザ端末30は、本実施の形態では、携帯型情報端末であるスマートフォンで実装されるが、例えばゲーム専用の端末、タブレット型のコンピュータ、デスクトップ型あるいはノート型のコンピュータによって実装されるものであってもよい。
図10は、ユーザ端末30の構成の概略を説明するブロック図である。図示のように、ユーザ端末30は、制御部31、ディスプレイ32及び検出部としての三次元カメラ33を主要構成として備える。検出部は、三次元カメラ33に限定されず、指の三次元の動作を検出可能な各種センサデバイス等であってもよい。あるいは、ユーザ端末30に設けられた単眼カメラの映像を解析して三次元の動作を推測する解析部をサーバ20またはユーザ端末30に設けることで、検出部として機能させてもよい。
制御部31は、本実施の形態では、ディスプレイ32や三次元カメラ33等のユーザ端末30の各部を制御するものであって、例えばプロセッサ、メモリ、ストレージ、送受信部等によって構成される。
この制御部31には、本実施の形態では、ゲームアプリケーションあるいはウェブサイトを閲覧可能なブラウザが格納され、サーバ20の情報処理プログラム41での処理に基づいて、ゲームアプリケーションあるいはブラウザを介してユーザ端末30においてゲームが実行される。
ディスプレイ32には、本実施の形態では、図6~図8で示したゲーム画面IF1を含む、ユーザ端末30で実行されるゲームの画面インターフェースが表示される。
このディスプレイ32は、表示面への接触によって情報の入力を受け付けるいわゆるタッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。なお、本例ではディスプレイ32及び三次元カメラ33が、ユーザ端末においてユーザからの入力操作を受け付ける入力部を構成しているが、これに限られない。入力部として、キーボードやマウスを有していてもよいし、音声による入力操作が可能なマイク等を有していてもよいし、視線情報を取得するアイトラッキングデバイスを備えていてもよい。ディスプレイ32は、アプリケーション画像を出力する表示部も構成している。
三次元カメラ33は、本実施の形態では、ユーザ端末30であるスマートフォンの前面に搭載されたインカメラであって、物体との距離を検出する近接センサ等の各種のセンサを備えて構成され、ユーザ動作情報D2を検出する。
ユーザ動作情報D2は、プレイヤの操作あるいは動作に関して入力される情報であって、ユーザ2の任意の動作に基づく映像情報である。
このユーザ動作情報D2は、本実施の形態では、例えば、ユーザ端末30に対してユーザ2が三次元で指を上下左右方向に動かす動作、あるいはユーザ2が三次元で指をユーザ端末30の奥行き方向(前後方向)に動かす動作である。
ユーザ動作情報D2がユーザ端末30の三次元カメラ33に検出されると、三次元カメラ33は、ユーザ2の動作の態様に応じた検出信号を生成する。
次に、本実施の形態に係る情報処理システム10の処理の概略について説明する。
図11は、本実施の形態に係る情報処理システム10の処理の概略を説明するフローチャートである。図示のように、まず、ステップS10において、ユーザ2はゲームを起動する。
ゲームの起動後、ゲームの開始に際して、ユーザ2が指をユーザ端末30の三次元カメラ33にかざして三次元カメラ33がユーザ2の指の位置を検出すると、ステップS11において、三次元カメラ33が検出したユーザ2の指の位置を、プレイヤの動作を制御する際の基準位置として設定する。より具体的に、任意の1本の指の先端の位置を検出し、基準位置として設定することが好ましい。なお、指先に限られず、指の特定の関節や任意の部位を検出するようにしてもよい。
基準位置の設定後、ステップS12において、ユーザ2はゲームを開始する。
ゲームを開始すると、ステップS13において、ユーザ2の指の三次元の動作に基づいて、ユーザ2がプレイヤとして選択したキャラクタの仮想的な三次元の動作を制御する。
本実施の形態では、例えば、ユーザ2が三次元で指をゲーム画面の上下左右方向に動かす動作あるいはユーザ2が三次元で指をゲーム画面の奥行き方向に動かす動作に応じて、ユーザ2の指の三次元の動作のベクトルと対応した(もしくは一致した)ベクトルにおいてキャラクタがゲーム内で仮想的な三次元の動作を行う。ユーザ2の指の三次元の動作の方向、距離、速度、及び加速度は、ゲーム内でのキャラクタの三次元の動作の方向、距離、速度、及び加速度にそれぞれ完全に一致していなくてもよく、例えば予め設定された所定の計算式に基づく補正処理を行うなど、少なくとも対応関係があればよい。
このように、本システムにあっては、検出部で検出されるユーザの指の三次元の動作に基づいて、アプリケーション内の可動オブジェクトの三次元の動作が制御される。これにより、アプリケーションを操作する際のユーザ2の利便性が向上する。具体的に本例では、ユーザ2がプレイヤとして選択したキャラクタが、ユーザ端末30で検出されるユーザ2の指の三次元の動作に追従するように制御されることによって、ユーザ2は直感的にゲームを操作することができることから、ゲームを操作する際のユーザ2の利便性が向上する。
なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。
上記実施の形態では、ゲーム画面のビュー(表示画像)が、ユーザ2がプレイヤとして選択したキャラクタCを三人称視点で正面から見る設定の場合、キャラクタCを側面から見る設定の場合及びキャラクタCを上方から見る設定の場合を説明したが、例えばキャラクタCを下方あるいは背面から見る設定等、種々の設定であってもよい。また、ゲーム画面のビューが、キャラクタCの目から見える景色を示す一人称視点であってもよい。
上記実施の形態では、基準位置の設定後、ユーザ2の指が基準位置にあるときには、仮想球体Sの中心点Oから動作線Mは伸長せず(動作領域Aが表示されず)、中心点Oに動作線Mが位置していることを表示する(例えば中心点Oの表示が大きくなったり、明るくなったり、もしくは暗くなったりする等)などしてもよい。また、その際、キャラクタは停止した状態としてもよい。また、基準位置から離れた位置でユーザ2が指を停止している場合、基準位置に対するユーザ2の指の位置に応じて、キャラクタが基準位置に対する指の位置の方向に移動し続けるようにしてもよい。その場合、状態表示インターフェースIF2は、キャラクタの仮想的な三次元の動作の方向に応じて、仮想球体Sの中心点Oから延びる動作線Mと、球面の動作領域Aとが表示され続けるようにしてもよい。
上記実施の形態では、ユーザ端末30に搭載された三次元カメラ33でユーザ2の指の三次元の動作を検出する場合を説明したが、ユーザ端末30に搭載されたモーションセンサでユーザ2の指の三次元の動作を検出するものであってもよい。
さらに、ユーザ端末30で検出するユーザ2の指の本数は、1本であっても2本であってもそれ以外の任意の数であってもよいし、人差し指、中指あるいは親指等、いずれの指であってもよい。2本以上の指を検出する場合、2本以上の指が開く動作、閉じる動作、2本以上の指が共に同一方向に動く動作等を検出し、それぞれの動作に応じて関連付けられた動作をアプリケーション内の可動オブジェクトが行うようにしてもよい。その場合、ユーザの指の三次元の動作と、アプリケーション内の可動オブジェクトとが、関連付けられて記憶部に予め記憶される。また、ユーザが、ユーザの指の三次元の動作と、アプリケーション内の可動オブジェクトの動作とを関連付けられるようにしてもよい。すなわち、サーバ20の制御部は、ユーザ端末30を介したユーザの指示に基づいて、ユーザの指の三次元の任意の動作と、アプリケーション内の可動オブジェクトの特定の動作とを関連付けて、記憶部に記憶するようにしてもよい。例えば、サーバ20は、予め記憶部に記憶されたアプリケーション内の可動オブジェクトの複数の動作をユーザ端末30に表示させ、その中から特定の動作を選択する指示を、ユーザ端末30を介して受け付けるとともに、当該動作に関連付けたいユーザの指の三次元の動作を、ユーザ端末30を介した入力操作に基づいて受け付ける。これにより、任意の指の可動オブジェクトの特定の動作に関連付けて記憶させ、可動オブジェクトの三次元の操作に使用することができる。また、ユーザの指の三次元の動作(例えばジェスチャー)と、アプリケーション内の所定の操作(例えばメニュー表示やショートカットの作動、音量等の調整操作、ズーム調整(画面の拡大、縮小)各種機能のON/OFF切替等)とが、関連付けられて記憶部に記憶されるようにしてもよい。このユーザの指の動作と、アプリケーション内の操作との組み合わせは、ユーザが設定できるようにしてもよいし、システム管理者側で予め設定しておいてもよい。また、ユーザ端末で検出するユーザの指や手の動作をトラッキングして、ゲームのコントローラとして使うようにしてもよい。この場合も、ユーザの指や手の動作と、ゲーム内の所定の動作とが関連付けて記憶されており、例えば、格闘ゲームにおいて、検出した指や手の動作に追従して、当該動作に関連付けられたパンチを繰り出す動作等が実行されたり、レースゲームにおいて、指や手の動作に追従してゲーム内でハンドルを動かしたりする、といった利用が可能となる。なお、ゲームは特に限定されず、例えば所謂ビデオゲームでもVRゲームでもよい。
また、本システムにおいては、検出部が、右手の指か左手の指かを検出するようにしてもよい。その場合、右手の指と左手の指とで異なる動作を設定することができるので、可動オブジェクトの操作のバリエーションが増大する。また、左右何れか一方の手における1本以上の指、あるいは両手の指を使った可動オブジェクトの操作が可能となる。
本発明は、以下の構成を備える。
(項目1)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
ユーザの指の三次元の動作を検出する検出部と、
前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御する動作制御部と、
を備えることを特徴とする情報処理システム。
(項目2)
前記検出部は、三次元カメラを備えることを特徴とする項目1に記載の情報処理システム。
(項目3)
前記動作制御部は、所定のタイミングにおいて前記検出部で検出された前記ユーザの指の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定することを特徴とする項目1又は2に記載の情報処理システム。
(項目4)
前記基準位置に対する前記ユーザの指の相対的な三次元の位置を示す状態表示インターフェースを生成するインターフェース生成部、
を備えることを特徴とする項目3に記載の情報処理システム。
(項目5)
前記動作制御部は、
前記ユーザの指の三次元の動作のベクトルと前記アプリケーション内の前記可動オブジェクトの動作のベクトルとを関連づけることを特徴とする項目1~4のいずれか1項に記載の情報処理システム。
(項目6)
前記動作制御部は、
アプリケーション画面に表示される前記可動オブジェクトの向きの設定に応じて、前記ユーザの指の動作方向と前記アプリケーション内の前記可動オブジェクトの動作の方向とを関連づけることを特徴とする項目1~5のいずれか1項に記載の情報処理システム。
(項目7)
前記動作制御部は、
前記可動オブジェクトの三次元の動作に基づいて、前記アプリケーション内における表示画像の視野を制御することを特徴とする項目1~6のいずれか1項に記載の情報処理システム。
(項目8)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出処理と、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御する動作制御処理と、
をコンピュータに実行させることを特徴とするプログラム。
(項目9)
情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
検出部でユーザの指の三次元の動作を検出する検出ステップと、
前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御する動作制御ステップと、
を含むことを特徴とする情報処理方法。
1 事業者
2 ユーザ
10 情報処理システム
20 サーバ
30 ユーザ端末
33 検知センサ
40 データベース
41 情報処理プログラム(プログラム)
41b 動作制御部
41c インターフェース生成部
D2 ユーザ動作情報
IF2 状態表示インターフェース

Claims (8)

  1. 情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
    ユーザの指の三次元の動作を検出する検出部と、
    前記検出部で検出されるユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御するとともに、所定のタイミングにおいて前記検出部で検出された前記ユーザの指の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定する動作制御部と、
    前記基準位置と、前記基準位置に対する前記ユーザの指の相対的な三次元の位置とを示す状態表示インターフェースを生成するインターフェース生成部と、
    を備えることを特徴とする情報処理システム。
  2. 前記検出部は、三次元カメラを備えることを特徴とする請求項1に記載の情報処理システム。
  3. 前記状態表示インターフェースは、
    中心点が前記基準位置に対応し、内部が透過表示される仮想球体と、
    前記中心点から、前記ユーザの指の三次元の位置に対応する点まで延びる動作線とを有する、請求項1又は2に記載の情報処理システム。
  4. 前記動作制御部は、
    前記ユーザの指の三次元の動作のベクトルと前記アプリケーション内の前記可動オブジェクトの動作のベクトルとを関連づけることを特徴とする請求項1~のいずれか1項に記載の情報処理システム。
  5. 前記動作制御部は、
    アプリケーション画面に表示される前記可動オブジェクトの向きの設定に応じて、前記ユーザの指の動作方向と前記アプリケーション内の前記可動オブジェクトの動作の方向とを関連づけることを特徴とする請求項1~のいずれか1項に記載の情報処理システム。
  6. 前記動作制御部は、
    前記可動オブジェクトの三次元の動作に基づいて、前記アプリケーション内における表示画像の視野を制御することを特徴とする請求項1~のいずれか1項に記載の情報処理システム。
  7. 情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
    検出部でユーザの指の三次元の動作を検出する検出処理と、
    前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御するとともに、所定のタイミングにおいて前記検出部で検出された前記ユーザの指の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定する動作制御処理と、
    前記基準位置と、前記基準位置に対する前記ユーザの指の相対的な三次元の位置とを示す状態表示インターフェースを生成するインターフェース生成処理と、
    をコンピュータに実行させることを特徴とするプログラム。
  8. 情報処理端末で実行可能なアプリケーションを提供する情報処理システムにおいて、
    検出部でユーザの指の三次元の動作を検出する検出ステップと、
    前記ユーザの指の三次元の動作に基づいて、前記アプリケーション内での可動オブジェクトの三次元の動作を制御するとともに、所定のタイミングにおいて前記検出部で検出された前記ユーザの指の位置を、前記可動オブジェクトの動作を制御する際の基準位置として設定する動作制御ステップと、
    前記基準位置と、前記基準位置に対する前記ユーザの指の相対的な三次元の位置とを示す状態表示インターフェースを生成するインターフェース生成ステップと、
    を含むことを特徴とする情報処理方法。
JP2021119379A 2021-07-20 2021-07-20 情報処理システム、プログラム及び情報処理方法 Active JP7052128B1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2021119379A JP7052128B1 (ja) 2021-07-20 2021-07-20 情報処理システム、プログラム及び情報処理方法
JP2022055932A JP7163526B1 (ja) 2021-07-20 2022-03-30 情報処理システム、プログラム及び情報処理方法
JP2022055133A JP2023015979A (ja) 2021-07-20 2022-03-30 情報処理システム、プログラム及び情報処理方法
US18/252,338 US11908097B2 (en) 2021-07-20 2022-07-14 Information processing system, program, and information processing method
PCT/JP2022/027675 WO2023002907A1 (ja) 2021-07-20 2022-07-14 情報処理システム、プログラム及び情報処理方法
JP2022167754A JP7286857B2 (ja) 2021-07-20 2022-10-19 情報処理システム、プログラム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021119379A JP7052128B1 (ja) 2021-07-20 2021-07-20 情報処理システム、プログラム及び情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022055133A Division JP2023015979A (ja) 2021-07-20 2022-03-30 情報処理システム、プログラム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP7052128B1 true JP7052128B1 (ja) 2022-04-11
JP2023015540A JP2023015540A (ja) 2023-02-01

Family

ID=81259560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021119379A Active JP7052128B1 (ja) 2021-07-20 2021-07-20 情報処理システム、プログラム及び情報処理方法

Country Status (3)

Country Link
US (1) US11908097B2 (ja)
JP (1) JP7052128B1 (ja)
WO (1) WO2023002907A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288156A (ja) 2002-03-28 2003-10-10 Minolta Co Ltd 入力装置
JP2010526391A (ja) 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
JP2012203737A (ja) 2011-03-25 2012-10-22 Kyocera Corp 電子機器、制御方法および制御プログラム
JP2013069273A (ja) 2011-09-07 2013-04-18 Nitto Denko Corp 入力体の動き検出方法およびそれを用いた入力デバイス
JP2013218379A (ja) 2012-04-04 2013-10-24 Sharp Corp 表示装置及びプログラム
JP2014115876A (ja) 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
JP2015210684A (ja) 2014-04-25 2015-11-24 富士通株式会社 入力制御装置、制御方法および制御プログラム
JP2017211884A (ja) 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
JP5117466B2 (ja) 2009-10-07 2013-01-16 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
EP2613223A1 (en) * 2012-01-09 2013-07-10 Softkinetic Software System and method for enhanced gesture-based interaction
GB2506338A (en) * 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US10846942B1 (en) * 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
JP6344530B2 (ja) * 2015-09-28 2018-06-20 日本電気株式会社 入力装置、入力方法、及びプログラム
TWI567691B (zh) * 2016-03-07 2017-01-21 粉迷科技股份有限公司 立體空間的場景編輯方法與系統
JP2018055614A (ja) 2016-09-30 2018-04-05 島根県 ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2018206080A (ja) 2017-06-05 2018-12-27 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2020113094A (ja) 2019-01-15 2020-07-27 株式会社シーエスレポーターズ 拡張現実空間に配置される3dオブジェクトを生成する方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288156A (ja) 2002-03-28 2003-10-10 Minolta Co Ltd 入力装置
JP2010526391A (ja) 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
JP2012203737A (ja) 2011-03-25 2012-10-22 Kyocera Corp 電子機器、制御方法および制御プログラム
JP2013069273A (ja) 2011-09-07 2013-04-18 Nitto Denko Corp 入力体の動き検出方法およびそれを用いた入力デバイス
JP2013218379A (ja) 2012-04-04 2013-10-24 Sharp Corp 表示装置及びプログラム
JP2014115876A (ja) 2012-12-11 2014-06-26 Mitsubishi Electric Corp 3次元タッチパネルを用いた被操作端末の遠隔操作方法
JP2015210684A (ja) 2014-04-25 2015-11-24 富士通株式会社 入力制御装置、制御方法および制御プログラム
JP2017211884A (ja) 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム

Also Published As

Publication number Publication date
JP2023015540A (ja) 2023-02-01
WO2023002907A1 (ja) 2023-01-26
US20230306703A1 (en) 2023-09-28
US11908097B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
US10821360B2 (en) Data processing method and mobile terminal
US11644893B2 (en) Application processing system, method of processing application, and storage medium storing program for processing application
US11161047B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
CN110545889B (zh) 游戏系统、游戏控制装置以及程序
CN115427122A (zh) 虚拟控制台游戏控制器
JP6672401B2 (ja) ゲームプログラム、方法、および情報処理装置
JP7052128B1 (ja) 情報処理システム、プログラム及び情報処理方法
JP7163526B1 (ja) 情報処理システム、プログラム及び情報処理方法
JP7286856B2 (ja) 情報処理システム、プログラム及び情報処理方法
JP7286857B2 (ja) 情報処理システム、プログラム及び情報処理方法
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
WO2022130681A1 (ja) ゲームシステム、プログラム及び情報処理方法
JP6722316B1 (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末
JP2023015979A (ja) 情報処理システム、プログラム及び情報処理方法
JP7282731B2 (ja) プログラム、方法、および端末
JP7440401B2 (ja) ゲームプログラム、ゲーム方法、および情報端末装置
JP2020146558A (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末
JP2020110603A (ja) ゲームプログラム、方法、および情報処理装置
CN113663326A (zh) 一种游戏技能的瞄准方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7052128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150