JP6776409B1 - プログラム、方法、および端末装置 - Google Patents
プログラム、方法、および端末装置 Download PDFInfo
- Publication number
- JP6776409B1 JP6776409B1 JP2019115074A JP2019115074A JP6776409B1 JP 6776409 B1 JP6776409 B1 JP 6776409B1 JP 2019115074 A JP2019115074 A JP 2019115074A JP 2019115074 A JP2019115074 A JP 2019115074A JP 6776409 B1 JP6776409 B1 JP 6776409B1
- Authority
- JP
- Japan
- Prior art keywords
- user
- game
- data
- virtual space
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000008921 facial expression Effects 0.000 claims abstract description 219
- 230000033001 locomotion Effects 0.000 claims abstract description 211
- 238000004891 communication Methods 0.000 claims description 47
- 230000015654 memory Effects 0.000 claims description 35
- 230000014509 gene expression Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 abstract description 28
- 230000008569 process Effects 0.000 description 54
- 238000003860 storage Methods 0.000 description 47
- 210000001508 eye Anatomy 0.000 description 43
- 238000012545 processing Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 30
- 210000003128 head Anatomy 0.000 description 23
- 230000005540 biological transmission Effects 0.000 description 17
- 230000000694 effects Effects 0.000 description 15
- 230000036544 posture Effects 0.000 description 14
- 230000004044 response Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 210000004709 eyebrow Anatomy 0.000 description 11
- 238000010079 rubber tapping Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 210000003467 cheek Anatomy 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000005401 electroluminescence Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000005155 neural progenitor cell Anatomy 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/214—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
- A63F13/2145—Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/426—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/533—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/54—Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/792—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for payment purposes, e.g. monthly subscriptions
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/798—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/87—Communicating with other players during game play, e.g. by e-mail or chat
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1068—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
- A63F2300/1075—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2213/00—Indexing scheme for animation
- G06T2213/12—Rule based animation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
図1は、本実施形態に係るシステム1の概要を示す図である。システム1は、複数のユーザ端末100(コンピュータ)と、サーバ200と、ゲームプレイ端末300(外部装置、第2外部装置)と、配信端末400(外部、第1外部装置)とを含む。なお、図1では、複数のユーザ端末100の一例として、ユーザ端末100A〜100C、換言すれば、3台のユーザ端末100を記載しているが、ユーザ端末100の台数は図示の例に限定されない。また、本実施形態では、ユーザ端末100A〜Cを区別する必要が無い場合、「ユーザ端末100」と記載する。ユーザ端末100、ゲームプレイ端末300、および配信端末400は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
本実施形態では、システム1によって提供されるゲーム(以下、本ゲーム)の一例として、ゲームプレイ端末300のユーザが主としてプレイするゲームを説明する。以下、ゲームプレイ端末300のユーザを、「プレイヤ」と称する。プレイヤ(演者)は、一例として、本ゲームに登場するキャラクタを操作することにより、ゲームを進行させる。また、本ゲームにおいて、ユーザ端末100のユーザは、プレイヤによるゲームの進行を支援する役割を担う。本ゲームの詳細については後述する。なお、システム1によって提供されるゲームは、複数のユーザが参加するゲームであればよく、この例に限定されない。
ゲームプレイ端末300は、プレイヤによる入力操作に応じてゲームを進行させる。また、ゲームプレイ端末300は、プレイヤのゲームプレイにより生成された情報(以下、ゲーム進行情報)を、順次、サーバ200にリアルタイムで配信する。
サーバ200は、ゲームプレイ端末300からリアルタイムに受信したゲーム進行情報(第2データ)を、ユーザ端末100に送信する。また、サーバ200は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の間の各種情報の送受信を仲介する。
配信端末400は、配信端末400のユーザによる入力操作に応じて、動作指図データ(第1データ)を生成し、サーバ200を介してユーザ端末100へ動作指図データを配信する。動作指図データとは、ユーザ端末100において動画を再生するためのデータであり、具体的には、動画に登場するキャラクタを動作させるためのデータである。
ユーザ端末100は、ゲーム進行情報をリアルタイムに受信し、該情報を用いてゲーム画面を生成して表示する。換言すれば、ユーザ端末100は、リアルタイムレンダリングにより、プレイヤがプレイしているゲームのゲーム画面を再生する。これにより、ユーザ端末100のユーザは、プレイヤがゲームをプレイしながら視認しているゲーム画面と同一のゲーム画面を、プレイヤとほぼ同じタイミングで視認することができる。
図2は、ユーザ端末100のハードウェア構成を示す図である。図3は、サーバ200のハードウェア構成を示す図である。図4は、ゲームプレイ端末300のハードウェア構成を示す図である。図5は、配信端末400のハードウェア構成を示す図である。
本実施形態では、一例として、ユーザ端末100がスマートフォンとして実現される例を説明するが、ユーザ端末100はスマートフォンに限定されない。例えば、ユーザ端末100はフィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現されてもよい。また、ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。
サーバ200は、一例として、ワークステーションまたはパーソナルコンピュータなどの汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
ゲームプレイ端末300は、一例として、パーソナルコンピュータなどの汎用コンピュータであってよい。ゲームプレイ端末300は、プロセッサ30と、メモリ31と、ストレージ32と、通信IF33と、入出力IF34とを備える。ゲームプレイ端末300が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
また、プレイヤは、モーションセンサ520を身体の各部に取り付けることに代えて、1以上のモーションセンサ520が取り付けられたスーツを着用してもよい。つまり、モーションキャプチャの方法は、モーションセンサ520を用いる例に限定されない。
配信端末400は、スマートフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。また、配信端末400は、デスクトップパソコン等の、いわゆる据え置き型の端末であってもよい。
プロセッサ10、20、30、40はそれぞれ、ユーザ端末100、サーバ200、ゲームプレイ端末300、配信端末400の全体の動作を制御する。プロセッサ10、20、30、40は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。プロセッサ10、20、30、40は、それぞれ、後述するストレージ12、22、32、42からプログラムを読み出す。そして、プロセッサ10、20、30、40は、それぞれ、読み出したプログラムを、後述するメモリ11、21、31、41に展開する。プロセッサ10、20、30は、展開したプログラムを実行する。
図6は、システム1に含まれるユーザ端末100、サーバ200、およびHMDセット1000の機能的構成を示すブロック図である。図7は、図6に示す配信端末400の機能的構成を示すブロック図である。
記憶部120は、ゲームプログラム131(プログラム)、ゲーム情報132、および、ユーザ情報133を格納する。記憶部220は、ゲームプログラム231、ゲーム情報232、ユーザ情報233、および、ユーザリスト234を格納する。記憶部320は、ゲームプログラム331、ゲーム情報332、および、ユーザ情報333を格納する。記憶部420は、ユーザリスト421、モーションリスト422、配信プログラム423(プログラム、第2プログラム)を格納する。
制御部210は、記憶部220に格納されたゲームプログラム231を実行することにより、サーバ200を統括的に制御する。例えば制御部210は、ユーザ端末100、HMDセット1000、および配信端末400の間の各種情報の送受信を仲介する。
制御部310は、記憶部320に格納されたゲームプログラム331を実行することにより、HMDセット1000を統括的に制御する。例えば、制御部310は、ゲームプログラム331、および、プレイヤの操作に従って、ゲームを進行させる。また、制御部310は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部310は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
制御部110は、記憶部120に格納されたゲームプログラム131を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム131、および、ユーザの操作に従って、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部110は、情報の送受信を、サーバ200を介さずにHMDセット1000と直接行ってもよい。
制御部410は、記憶部420に格納されたプログラム(不図示)を実行することにより、配信端末400を統括的に制御する。例えば、制御部410は、該プログラム、および、配信端末400のユーザ(本実施形態ではプレイヤ)の操作に従って、動作指図データを生成し、ユーザ端末100に配信する。また、制御部410は、必要に応じて、サーバ200と通信して、情報の送受信を行う。制御部410は、情報の送受信を、サーバ200を介さずにユーザ端末100と直接行ってもよい。
図8は、プレイヤに提供される仮想空間、および、ユーザ端末100のユーザに提供される仮想空間の制御処理の流れの一例を示すフローチャートである。図9は、ある実施の形態に従う、プレイヤに提供される仮想空間600A、および、プレイヤが視認する視界画像を示す図である。図10は、ある実施の形態に従う、ユーザ端末100のユーザに提供される仮想空間600B、および、ユーザが視認する視界画像を示す図である。なお以降、仮想空間600Aおよび600Bを区別する必要が無い場合、「仮想空間600」と記載する。
図11は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体的には、プレイヤがプレイしている、システム1が実行するゲーム(本ゲーム)のゲーム画面の一例を示す図である。
図13は、ゲームプレイ端末300で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
図14は、ユーザ端末100で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
図15は、サーバ200で実行されるゲーム進行処理の流れの一例を示すフローチャートである。
(配信端末400における配信処理)
図17は、配信端末400で実行される配信処理の流れの一例を示すフローチャートである。図18は、配信端末400に表示される画面の一具体例を示す図である。図19は、配信端末に表示される画面の他の具体例を示す図である。
図25は、ユーザ端末100で実行される動画再生処理の流れの一例を示すフローチャートである。
おける音声920Aの内容とは異なる。
以上説明した実施形態の変形例などを以下に列挙する。
以上の各実施形態で説明した事項を、以下に付記する。
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、および入力部を備える端末装置において実行されるプログラムであって、前記プロセッサに、仮想空間内に配置されているキャラクタを演じる演者の入力したモーションおよび演者の発話を特定可能な情報を含むデータに基づいて、前記キャラクタを動作させるステップ(例えば、図8のステップS27)と、前記仮想空間内における所定の視点から見た前記キャラクタを所定の表示部に表示可能とするとともに、演者の発話に応じた音声を出力可能とするためのステップ(例えば、図8のステップS28、S29)とを実行させ、前記キャラクタを動作させるステップは、前記データに基づいて前記仮想空間内における前記キャラクタの口元の動作を制御するステップ(図28のステップS81〜S84)と、前記キャラクタの表情として次に取らせる表情を所定のルールに従って特定するステップ(図28のステップS86)と、前記仮想空間内における前記キャラクタの表情を前記特定するステップにより特定された表情に切り替える制御を、時間の経過に応じて行うステップ(図28のステップS85、S87、S88等)とを含む。
(付記1)において、前記切り替える制御を行うステップは、一定間隔で前記切り替える制御を行うステップ(図28のステップS85、S88)を含む。
(付記2)において、前記一定間隔は、ある間隔(例えば3秒、キャラクタの表情に対してユーザが飽きを生じさせてしまう間隔、キャラクタの表情をユーザが理解するために要する間隔等)よりも短い間隔(例えば2秒)である。
(付記2)または(付記3)において、前記一定間隔は、2秒間隔である。
(付記1)から(付記4)のいずれかにおいて、前記所定のルールとは、予め定められている複数種類の表情のうちからいずれかの表示をランダムに決定することである(図28のステップS86)。
(付記1)から(付記5)のいずれかにおいて、前記演者の入力したモーションには、当該演者の頭の動きに応じて入力した頭のモーションを含み、前記動作させるステップは、頭のモーションに合せて前記仮想空間内における前記キャラクタの頭を動作させる(図8のステップS27)。
(付記1)から(付記6)のいずれかにおいて、前記端末装置は、表示部と、音出力部と、配信端末装置と通信する通信部とを備え、前記データは、前記配信端末装置から配信されるデータ(動作指図データ)であって、前記演者の入力したモーションに対応するモーションデータおよび前記演者の発話に対応する発話データを含み、前記動作させるステップは、前記データに基づいて前記仮想空間内において動作する前記キャラクタをリアルタイムに生成し(図8のステップS27)、前記表示可能とするとともに前記出力可能とするためのステップは、前記仮想空間内における所定の視点から見た前記キャラクタの動画を前記表示部に表示するとともに、演者の発話に応じた音声を前記音出力部から出力する(図8のステップS29、リアルタイムレンダリング方式)。
(付記7)において、前記データは、前記仮想空間内における前記キャラクタの口元の動作を特定するためのデータ(口形データ)を含む。
(付記1)から(付記6)のいずれかにおいて、前記プロセッサに、前記演者の入力したモーションおよび演者の発話を特定可能な情報を含むデータを取得するステップを実行させ、前記キャラクタを動作させるステップは、前記取得するステップにより取得したデータに基づいて口元の動作が制御されるとともに時間の経過に応じて表情が切り替えられる前記キャラクタを、前記仮想空間内において動作させ、前記表示可能とするとともに前記出力可能とするためのステップは、前記仮想空間内における前記キャラクタの動きと発話に応じた音声とを含む動画データを生成して視聴者用端末装置に配信する(動画配信方式)。
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、および入力部を備える端末装置が実行する方法であって、仮想空間内に配置されているキャラクタを演じる演者の入力したモーションおよび演者の発話を特定可能な情報を含むデータに基づいて、前記キャラクタを動作させるステップ(例えば、図8のステップS27)と、前記仮想空間内における所定の視点から見た前記キャラクタを所定の表示部に表示可能とするとともに、演者の発話に応じた音声を出力可能とするためのステップ(例えば、図8のステップS28、S29)とを備え、前記キャラクタを動作させるステップは、前記データに基づいて前記仮想空間内における前記キャラクタの口元の動作を制御するステップ(図28のステップS81〜S84)と、前記キャラクタの表情として次に取らせる表情を所定のルールに従って特定するステップ(図28のステップS86)と、前記仮想空間内における前記キャラクタの表情を前記特定するステップにより特定された表情に切り替える制御を、時間の経過に応じて行うステップ(図28のステップS85、S87、S88等)とを含む。
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、および入力部を備える端末装置であって、仮想空間内に配置されているキャラクタを演じる演者の入力したモーションおよび演者の発話を特定可能な情報を含むデータに基づいて、前記キャラクタを動作させるステップ(例えば、図8のステップS27)と、前記仮想空間内における所定の視点から見た前記キャラクタを所定の表示部に表示可能とするとともに、演者の発話に応じた音声を出力可能とするためのステップ(例えば、図8のステップS28、S29)とを備え、前記キャラクタを動作させるステップは、前記データに基づいて前記仮想空間内における前記キャラクタの口元の動作を制御するステップ(図28のステップS81〜S84)と、前記キャラクタの表情として次に取らせる表情を所定のルールに従って特定するステップ(図28のステップS86)と、前記仮想空間内における前記キャラクタの表情を前記特定するステップにより特定された表情に切り替える制御を、時間の経過に応じて行うステップ(図28のステップS85、S87、S88等)とを含む。
ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、および配信端末400の制御ブロック(特に制御部110、210、310、410)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
Claims (11)
- プロセッサ、メモリ、および入力部を備える端末装置において実行されるプログラムであって、
前記プロセッサに、
演者の動きに応じて動作するキャラクタが配置されている仮想空間を表示するとともに演者の発話に応じて音声を出力するためのデータを受信するステップと、
前記データに基づく仮想空間内における所定の視点から見た画像を所定の表示部に表示可能とするステップと、
前記データに基づく演者の発話に応じた音声を出力可能とするステップとを実行させ、
前記表示可能とするステップにより表示される前記キャラクタの口元は、音声に応じた口元に変更され、
前記表示可能とするステップにより表示される前記キャラクタの表情は、時間の経過に応じて、所定のルールに従った表情であって演者の動きにかかわらずに特定される表情に変更される、プログラム。 - 前記キャラクタの表情は、一定間隔で変更される、請求項1に記載のプログラム。
- 前記一定間隔は、ある間隔よりも短い間隔である、請求項2に記載のプログラム。
- 前記一定間隔は、2秒間隔である、請求項2または請求項3に記載のプログラム。
- 前記所定のルールとは、予め定められている複数種類の表情のうちからいずれかの表示をランダムに決定することである、請求項1〜請求項4のいずれかに記載のプログラム。
- 前記演者の動きには、当該演者の頭の動きを含み、
前記プログラムは、前記プロセッサに、
前記演者の頭の動きに合せて前記仮想空間内における前記キャラクタの頭を動作させるステップを実行させる、請求項1〜請求項5のいずれかに記載のプログラム。 - 前記端末装置は、表示部と、音出力部と、配信端末装置と通信する通信部とを備え、
前記データは、前記配信端末装置から配信されるデータであって、前記演者の動きに対応するモーションデータおよび前記演者の発話に対応する発話データを含み、
前記プログラムは、前記プロセッサに、
前記データに基づいて前記仮想空間内において動作する前記キャラクタをリアルタイムに生成するステップを実行させ、
前記表示可能とするステップは、前記仮想空間内における所定の視点から見た前記キャラクタの動画を前記表示部に表示するとともに、演者の発話に応じた音声を前記音出力部から出力する、請求項1〜請求項6のいずれかに記載のプログラム。 - 前記データは、前記仮想空間内における前記キャラクタの口元を変更するためのデータを含む、請求項7に記載のプログラム。
- 前記プロセッサに、
前記演者の動きおよび演者の発話を特定可能な情報を含むデータを取得するステップと、
前記取得するステップにより取得したデータに基づいて口元が変更されるとともに時間の経過に応じて表情が変更される前記キャラクタを、前記仮想空間内において動作させるステップとを実行させ、
前記表示可能とするステップは、前記仮想空間内における前記キャラクタの動きと発話に応じた音声とを含む動画データを生成して視聴者用端末装置に配信する、請求項1〜請求項6のいずれかに記載のプログラム。 - プロセッサ、メモリ、および入力部を備える端末装置が実行する方法であって、
演者の動きに応じて動作するキャラクタが配置されている仮想空間を表示するとともに演者の発話に応じて音声を出力するためのデータを受信するステップと、
前記データに基づく仮想空間内における所定の視点から見た画像を所定の表示部に表示可能とするステップと、
前記データに基づく演者の発話に応じた音声を出力可能とするステップとを実行させ、
前記表示可能とするステップにより表示される前記キャラクタの口元は、音声に応じた口元に変更され、
前記表示可能とするステップにより表示される前記キャラクタの表情は、時間の経過に応じて、所定のルールに従った表情であって演者の動きにかかわらずに特定される表情に変更される、方法。 - プロセッサ、メモリ、および入力部を備える端末装置であって、
演者の動きに応じて動作するキャラクタが配置されている仮想空間を表示するとともに演者の発話に応じて音声を出力するためのデータを受信するステップと、
前記データに基づく仮想空間内における所定の視点から見た画像を所定の表示部に表示可能とするステップと、
前記データに基づく演者の発話に応じた音声を出力可能とするステップとを実行させ、
前記表示可能とするステップにより表示される前記キャラクタの口元は、音声に応じた口元に変更され、
前記表示可能とするステップにより表示される前記キャラクタの表情は、時間の経過に応じて、所定のルールに従った表情であって演者の動きにかかわらずに特定される表情に変更される、端末装置。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019115074A JP6776409B1 (ja) | 2019-06-21 | 2019-06-21 | プログラム、方法、および端末装置 |
EP20825605.7A EP3988189A4 (en) | 2019-06-21 | 2020-06-17 | Program, method, and terminal device |
US17/621,562 US20220241692A1 (en) | 2019-06-21 | 2020-06-17 | Program, method, and terminal device |
CN202080045126.4A CN114025854A (zh) | 2019-06-21 | 2020-06-17 | 程序、方法以及终端装置 |
PCT/JP2020/023700 WO2020255996A1 (ja) | 2019-06-21 | 2020-06-17 | プログラム、方法、および端末装置 |
KR1020227001432A KR20220020953A (ko) | 2019-06-21 | 2020-06-17 | 프로그램, 방법, 및 단말 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019115074A JP6776409B1 (ja) | 2019-06-21 | 2019-06-21 | プログラム、方法、および端末装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6776409B1 true JP6776409B1 (ja) | 2020-10-28 |
JP2021000243A JP2021000243A (ja) | 2021-01-07 |
Family
ID=72938117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019115074A Active JP6776409B1 (ja) | 2019-06-21 | 2019-06-21 | プログラム、方法、および端末装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220241692A1 (ja) |
EP (1) | EP3988189A4 (ja) |
JP (1) | JP6776409B1 (ja) |
KR (1) | KR20220020953A (ja) |
CN (1) | CN114025854A (ja) |
WO (1) | WO2020255996A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7455297B2 (ja) * | 2021-08-28 | 2024-03-26 | グリー株式会社 | 情報処理システム、情報処理方法およびコンピュータプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58218202A (ja) * | 1982-06-11 | 1983-12-19 | Nissan Motor Co Ltd | 車両用アンテナの取付構造 |
KR20020022504A (ko) * | 2000-09-20 | 2002-03-27 | 박종만 | 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법 |
JP2003337956A (ja) * | 2002-03-13 | 2003-11-28 | Matsushita Electric Ind Co Ltd | コンピュータグラフィックス・アニメーション装置及びコンピュータグラフィックス・アニメーション方法 |
EP1345179A3 (en) * | 2002-03-13 | 2004-01-21 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for computer graphics animation |
US20040266528A1 (en) * | 2003-06-27 | 2004-12-30 | Xiaoling Wang | Apparatus and a method for more realistic video games on computers or similar devices using visible or invisible light and a light sensing device |
JP4919395B2 (ja) * | 2006-06-15 | 2012-04-18 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
KR101089184B1 (ko) * | 2010-01-06 | 2011-12-02 | (주) 퓨처로봇 | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 |
US20180117762A1 (en) * | 2015-08-14 | 2018-05-03 | Sphero, Inc. | Data exchange system |
JP7129769B2 (ja) * | 2017-09-21 | 2022-09-02 | 株式会社コーエーテクモゲームス | リップシンク処理プログラム、記録媒体、リップシンク処理方法 |
JP6708865B2 (ja) * | 2017-11-02 | 2020-06-10 | 株式会社UsideU | 顧客応対システム及び顧客応対方法 |
JP6981214B2 (ja) * | 2017-12-05 | 2021-12-15 | 富士通株式会社 | 画像生成プログラム、画像生成装置及び画像生成方法 |
JP6481057B1 (ja) * | 2018-02-02 | 2019-03-13 | 株式会社エクシヴィ | 仮想空間におけるキャラクタの制御方法 |
JP6506443B1 (ja) * | 2018-04-27 | 2019-04-24 | 株式会社 ディー・エヌ・エー | 画像生成装置及び画像生成プログラム |
-
2019
- 2019-06-21 JP JP2019115074A patent/JP6776409B1/ja active Active
-
2020
- 2020-06-17 CN CN202080045126.4A patent/CN114025854A/zh active Pending
- 2020-06-17 WO PCT/JP2020/023700 patent/WO2020255996A1/ja active Application Filing
- 2020-06-17 US US17/621,562 patent/US20220241692A1/en active Pending
- 2020-06-17 EP EP20825605.7A patent/EP3988189A4/en active Pending
- 2020-06-17 KR KR1020227001432A patent/KR20220020953A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
EP3988189A1 (en) | 2022-04-27 |
EP3988189A4 (en) | 2023-06-28 |
JP2021000243A (ja) | 2021-01-07 |
KR20220020953A (ko) | 2022-02-21 |
CN114025854A (zh) | 2022-02-08 |
WO2020255996A1 (ja) | 2020-12-24 |
US20220241692A1 (en) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6776400B1 (ja) | プログラム、方法、および情報端末装置 | |
WO2022202126A1 (ja) | プログラム、方法、および情報処理装置 | |
JP6776393B2 (ja) | 視聴プログラム、視聴方法、および情報端末装置 | |
JP7344189B2 (ja) | 視聴プログラム、視聴方法、および情報端末装置 | |
JP6971282B2 (ja) | プログラム、方法、および情報端末装置 | |
JP2021053181A (ja) | プログラム、方法、および視聴端末 | |
JP2021053365A (ja) | プログラム、方法、および視聴端末 | |
JP2021153901A (ja) | ゲームプログラム、ゲーム方法、および端末装置 | |
JP2021053179A (ja) | プログラム、方法、および視聴端末 | |
WO2020262332A1 (ja) | ゲームプログラム、ゲーム方法、および情報端末装置 | |
JP6813618B2 (ja) | 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置 | |
JP2021168748A (ja) | プログラム、コンピュータ、および方法 | |
WO2020255996A1 (ja) | プログラム、方法、および端末装置 | |
JP2021000192A (ja) | ゲームプログラム、ゲーム方法、および情報端末装置 | |
JP6826645B1 (ja) | プログラム、方法、および端末装置 | |
JP7135058B2 (ja) | プログラム、方法、および端末装置 | |
JP7332562B2 (ja) | プログラム、方法、および情報端末装置 | |
JP2022000218A (ja) | プログラム、方法、情報処理装置、およびシステム | |
JP6776425B1 (ja) | プログラム、方法、および配信端末 | |
JP6818106B1 (ja) | プログラム、方法、および視聴端末 | |
JP2021053238A (ja) | プログラム、方法、および視聴端末 | |
JP2021053453A (ja) | ゲームプログラム、ゲーム方法、および情報端末装置 | |
JP2021053401A (ja) | プログラム、方法、および配信端末 | |
JP2022028694A (ja) | プログラム、方法、および情報端末装置 | |
JP2021049391A (ja) | 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200205 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200205 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6776409 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |