JP2013149106A - I-figure and image processing system using i-figure - Google Patents

I-figure and image processing system using i-figure Download PDF

Info

Publication number
JP2013149106A
JP2013149106A JP2012009418A JP2012009418A JP2013149106A JP 2013149106 A JP2013149106 A JP 2013149106A JP 2012009418 A JP2012009418 A JP 2012009418A JP 2012009418 A JP2012009418 A JP 2012009418A JP 2013149106 A JP2013149106 A JP 2013149106A
Authority
JP
Japan
Prior art keywords
image processing
information
output
output unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012009418A
Other languages
Japanese (ja)
Other versions
JP5994098B2 (en
Inventor
Keiaki Boku
啓彰 朴
Makoto Iwata
誠 岩田
Mitsuhiro Nagahara
三博 永原
Yasuhiko Kumagai
靖彦 熊谷
Shuichi Miyawaki
修一 宮脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KAIYODO KK
Kochi University of Technology
Original Assignee
KAIYODO KK
Kochi University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KAIYODO KK, Kochi University of Technology filed Critical KAIYODO KK
Priority to JP2012009418A priority Critical patent/JP5994098B2/en
Publication of JP2013149106A publication Critical patent/JP2013149106A/en
Application granted granted Critical
Publication of JP5994098B2 publication Critical patent/JP5994098B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an i-figure allowing a user to easily and pleasantly acquire knowledge on a figure while touching the figure.SOLUTION: An i-figure 2 comprises a figure communicably connected to an image processing device 3 including an image processing unit 8 and an output unit 9. The figure includes: a recording unit in which identification information thereof is recorded; and means that, when being communicably connected to the image processing device 3, reads the identification information from the recording unit and transmits it to the image processing unit 8. A database has figure information relating to the figure recorded therein and associated with the identification information. The image processing unit 8 includes output means that, when receiving the identification information, outputs the figure information corresponding to the identification information to the output unit 9.

Description

本発明は、フィギュアの動きに合わせて出力部に表示する画像を動かすことができるi-フィギュア及びi-フィギュアを利用した画像処理システムに関する。   The present invention relates to an i-figure that can move an image displayed on an output unit in accordance with the movement of the figure, and an image processing system using the i-figure.

従来から、フィギュアは、実際に触れたり、置物として眺めたりすることで親しまれてきた。しかし、フィギュアは、それ自体には特別な機能はなく、例えば、動物のように動いたり、鳴いたり、感情を表現したりすることがないので、人、犬、猫のような生物と比べて、親しみが薄いものであった。   Traditionally, figures have become popular by actually touching them or looking at them as figurines. However, figures do not have special functions in themselves and do not move, ring, or express emotions like animals, for example, compared to creatures like people, dogs, and cats. The friendliness was thin.

そこで、フィギュアに機能を持たせより親しみやすくしたものとして、フィギュアの位置や動きに合わせてコンピュータ上で動画や音声を再生できるようにした情報再生装置が知られている。例えば、特許文献1には、少なくとも底部にドットパターンが形成されたフィギュアと、前記フィギュアが載置されるステージと、前記ステージに設けられた1又は2以上の読取孔より読取光を照射してその反射光でドットパターンを読み取る光学読取手段と、前記読取結果に対応した音声情報、画像情報、動画情報、文字情報、図形情報、記号情報、プログラム及び/又はゲームパラメータを記憶する記憶手段と、前記記憶手段から読み出した音声、画像、動画、文字、図形、記号、プログラムおよび/またはゲームパラメータ等の出力情報を出力する出力手段とを備えた台座とからなる情報再生装置が開示されている(段落0009、0134参照)。   In view of this, an information reproducing apparatus is known in which a movie and a sound can be reproduced on a computer in accordance with the position and movement of the figure as a function that makes the figure more functional. For example, Patent Document 1 discloses that a figure having a dot pattern formed at least at the bottom, a stage on which the figure is placed, and reading light from one or more reading holes provided on the stage. Optical reading means for reading the dot pattern with the reflected light; storage means for storing audio information, image information, moving picture information, character information, graphic information, symbol information, a program and / or game parameters corresponding to the reading result; An information reproducing apparatus comprising a pedestal provided with output means for outputting output information such as voice, image, moving image, character, figure, symbol, program and / or game parameter read from the storage means is disclosed ( (See paragraphs 0009, 0134).

特開2010−253284号公報JP 2010-253284 A

しかしながら、上記情報再生装置は、台座上のフィギュアの位置や動きに合わせてコンピュータ上で動画や音声を再生することができ、フィギュアがより親しみ易いものとなるが、フィギュアを眺めるだけであり趣に欠けるところがあった。また、上記情報再生装置は、コンピュータ上でフィギュアに関する情報が得られるものではないので、フィギュアに関する知識を増やすことができなかった。   However, the information reproducing apparatus can reproduce video and audio on a computer in accordance with the position and movement of the figure on the pedestal, making the figure more familiar, but just looking at the figure There was a lack. Further, since the information reproducing apparatus cannot obtain information about a figure on a computer, it has not been possible to increase knowledge about the figure.

そこで、本発明は、フィギュアに触れながら、簡単かつ楽しくフィギュアに関する知識を得ることができるi−フィギュア及びi-フィギュアを利用した画像処理システムを提供することを課題とする。   Therefore, an object of the present invention is to provide an i-figure and an image processing system using the i-figure that can easily and happily acquire knowledge about the figure while touching the figure.

請求項1に係る発明は、上記した従来技術の問題点を解決すべくなされたものであって、
画像処理部と出力部とを備えた画像処理装置に通信可能に接続されるフィギュアからなるi−フィギュアであって、
前記フィギュアは、その識別情報を記録した記録部を備えており、前記画像処理装置に通信可能に接続したときに、前記識別情報を前記記録部から読出して前記画像処理部へ送信する手段を有し、
前記データベースは、前記フィギュアに関するフィギュア情報が前記識別情報と対応付けて記録され、
前記画像処理部は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を前記出力部に出力する前記出力手段を備える
ことを特徴とするi−フィギュアに関する。
The invention according to claim 1 is made to solve the above-mentioned problems of the prior art,
An i-figure consisting of a figure communicably connected to an image processing apparatus comprising an image processing unit and an output unit,
The figure includes a recording unit that records the identification information, and has a means for reading the identification information from the recording unit and transmitting it to the image processing unit when connected to the image processing apparatus in a communicable manner. And
In the database, figure information related to the figure is recorded in association with the identification information,
The said image processing part is provided with the said output means which outputs the said figure information corresponding to the identification information to the said output part when the said identification information is received. The i-figure characterized by the above-mentioned.

請求項2に係る発明は、前記データベースは、前記フィギュアに関する複数のフィギュア情報が前記識別情報と対応付けて記録され、
前記出力手段は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を、前記データベースに記録された複数のフィギュア情報の中からランダムに抽出して前記出力部に出力する機能を備える
ことを特徴とする請求項1に記載のi−フィギュアに関する。
In the invention according to claim 2, in the database, a plurality of pieces of figure information related to the figure are recorded in association with the identification information,
The output means, when receiving the identification information, a function of randomly extracting the figure information corresponding to the identification information from a plurality of figure information recorded in the database and outputting it to the output unit The i-figure according to claim 1, comprising:

請求項3に係る発明は、前記画像処理装置は、前記画像処理部に入力情報を入力する入力部を備え、
前記フィギュア情報は、前記入力情報と対応付けて前記データベースに記録され、
前記出力手段は、前記入力情報が入力されると、前記識別情報と対応する前記フィギュア情報の中から前記入力情報に対応する前記フィギュア情報を前記出力部に出力する機能を備える
ことを特徴とする請求項2に記載のi−フィギュアに関する。
According to a third aspect of the present invention, the image processing apparatus includes an input unit that inputs input information to the image processing unit,
The figure information is recorded in the database in association with the input information,
The output means has a function of outputting the figure information corresponding to the input information from the figure information corresponding to the identification information to the output unit when the input information is input. The i-figure according to claim 2.

請求項4に係る発明は、前記フィギュアは、二つ以上の組合せからなり、
前記フィギュアのフィギュア情報は、前記フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報であり、
前記出力手段は、前記フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報を前記出力部に出力する
ことを特徴とする請求項1〜3のいずれか1つに記載のi-フィギュアに関する。
In the invention according to claim 4, the figure is composed of a combination of two or more,
The figure information of the figure is figure information related to an idea arising from a combination of two or more of the figures,
The i-figure according to any one of claims 1 to 3, wherein the output means outputs to the output unit figure information relating to an idea generated from a combination of two or more of the figures.

請求項5に係る発明は、前記画像処理装置は、インターネットに接続可能であり、
前記フィギュアは、重力加速度センサを備え、前後左右方向が定められており、
前記重力加速度センサは、前記フィギュアの基準位置からの前後左右方向への相対的な移動距離を表す信号を前記画像処理部に出力するものであり、
前記画像処理部は、前記出力部に表示するカーソルを前記重力加速度センサからの前記信号に基づいて移動させる出力手段を備え、
前記出力手段は、前記信号の値が前方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面上部に移動させる機能と、前記信号の値が後方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面下部に移動させる機能と、前記信号の値が右方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面右部に移動させる機能と、前記信号の値が左方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面左部に移動させる機能と、を備える
ことを特徴とする請求項1〜4のいずれか1つに記載のi−フィギュアに関する。
In the invention according to claim 5, the image processing apparatus is connectable to the Internet,
The figure includes a gravitational acceleration sensor, and the front / rear and left / right directions are determined.
The gravitational acceleration sensor outputs a signal representing a relative movement distance in the front-back, left-right direction from the reference position of the figure to the image processing unit,
The image processing unit includes an output unit that moves a cursor to be displayed on the output unit based on the signal from the gravitational acceleration sensor,
The output means has a function of moving the cursor to the upper part of the screen of the output unit according to the movement distance of the figure, and the value of the signal advances backward when the value of the signal indicates forward movement. In the case of representing that the value of the signal has moved to the right, and the function of moving the cursor to the lower part of the screen of the output unit according to the movement distance of the figure, In response to the function of moving the cursor to the right side of the screen of the output unit and the value of the signal proceeding to the left, the cursor is moved to the left side of the screen of the output unit according to the movement distance of the figure. The i-figure according to any one of claims 1 to 4, wherein the i-figure is provided with a function of moving to a part.

請求項6に係る発明は、前記請求項1〜5のいずれか1つに記載のi-フィギュアと、データベースと、画像処理部と、出力部とを備えているi‐フィギュアを利用した画像処理システムであって、
前記データベースは、前記i‐フィギュアに関するフィギュア情報が前記識別情報と対応付けて記録され、
前記画像処理部は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を前記出力部に出力する前記出力手段を備える
ことを特徴とするi-フィギュアを利用した画像処理システムに関する。
An invention according to claim 6 is an image processing using an i-figure comprising the i-figure according to any one of claims 1 to 5, a database, an image processing unit, and an output unit. A system,
In the database, figure information related to the i-figure is recorded in association with the identification information,
When the image processing unit receives the identification information, the image processing unit includes the output unit that outputs the figure information corresponding to the identification information to the output unit. An image processing system using an i-figure About.

請求項7に係る発明は、前記i‐フィギュアは、二つ以上の組合せからなり、
前記i‐フィギュアのフィギュア情報は、前記i‐フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報であり、
前記出力手段は、前記i‐フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報を前記出力部に出力する
ことを特徴とする請求項6に記載のi-フィギュアを利用した画像処理システムに関する。
In the invention according to claim 7, the i-figure comprises two or more combinations,
The figure information of the i-figure is figure information related to an idea resulting from a combination of two or more of the i-figure,
The image processing system using an i-figure according to claim 6, wherein the output unit outputs to the output unit figure information relating to an idea generated from a combination of two or more of the i-figure.

請求項8に係る発明は、前記i‐フィギュアは、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第1信号又は第2信号を前記画像処理部に送る検出手段を有し、
前記データベースは、前記i‐フィギュアに関する文字データ及び/又は画像データからなる辞書情報及び/又は前記i‐フィギュアに関する検索キーワード及びインターネット上にある検索エンジンの情報と、を記録しているものであり、
前記画像処理部は、前記検出手段から前記第1信号が送られたときに、前記i‐フィギュアに関する辞書情報を前記データベースから検索する第1検索手段及び/又は、前記検出手段から前記第2信号が送られたときに、前記検索キーワードの前記検索エンジンによる検索を行なう第2検索手段を有し、
前記出力手段は、前記第1検索手段によって検索された前記辞書情報及び/又は第2検索手段によって検索された複数のハイパーリンクを前記出力部に出力するものである
ことを特徴とする請求項6又は7に記載のi-フィギュアを利用した画像処理システムに関する。
According to an eighth aspect of the present invention, when the i-figure touches a designated place on the surface thereof, the i-figure has detection means for sending a first signal or a second signal indicating that the touch is made to the image processing unit. And
The database records dictionary information consisting of character data and / or image data related to the i-figure and / or search keywords related to the i-figure and search engine information on the Internet,
When the first signal is sent from the detection unit, the image processing unit searches the database for dictionary information related to the i-figure and / or the second signal from the detection unit. The second search means for searching the search keyword by the search engine when
The output means outputs the dictionary information searched by the first search means and / or a plurality of hyperlinks searched by the second search means to the output unit. Or an image processing system using the i-figure described in 7.

請求項9に係る発明は、前記画像処理部は、前記ハイパーリンクのうち、いずれか1つを選択する機能と、そのハイパーリンク先のWEBサイトにアクセスする機能とを備える選択アクセス手段とを有し、
前記出力手段は、前記WEBサイトを前記出力部に出力する
ことを特徴とする請求項8に記載のi-フィギュアを利用した画像処理システムに関する。
The invention according to claim 9 is characterized in that the image processing unit has a selection access means having a function of selecting any one of the hyperlinks and a function of accessing a hyperlink destination WEB site. And
9. The image processing system using an i-figure according to claim 8, wherein the output means outputs the WEB site to the output unit.

請求項10に係る発明は、前記i‐フィギュアは、重力加速度センサを備え、前後方向が定められており、
前記重力加速度センサは、前記i‐フィギュアの基準位置からの前後方向への相対的な移動距離を表す信号を前記画像処理部に出力するものであり、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、入力された信号の値が、前方へ進んだことを表す場合、出力部に出力する3次元画像を、移動距離に応じて定められる率で拡大し、後方へ進んだことを表す場合、出力部に出力する3次元画像を移動距離に応じて定められる率で縮小する
ことを特徴とする請求項6〜9のいずれか1つに記載のi-フィギュアを利用した画像処理システムに関する。
In the invention according to claim 10, the i-figure includes a gravitational acceleration sensor, and the front-rear direction is determined.
The gravitational acceleration sensor outputs a signal representing a relative movement distance in the front-rear direction from the reference position of the i-figure to the image processing unit,
The figure information is a three-dimensional image,
When the output means indicates that the value of the input signal has advanced forward, the output means expands the three-dimensional image to be output to the output unit at a rate determined according to the moving distance, and indicates that it has advanced backward. The image processing system using an i-figure according to any one of claims 6 to 9, wherein, when the image is represented, the three-dimensional image output to the output unit is reduced at a rate determined according to the moving distance. About.

請求項11に係る発明は、前記i‐フィギュアは、重力加速度センサを備えており、
前記重力加速度センサは、前記i‐フィギュアが回転したときに、回転角度を表す信号を前記画像処理部に出力するものであり、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、入力された前記信号に基づいて、前記回転角度に応じて定められる角度だけ、出力部に出力する3次元画像を出力部の中心を基準に回転させる、
ことを特徴とする請求項6〜10のいずれか1つに記載のi-フィギュアを利用した画像処理システムに関する。

In the invention according to claim 11, the i-figure includes a gravitational acceleration sensor,
The gravitational acceleration sensor outputs a signal representing a rotation angle to the image processing unit when the i-figure rotates.
The figure information is a three-dimensional image,
The output means rotates, based on the input signal, a three-dimensional image output to the output unit by an angle determined according to the rotation angle with reference to the center of the output unit.
The present invention relates to an image processing system using an i-figure according to any one of claims 6 to 10.

請求項12に係る発明は、前記i‐フィギュアは、フィギュア本体と、このフィギュア本体が着脱可能に取り付けられる台座とからなり、
前記台座は、前記重力加速度センサを内蔵し、前記画像処理部に通信可能に接続されることを特徴とする請求項10又は11に記載のi-フィギュアを利用した画像処理システムに関する。
The invention according to claim 12 is characterized in that the i-figure comprises a figure main body and a pedestal to which the figure main body is detachably attached.
The image processing system using an i-figure according to claim 10 or 11, wherein the pedestal includes the gravitational acceleration sensor and is connected to the image processing unit so as to be communicable.

請求項13に係る発明は、前記画像処理部に接続し、ジョイスティックによる方向入力信号を前記画像処理部に出力する入力装置を備え、
前記i‐フィギュアは、前記ジョイスティックに取り付けられ、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、前記ジョイスティックを前後方向に倒すと、前記ジョイスティックの移動距離に応じて定められる率で前記出力部に出力する前記3次元画像を拡大又は縮小し、前記ジョイスティックを斜めに倒した状態で回転すると、前記ジョイスティックの回転角度に応じて定められる角度だけ、前記出力部に出力する前記3次元画像を前記出力部の中心を基準に回転させる、
ことを特徴とする請求項6〜9のいずれか1つに記載のi-フィギュアを利用した画像処理システムに関する。
The invention according to claim 13 includes an input device that is connected to the image processing unit and outputs a direction input signal from a joystick to the image processing unit,
The i-figure is attached to the joystick,
The figure information is a three-dimensional image,
When the joystick is tilted back and forth, the output means enlarges or reduces the three-dimensional image output to the output unit at a rate determined according to the movement distance of the joystick, and tilts the joystick obliquely And rotating the three-dimensional image output to the output unit based on the center of the output unit by an angle determined according to the rotation angle of the joystick.
The present invention relates to an image processing system using an i-figure according to any one of claims 6 to 9.

請求項14に係る発明は、前記データベースは、前記i‐フィギュアの透視画像データが記録されており、
前記i‐フィギュアは、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第3信号を前記画像処理部に送る検出手段を有し、
前記画像処理部は、前記検出手段から前記第3信号が送られたときに、前記透視画像データを前記データベースから検索する第3検索手段を有し、
前記出力手段は、前記第3検索手段によって検索された前記透視画像を前記出力部に出力する
ことを特徴とする請求項6〜13のいずれかに記載のi-フィギュアを利用した画像処理システムに関する。
In the invention according to claim 14, in the database, fluoroscopic image data of the i-figure is recorded,
The i-figure has detection means for sending a third signal indicating that the touch has been made to the image processing unit when the designated place on the surface is touched,
The image processing unit has third search means for searching the fluoroscopic image data from the database when the third signal is sent from the detection means.
14. The image processing system using an i-figure according to claim 6, wherein the output unit outputs the fluoroscopic image searched by the third search unit to the output unit. .

請求項15に係る発明は、前記データベースは、前記i−フィギュアの動画が前記識別情報に対応付けて記録され、
前記出力手段は、前記画像処理部が前記信号を所定時間受信しない場合、前記i−フィギュアの動画を前記出力部に出力する
ことを特徴とする請求項6〜14のいずれかに記載のi-フィギュアを利用した画像処理システム。
In the invention according to claim 15, in the database, the moving image of the i-figure is recorded in association with the identification information,
15. The i- of any one of claims 6 to 14, wherein the output means outputs the moving image of the i-figure to the output unit when the image processing unit does not receive the signal for a predetermined time. Image processing system using figures.

請求項1に係る発明によれば、フィギュアを画像処理装置に通信可能に接続すると、従来と同様に、フィギュアを実際に触れたり、置物として眺めたりすることができるだけでなく、フィギュアに関するフィギュア情報が出力部に表示されるので、簡単かつ楽しくフィギュアに関する知識を得ることができる。ここで、フィギュア情報とは、フィギュアに関する文字情報、3次元画像、動画、音声などをいい、フィギュアに関する情報であればいずれでもよい。   According to the first aspect of the present invention, when the figure is connected to the image processing apparatus in a communicable manner, the figure can be actually touched or viewed as a figurine as in the conventional case. Since it is displayed on the output section, it is easy and fun to obtain knowledge about the figure. Here, the figure information refers to character information related to the figure, three-dimensional image, moving image, voice, etc., and any information may be used as long as it is information related to the figure.

請求項2に係る発明によれば、フィギュアに関するフィギュア情報がランダムに出力部に表示されるので、フィギュアを接続するまで、どんな情報が得られるか分からないことを楽しむことができる。また、フィギュアに関する意外な知識を得ることができる。例えば、ウナギのフィギュアであれば、ウナギの3次元画像や天然ウナギの産地である四万十川の風景を描写した3次元画像などがランダムに出力部に表示される。また、馬のフィギュアであれば、馬が走っている動画や、馬の鳴き声が出力部に出力される。   According to the second aspect of the present invention, the figure information about the figure is randomly displayed on the output unit, so that it can be enjoyed that it is not known what information is obtained until the figure is connected. In addition, unexpected knowledge about the figure can be obtained. For example, in the case of an eel figure, a three-dimensional image of the eel, a three-dimensional image depicting the landscape of the Shimanto River, which is the production area of the natural eel, and the like are randomly displayed on the output unit. In the case of a horse figure, the moving image of the horse and the sound of the horse are output to the output unit.

請求項3に係る発明によれば、入力部からフィギュアに関する入力情報を入力すると、記録部に記録されたフィギュア情報のうち前記入力情報に対応するフィギュア情報を前記出力部に表示させることができるので、より楽しくフィギュアに関する知識を得ることができる。入力情報は、例えば、年齢、日にち、場所を挙げることができるが、これらに限定されない。   According to the third aspect of the present invention, when the input information related to the figure is input from the input unit, the figure information corresponding to the input information among the figure information recorded in the recording unit can be displayed on the output unit. , You can get more knowledge about figures. The input information can include, for example, age, date, and place, but is not limited thereto.

請求項4に係る発明によれば、2以上のフィギュアを組み合わせたときに、想定外の画像が出力部に現れることがあるので、いろいろフィギュアを組み合わせて遊ぶことが出来る。このため、フィギュアに触れながら、フィギュアに関する知識をより楽しみながら得ることができる。   According to the fourth aspect of the invention, when two or more figures are combined, an unexpected image may appear in the output unit, so that various figures can be combined and played. For this reason, while touching the figure, it is possible to obtain more knowledge about the figure.

請求項5に係る発明によれば、フィギュアを前後左右方向に動かすことにより、そのフィギュアの動きに合わせて画面上のカーソルをマウスで操作するように動かすことができるので、インターネット上でフィギュアに関する情報を検索することができる。このため、フィギュアに触れながら、簡単かつ楽しくフィギュアに関する知識を得ることができる。   According to the invention of claim 5, by moving the figure in the front / rear / right / left direction, the cursor on the screen can be moved to operate with the mouse in accordance with the movement of the figure. Can be searched. For this reason, while touching the figure, knowledge about the figure can be obtained easily and happily.

請求項6に係る発明によれば、i‐フィギュアを画像処理装置に通信可能に接続すると、そのフィギュアに関するフィギュア情報が出力部に表示されるので、フィギュアに触れながら、簡単かつ楽しくフィギュアに関する知識を得ることができる。   According to the invention of claim 6, when the i-figure is communicably connected to the image processing apparatus, the figure information about the figure is displayed on the output unit. Can be obtained.

請求項7に係る発明によれば、前記i‐フィギュアは、二つ以上の組合せからなり、前記フィギュア情報は、前記i‐フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報であり、前記出力手段は、前記フィギュア情報を前記出力部に出力することにより、2以上のi‐フィギュアを組み合わせたときに、想定外のフィギュア情報が出力部に現れることがあるので、いろいろi‐フィギュアを組み合わせて遊ぶことが出来る。このため、i‐フィギュアに触れながら、フィギュアに関する知識をより楽しみながら得ることができる。   According to the invention of claim 7, the i-figure is composed of two or more combinations, and the figure information is figure information relating to an idea generated from two or more combinations of the i-figures, and the output By outputting the figure information to the output unit, means may cause unexpected figure information to appear in the output unit when two or more i-figures are combined. I can play. For this reason, while touching the i-figure, it is possible to obtain the knowledge about the figure more enjoyably.

請求項8に係る発明によれば、i‐フィギュアの表面の指定箇所をタッチしたときに、i‐フィギュアに関する辞書情報及び/又は検索エンジンによって検索されたハイパーリンクが画面上で得られるので、フィギュアに実際に触れながら、フィギュアに関する情報を画面上で得ることができる。このため、フィギュアに触れながら、より簡単かつ楽しくフィギュアが表す対象物(例えば、馬のフィギュアであれば、本物の馬)に関する知識を得ることができる。   According to the invention of claim 8, when touching a designated place on the surface of the i-figure, the dictionary information about the i-figure and / or the hyperlink searched by the search engine can be obtained on the screen. While actually touching, you can get information about the figure on the screen. For this reason, while touching the figure, it is possible to obtain knowledge about the object represented by the figure more easily and happily (for example, a real horse in the case of a horse figure).

請求項9に係る発明によれば、前記画像処理部は、前記ハイパーリンクのうち、いずれか1つを選択する選択手段と、前記選択手段により選択された前記ハイパーリンク先のWEBサイトにアクセスするアクセス手段とを有し、前記出力手段は、前記WEBサイトを前記出力部に出力することにより、i‐フィギュアの表面をタッチするだけで、WEBサイトに載っているフィギュアに関する情報を閲覧することができるので、簡単にフィギュアが表す対象物に関する情報を得ることができる。   According to the ninth aspect of the invention, the image processing unit accesses a selection unit that selects any one of the hyperlinks and the hyperlink destination WEB site selected by the selection unit. Access means, and the output means outputs the WEB site to the output unit, so that the user can view information on the figure on the WEB site by simply touching the surface of the i-figure. Since it is possible, information on the object represented by the figure can be easily obtained.

請求項10に係る発明によれば、i‐フィギュアを前後方向へ移動させると、出力部に出力する3次元画像が、前後方向の移動距離に応じて拡大・縮小するので、フィギュアそのものをマウスのように操作することができ、さらに楽しみながらフィギュアに関する知識を得ることができる。   According to the invention of claim 10, when the i-figure is moved in the front-rear direction, the three-dimensional image output to the output unit is enlarged / reduced according to the movement distance in the front-rear direction. It is possible to obtain knowledge about the figure while having further fun.

請求項11に係る発明によれば、i‐フィギュアを回転させると、出力部に出力する3次元画像を、出力部の中心を基準に回転させることができるので、フィギュアそのものがマウスになったような感覚を得ることができ、さらに楽しみながらフィギュアに関する知識を得ることができる。   According to the invention of claim 11, when the i-figure is rotated, the three-dimensional image output to the output unit can be rotated with reference to the center of the output unit, so that the figure itself becomes a mouse. You can get a good feeling and learn about the figure while having fun.

請求項12に係る発明によれば、前記i‐フィギュアは、フィギュア本体と、このフィギュア本体が着脱可能に取り付けられる台座とからなり、前記台座は、前記重力加速度センサを内蔵し、前記画像処理部に通信可能に接続されることにより、i‐フィギュア毎に重力加速度センサを埋め込まなくても、i‐フィギュア毎に出力部に出力する3次元画像を拡大・縮小・回転させることができる。このため、i‐フィギュアを小型化・低コスト化することができる。   According to the invention of claim 12, the i-figure includes a figure main body and a pedestal to which the figure main body is detachably attached. The pedestal incorporates the gravitational acceleration sensor, and the image processing unit. By virtue of being communicably connected to each other, it is possible to enlarge / reduce / rotate the three-dimensional image output to the output unit for each i-figure without embedding a gravitational acceleration sensor for each i-figure. For this reason, the i-figure can be reduced in size and cost.

請求項13に係る発明によれば、高価な重力加速度センサを用いなくても、ジョイスティックの操作による方向入力信号を前記画像処理部に出力すれば、出力部に出力する画像を拡大・縮小・回転させることができるので、重力加速度センサをi‐フィギュアに埋め込む場合と比べて、i‐フィギュアを小型化・低コスト化することができる。   According to the thirteenth aspect of the present invention, even if an expensive gravitational acceleration sensor is not used, if a direction input signal by a joystick operation is output to the image processing unit, the image output to the output unit is enlarged, reduced, or rotated. Therefore, the i-figure can be reduced in size and cost compared to the case where the gravitational acceleration sensor is embedded in the i-figure.

請求項14に係る発明によれば、i‐フィギュアの表面の指定箇所をタッチすると、i‐フィギュアの透視画像が出力部に表示されるので、フィギュアが表す対象物(例えば、人のフィギュアであれば、本物の人の内部がどのような構造になっているのか知ることができ、さらにフィギュアが表す対象物に関する知識を深めることができる。   According to the fourteenth aspect of the present invention, when a specified location on the surface of the i-figure is touched, a perspective image of the i-figure is displayed on the output unit, so that the object represented by the figure (for example, a human figure) For example, it is possible to know the structure of the inside of a real person, and to deepen knowledge about the object represented by the figure.

請求項15に係る発明によれば、前記データベースは、前記i−フィギュアの動画が前記識別情報に対応付けて記録され、前記出力手段は、前記画像処理部が前記信号を所定時間受信しない場合、前記識別情報に対応する前記i−フィギュアの動画を前記出力部に出力することにより、フィギュアに触れずに、出力部に出力されるフィギュアの動きを楽しむことができる。   According to the invention according to claim 15, in the database, the moving image of the i-figure is recorded in association with the identification information, and the output means, when the image processing unit does not receive the signal for a predetermined time, By outputting the moving image of the i-figure corresponding to the identification information to the output unit, it is possible to enjoy the movement of the figure output to the output unit without touching the figure.

i-フィギュアを利用した画像処理システムの全体構成を示す図である。1 is a diagram illustrating an entire configuration of an image processing system using an i-figure. 図1のi‐フィギュアと画像処理装置の全体構成を示す図である。It is a figure which shows the whole structure of the i-figure and image processing apparatus of FIG. 図2のi‐フィギュアと画像処理部が備える手段を示す図である。It is a figure which shows the means with which the i-figure and image processing part of FIG. 2 are provided. i-フィギュアを利用した画像処理システムの処理設定を示すフローチャートである。It is a flowchart which shows the processing setting of the image processing system using an i-figure. 2つ以上のi‐フィギュアが画像処理装置に接続される場合の処理を示すフローチャートである。10 is a flowchart showing processing when two or more i-figures are connected to the image processing apparatus. 単一のフィギュアが画像処理装置に接続された状態を示す図である。It is a figure which shows the state in which the single figure was connected to the image processing apparatus. 単一のフィギュアが画像処理装置に接続された状態を示す図である。It is a figure which shows the state in which the single figure was connected to the image processing apparatus. 複数のi‐フィギュアの組合せから生じる観念に関する3次元画像をディスプレイに表示した状態を示す図である。It is a figure which shows the state which displayed on the display the three-dimensional image regarding the idea which arises from the combination of several i-figure. ディスプレイに表示された3次元画像をi‐フィギュアの動きに合わせて同期させる処理を示すフローチャートである。It is a flowchart which shows the process which synchronizes the three-dimensional image displayed on the display according to the motion of i-figure. i‐フィギュアに関する辞書情報と検索キーワードによる検索を行なう処理を示すフローチャートである。It is a flowchart which shows the process which performs the search by the dictionary information and search keyword regarding i-figure. i‐フィギュアに関する辞書情報をディスプレイに表示した状態を示す図である。It is a figure which shows the state which displayed the dictionary information regarding i-figure on a display. クジラのフィギュアの口をタッチしてクジラが口を大きく広げた3次元画像をディスプレイに表示した状態を示す図である。It is a figure which shows the state which displayed on the display the three-dimensional image which touched the mouth of the figure of a whale and the whale greatly expanded the mouth. i‐フィギュアを重力加速度センサを内蔵した台座の支柱に取り付けた状態を示す図である。It is a figure which shows the state which attached the i-figure to the support | pillar of the base which incorporated the gravity acceleration sensor. i‐フィギュアを入力装置のジョイスティックに取り付けた状態を示す図である。It is a figure which shows the state which attached the i-figure to the joystick of the input device. フィギュアを利用した画像処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the image processing system using a figure.

以下、本発明の実施形態のi-フィギュア及びi-フィギュアを利用した画像処理システムについて図面を参照しながら詳細に説明する。但し、本発明は、以下の実施形態に限定されるものではない。   Hereinafter, an i-figure of an embodiment of the present invention and an image processing system using the i-figure will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments.

ここで、i-フィギュアの「i」とは、Information and Communication TechnologyのInformationの略であり、i-フィギュアとは、情報通信技術を組み込んだフィギュアを意味する。より具体的には、i-フィギュアとは、後述するように、画像処理装置にフィギュアを接続したときに、フィギュアに関するフィギュア情報が得られたり、フィギュア表面の指定箇所をタッチしたときに、フィギュアに関する辞書情報が得られたり、インターネット上のフィギュアに関する情報が得られたりすることができるフィギュアを意味する。   Here, “i” of the i-figure is an abbreviation of Information of Information and Communication Technology, and the i-figure means a figure incorporating information communication technology. More specifically, as will be described later, an i-figure is related to a figure when figure information about the figure is obtained when the figure is connected to the image processing apparatus, or when a designated location on the figure surface is touched. It means figures that can get dictionary information and information about figures on the Internet.

図1に示すように、本発明の実施形態のi-フィギュアを利用した画像処理システム1は、i-フィギュア2と、画像処理装置3とを備えている。   As shown in FIG. 1, an image processing system 1 using an i-figure according to an embodiment of the present invention includes an i-figure 2 and an image processing device 3.

i‐フィギュア2は、動物や人間を模したフィギュア(図1では、土佐四天王のフィギュアが示されている)からなるが、これらに限定されず、机や椅子などの無生物からなるフィギュアでもよい。また、i‐フィギュア2は、ガンダムやドラゴンなどのキャラクターを模したフィギュアであってもよく、ガンダム等のプラモデルのように個々のパーツを組み合わせて作る組み立て式の模型も含まれる。さらに、i‐フィギュア2は、1つのフィギュアからなるものでもよく、二つ以上のフィギュアの組合せからなるものであってもよい。   The i-figure 2 is composed of a figure imitating an animal or a human (in FIG. 1, a figure of Tosa Shitenno is shown). However, the i-figure 2 is not limited thereto, and may be a figure composed of an inanimate object such as a desk or a chair. In addition, the i-figure 2 may be a figure imitating a character such as Gundam or a dragon, and also includes an assembly-type model made by combining individual parts like a plastic model such as Gundam. Furthermore, the i-figure 2 may be composed of one figure or a combination of two or more figures.

また、i‐フィギュア2は、その識別情報が記録された記録部であるメモリと、演算部であるCPUとを備えており、画像処理装置3の後述する画像処理部に通信可能に接続したときに、前記識別情報を前記CPUによって前記メモリから読出して前記画像処理部へ送信する手段を有する。通信可能に接続とは、無線通信などの非接触で通信可能な状態も含むものである。なお、i‐フィギュア2は、前記識別情報を記録したICチップ(ICタグ)を埋め込んでおき、そのICチップに記録された前記識別情報を非接触で読み取るリーダーを備えた認識装置を別に設け、この認識装置のリーダーから前記識別情報を後述する画像処理部へ送信するようにしてもよい。この場合、前記認識装置は、後述する画像処理部に通信可能に接続しておく。なお、前記識別情報を読み取るリーダーは、後述する画像処理装置に備えるようにしてもよい。   The i-figure 2 includes a memory that is a recording unit in which the identification information is recorded, and a CPU that is an arithmetic unit, and is connected to an image processing unit (to be described later) of the image processing apparatus 3 so as to be communicable. And means for reading the identification information from the memory by the CPU and transmitting it to the image processing unit. The communicable connection includes a state where communication is possible without contact such as wireless communication. The i-figure 2 has an IC chip (IC tag) in which the identification information is recorded embedded therein, and a separate recognition device including a reader that reads the identification information recorded in the IC chip in a non-contact manner. The identification information may be transmitted from the reader of the recognition device to an image processing unit described later. In this case, the recognition device is communicably connected to an image processing unit described later. Note that a reader that reads the identification information may be provided in an image processing apparatus described later.

また、i‐フィギュア2は、図2、3に示すように、そのフィギュア表面の指定箇所に光透過型のタッチ式センサ5、6を備え、そのセンサ5、6が画像処理装置3に接続されており、フィギュア表面の指定箇所をタッチしたときに、タッチされたことを表す第1信号を後述する画像処理部に出力する第1検出手段21と、フィギュア表面の指定箇所をタッチしたときに、タッチされたことを表す第2信号を後述する画像処理部に出力する第2検出手段22とを有する。なお、指定箇所は、i‐フィギュア2の表面のどこでもよいが、人間がタッチし易い場所が好ましい。例えば、人間のi‐フィギュア2であれば、背中、胸部、頭部を挙げることができる。   As shown in FIGS. 2 and 3, the i-figure 2 includes light-transmissive touch sensors 5 and 6 at specified locations on the surface of the figure, and the sensors 5 and 6 are connected to the image processing device 3. When a specified location on the surface of the figure is touched, the first detection means 21 that outputs a first signal indicating that the touch has been made to an image processing unit described later, and when the specified location on the surface of the figure is touched, And second detection means 22 for outputting a second signal indicating that the touch has been made to an image processing unit described later. The designated part may be anywhere on the surface of the i-figure 2 but is preferably a place where a human can easily touch. For example, a human i-figure 2 can include the back, chest, and head.

前記第1信号と前記第2信号は、フィギュア表面の別々の2箇所に前記指定箇所(第1指定箇所と第2指定箇所)を設け、第1指定箇所をタッチしたときに、タッチ式センサ5から前記第1信号が出力されるようにし、第2指定箇所をタッチしたときに、タッチ式センサ6から前記第2信号が出力されるようにする。また、前記第1信号と第2信号は、前記指定箇所を1つ設け、その指定箇所を1回タッチしたときに、前記第1信号が出力され、前記指定箇所を2回タッチ(ダブルクリック)したときに、第2信号が出力されるようにしてもよい。   The first signal and the second signal are provided with the designated locations (first designated location and second designated location) at two different locations on the surface of the figure, and when the first designated location is touched, the touch sensor 5 The first signal is output from the touch sensor 6 so that the second signal is output from the touch sensor 6 when the second designated portion is touched. In addition, the first signal and the second signal are provided with one designated location, and when the designated location is touched once, the first signal is output and the designated location is touched twice (double click). Then, the second signal may be output.

また、i‐フィギュア2は、その内部に重力加速度センサ7を備えている。重力加速度センサ7は、前後左右方向が定められており、i‐フィギュア2の基準位置からの前後方向への相対的な移動距離を表す信号を後述する画像処理部に出力する。また、重力加速度センサ7は、i‐フィギュア2が回転した場合に、回転角度を表す信号を後述する画像処理部に出力する。   The i-figure 2 includes a gravitational acceleration sensor 7 therein. The gravitational acceleration sensor 7 is defined in the front-rear and left-right directions, and outputs a signal representing a relative movement distance in the front-rear direction from the reference position of the i-figure 2 to an image processing unit described later. Further, when the i-figure 2 rotates, the gravitational acceleration sensor 7 outputs a signal representing the rotation angle to an image processing unit described later.

画像処理装置3は、図2に示すように、画像処理部8と、出力部(ディスプレイ9)と、データベース10(HDD)とを有し、インターネット11に接続されている。画像処理部8は、CPU12と、ROM13と、RAM14と、入力部15と、を備えている。ROM13は、システムのOSのプログラムと、画像処理プログラムとを記録している。RAM14は、プログラム又はデータ処理用の作業領域として用いられる。CPU12は、ROM12からプログラムをRAM14へと読み出し、展開し、実行する。   As shown in FIG. 2, the image processing apparatus 3 includes an image processing unit 8, an output unit (display 9), and a database 10 (HDD), and is connected to the Internet 11. The image processing unit 8 includes a CPU 12, a ROM 13, a RAM 14, and an input unit 15. The ROM 13 records a system OS program and an image processing program. The RAM 14 is used as a work area for program or data processing. The CPU 12 reads the program from the ROM 12 into the RAM 14, expands it, and executes it.

データベース10には、i‐フィギュア2に関する複数のフィギュア情報が記録される。記録は、i‐フィギュア2又は認識装置4から出力される前記識別情報と、その識別情報を出力したi‐フィギュア2のフィギュア情報とを対応付けて行なわれる。ここで、フィギュア情報とは、フィギュアに関する文字情報、3次元画像、動画、音声などをいい、フィギュアに関する情報であればいずれでもよい。データベース10に記録されるフィギュア情報は、単一のフィギュアに関するものだけでなく、二つ以上のフィギュアの組合せから生じる観念に関するものでもよい。この場合、フィギュア情報は、組合せた各i‐フィギュア2から出力される前記識別情報の組合せに対応付けられてデータベース10に記録される。   A plurality of pieces of figure information related to the i-figure 2 is recorded in the database 10. The recording is performed by associating the identification information output from the i-figure 2 or the recognition device 4 with the figure information of the i-figure 2 that has output the identification information. Here, the figure information refers to character information related to the figure, three-dimensional image, moving image, voice, etc., and any information may be used as long as it is information related to the figure. The figure information recorded in the database 10 may be related not only to a single figure but also to an idea resulting from a combination of two or more figures. In this case, the figure information is recorded in the database 10 in association with the combination of the identification information output from each combined i-figure 2.

単一のフィギュアに関するフィギュア情報は、i‐フィギュア2がウナギのフィギュアであれば、うなぎに関するものであり、例えば、ウナギそのものの3次元画像データや、天然ウナギの産地として有名な四万十川の風景を写した3次元画像データや、四万十川とその周辺の高知の景観地の風景を写した3次元画像データなどであるが、これらに限定されない。例えば、i‐フィギュア2が馬のフィギュアであれば、馬が走っている動画や、馬の鳴き声をディスプレイ9に出力してもよく、馬の生態などを説明した文字情報をディスプレイ9に出力してもよい。
また、i‐フィギュア2がクジラのフィギュアであれば、例えば、図1に示すように、クジラそのものの3次元画像データや、ホエールウォッチングができる場所として有名な土佐湾の3次元画像などをディスプレイ9に表示することができる。
The figure information about a single figure is related to eel if i-Figure 2 is an eel figure. For example, the 3D image data of the eel itself and the scenery of the Shimanto River, which is famous for the production of natural eels. Although it is 3D image data that has been copied and 3D image data that has been captured of the scenery of the Shimanto River and its surrounding Kochi landscape, it is not limited thereto. For example, if the i-figure 2 is a horse figure, a video of the horse running or the cry of the horse may be output to the display 9, and character information explaining the ecology of the horse is output to the display 9. May be.
If the i-figure 2 is a whale figure, for example, as shown in FIG. 1, the display 9 displays 3D image data of the whale itself, a 3D image of Tosa Bay, which is famous for whale watching, and the like. Can be displayed.

また、i‐フィギュア2が小鳥のフィギュアであれば、小鳥に関するものであり、例えば、自然の小鳥や小鳥の生活を写した3次元画像データである。i‐フィギュア2が人のフィギュアである場合は、人に関するものであり、例えば、自然の人や人の生活を写した3次元画像データである。i‐フィギュア2が椅子のフィギュアである場合は、椅子に関するものであり、例えば、椅子そのものの3次元画像データや家の中に置かれた椅子の3次元画像データである。   Further, if the i-figure 2 is a bird figure, it relates to a bird, for example, three-dimensional image data showing the life of a natural bird or a bird. When the i-figure 2 is a human figure, the i-figure 2 is related to a person, for example, three-dimensional image data showing a natural person or a person's life. When the i-figure 2 is a chair figure, it relates to a chair, for example, 3D image data of the chair itself or 3D image data of a chair placed in the house.

二つ以上のi‐フィギュア2の組合せから生じる観念に関するフィギュア情報は、例えば、i‐フィギュア2が小鳥のフィギュアと人のフィギュアの組合せからなる場合、動物園の中で人が小鳥を見ている映像や、家庭で小鳥を飼っている映像を挙げることができる。i‐フィギュア2が複数の子供のフィギュアの組合せからなる場合は、遊園地や動物園で子供が遊んでいる映像や、野球、サッカーなどの自然の中の遊びを写した映像を挙げることができる。また、i‐フィギュア2が2つ以上の椅子のフィギュアの組合せからなる場合は、家族生活、屋外の行楽などの映像を挙げることができる。さらに、i‐フィギュア2が小鳥のフィギュアと人のフィギュアと椅子のフィギュアの組合せからなる場合は、家庭のなかの生活でのペットとして小鳥のいる映像を挙げることができる。   For example, if the i-figure 2 is composed of a combination of a bird figure and a human figure, the figure information about the idea that is generated from the combination of two or more i-figure 2 is a picture of a person watching a bird in a zoo. Or you can give a video of keeping a small bird at home. When the i-figure 2 is made up of a combination of a plurality of children's figures, examples include images of children playing in amusement parks and zoos, and images of nature play such as baseball and soccer. Further, when the i-figure 2 is composed of a combination of two or more chair figures, images of family life, outdoor vacations, etc. can be listed. Furthermore, when the i-figure 2 is composed of a combination of a bird figure, a person figure, and a chair figure, an image of a bird as a pet in a life in the home can be cited.

また、二つ以上のフィギュアの組合せから生じる観念に関するフィギュア情報は、i‐フィギュア2が、坂本龍馬のフィギュアと中岡慎太郎のフィギュアの2人のそれぞれのフィギュアからなる場合、この2人に関係する歴史上有名な近江屋事件の一場面を描写した3次元画像データを挙げることができる。
また、二つ以上のフィギュアの組合せから生じる観念に関するフィギュア情報は、i‐フィギュア2が、土佐出身の歴史上の有名な人物であり、土佐勤王党の四天王と呼ばれている、坂本龍馬のフィギュア、中岡慎太郎のフィギュア、武市半平太のフィギュア、吉村虎太郎のフィギュアの4人のそれぞれのフィギュアからなる場合、4人が活躍した幕末時代の場面の3次元画像データであり、例えば、歴史上有名な土佐勤王党の血盟の場面を描写した3次元画像データを挙げることができる。
In addition, the figure information about the idea that arises from the combination of two or more figures is that if i-figure 2 consists of two figures, Ryoma Sakamoto and Shintaro Nakaoka, the history related to these two You can list 3D image data depicting a scene from the famous Oomiya incident.
Also, the figure information on the idea resulting from the combination of two or more figures is the figure of Ryoma Sakamoto, where i-Figure 2 is a famous historical person from Tosa and is called the four heavenly kings of the Tosa king party. , The figure of Shintaro Nakaoka, the figure of Hanpei Takeichi Takeshi, and the figure of Toraro Yoshimura, 3D image data of scenes from the end of the Edo period where 4 people were active, for example, famous in history You can list 3D image data that depicts the scene of the clan of the Tosa king party.

また、データベース10には、i‐フィギュア2に関する入力情報が前記フィギュア情報と対応付けて記録される。入力情報は、i‐フィギュア2に関するキーワードであり、例えば、年齢、日にち、場所を挙げることができるが、これらに限定されない。前記入力情報と対応するフィギュア情報は、例えば、i‐フィギュア2が人のフィギュアである場合に、前記入力情報として「年齢」、「日にち」、「場所」が入力されると、それぞれ、年齢、日にち、場所に関連した人のフィギュア情報を挙げることができる。   The database 10 records input information related to the i-figure 2 in association with the figure information. The input information is a keyword related to the i-figure 2 and can include, for example, age, date, and place, but is not limited thereto. For example, when the i-figure 2 is a human figure, and the age information, the date, and the place are input as the input information, the figure information corresponding to the input information includes an age, You can list figure information of people related to date and place.

CPU12は、前記認識装置4またはi‐フィギュア2から前記識別情報を受信すると、データベース10に記録した複数の前記フィギュア情報のうち、i‐フィギュア2または前記認識装置4から出力された前記識別情報に対応する前記フィギュア情報をデータベース10に記録された複数の前記フィギュア情報の中からランダムに抽出してディスプレイ9に出力する第1機能と、前記入力情報が入力されると、前記識別情報に対応する前記フィギュア情報の中から、前記入力情報に対応する前記フィギュア情報をデータベース10から抽出してディスプレイ9に表示する第2機能と、ディスプレイ9に表示するカーソルを重力加速度センサ7からの信号に基づいて移動させる第3機能と、入力部15からの切替信号に基づいて前記第1機能と前記第3機能のon・offを切り替える第4機能とを備える出力手段23を有する。   When the CPU 12 receives the identification information from the recognition device 4 or the i-figure 2, the identification information output from the i-figure 2 or the recognition device 4 among the plurality of pieces of figure information recorded in the database 10. A first function for randomly extracting the corresponding figure information from a plurality of the figure information recorded in the database 10 and outputting it to the display 9, and when the input information is input, it corresponds to the identification information Based on the signal from the gravitational acceleration sensor 7, the second function for extracting the figure information corresponding to the input information from the database 10 and displaying it on the display 9 from the figure information and displaying the cursor on the display 9. Based on the third function to be moved and the switching signal from the input unit 15, the first machine An output unit 23 and a a fourth function of switching on · off of the third function.

前記第1機能と第3機能は、入力部15からの信号によってon・offを切り替えることにより、どちらか一方のみが機能するようにする。例えば、前記第1機能がonであり、前記第3機能がoffである場合は、前記第1機能のみが機能し、前記第1機能がoffであり、前記第3機能がonである場合は、前記第3機能のみが機能する。また、CPU12は、前記第1信号を受信すると、i‐フィギュア2に関する辞書情報をデータベース10から検索する第1検索手段24と、前記第2信号を受信すると、前記検索キーワードの前記検索エンジンによる検索を行なう第2検索手段25とを有する。   Only one of the first function and the third function functions by switching on / off by a signal from the input unit 15. For example, when the first function is on and the third function is off, only the first function functions, the first function is off, and the third function is on. Only the third function works. Further, when receiving the first signal, the CPU 12 searches the database 10 for dictionary information related to the i-figure 2 from the database 10, and when receiving the second signal, the CPU 12 searches for the search keyword by the search engine. Second search means 25 for performing

出力手段23は、第1検索手段24によって検索された前記辞書情報を出力部に出力する機能、及び/又は、第2検索手段25によって検索された複数のハイパーリンクをディスプレイ9に出力する機能を備える。また、出力手段23は、重力加速度センサ7から入力された信号の値が前方へ進んだことを表す場合、ディスプレイ9に出力する3次元画像を、移動距離に応じて定められる率で拡大する機能と、重力加速度センサ7から入力された信号の値が後方へ進んだことを表す場合、ディスプレイ9に出力する3次元画像を移動距離に応じて定められる率で縮小する機能とを備える。また、出力手段23は、重力加速度センサ7から入力された信号が回転角度を表す信号である場合、回転角度に応じて定められる角度だけ、ディスプレイ9に出力する3次元画像をディスプレイ9の中心を基準に回転させる機能を備える。なお、出力手段23の前記拡大・縮小・回転させる機能は、ディスプレイ9に出力するフィギュア情報が3次元画像である場合に、機能させるようにする。   The output unit 23 has a function of outputting the dictionary information searched by the first search unit 24 to an output unit and / or a function of outputting a plurality of hyperlinks searched by the second search unit 25 to the display 9. Prepare. The output means 23 is a function for enlarging the three-dimensional image output to the display 9 at a rate determined according to the moving distance when the value of the signal input from the gravitational acceleration sensor 7 indicates that the signal has advanced forward. And a function of reducing the three-dimensional image output to the display 9 at a rate determined in accordance with the moving distance when the value of the signal input from the gravitational acceleration sensor 7 represents the backward movement. Further, when the signal input from the gravitational acceleration sensor 7 is a signal representing a rotation angle, the output means 23 outputs a three-dimensional image output to the display 9 at the center of the display 9 by an angle determined according to the rotation angle. It has a function to rotate with reference. The function of the output means 23 for enlarging / reducing / rotating is made to function when the figure information to be output to the display 9 is a three-dimensional image.

また、前記出力手段は、重力加速度センサ7からの信号の値が前方へ進んだことを表す場合、i‐フィギュア2の移動距離に応じて前記カーソルをディスプレイ9の画面上部に移動させる機能と、重力加速度センサ7からの信号の値が後方へ進んだことを表す場合、i‐フィギュア2の移動距離に応じて前記カーソルをディスプレイ9の画面下部に移動させる機能と、重力加速度センサ7からの信号の値が右方へ進んだことを表す場合、i‐フィギュア2の移動距離に応じて前記カーソルをディスプレイ9の画面右部に移動させる機能と、重力加速度センサ7からの信号の値が左方へ進んだことを表す場合、i‐フィギュア2の移動距離に応じて前記カーソルをディスプレイ9の画面左部に移動させる機能とを備える。上記各手段は、コンピュータ読み取り可能なプログラムをCPU12が実行することにより実現される。   The output means has a function of moving the cursor to the upper part of the screen of the display 9 according to the moving distance of the i-figure 2 when the value of the signal from the gravitational acceleration sensor 7 indicates that the value has advanced forward; When the value of the signal from the gravitational acceleration sensor 7 represents the backward movement, the function of moving the cursor to the lower part of the screen of the display 9 according to the moving distance of the i-figure 2 and the signal from the gravitational acceleration sensor 7 Indicates that the value of is advanced to the right, the function of moving the cursor to the right side of the screen of the display 9 according to the movement distance of the i-figure 2 and the value of the signal from the gravitational acceleration sensor 7 are A function of moving the cursor to the left part of the screen of the display 9 according to the moving distance of the i-figure 2. Each of the above means is realized by the CPU 12 executing a computer-readable program.

データベース10には、前記辞書情報、及び/又は、i‐フィギュア2に関する検索キーワードが前記識別情報に対応付けられて記録される。また、データベース10には、インターネット11上にある検索エンジンの情報が記録される。前記辞書情報は、i‐フィギュア2の説明を記載した文字データ及び/又はi‐フィギュア2の画像データからなる。前記検索キーワードは、i‐フィギュア2がライオンのフィギュアであれば、「ライオン」、「百獣の王」などを挙げることができる。また、前記検索キーワードは、i‐フィギュア2が小鳥と子供の組合せからなる場合、例えば、「動物園」を挙げることができ、i‐フィギュア2が坂本龍馬のフィギュアと中岡慎太郎のフィギュアの2人のそれぞれのフィギュアからなる場合は、「近江屋事件」を挙げることができ、図1に示すように、i‐フィギュア2が坂本龍馬のフィギュアと中岡慎太郎のフィギュアと武市半平太のフィギュアと吉村虎太郎のフィギュアの4人のそれぞれのフィギュアからなる場合は、「土佐勤王党」を挙げることができる。検索エンジンの情報は、検索エンジンを利用可能なグーグルやヤフーなどのWEBサイトのURLである。   In the database 10, the dictionary information and / or a search keyword related to the i-figure 2 is recorded in association with the identification information. The database 10 records information about search engines on the Internet 11. The dictionary information includes character data describing the explanation of i-figure 2 and / or image data of i-figure 2. If the i-figure 2 is a lion figure, the search keyword may include “lion”, “king of beasts”, and the like. In addition, when the i-figure 2 is a combination of a bird and a child, the search keyword may be, for example, “zoo”, and the i-figure 2 is a figure of Ryoma Sakamoto and a figure of Shintaro Nakaoka. In the case of each figure, the “Omiya Incident” can be cited. As shown in FIG. 1, the i-Figure 2 consists of Ryoma Sakamoto, Shintaro Nakaoka, Hanhei Hanichi, and Torayoshi Yoshimura. If the figure consists of four figures, you can list the “Tosa King Party”. The search engine information is a URL of a WEB site such as Google or Yahoo that can use the search engine.

入力部15は、例えば、マウスやキーボードを挙げることができ、i‐フィギュア2に関する3次元画像データ、前記入力情報、前記辞書情報、前記検索キーワード、前記検索エンジンの情報を入力してデータベース10に記録することができる。また、入力部15であるマウスを操作することにより、第2検索手段25によって検索された複数のハイパーリンクをクリックして、そのハイパーリンク先のWEBサイトに行くことができる。また、ハイパーリンク先のWEBサイトに行くには、i‐フィギュア2を左右前後方向に動かして、ディスプレイ9に表示されているカーソルを動かしてハイパーリンクを入力部15でクリックすることにより行なうこともできる。クリックは、i‐フィギュア2の指定箇所をタッチしたときに、行なうようにすることもできる。   Examples of the input unit 15 include a mouse and a keyboard. The input unit 15 inputs three-dimensional image data related to the i-figure 2, the input information, the dictionary information, the search keyword, and information about the search engine, and enters the database 10. Can be recorded. Further, by operating the mouse which is the input unit 15, it is possible to click on a plurality of hyperlinks searched by the second search means 25 and go to the hyperlink destination WEB site. Further, to go to the hyperlink destination WEB site, the i-figure 2 is moved left and right and back and forth, the cursor displayed on the display 9 is moved, and the hyperlink is clicked on the input unit 15. it can. Clicking can also be performed when a designated portion of the i-figure 2 is touched.

次に、上記のように構成されたi-フィギュアを利用した画像処理システム1の初期設定について説明する。初期設定は、画像処理部8のCPU12の各手段23、24、25が以下の処理を行なう。   Next, an initial setting of the image processing system 1 using the i-figure configured as described above will be described. As an initial setting, each means 23, 24, 25 of the CPU 12 of the image processing unit 8 performs the following processing.

図4に示すように、ステップS1では、画像処理装置3に備えたCD−ROMドライバーやDVD−ROMドライバーなどの周知の装置(図示せず)から入力されたi‐フィギュア2の前記フィギュア情報をデータベース10に記録する。前記フィギュア情報の記録は、i‐フィギュア2と対応した前記識別情報に対応付けて行なわれる。また、このとき、データベース10に記録された前記フィギュア情報に対応付けて前記入力情報もデータベース10に記録される。ステップS2では、マウスやキーボードなどの入力部15から入力された前記辞書情報と前記検索キーワードを、前記識別情報に対応付けてデータベース10に記録する。また、このとき、前記検索エンジンの情報もデータベース10に記録される。   As shown in FIG. 4, in step S1, the figure information of the i-figure 2 input from a known device (not shown) such as a CD-ROM driver or a DVD-ROM driver provided in the image processing device 3 is obtained. Record in database 10. The recording of the figure information is performed in association with the identification information corresponding to the i-figure 2. At this time, the input information is also recorded in the database 10 in association with the figure information recorded in the database 10. In step S2, the dictionary information and the search keyword input from the input unit 15 such as a mouse or a keyboard are recorded in the database 10 in association with the identification information. At this time, the search engine information is also recorded in the database 10.

ステップS3では、i‐フィギュア2または認識装置4から前記識別情報を受信するのを待機し(No)、前記識別情報を受信すると処理をステップS4に進める(Yes)。ステップS4では、i‐フィギュア2または認識装置4から受信した前記識別情報に対応する複数の前記フィギュア情報の中からランダムに抽出された一つの前記フィギュア情報をディスプレイ9に表示する。このように、ランダムに抽出された一つの前記フィギュア情報がディスプレイ9に表示されるので、i‐フィギュア2を画像処理装置3に通信可能に接続する度に、ディスプレイ9に表示する画像が異なり、i‐フィギュア2に関する様々な知識を得ることができる。   In step S3, it waits to receive the identification information from the i-figure 2 or the recognition device 4 (No), and when the identification information is received, the process proceeds to step S4 (Yes). In step S4, one piece of figure information randomly extracted from a plurality of pieces of figure information corresponding to the identification information received from the i-figure 2 or the recognition device 4 is displayed on the display 9. In this way, since one piece of figure information extracted at random is displayed on the display 9, every time the i-figure 2 is communicably connected to the image processing device 3, the image displayed on the display 9 is different. Various knowledge about i-Figure 2 can be obtained.

ディスプレイ9に表示される前記フィギュア情報は、例えば、画像処理装置3に接続されたi‐フィギュア2がうなぎのフィギュアである場合、ウナギの3次元画像、もしくは、図6に示すように、天然ウナギの産地として有名な四万十川の3次元画像が表示される。また、図7に示すように、画像処理装置3に接続されたi‐フィギュア2がクジラのフィギュアである場合は、ディスプレイ9にクジラの3次元画像、もしくは、ホエールウォッチングで有名な土佐湾の3次元画像が表示される。このようにして、i-フィギュアを利用した画像処理システム1の初期設定が行なわれる。   For example, when the i-figure 2 connected to the image processing device 3 is an eel figure, the figure information displayed on the display 9 is a three-dimensional image of an eel, or a natural eel as shown in FIG. A three-dimensional image of the Shimanto River, famous for its production area, is displayed. In addition, as shown in FIG. 7, when the i-figure 2 connected to the image processing device 3 is a whale figure, the display 9 displays a 3D image of whales or 3 of Tosa Bay famous for whale watching. A dimensional image is displayed. In this way, the initial setting of the image processing system 1 using the i-figure is performed.

また、ここで、入力部15から前記入力情報が入力されると、ディスプレイ9に表示されている前記フィギュア情報が削除され、前記識別情報に対応する前記フィギュア情報の中から、前記入力情報に対応する1つの前記フィギュア情報がランダムに抽出されてディスプレイ9に新たに表示される。例えば、ディスプレイ9に人の3次元画像が表示されている場合、前記入力情報として「年齢(例えば、6才)」が入力されると、6才くらいの子供の3次元画像、もしくは、小学校の入学式の様子を描写した3次元画像などがディスプレイ9に表示される。   Also, here, when the input information is input from the input unit 15, the figure information displayed on the display 9 is deleted, and the input information corresponds to the input information from the figure information corresponding to the identification information. One figure information to be extracted is randomly extracted and newly displayed on the display 9. For example, when a three-dimensional image of a person is displayed on the display 9, if “age (for example, six years old)” is input as the input information, a three-dimensional image of a child of about six years old or an elementary school A three-dimensional image depicting the entrance ceremony is displayed on the display 9.

また、ディスプレイ9に坂本龍馬のフィギュアが表示されている場合に、前記入力情報として「日にち(例えば、1867年)」が入力されると、歴史上有名な近江屋事件の一場面を描写した3次元画像、もしくは、坂本龍馬に関連した他の場面を描写した3次元画像がディスプレイ9に表示される。   In addition, when a figure of Ryoma Sakamoto is displayed on the display 9, when “date (for example, 1867)” is input as the input information, a scene of the famous Oomiya incident is depicted 3 A three-dimensional image or a three-dimensional image depicting another scene related to Ryoma Sakamoto is displayed on the display 9.

また、ディスプレイ9にウナギのフィギュアが表示されている場合に、前記入力情報として「場所(例えば、日本)」が入力されると、天然ウナギの産地として有名な四万十川の風景を描写した3次元画像、もしくは、天然ウナギの産地として他の有名な川の風景を描写した3次元画像がディスプレイ9に表示される。   In addition, when an eel figure is displayed on the display 9 and “location (for example, Japan)” is input as the input information, a three-dimensional depiction of the landscape of the Shimanto River, which is famous as a natural eel production area. An image or a three-dimensional image depicting a landscape of another famous river as a production area of natural eels is displayed on the display 9.

また、ディスプレイ9にクジラの3次元画像が表示されている場合、前記入力情報として「ホエールウォッチング」が入力されると、ホエールウォッチングで有名な土佐湾の3次元画像、もしくは、他のホエールウォッチングで有名な場所がランダムにディスプレイ9に表示される。   In addition, when a 3D image of a whale is displayed on the display 9, if “whale watching” is input as the input information, a 3D image of Tosa Bay famous for whale watching, or other whale watching Famous places are randomly displayed on the display 9.

次に、i‐フィギュア2が2つ以上のフィギュアの組合せからなる場合、即ち、2つ以上のi‐フィギュア2が画像処理装置3に接続される場合の処理について説明する。以下の処理は、ステップS3で前記識別情報を受信すると開始される。   Next, a process when the i-figure 2 is composed of a combination of two or more figures, that is, when two or more i-figure 2 are connected to the image processing apparatus 3 will be described. The following process is started when the identification information is received in step S3.

図5に示すように、ステップS11では、i‐フィギュア2または認識装置4から前記識別情報をさらに受信するのを待機し(No)、前記識別情報を受信すると処理をステップS12に進める(Yes)。ステップS12では、ステップS4でディスプレイ9に表示した前記フィギュア情報を削除する。ステップS13では、画像処理装置3に接続されている各i‐フィギュア2から出力される前記識別情報の組合せに対応する前記前記フィギュア情報をディスプレイ9に表示させる。このとき、ディスプレイ9に表示される3次元画像は、例えば、画像処理装置3に接続されているi‐フィギュア2が、坂本龍馬のフィギュアと中岡慎太郎のフィギュアの2人からなる場合、例えば、近江屋事件の一場面の3次元画像が表示される。また、さらに別のi‐フィギュア2を画像処理装置3に接続した場合は、上記ステップS11〜ステップS13の処理を繰り返し、複数のi‐フィギュア2の組合せから生じる観念に関する3次元画像がディスプレイ9に表示される。例えば、図1に示すように、さらに武市半平太のフィギュアや吉村虎太郎のフィギュアが画像処理装置3に接続されると、歴史上有名な土佐勤王党の血盟の場面を描写した3次元画像がディスプレイ9に表示される。なお、この場合、土佐勤王党を説明した文字情報をディスプレイ9に表示してもよい。   As shown in FIG. 5, in step S11, it waits for further reception of the identification information from i-figure 2 or recognition device 4 (No), and when the identification information is received, the process proceeds to step S12 (Yes). . In step S12, the figure information displayed on the display 9 in step S4 is deleted. In step S <b> 13, the figure information corresponding to the combination of the identification information output from each i-figure 2 connected to the image processing device 3 is displayed on the display 9. At this time, the three-dimensional image displayed on the display 9 is, for example, when the i-figure 2 connected to the image processing device 3 is composed of two people, a Ryoma Sakamoto figure and a Shintaro Nakaoka figure. A three-dimensional image of one scene of the Ya case is displayed. Further, when another i-figure 2 is connected to the image processing device 3, the processes in steps S <b> 11 to S <b> 13 are repeated, and a three-dimensional image related to the idea resulting from the combination of the plurality of i-figure 2 is displayed on the display 9. Is displayed. For example, as shown in FIG. 1, when a figure by Takeichi Hanpeita and a figure by Torayoshi Yoshimura are connected to the image processing device 3, a three-dimensional image depicting the clan scenes of the famous Tosa king party is displayed. 9 is displayed. In this case, character information describing the Tosa king party may be displayed on the display 9.

また、画像処理装置3に接続されているi‐フィギュア2が、図8に示すように、土佐闘犬のフィギュアが2匹のそれぞれのフィギュアからなる場合は、例えば、2匹の土佐闘犬が闘犬場で格闘している3次元画像をディスプレイ9に表示することができる。   Further, when the i-figure 2 connected to the image processing apparatus 3 is composed of two Tosa fighting dog figures as shown in FIG. 8, for example, two Tosa fighting dogs It is possible to display a three-dimensional image fighting on the display 9.

次に、ディスプレイ9に表示された3次元画像を、i‐フィギュア2の動きに合わせて同期させる方法について説明する。以下の処理は、図4に示した初期設定が終了すると行なわれる。   Next, a method for synchronizing the three-dimensional image displayed on the display 9 with the movement of the i-figure 2 will be described. The following processing is performed when the initial setting shown in FIG. 4 is completed.

図9に示すように、ステップS21では、i‐フィギュア2の重力加速度センサ7から信号を受信すると、i‐フィギュア2の移動を検出する。ステップS22では、i‐フィギュア2が前方に移動したかを判断し、重力加速度センサ7からの信号が前方への相対的な移動距離を表す信号であると判断する場合(Yes)は処理をステップS23に進め、重力加速度センサ7からの信号が前方への相対的な移動距離を表す信号でないと判断する場合(No)は処理をステップS24に進める。   As shown in FIG. 9, when a signal is received from the gravitational acceleration sensor 7 of the i-figure 2 in step S21, the movement of the i-figure 2 is detected. In step S22, it is determined whether the i-figure 2 has moved forward, and if it is determined that the signal from the gravitational acceleration sensor 7 is a signal representing the relative moving distance forward (Yes), the process is performed. Proceeding to S23, if it is determined that the signal from the gravitational acceleration sensor 7 is not a signal representing the forward relative movement distance (No), the process proceeds to Step S24.

ステップS23では、前記前方への相対的な移動距離に応じてディスプレイ9に表示している3次元画像を拡大する処理を行なう。ステップS24では、i‐フィギュア2が後方に移動したかを判断し、ステップS21で受信した信号が前方への相対的な移動距離を表す信号であると判断する場合(Yes)は処理をステップS25に進め、ステップS21で受信した信号が後方への相対的な移動距離を表す信号でないと判断する場合(No)は処理をステップS26に進める。   In step S23, a process of enlarging the three-dimensional image displayed on the display 9 in accordance with the forward relative movement distance is performed. In step S24, it is determined whether i-figure 2 has moved backward, and if it is determined that the signal received in step S21 is a signal representing a relative moving distance forward (Yes), the process is performed in step S25. If it is determined that the signal received in step S21 is not a signal representing the relative movement distance to the rear (No), the process proceeds to step S26.

ステップS25では、前記後方への相対的な移動距離に応じてディスプレイ9に表示している3次元画像を縮小する処理を行なう。ステップS26では、ステップS21で受信した信号が回転角度を表す信号である場合に処理が行なわれ、前記回転角度を表す信号に基づいて、ディスプレイ9に表示している3次元画像を回転させる基準となる中心軸と、回転角度を検出する。   In step S25, a process of reducing the three-dimensional image displayed on the display 9 in accordance with the rearward relative movement distance is performed. In step S26, processing is performed when the signal received in step S21 is a signal representing a rotation angle, and based on the signal representing the rotation angle, a reference for rotating the three-dimensional image displayed on the display 9 is set. The center axis and the rotation angle are detected.

ステップS27では、前記回転角度に応じて定められる角度だけ、ディスプレイ9に表示している3次元画像をステップS26で検出された中心軸を基準に回転させる。例えば、ディスプレイ9に表示している3次元画像が馬の3次元画像である場合、馬のフィギュアを左右方向に回転させて前向きから後向きにすれば、表示されている馬の向きが左右方向に回転して前向きから後向きにすることができる。また、馬のフィギュアを時計回り又は反時計回りに回転させて上下反転させると、ディスプレイ9に表示されている3次元画像が時計回り又は反時計回りに回転して上下反転する。また、馬のフィギュアを前後方向に回転させて上下反転させると、ディスプレイ9に表示されている3次元画像が前後方向に回転して上下反転する。   In step S27, the three-dimensional image displayed on the display 9 is rotated based on the central axis detected in step S26 by an angle determined according to the rotation angle. For example, when the three-dimensional image displayed on the display 9 is a three-dimensional image of a horse, if the horse figure is rotated in the left-right direction from the front to the rear, the displayed horse is oriented in the left-right direction. It can be rotated from front to back. Further, when the horse figure is rotated clockwise or counterclockwise and turned upside down, the three-dimensional image displayed on the display 9 is turned clockwise or counterclockwise and turned upside down. When the horse figure is rotated in the front-rear direction and turned upside down, the three-dimensional image displayed on the display 9 is turned in the front-rear direction and turned upside down.

次に、i‐フィギュア2に関する辞書情報を得たり、インターネット11上の情報を得たりする方法について説明する。以下の処理は、図4に示した初期設定が終了すると行なわれる。   Next, a method for obtaining dictionary information related to the i-figure 2 and obtaining information on the Internet 11 will be described. The following processing is performed when the initial setting shown in FIG. 4 is completed.

図10に示すように、ステップS31では、i‐フィギュア2から前記第1信号または前記第2信号を受信すると、i‐フィギュア2の指定箇所をタッチしたことを検出する。ステップS32では、i‐フィギュア2から受信した信号の識別を行ない、i‐フィギュア2から受信した信号が前記第1信号である場合(A)は処理をステップS33に進め、i‐フィギュア2から受信した信号が前記第2信号である場合(B)は処理をステップS35に進める。   As shown in FIG. 10, in step S31, when the first signal or the second signal is received from the i-figure 2, it is detected that the designated part of the i-figure 2 is touched. In step S32, the signal received from i-figure 2 is identified, and when the signal received from i-figure 2 is the first signal (A), the process proceeds to step S33 and received from i-figure 2. If the received signal is the second signal (B), the process proceeds to step S35.

ステップS33では、ステップS3で受信した前記識別情報に基づいて、その識別情報と対応する前記辞書情報をデータベース10から検索する。複数のi‐フィギュア2が画像処理装置3に接続されている場合は、受信した複数の前記識別情報の組合せに対応した前記辞書情報をデータベース10から検索する。ステップS34では、図11に示すように、ステップS33で検索された前記辞書情報をディスプレイ9に表示する。   In step S33, the dictionary information corresponding to the identification information is searched from the database 10 based on the identification information received in step S3. When a plurality of i-figures 2 are connected to the image processing device 3, the dictionary information corresponding to the received combination of the plurality of identification information is searched from the database 10. In step S34, as shown in FIG. 11, the dictionary information searched in step S33 is displayed on the display 9.

ステップS35では、ステップS3で受信した前記識別情報に基づいて、その識別情報に対応した前記検索キーワードをデータベース10から検索する。複数のi‐フィギュア2が画像処理装置3に接続されている場合は、受信した複数の前記識別情報の組合せに対応した前記検索キーワードをデータベース10から検索する。ステップS36では、ステップS35で検索された検索キーワードによる検索を前記検索エンジンにより行なう。   In step S35, the search keyword corresponding to the identification information is searched from the database 10 based on the identification information received in step S3. When a plurality of i-figures 2 are connected to the image processing device 3, the search keyword corresponding to the received combination of the plurality of identification information is searched from the database 10. In step S36, the search engine performs a search using the search keyword searched in step S35.

ステップS37では、ステップS36で検索された複数のハイパーリンクをディスプレイ9に表示する。ステップS38では、入力部15であるマウスを操作して前記ハイパーリンクをクリックすると、ハイパーリンク先のWEBサイトにアクセスして、そのWEBサイトをディスプレイ9に表示する。これにより、i‐フィギュア2に関する検索キーワードと関連したWEBサイトを閲覧することができるので、i‐フィギュア2に関する情報を容易に得ることができる。   In step S37, the plurality of hyperlinks retrieved in step S36 are displayed on the display 9. In step S38, when the mouse as the input unit 15 is operated and the hyperlink is clicked, the hyperlink destination WEB site is accessed and the WEB site is displayed on the display 9. Thereby, since the WEB site relevant to the search keyword regarding i-figure 2 can be browsed, the information regarding i-figure 2 can be obtained easily.

なお、ステップS38では、ステップS37で表示された複数のハイパーリンクのうち、いずれか1つをCPU12の判断により選択するようにしてもよい。選択は、i‐フィギュア2に関する情報が最もよく得られるようにするとよい。例えば、i‐フィギュア2に関する複数の検索キーワードをデータベース10に記録しておき、その検索キーワードが一番多く載っているハイパーリンクを選択する方法を挙げることができる。この場合、画像処理部8には、前記ハイパーリンクのうち、いずれか1つを選択する機能と、そのハイパーリンク先のWEBサイトにアクセスする機能とを備える選択アクセス手段を設ける。   In step S38, any one of the plurality of hyperlinks displayed in step S37 may be selected by the CPU 12. The selection should be such that information about i-figure 2 is best obtained. For example, a method of recording a plurality of search keywords related to i-figure 2 in the database 10 and selecting a hyperlink that contains the most search keywords can be cited. In this case, the image processing unit 8 is provided with a selection access unit having a function of selecting any one of the hyperlinks and a function of accessing the hyperlink destination WEB site.

また、上記i-フィギュアを利用した画像処理システム1では、i‐フィギュア2の表面の指定箇所をタッチしたときに、i‐フィギュア2の透視画像をディスプレイ9に表示するようにすると好ましい。例えば、i‐フィギュア2が人間のフィギュアであれば、透視画像としては、例えば、人間の筋肉、血管、内蔵、脳、骸骨の画像を挙げることができる。複数の透視画像がデータベース10に記録されている場合は、透視画像を順次表示できるようにすると好ましい。この場合、データベース10には、i‐フィギュア2の透視画像データを前記識別情報に対応させて記録しておき、i‐フィギュア2には、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第3信号を画像処理部8に送る第3検出手段を設け、画像処理部8には、前記検出手段から前記第3信号が送られたときに、前記透視画像データを前記データベース10から検索する第3検索手段を設ける。出力手段23は、前記第3検索手段によって検索された前記透視画像をディスプレイ9に出力するようにする。   Further, in the image processing system 1 using the i-figure, it is preferable that the fluoroscopic image of the i-figure 2 is displayed on the display 9 when a designated place on the surface of the i-figure 2 is touched. For example, if the i-figure 2 is a human figure, examples of the perspective image include an image of human muscles, blood vessels, internal organs, brain, and skeleton. When a plurality of fluoroscopic images are recorded in the database 10, it is preferable that the fluoroscopic images can be displayed sequentially. In this case, the fluoroscopic image data of the i-figure 2 is recorded in the database 10 in correspondence with the identification information, and the i-figure 2 is touched when a designated place on the surface is touched. A third detection unit that transmits a third signal representing the fact to the image processing unit 8; and when the third signal is transmitted from the detection unit to the image processing unit 8, the fluoroscopic image data is stored in the database. Third search means for searching from 10 is provided. The output unit 23 outputs the fluoroscopic image searched by the third search unit to the display 9.

また、上記i-フィギュアを利用した画像処理システム1では、さらに、i‐フィギュア2の表面の指定箇所をタッチしたときに、ディスプレイ9に表示された3次元画像をi‐フィギュア2に特有の動作を行なったり、音声を出したりする処理を設けると好ましい。例えば、i‐フィギュア2が馬のフィギュアであれば、馬が走っている動作や馬の鳴き声をディスプレイ9に出力することができる。i‐フィギュア2がうさぎのフィギュアであれば、ピョンピョン跳ねる動作をディスプレイ9に出力することができる。この場合、データベース10には、馬が走っている動画又は音声を前記識別情報に対応させて記録しておき、i‐フィギュア2には、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第4信号を画像処理部8に送る第4検出手段を設け、画像処理部8には、前記第4検出手段から前記第4信号が送られたときに、前記動画データ又は前記音声を前記データベース10から検索する第4検索手段を設ける。出力手段23は、前記第4検索手段によって検索された前記動画又は前記音声をディスプレイ9に出力するようにする。   In the image processing system 1 using the i-figure, the 3D image displayed on the display 9 is displayed as an operation peculiar to the i-figure 2 when a designated portion on the surface of the i-figure 2 is touched. It is preferable to provide a process for performing the process and outputting a sound. For example, if the i-figure 2 is a horse figure, the movement of the horse and the cry of the horse can be output to the display 9. If the i-figure 2 is a rabbit figure, a jumping action can be output to the display 9. In this case, a moving image or sound of a horse running is recorded in the database 10 in correspondence with the identification information, and the i-figure 2 is touched when a specified location on the surface is touched. A fourth detection unit that sends a fourth signal representing the fact to the image processing unit 8, and when the fourth signal is sent from the fourth detection unit to the image processing unit 8, A fourth search means for searching the database 10 for voice is provided. The output unit 23 outputs the moving image or the audio searched by the fourth search unit to the display 9.

また、上記i‐フィギュア2の特有の動作は、i‐フィギュア2を画像処理装置3に接続した状態で、所定時間経過したときに、ディスプレイ9に出力されるようにしてもよい。 この場合、データベース10には、i−フィギュア2の動画を前記識別情報に対応付けて記録しておく。出力手段23は、画像処理部8が前記信号(第1信号〜第4信号及び後述の第5信号と重力加速度センサ7からの信号)を所定時間受信しない場合、前記識別情報に対応するi−フィギュア2の動画をディスプレイ9に出力する機能を備えるようにする。所定時間は、適宜設定することができ、例えば、10秒、20秒に設定することができる。   Further, the i-figure 2 specific operation may be output to the display 9 when a predetermined time elapses with the i-figure 2 connected to the image processing device 3. In this case, the moving image of the i-figure 2 is recorded in the database 10 in association with the identification information. When the image processing unit 8 does not receive the signals (the first signal to the fourth signal, a fifth signal to be described later, and a signal from the gravitational acceleration sensor 7) for a predetermined time, the output unit 23 outputs i- corresponding to the identification information. A function of outputting the moving image of the figure 2 to the display 9 is provided. The predetermined time can be set as appropriate. For example, the predetermined time can be set to 10 seconds or 20 seconds.

また、上記i-フィギュアを利用した画像処理システム1では、さらに、i‐フィギュア2の表面の指定箇所をタッチしたときに、そのタッチした指定箇所に関する3次元画像をディスプレイ9に表示するようにすると好ましい。例えば、i‐フィギュア2がクジラのフィギュアであって、指定箇所をクジラの口に設定した場合、図12に示すように、クジラのフィギュアの指定箇所である口をタッチすると、クジラが口を大きく広げた状態の3次元画像を表示することができ、これにより、クジラの口の中を見ることができる。この場合、データベース10には、指定箇所に関する3次元画像(図12の例ではクジラの口の画像)を前記識別情報に対応させて記録しておき、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第5信号を画像処理部8に送る第5検出手段を設け、画像処理部8には、前記第5検出手段から前記第5信号が送られたときに、前記指定箇所に関する3次元画像データを前記データベース10から検索する第5検索手段を設ける。出力手段23は、前記第5検索手段によって検索された前記3次元画像をディスプレイ9に出力するようにする。   Further, in the image processing system 1 using the i-figure, when a designated place on the surface of the i-figure 2 is touched, a three-dimensional image relating to the designated place touched is displayed on the display 9. preferable. For example, if i-Figure 2 is a whale figure and the designated location is set to the mouth of the whale, as shown in FIG. 12, when the mouth that is the designated location of the whale figure is touched, the whale enlarges the mouth. A three-dimensional image in an unfolded state can be displayed, so that the inside of the whale's mouth can be seen. In this case, in the database 10, a three-dimensional image (a whale's mouth image in the example of FIG. 12) related to the designated location is recorded in association with the identification information, and when the designated location on the surface is touched, Fifth detection means for sending a fifth signal representing the touch to the image processing unit 8 is provided. When the fifth signal is sent from the fifth detection means to the image processing unit 8, the designation is made. A fifth search means for searching the database 10 for the three-dimensional image data relating to the location is provided. The output unit 23 outputs the three-dimensional image searched by the fifth search unit to the display 9.

また、上記実施形態では、i‐フィギュア2は、図2に示すように、重力加速度センサ7を直接内部に備えたが、重力加速度センサ7を内蔵した台座201を介して重力加速度センサ7を備えるようにしてもよい。すなわち、この変形例のi‐フィギュア2は、図13に示すように、フィギュア本体2aと、このフィギュア本体2aが着脱可能に取り付けられる台座201とからなるものである。   In the above embodiment, the i-figure 2 includes the gravitational acceleration sensor 7 directly inside as shown in FIG. 2, but includes the gravitational acceleration sensor 7 via the base 201 incorporating the gravitational acceleration sensor 7. You may do it. In other words, as shown in FIG. 13, the i-figure 2 of this modification includes a figure main body 2a and a base 201 to which the figure main body 2a is detachably attached.

この場合、台座201は、画像処理部8に通信可能に接続し、上記実施形態と同様に、重力加速度センサ7から前記信号を画像処理部8に送信できるようにする。また、i‐フィギュア2は、上記実施形態と同様に、フィギュア本体2aに、その識別情報が記録された記録部であるメモリと、演算部であるCPUとを備えており、画像処理部8に通信可能に接続したときに、前記識別情報を前記CPUによって前記メモリから読出して画像処理部8へ送信する手段を有するようにする。   In this case, the pedestal 201 is communicably connected to the image processing unit 8 so that the signal can be transmitted from the gravitational acceleration sensor 7 to the image processing unit 8 as in the above embodiment. Similarly to the above embodiment, the i-figure 2 is provided with a memory, which is a recording unit in which identification information is recorded, and a CPU, which is a calculation unit, in the figure main body 2a. Means for reading the identification information from the memory by the CPU and transmitting it to the image processing unit 8 when connected so as to be communicable.

もしくは、i‐フィギュア2は、前記識別情報を記録したICチップ(ICタグ)を埋め込んでおき、そのICチップに記録された前記識別情報を非接触で読み取るリーダーを台座201に設け、その台座201のリーダーから前記識別情報を画像処理部8へ送信するようにする。また、前記識別情報の画像処理部8への送信は、前記リーダーを備えた認識装置を台座201とは別に設け、この認識装置のリーダーにより行なうようにしてもよい。なお、前記識別情報を読み取るリーダーは、画像処理装置3に備えるようにしてもよい。   Alternatively, the i-figure 2 embeds an IC chip (IC tag) on which the identification information is recorded, and a reader for reading the identification information recorded on the IC chip in a non-contact manner is provided on the base 201. The identification information is transmitted from the reader to the image processing unit 8. The identification information may be transmitted to the image processing unit 8 by providing a recognition device provided with the reader separately from the base 201 and using the reader of the recognition device. Note that a reader that reads the identification information may be provided in the image processing apparatus 3.

また、この場合、台座201は、フィギュア本体2aを着脱可能に取り付けられるようにすると好ましい。このようにすると、i‐フィギュア2毎に重力加速度センサ7を埋め込まなくても、台座201に重力加速度センサ7を内蔵するだけで、ディスプレイ9に出力する画像をi‐フィギュア2毎に拡大・縮小・回転させることができるので、i‐フィギュア2を小型化・低コスト化することができるからである。   In this case, it is preferable that the base 201 is detachably attached to the figure main body 2a. In this way, even if the gravitational acceleration sensor 7 is not embedded for each i-figure 2, the image to be output to the display 9 can be enlarged / reduced for each i-figure 2 only by incorporating the gravitational acceleration sensor 7 in the base 201. This is because the i-figure 2 can be reduced in size and cost because it can be rotated.

i‐フィギュア2の台座201への取付方法は、例えば、台座201の支柱201aをフィギュア本体2aに設けた小穴に差し込み、この状態で支柱201aがロックされるようにする方法を挙げることができる。i‐フィギュア2を台座201に着脱可能とする方法は、例えば、フィギュア本体2aに支柱201のロックを解除するボタンを設ける方法を挙げることができるが、これに限定されない。例えば、i‐フィギュア2の着脱可能とする方法は、台座201の支柱201aに面ファスナ又はホック(図示省略)を設け、i‐フィギュア2の表面に面ファスナ又はホック(図示省略)を設け、前記面ファスナ同士又はホック同士を取り付ける方法を挙げることができる。   An example of a method for attaching the i-figure 2 to the pedestal 201 is a method in which the support column 201a of the pedestal 201 is inserted into a small hole provided in the figure main body 2a so that the support column 201a is locked in this state. As a method for making the i-figure 2 detachable from the pedestal 201, for example, a method of providing a button for unlocking the column 201 on the figure main body 2a can be cited, but the method is not limited thereto. For example, in the method of making the i-figure 2 detachable, a hook-and-loop fastener or hook (not shown) is provided on the column 201a of the base 201, and a hook-and-loop fastener or hook (not shown) is provided on the surface of the i-figure 2, The method of attaching surface fasteners or hooks can be mentioned.

また、上記実施形態では、重力加速度センサ7により、i‐フィギュア2の移動と回転角度を検出(上記ステップS21、26)して、ディスプレイ9に出力する画像を拡大・縮小・回転させるようにしたが、図14に示すように、ジョイスティック301aによる方向入力信号を画像処理部8に出力することにより、ディスプレイ9に出力する画像を拡大・縮小・回転させるようにしてもよい。   In the above embodiment, the gravitational acceleration sensor 7 detects the movement and rotation angle of the i-figure 2 (steps S21 and S26), and enlarges / reduces / rotates the image output to the display 9. However, as shown in FIG. 14, by outputting a direction input signal from the joystick 301a to the image processing unit 8, the image output to the display 9 may be enlarged / reduced / rotated.

この場合、i-フィギュアを利用した画像処理システム1は、画像処理部8に接続し、ジョイスティック301aによる方向入力信号を画像処理部8に出力する入力装置301を備え、i‐フィギュア2を入力装置301のジョイスティック301aに取り付けるようにする。i‐フィギュア2のジョイスティック301aへの取付方法は、上記と同様に、ジョイスティック301aをフィギュア本体2aに設けた小穴に差し込む方法や、上記面ファスナ又は上記ホックによる方法を挙げることができるが、これらに限定されず、いずれの方法でもよい。   In this case, the image processing system 1 using the i-figure includes an input device 301 that is connected to the image processing unit 8 and outputs a direction input signal from the joystick 301a to the image processing unit 8, and the i-figure 2 is used as the input device. It is attached to the joystick 301a of 301. As for the method of attaching the i-figure 2 to the joystick 301a, the method of inserting the joystick 301a into the small hole provided in the figure main body 2a and the method of the hook-and-loop fastener or the hook can be mentioned as mentioned above. It is not limited and any method may be used.

出力手段23は、ジョイスティック301aを前後方向に倒すと、ジョイスティック301aの移動距離に応じて定められる率でディスプレイ9に出力する画像を拡大又は縮小する機能と、ジョイスティック301aを斜めに倒した状態で回転すると、ジョイスティック301aの回転角度に応じて定められる角度だけ、ディスプレイ9に出力する画像をディスプレイ9の中心を基準に回転させる機能とを備える。   When the joystick 301a is tilted in the front-rear direction, the output means 23 rotates in a state where the image output to the display 9 is enlarged or reduced at a rate determined according to the movement distance of the joystick 301a and the joystick 301a is tilted obliquely. Then, it has a function of rotating the image output to the display 9 with reference to the center of the display 9 by an angle determined according to the rotation angle of the joystick 301a.

例えば、ジョイスティック301aを前方(手前)に倒すと、ディスプレイ9に出力する画像を拡大し、ジョイスティック301aを後方に倒すと、ディスプレイ9に出力する画像を縮小することができる。また、ジョイスティック301aを斜めに倒した状態で左回りに回転させると、ディスプレイ9に出力している画像を左回りに回転させることができ、右回りに回転させると、ディスプレイ9に出力している画像を右回りに回転させることができる。   For example, when the joystick 301a is tilted forward (near), the image output to the display 9 can be enlarged, and when the joystick 301a is tilted backward, the image output to the display 9 can be reduced. If the joystick 301a is rotated counterclockwise while tilted, the image output to the display 9 can be rotated counterclockwise, and if rotated clockwise, the image is output to the display 9. The image can be rotated clockwise.

この変形例のi-フィギュアを利用した画像処理システム1では、高価な重力加速度センサ7を用いなくても、ジョイスティック301aの操作による方向入力信号を画像処理部8に出力すれば、ディスプレイ9に出力する画像を拡大・縮小・回転させることができるので、重力加速度センサ7をi‐フィギュア2に埋め込む場合と比べて、i‐フィギュア2を小型化・低コスト化することができ好ましい。   In the image processing system 1 using the i-figure of this modified example, if the direction input signal by the operation of the joystick 301a is output to the image processing unit 8 without using the expensive gravitational acceleration sensor 7, it is output to the display 9. Since the image to be enlarged can be enlarged / reduced / rotated, the i-figure 2 can be reduced in size and cost as compared with the case where the gravitational acceleration sensor 7 is embedded in the i-figure 2.

また、上記実施形態のi‐フィギュア2を利用した画像処理システムでは、データベース10に記録された前記フィギュア情報のみをディスプレイ9に出力したが、図15に示すように、カメラ402で撮影されたフィギュア401の撮影画像を前記フィギュア情報とともにディスプレイ9に表示するようにしてもよい。この場合、使用されるフィギュア401は、i‐フィギュア2でなく普通のフィギュアであってもよい。
この変形例のフィギュア401を利用した画像処理システムでは、画像処理装置3は、カメラを備えたパーソナルコンピュータやスマートフォンなどの携帯情報端末(PDA)を挙げることができるが、これらに限定されず、フィギュア401の映像を撮影できるカメラを備えているものであればいずれでもよい。
Further, in the image processing system using the i-figure 2 of the above embodiment, only the figure information recorded in the database 10 is output to the display 9, but as shown in FIG. The captured image 401 may be displayed on the display 9 together with the figure information. In this case, the figure 401 used may be an ordinary figure instead of the i-figure 2.
In the image processing system using the figure 401 of this modified example, the image processing apparatus 3 can include a personal computer equipped with a camera and a personal digital assistant (PDA) such as a smartphone. Any camera provided with a camera capable of shooting 401 images may be used.

データベース10には、前記フィギュア情報をフィギュア401の画像データと対応付けて記録する。
画像処理部8は、カメラ402により撮影された撮影画像の中に、フィギュア401の前記画像データが含まれているか判断する機能と、前記画像データが含まれていると判断する場合に、カメラ402により撮影された撮影画像の中からフィギュア401の撮影画像のみを切り出し、その切り出されたフィギュア401の撮影画像のみをディスプレイ9に出力する機能と、カメラ402により撮影された撮影画像の中に含まれていると判断された前記画像データに対応する前記フィギュア情報を前記切り出されたフィギュア401の前記撮影画像とともにディスプレイ9に出力する機能とを有する出力手段を備えるようにする。
The database 10 records the figure information in association with the image data of the figure 401.
The image processing unit 8 has a function of determining whether or not the image data of the figure 401 is included in the captured image captured by the camera 402 and the camera 402 when determining that the image data is included. Included in the photographed image photographed by the camera 402 and a function for cutting out only the photographed image of the figure 401 from the photographed image photographed by the above-mentioned method, and outputting only the photographed image of the figure 401 to the display 9. Output means having a function of outputting the figure information corresponding to the image data determined to be, together with the photographed image of the clipped figure 401, to the display 9 is provided.

図15の例は、画像処理装置3としてスマートフォンを用い、フィギュア401として坂本龍馬のフィギュア401を用いた場合であり、ディスプレイ9に、カメラ402により撮影された坂本龍馬のフィギュアの撮影画像が表示されるとともに、坂本龍馬に関連する前記フィギュア情報(高知県の桂浜の風景画像)が表示されている。   The example of FIG. 15 is a case where a smartphone is used as the image processing apparatus 3 and a Ryoma Sakamoto figure 401 is used as the figure 401, and a captured image of the Ryoma Sakamoto figure taken by the camera 402 is displayed on the display 9. In addition, the figure information (scenery image of Katsura beach in Kochi Prefecture) related to Ryoma Sakamoto is displayed.

また、この変形例の実施形態では、ディスプレイ9に表示されているフィギュア401の撮影画像をタッチすると、フィギュア401に関連する詳細なコンテンツ(歴史やゆかりの観光地情報等の辞書情報)をさらに表示するようにすると好ましい。
この場合、データベース10には、フィギュア401に関する文字データ及び/又は画像データからなる辞書情報及び/又はフィギュア401に関する検索キーワード及びインターネット上にある検索エンジンの情報を記録するようにする。
Further, in the embodiment of this modification, when the photographed image of the figure 401 displayed on the display 9 is touched, detailed contents related to the figure 401 (dictionary information such as history and related sightseeing spot information) are further displayed. It is preferable to do so.
In this case, the database 10 records dictionary information composed of character data and / or image data related to the figure 401 and / or search keywords related to the figure 401 and information of search engines on the Internet.

画像処理装置3には、ディスプレイ9に表示されているフィギュア401の撮影画像をタッチしたときに、前記タッチされたことを表す第1信号又は第2信号を画像処理部8に送る検出手段を備えるようにする。
画像処理部8には、前記検出手段から前記第1信号が送られたときに、前記i‐フィギュアに関する辞書情報をデータベース10から検索する第1検索手段及び/又は、前記検出手段から前記第2信号が送られたときに、前記検索キーワードの前記検索エンジンによる検索を行なう第2検索手段を備えるようにする。
前記第1信号と前記第2信号の送出は、例えば、フィギュア401の撮影画像を1回タッチしたときに前記第1信号が送出され、2回タッチ(ダブルクリック)したときに前記第2信号が送出されるようにすることができる。
The image processing apparatus 3 includes detection means for sending a first signal or a second signal indicating that the touch has been made to the image processing unit 8 when the captured image of the figure 401 displayed on the display 9 is touched. Like that.
When the first signal is sent from the detection means to the image processing unit 8, the first search means for searching the dictionary information regarding the i-figure from the database 10 and / or the second from the detection means. When the signal is sent, a second search means for searching the search keyword by the search engine is provided.
The first signal and the second signal are transmitted, for example, when the captured image of the figure 401 is touched once, the first signal is transmitted, and when the touched twice (double click), the second signal is transmitted. Can be sent out.

前記出力手段は、前記第1検索手段によって検索された前記辞書情報及び/又は第2検索手段によって検索された複数のハイパーリンクを前記出力部に出力するようにする。また、出力手段には、フィギュア401をカメラ402に近づけると、ディスプレイ9に出力されるフィギュア401の撮影画像を拡大する機能と、フィギュア401をカメラ402から遠ざけると、ディスプレイ9に出力されるフィギュア401の撮影画像を縮小する機能と、フィギュア401をカメラ402に対して回転させると、ディスプレイ9に出力されるフィギュア401の撮影画像を回転する機能と、フィギュア401をカメラ402に対して左に動かすと、ディスプレイ9に出力されるフィギュア401の撮影画像を左に移動させる機能と、フィギュア401をカメラ402に対して右に動かすと、ディスプレイ9に出力されるフィギュア401の撮影画像を右に移動させる機能と、フィギュア401をカメラ402に対して上に動かすと、ディスプレイ9に出力されるフィギュア401の撮影画像を上に移動させる機能と、フィギュア401をカメラ402に対して下に動かすと、ディスプレイ9に出力されるフィギュア401の撮影画像を下に移動させる機能とを備えるようにすると好ましい。これらの機能は、カメラ402の視覚センサ機能により実現される。   The output means outputs the dictionary information searched by the first search means and / or a plurality of hyperlinks searched by the second search means to the output unit. The output means includes a function of enlarging the captured image of the figure 401 output to the display 9 when the figure 401 is brought close to the camera 402, and a figure 401 output to the display 9 when the figure 401 is moved away from the camera 402. When the figure 401 is rotated with respect to the camera 402, the figure 401 output to the display 9 is rotated, and the figure 401 is moved to the left with respect to the camera 402. The function of moving the captured image of the figure 401 output to the display 9 to the left and the function of moving the captured image of the figure 401 output to the display 9 to the right when the figure 401 is moved to the right with respect to the camera 402. And figure 401 to camera 402 To move the photographed image of the figure 401 output to the display 9 upward, and to move the figure 401 downward with respect to the camera 402, the photographed image of the figure 401 output to the display 9 downwards. It is preferable to have a function of moving. These functions are realized by the visual sensor function of the camera 402.

このようなカメラ402の視覚センサ機能により、ディスプレイ9に出力された風景画像に合わせてフィギュア401を動かすことにより、フィギュア401の撮影画像を風景画像に特有の動きをさせることができる。例えば、図15の例では、フィギュア401をカメラに対して斜め右方向に遠ざかるように動かすと、ディスプレイ9に表示されている坂本龍馬の撮影画像を桂浜の波際に沿って動かすことができる。このため、フィギュア401が風景画像の中で生きているような感覚を得ることができる。
なお、この変形例のフィギュア401を利用した画像処理システムでは、フィギュア401が、上記実施形態と同様に、二つ以上の組合せからなるものでもよい。
With such a visual sensor function of the camera 402, the photographed image of the figure 401 can be caused to move specific to the landscape image by moving the figure 401 in accordance with the landscape image output to the display 9. For example, in the example of FIG. 15, when the figure 401 is moved diagonally to the right with respect to the camera, the photographed image of Ryoma Sakamoto displayed on the display 9 can be moved along the shore of Katsura beach. For this reason, a feeling that the figure 401 is alive in the landscape image can be obtained.
In the image processing system using the figure 401 of this modification, the figure 401 may be composed of a combination of two or more as in the above embodiment.

また、この変形例のフィギュア401を利用した画像処理システムでは、フィギュア401の撮影画像に基づいて、フィギュア401に関連する前記フィギュア情報をディスプレイ9に表示するようにしたが、フィギュア401に付されたバーコードをカメラ402で読み取ることにより、前記フィギュア401に関連する前記フィギュア情報をディスプレイ9に表示するようにしてもよい。
この場合、データベース10には、前記フィギュア401の識別情報として、バーコード情報を前記フィギュア情報に対応付けて記録しておく。
In the image processing system using the figure 401 of this modification, the figure information related to the figure 401 is displayed on the display 9 based on the photographed image of the figure 401. The figure information related to the figure 401 may be displayed on the display 9 by reading the barcode with the camera 402.
In this case, barcode information is recorded in the database 10 in association with the figure information as identification information of the figure 401.

本発明のi-フィギュア、及びi-フィギュアを利用した画像処理システムは、主にゲーム分野において用いることができるが、医療分野においてリハビリに用いたり、学校での授業や家庭内での辞書引き等に用いたりすることもできる。   The i-figure of the present invention and the image processing system using the i-figure can be used mainly in the game field. However, the i-figure can be used for rehabilitation in the medical field, class at school, dictionary lookup at home, etc. It can also be used.

1 i-フィギュアを利用した画像処理システム
2 i‐フィギュア
2a フィギュア本体
3 画像処理装置
7 重力加速度センサ
8 画像処理部
9 ディスプレイ
10 データベース
11 インターネット
21 第1検出手段
22 第2検出手段
23 出力手段
201 台座
201a 支柱
301 入力装置
301a ジョイスティック
DESCRIPTION OF SYMBOLS 1 Image processing system using i-figure 2 i-figure 2a Figure main body 3 Image processing device 7 Gravity acceleration sensor 8 Image processing unit 9 Display 10 Database 11 Internet 21 First detection means 22 Second detection means 23 Output means 201 Base 201a Post 301 Input device 301a Joystick

Claims (15)

画像処理部と出力部とを備えた画像処理装置に通信可能に接続されるフィギュアからなるi−フィギュアであって、
前記フィギュアは、その識別情報を記録した記録部を備えており、前記画像処理装置に通信可能に接続したときに、前記識別情報を前記記録部から読出して前記画像処理部へ送信する手段を有し、
前記データベースは、前記フィギュアに関するフィギュア情報が前記識別情報と対応付けて記録され、
前記画像処理部は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を前記出力部に出力する前記出力手段を備える
ことを特徴とするi−フィギュア。
An i-figure consisting of a figure communicably connected to an image processing apparatus comprising an image processing unit and an output unit,
The figure includes a recording unit that records the identification information, and has a means for reading the identification information from the recording unit and transmitting it to the image processing unit when connected to the image processing apparatus in a communicable manner. And
In the database, figure information related to the figure is recorded in association with the identification information,
The i-figure includes the output unit that outputs the figure information corresponding to the identification information to the output unit when the image processing unit receives the identification information.
前記データベースは、前記フィギュアに関する複数のフィギュア情報が前記識別情報と対応付けて記録され、
前記出力手段は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を、前記データベースに記録された複数のフィギュア情報の中からランダムに抽出して前記出力部に出力する機能を備える
ことを特徴とする請求項1に記載のi−フィギュア。
In the database, a plurality of pieces of figure information related to the figure are recorded in association with the identification information,
The output means, when receiving the identification information, a function of randomly extracting the figure information corresponding to the identification information from a plurality of figure information recorded in the database and outputting it to the output unit The i-figure according to claim 1, comprising:
前記画像処理装置は、前記画像処理部に入力情報を入力する入力部を備え、
前記フィギュア情報は、前記入力情報と対応付けて前記データベースに記録され、
前記出力手段は、前記入力情報が入力されると、前記識別情報と対応する前記フィギュア情報の中から前記入力情報に対応する前記フィギュア情報を前記出力部に出力する機能を備える
ことを特徴とする請求項2に記載のi−フィギュア。
The image processing apparatus includes an input unit that inputs input information to the image processing unit,
The figure information is recorded in the database in association with the input information,
The output means has a function of outputting the figure information corresponding to the input information from the figure information corresponding to the identification information to the output unit when the input information is input. The i-figure according to claim 2.
前記フィギュアは、二つ以上の組合せからなり、
前記フィギュアのフィギュア情報は、前記フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報であり、
前記出力手段は、前記フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報を前記出力部に出力する
ことを特徴とする請求項1〜3のいずれか1つに記載のi-フィギュア。
The figure consists of a combination of two or more,
The figure information of the figure is figure information related to an idea arising from a combination of two or more of the figures,
The i-figure according to any one of claims 1 to 3, wherein the output means outputs to the output unit figure information related to an idea generated from a combination of two or more of the figures.
前記画像処理装置は、インターネットに接続可能であり、
前記フィギュアは、重力加速度センサを備え、前後左右方向が定められており、
前記重力加速度センサは、前記フィギュアの基準位置からの前後左右方向への相対的な移動距離を表す信号を前記画像処理部に出力するものであり、
前記画像処理部は、前記出力部に表示するカーソルを前記重力加速度センサからの前記信号に基づいて移動させる出力手段を備え、
前記出力手段は、前記信号の値が前方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面上部に移動させる機能と、前記信号の値が後方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面下部に移動させる機能と、前記信号の値が右方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面右部に移動させる機能と、前記信号の値が左方へ進んだことを表す場合、前記フィギュアの移動距離に応じて前記カーソルを前記出力部の画面左部に移動させる機能と、を備える
ことを特徴とする請求項1〜4のいずれか1つに記載のi−フィギュア。
The image processing apparatus is connectable to the Internet,
The figure includes a gravitational acceleration sensor, and the front / rear and left / right directions are determined.
The gravitational acceleration sensor outputs a signal representing a relative movement distance in the front-back, left-right direction from the reference position of the figure to the image processing unit,
The image processing unit includes an output unit that moves a cursor to be displayed on the output unit based on the signal from the gravitational acceleration sensor,
The output means has a function of moving the cursor to the upper part of the screen of the output unit according to the movement distance of the figure, and the value of the signal advances backward when the value of the signal indicates forward movement. In the case of representing that the value of the signal has moved to the right, and the function of moving the cursor to the lower part of the screen of the output unit according to the movement distance of the figure, In response to the function of moving the cursor to the right side of the screen of the output unit and the value of the signal proceeding to the left, the cursor is moved to the left side of the screen of the output unit according to the movement distance of the figure. The i-figure according to any one of claims 1 to 4, wherein the i-figure is provided with a function of being moved to a part.
前記請求項1〜5のいずれか1つに記載のi-フィギュアと、データベースと、画像処理部と、出力部とを備えているi‐フィギュアを利用した画像処理システムであって、
前記データベースは、前記i‐フィギュアに関するフィギュア情報が前記識別情報と対応付けて記録され、
前記画像処理部は、前記識別情報を受信したときに、その識別情報に対応する前記フィギュア情報を前記出力部に出力する前記出力手段を備える
ことを特徴するi-フィギュアを利用した画像処理システム。
An image processing system using an i-figure comprising the i-figure according to any one of claims 1 to 5, a database, an image processing unit, and an output unit,
In the database, figure information related to the i-figure is recorded in association with the identification information,
The image processing unit includes an output unit that outputs the figure information corresponding to the identification information to the output unit when the identification information is received. An image processing system using an i-figure.
前記i‐フィギュアは、二つ以上の組合せからなり、
前記i‐フィギュアのフィギュア情報は、前記i‐フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報であり、
前記出力手段は、前記i‐フィギュアの二つ以上の組合せから生じる観念に関するフィギュア情報を前記出力部に出力する
ことを特徴とする請求項6に記載のi-フィギュアを利用した画像処理システム。
The i-figure consists of two or more combinations,
The figure information of the i-figure is figure information related to an idea resulting from a combination of two or more of the i-figure,
7. The image processing system using an i-figure according to claim 6, wherein the output unit outputs figure information about an idea generated from a combination of two or more of the i-figures to the output unit.
前記i‐フィギュアは、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第1信号又は第2信号を前記画像処理部に送る検出手段を有し、
前記データベースは、前記i‐フィギュアに関する文字データ及び/又は画像データからなる辞書情報及び/又は前記i‐フィギュアに関する検索キーワード及びインターネット上にある検索エンジンの情報と、を記録しているものであり、
前記画像処理部は、前記検出手段から前記第1信号が送られたときに、前記i‐フィギュアに関する辞書情報を前記データベースから検索する第1検索手段及び/又は、前記検出手段から前記第2信号が送られたときに、前記検索キーワードの前記検索エンジンによる検索を行なう第2検索手段を有し、
前記出力手段は、前記第1検索手段によって検索された前記辞書情報及び/又は第2検索手段によって検索された複数のハイパーリンクを前記出力部に出力するものである
ことを特徴とする請求項6又は7に記載のi-フィギュアを利用した画像処理システム。
The i-figure has detection means for sending a first signal or a second signal indicating that the touch has been made to the image processing unit when the designated place on the surface is touched,
The database records dictionary information consisting of character data and / or image data related to the i-figure and / or search keywords related to the i-figure and search engine information on the Internet,
When the first signal is sent from the detection unit, the image processing unit searches the database for dictionary information related to the i-figure and / or the second signal from the detection unit. The second search means for searching the search keyword by the search engine when
The output means outputs the dictionary information searched by the first search means and / or a plurality of hyperlinks searched by the second search means to the output unit. Or an image processing system using the i-figure according to 7.
前記画像処理部は、前記ハイパーリンクのうち、いずれか1つを選択する機能と、そのハイパーリンク先のWEBサイトにアクセスする機能とを備える選択アクセス手段とを有し、
前記出力手段は、前記WEBサイトを前記出力部に出力する
ことを特徴とする請求項8に記載のi-フィギュアを利用した画像処理システム。
The image processing unit includes a selection access unit having a function of selecting any one of the hyperlinks and a function of accessing a hyperlink destination WEB site,
9. The image processing system using an i-figure according to claim 8, wherein the output unit outputs the WEB site to the output unit.
前記i‐フィギュアは、重力加速度センサを備え、前後方向が定められており、
前記重力加速度センサは、前記i‐フィギュアの基準位置からの前後方向への相対的な移動距離を表す信号を前記画像処理部に出力するものであり、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、入力された信号の値が、前方へ進んだことを表す場合、出力部に出力する3次元画像を、移動距離に応じて定められる率で拡大し、後方へ進んだことを表す場合、出力部に出力する3次元画像を移動距離に応じて定められる率で縮小する
ことを特徴とする請求項6〜9のいずれか1つに記載のi-フィギュアを利用した画像処理システム。
The i-figure includes a gravitational acceleration sensor, and the front-rear direction is determined.
The gravitational acceleration sensor outputs a signal representing a relative movement distance in the front-rear direction from the reference position of the i-figure to the image processing unit,
The figure information is a three-dimensional image,
When the output means indicates that the value of the input signal has advanced forward, the output means expands the three-dimensional image to be output to the output unit at a rate determined according to the moving distance, and indicates that it has advanced backward. The image processing system using an i-figure according to any one of claims 6 to 9, wherein, when the image is represented, the three-dimensional image output to the output unit is reduced at a rate determined according to the moving distance. .
前記i‐フィギュアは、重力加速度センサを備えており、
前記重力加速度センサは、前記i‐フィギュアが回転したときに、回転角度を表す信号を前記画像処理部に出力するものであり、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、入力された前記信号に基づいて、前記回転角度に応じて定められる角度だけ、出力部に出力する3次元画像を出力部の中心を基準に回転させる、
ことを特徴とする請求項6〜10のいずれか1つに記載のi-フィギュアを利用した画像処理システム。
The i-figure includes a gravitational acceleration sensor,
The gravitational acceleration sensor outputs a signal representing a rotation angle to the image processing unit when the i-figure rotates.
The figure information is a three-dimensional image,
The output means rotates, based on the input signal, a three-dimensional image output to the output unit by an angle determined according to the rotation angle with reference to the center of the output unit.
An image processing system using an i-figure according to any one of claims 6 to 10.
前記i‐フィギュアは、フィギュア本体と、このフィギュア本体が着脱可能に取り付けられる台座とからなり、
前記台座は、前記重力加速度センサを内蔵し、前記画像処理部に通信可能に接続されることを特徴とする請求項10又は11に記載のi-フィギュアを利用した画像処理システム。
The i-figure consists of a figure body and a pedestal to which the figure body is detachably attached.
12. The image processing system using an i-figure according to claim 10, wherein the pedestal includes the gravitational acceleration sensor and is communicably connected to the image processing unit.
前記画像処理部に接続し、ジョイスティックによる方向入力信号を前記画像処理部に出力する入力装置を備え、
前記i‐フィギュアは、前記ジョイスティックに取り付けられ、
前記フィギュア情報は、3次元画像であり、
前記出力手段は、前記ジョイスティックを前後方向に倒すと、前記ジョイスティックの移動距離に応じて定められる率で前記出力部に出力する前記3次元画像を拡大又は縮小し、前記ジョイスティックを斜めに倒した状態で回転すると、前記ジョイスティックの回転角度に応じて定められる角度だけ、前記出力部に出力する前記3次元画像を前記出力部の中心を基準に回転させる、
ことを特徴とする請求項6〜9のいずれか1つに記載のi-フィギュアを利用した画像処理システム。
An input device connected to the image processing unit and outputting a direction input signal by a joystick to the image processing unit;
The i-figure is attached to the joystick,
The figure information is a three-dimensional image,
When the joystick is tilted back and forth, the output means enlarges or reduces the three-dimensional image output to the output unit at a rate determined according to the movement distance of the joystick, and tilts the joystick obliquely And rotating the three-dimensional image output to the output unit based on the center of the output unit by an angle determined according to the rotation angle of the joystick.
An image processing system using an i-figure according to any one of claims 6 to 9.
前記データベースは、前記i‐フィギュアの透視画像データが記録されており、
前記i‐フィギュアは、その表面の指定箇所をタッチしたときに、前記タッチされたことを表す第3信号を前記画像処理部に送る検出手段を有し、
前記画像処理部は、前記検出手段から前記第3信号が送られたときに、前記透視画像データを前記データベースから検索する第3検索手段を有し、
前記出力手段は、前記第3検索手段によって検索された前記透視画像を前記出力部に出力する
ことを特徴とする請求項6〜13のいずれかに記載のi-フィギュアを利用した画像処理システム。
In the database, fluoroscopic image data of the i-figure is recorded,
The i-figure has detection means for sending a third signal indicating that the touch has been made to the image processing unit when the designated place on the surface is touched,
The image processing unit has third search means for searching the fluoroscopic image data from the database when the third signal is sent from the detection means.
The image processing system using an i-figure according to any one of claims 6 to 13, wherein the output unit outputs the fluoroscopic image searched by the third search unit to the output unit.
前記データベースは、前記i−フィギュアの動画が前記識別情報に対応付けて記録され、
前記出力手段は、前記画像処理部が前記信号を所定時間受信しない場合、前記識別情報に対応する前記i−フィギュアの動画を前記出力部に出力する
ことを特徴とする請求項8〜14のいずれかに記載のi-フィギュアを利用した画像処理システム。
In the database, the moving image of the i-figure is recorded in association with the identification information,
The output unit outputs the moving image of the i-figure corresponding to the identification information to the output unit when the image processing unit does not receive the signal for a predetermined time. An image processing system using the i-figure described in Crab.
JP2012009418A 2012-01-19 2012-01-19 Image processing system using i-figures and i-figures Expired - Fee Related JP5994098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012009418A JP5994098B2 (en) 2012-01-19 2012-01-19 Image processing system using i-figures and i-figures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012009418A JP5994098B2 (en) 2012-01-19 2012-01-19 Image processing system using i-figures and i-figures

Publications (2)

Publication Number Publication Date
JP2013149106A true JP2013149106A (en) 2013-08-01
JP5994098B2 JP5994098B2 (en) 2016-09-21

Family

ID=49046540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012009418A Expired - Fee Related JP5994098B2 (en) 2012-01-19 2012-01-19 Image processing system using i-figures and i-figures

Country Status (1)

Country Link
JP (1) JP5994098B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159561A1 (en) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント Information-processing device, information-processing system, and information-processing method
JP2019179481A (en) * 2018-03-30 2019-10-17 株式会社バンダイ Computer program and portable terminal device
JP2019192039A (en) * 2018-04-26 2019-10-31 パナソニックIpマネジメント株式会社 Virtual space display system and virtual space display method
JP2021165934A (en) * 2020-04-07 2021-10-14 シャープ株式会社 Display control system, display control method, and display control program
JP7404139B2 (en) 2020-04-07 2023-12-25 シャープ株式会社 Display control system, display control method, and display control program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63305896A (en) * 1987-06-05 1988-12-13 株式会社 タカラ Apparatus for converting image of three-dimensional article and that of crt picture
JPH0531255A (en) * 1991-07-25 1993-02-09 Tomy Ltd Simulation device
JP2002063092A (en) * 2000-06-09 2002-02-28 Tomy Co Ltd Information-providing system, information-providing device, server, toy, information-providing method, and storage medium
JP2003230761A (en) * 2002-02-07 2003-08-19 Namco Ltd Game board system, program and information storage medium
JP2004038252A (en) * 2002-06-28 2004-02-05 Toshiba Solutions Corp Information provision support system and method
JP2004302993A (en) * 2003-03-31 2004-10-28 Sony Corp Information input system and input device
JP2004344483A (en) * 2003-05-23 2004-12-09 Namco Ltd Game information, information storage medium, and game machine
JP2005312625A (en) * 2004-04-28 2005-11-10 Sega Corp Game program, computer-readable recording medium having game program recorded thereon, and game device
JP2006127004A (en) * 2004-10-27 2006-05-18 Kyushu Univ Cg presenting device, its method and its program and cg display system
JP2007014465A (en) * 2005-07-06 2007-01-25 Tomy Co Ltd Tv game toy
JP2007054114A (en) * 2005-08-22 2007-03-08 Nintendo Co Ltd Operating device for game
JP2010279817A (en) * 2010-09-27 2010-12-16 Namco Bandai Games Inc Toy

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63305896A (en) * 1987-06-05 1988-12-13 株式会社 タカラ Apparatus for converting image of three-dimensional article and that of crt picture
JPH0531255A (en) * 1991-07-25 1993-02-09 Tomy Ltd Simulation device
JP2002063092A (en) * 2000-06-09 2002-02-28 Tomy Co Ltd Information-providing system, information-providing device, server, toy, information-providing method, and storage medium
JP2003230761A (en) * 2002-02-07 2003-08-19 Namco Ltd Game board system, program and information storage medium
JP2004038252A (en) * 2002-06-28 2004-02-05 Toshiba Solutions Corp Information provision support system and method
JP2004302993A (en) * 2003-03-31 2004-10-28 Sony Corp Information input system and input device
JP2004344483A (en) * 2003-05-23 2004-12-09 Namco Ltd Game information, information storage medium, and game machine
JP2005312625A (en) * 2004-04-28 2005-11-10 Sega Corp Game program, computer-readable recording medium having game program recorded thereon, and game device
JP2006127004A (en) * 2004-10-27 2006-05-18 Kyushu Univ Cg presenting device, its method and its program and cg display system
JP2007014465A (en) * 2005-07-06 2007-01-25 Tomy Co Ltd Tv game toy
JP2007054114A (en) * 2005-08-22 2007-03-08 Nintendo Co Ltd Operating device for game
JP2010279817A (en) * 2010-09-27 2010-12-16 Namco Bandai Games Inc Toy

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159561A1 (en) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント Information-processing device, information-processing system, and information-processing method
JPWO2015159561A1 (en) * 2014-04-16 2017-04-13 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus, information processing system, and information processing method
US10510189B2 (en) 2014-04-16 2019-12-17 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, and information processing method
JP2019179481A (en) * 2018-03-30 2019-10-17 株式会社バンダイ Computer program and portable terminal device
JP2019192039A (en) * 2018-04-26 2019-10-31 パナソニックIpマネジメント株式会社 Virtual space display system and virtual space display method
JP2021165934A (en) * 2020-04-07 2021-10-14 シャープ株式会社 Display control system, display control method, and display control program
JP7404139B2 (en) 2020-04-07 2023-12-25 シャープ株式会社 Display control system, display control method, and display control program
JP7438827B2 (en) 2020-04-07 2024-02-27 シャープ株式会社 Display control system, display control method, and display control program

Also Published As

Publication number Publication date
JP5994098B2 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
CN105188516B (en) For strengthening the System and method for virtual reality
JP4684238B2 (en) Scene modification expression generation device and scene modification expression generation method
Miller Playing along: Digital games, YouTube, and virtual performance
JP2023171762A (en) System for and method of augmented reality and virtual reality
JP5994098B2 (en) Image processing system using i-figures and i-figures
Wei et al. Time and space in digital game storytelling
Xu et al. Pre-patterns for designing embodied interactions in handheld augmented reality games
US20130145240A1 (en) Customizable System for Storytelling
KR20200100046A (en) Information processing device, information processing method and program
JP7369674B2 (en) Programs, methods and viewing devices
JP6843100B2 (en) Game programs, game methods, and information processing equipment
JP2020028397A (en) Game program, game method, and information processing device
Navarro-Newball et al. Gesture based human motion and game principles to aid understanding of science and cultural practices
Hölsgens Skateboarding in Seoul: A sensory ethnography
JP6431259B2 (en) Karaoke device, dance scoring method, and program
JP6313003B2 (en) Karaoke apparatus, image output method, and program
Bunting The geocacher as placemaker: Remapping reality through location-based mobile gameplay
US20160253911A1 (en) Playground system
JP7434202B2 (en) Program, information processing method, information processing device, and system
JP2021192230A (en) Augmented reality display device and program
Aldama The Routledge Companion to Gender, Sex and Latin American Culture
US11568608B2 (en) Augmented reality display device and program recording medium
Champion et al. Game–style interaction
US11726551B1 (en) Presenting content based on activity
Hickey Bricoleur: creative learning through video and computation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5994098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees