JP6132754B2 - 情報処理システム、出力装置、および出力方法 - Google Patents

情報処理システム、出力装置、および出力方法 Download PDF

Info

Publication number
JP6132754B2
JP6132754B2 JP2013253521A JP2013253521A JP6132754B2 JP 6132754 B2 JP6132754 B2 JP 6132754B2 JP 2013253521 A JP2013253521 A JP 2013253521A JP 2013253521 A JP2013253521 A JP 2013253521A JP 6132754 B2 JP6132754 B2 JP 6132754B2
Authority
JP
Japan
Prior art keywords
information processing
robot
action
output device
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013253521A
Other languages
English (en)
Other versions
JP2015111375A (ja
JP2015111375A5 (ja
Inventor
圭司 外川
圭司 外川
山岸 建
建 山岸
洋一 西牧
洋一 西牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2013253521A priority Critical patent/JP6132754B2/ja
Priority to PCT/JP2014/004100 priority patent/WO2015083302A1/ja
Priority to US15/039,451 priority patent/US9833719B2/en
Publication of JP2015111375A publication Critical patent/JP2015111375A/ja
Publication of JP2015111375A5 publication Critical patent/JP2015111375A5/ja
Application granted granted Critical
Publication of JP6132754B2 publication Critical patent/JP6132754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/02Toy figures with self-moving parts, with or without movement of the toy as a whole imitating natural actions, e.g. catching a mouse by a cat, the kicking of an animal
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/22Electric drives
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel

Description

本発明は、対象物の態様を変化させる情報処理技術に関する。
ロボットなど実空間に存在する対象物を操作者の意図通りに動かす技術は、産業用ロボットから玩具まで、多くの分野で発展してきた。それらの技術では基本的に、対象物(以下、代表的な呼称として「ロボット」と呼ぶ場合がある)と有線または無線で接続されたコントローラをユーザが操作し、当該操作内容を信号として入力することによりロボットがそれを解釈したり、あらかじめ作成されたプログラムを内部で実行したりすることによってロボットが動作する。
上述したような一般的なロボットでは、ロボット自体に多くの回路が必要であったり、コントローラとの接続のためのケーブルや端子が必要であったりする。またユーザが行うべき初期設定や操作方法が複雑化する。結果として、動きや態様の変化を多様にするほど、また、操作対象のロボットの数を増やすほど、製造コストが高くなったり、ユーザの負担が大きくなったりする。一方、玩具としてのロボットを提供する場合、安価なこと、かつ容易な接続や操作で動かせることが重要になる。しかしながらそのような要請のもとでは、実現できるロボットの動作や態様の変化が大幅に限定され、魅力的なロボットとはなり難いという問題があった。
本発明はこのような課題に鑑みてなされたものであり、その目的は、ユーザの負担を少なく様々な態様変化や動作を実現できる装置を安価に提供することにある。
上記課題を解決するために、本発明のある態様は情報処理システムに関する。この情報処理システムは、タッチパッドと接続した情報処理装置と、当該タッチパッドとの接触状態を維持可能に構成される出力装置と、を備えた情報処理システムであって、情報処理装置は、タッチパッドから接触位置に係る情報を取得する作用検知部と、接触位置に基づき出力装置の状態を特定し、それに応じてタッチパッド下に備えられた表示装置における表示画像を変化させる表示制御部と、を備えたことを特徴とする。
本発明の別の態様は情報処理装置に関する。この情報処理装置は、タッチパッドから、当該タッチパッドと接触状態にある出力装置の接触位置に係る情報を取得する作用検知部と、接触位置に基づき出力装置の状態を特定し、それに応じてタッチパッド下に備えられた表示装置における表示画像を変化させる表示制御部と、を備えたことを特徴とする。
本発明のさらに別の態様は出力装置に関する。この出力装置は、情報処理装置に接続されたタッチパッドとの接触状態を維持可能に構成される出力装置であって、情報処理装置が、タッチパッドが検知した接触位置に基づき当該タッチパッド下に備えられた表示装置における表示画像に与えた変化を検知する入力端部と、表示画像の変化に応じた内容の出力を行う出力制御部と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、情報処理装置が、タッチパッドから、当該タッチパッドと接触状態にある出力装置の接触位置に係る情報を取得するステップと、接触位置に基づき出力装置の状態を特定し、それに応じてタッチパッド下に備えられた表示装置における表示画像を変化させるステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、様々な態様変化や動作を実現できる装置を安価かつ容易に実現することができる。
本実施の形態におけるロボットの使用形態例を示す図である。 本実施の形態におけるロボットとタッチパネルにおける表示の関係を説明するための図である。 (a)は情報処理装置の前面を示す図であり、(b)は情報処理装置の背面を示す図である。 (a)は情報処理装置の上面を示す図であり、(b)は情報処理装置の下面を示す図であり、(c)は情報処理装置の左側面を示す図である。 情報処理装置の回路構成を示す図である。 本実施の形態におけるロボットの構成を示す図である。 本実施の形態におけるロボットと情報処理装置の機能ブロックの構成を示す図である。 本実施の形態において任意の位置にあるロボットと表示画像の関係を示す図である。 本実施の形態における表示画面の輝度の変化と、ロボットの動作制御部がそれに応じて決定するロボットの動作を例示する図である。 本実施の形態におけるロボットのタッチパッドへのオン/オフのパターンと、情報処理装置がそれに応じて発生させる顔画像の変化の対応を例示する図である。 本実施の形態におけるロボットの変形例を示す図である。 本実施の形態におけるロボット底面の構成の変形例を示す図である。 本実施の形態においてロボット固有の顔画像を表示させる際に表示制御部が参照するテーブルの例を示す図である。 本実施の形態においてロボットと情報処理装置の協働によりロボットの態様を変化させる処理手順を示すフローチャートである。 本実施の形態の変形例として、ロボットが一旦取り込んだ画像を別の物体に投影する態様におけるロボットの様子を示す図である。
図1は本実施の形態におけるロボットの使用形態例を示している。本実施の形態においてロボット150は情報処理装置10に設けたタッチパネル50上に乗せることによって動作する。タッチパネル50は表示装置と、その表面を覆う透明なタッチパッドで構成される。ロボット150がタッチパネル50に置かれると、その接触をタッチパッドが検出する。それに応じて情報処理装置10は、ロボット150が接している領域における表示を変化させる。
ロボット150は、そのような表示の変化を情報処理装置からの入力情報として取得し、それに応じて態様を変化させる。図1の例でロボット150の顔部152は、情報処理装置10が、タッチパネル50のうちロボット150の底面が接触している領域に表示した顔画像を映し出している。またロボット150の腕部154は、ロボット150の底面が接触している領域のいずれかの部分の輝度変化を光学センサにより検出し、それに応じて腕部154と接続したアクチュエータを駆動させることにより動くようになっている。ロボット150はそのほか、輝度変化によって音声を発生させたり光を発したりしてもよい。
本実施の形態ではこのように、情報処理装置10における表示の変化をロボット150への入力信号とすることにより、ロボット150の外見に変化を与えたり動かしたりすることを基本とする。その意味で、ロボット150は情報処理装置10に対応する別個体の出力装置とも見なせる。さらにロボット150は、タッチパネル50のタッチパッドが接触を検知する状態/検知しない状態、をロボット150側で物理的に切り替える(以下、タッチパッドへの作用の「オン/オフ」と呼ぶ)ことにより、ロボット150から情報処理装置10への信号入力も可能にする。いずれにしろケーブル等で接続せずにタッチパネル50を介してロボット150と情報処理装置10間の相互通信を可能とすることで、簡易な構成であっても多様な動きや外見変化が可能なロボットを実現できる。
なお情報処理装置10やロボット150の外観は図示するものに限らない。例えばタッチパネル50を情報処理装置本体から切り離し、ケーブルまたはワイヤレスで接続するようにしてもよいし、情報処理装置10をロボット150専用のゲーム盤などとしてもよい。またロボット150は一般的なロボットの形を有していなくてもよく、球体や直方体などより単純な形状の立体でもよいし、芸術性のあるオブジェのような複雑な形状の立体でもよい。マルチタッチパッドとすることにより、複数のロボットを乗せるようにしてもよい。また、ロボット150の底面に固定用の吸盤を設けるなどして接触した状態が保てれば、タッチパネル50は水平でなくても、また、平板でなくてもよい。
図2は図1で示したロボット150とタッチパネル50における表示の関係を説明するための図である。上段にロボット150の正面150aおよび底面150bを、下段にタッチパネル50の表示画面14を示している。表示画面14のうち矩形領域16は、ロボット150の底面150bに対応する領域である。ここで「対応する領域」とは代表的にはロボットの底面150bが接触している領域であるが、必ずしも全領域が接していなくてもよく、厳密には間隙の有無にかかわらず底面150bの直下にある領域である。ロボット150の底面150bには、タッチパッドへの作用を発生させるタッチセンサ作用部156a〜156cを設ける。
タッチセンサ作用部156a〜156cの構造は、タッチパッドにおける接触の検出方式によって異なる。例えば抵抗膜方式のタッチパッドであれば、タッチパッド表面へ圧力を加えるため筐体の該当部分を凸形状とするなどにより実現する。静電容量方式のタッチパッドであれば、検出用電極の電気容量を変化させる回路や電気的素子等により実現する。例えば、タッチセンサ作用部156a〜156cを、ロボット内の図示しないバッテリと接続した昇圧回路や発振回路および底面に露出した電極で構成し、バッテリからの電力によって電極間に高電圧差または特定周波数の交流を印加するようにしてもよい。
タッチパッドが走査式の場合は、当該電圧走査を検出しそれに応じたタイミングで電極に電圧を印加するような構成とする。ロボット内部のバッテリに代えて、こすり合わせることにより静電気を発生させる2つの部材と、それらをこすり合わせるためのモーターを設け、必要なタイミングで静電気を発生させて電極に印加するようにしてもよい。あるいはロボット150を、把持したユーザを通じたアース接続を可能にする導電性材料としてもよい。
ユーザの接触に代え、ロボット底面など少なくとも一部を導電性材料として外部の物体と結線したり、ロボットに接続した導線を情報処理装置10が有する図示しないイヤホンジャックなどのコネクタに差し込んで装置内の設置電位部に接続したりして、適切なタイミングでアース接続ができるようにすることで、接触面の電荷を移動させるようにしてもよい。これ以外に、超音波、光、磁場など、タッチパッドの検出対象に応じてタッチセンサ作用部156a〜156cの構成を適宜選択できることは当業者には理解されるところである。
タッチセンサ作用部156a〜156cのタッチパッドへの作用をオフにする手法も当然、タッチパッドにおける接触の検出方式によって異なる。抵抗膜方式の場合は、底面の凸部分の突出量を可変にするアクチュエータなどの機構を設けることにより、その他の凸部分によってロボットを支持しつつ、該当部分の突出量を減らすことにより物理的に非接触にすることが考えられる。静電容量方式の場合は電気容量の変化を解消するように電荷を変化させることが考えられる。
なお情報処理装置10が備えるタッチパッドの接触検出方式や検出しきい値などによって、タッチセンサ作用部156a〜156cの作用のさせ方を適応的に変化させてもよい。すなわちロボット側で、作用の機構や印加電圧などを複数種類、実現できるようにしておく。そしてユーザが情報処理装置10の種類によってロボットの設定を切り替えられるような入力手段を設けたり、後述の輝度変化などによって情報処理装置10からロボット150へ、適切な設定を通知したりしてもよい。
なお上記のうちユーザを通じてアース接続する態様では、ユーザがロボット150に触っているか否かによって、タッチセンサ作用部156a〜156cのオン/オフが切り替わることになる。したがって情報処理装置10が、タッチセンサ作用部156a〜156cのオン/オフによって、ロボット150の底面に対応する領域やそれ以外の領域の表示を変化させることにより、ユーザがロボットに触ると情報処理装置10やロボット150の表示や外観が変化する態様を実現できることになる。
図示するようにタッチセンサ作用部156a〜156cを底面150bの四隅のうち3カ所に備え、それらのタッチパッドへの作用をオンの状態でロボット150をタッチパネル50上に乗せると、情報処理装置10は矩形領域16を特定できる。ただしタッチセンサ作用部156a〜156cの配置や数はこれに限らない。例えば上記のように突出量を可変とする場合や、後述するように作用している位置によってロボットの固体を識別する場合は、必要な数だけタッチセンサ作用部を備えてよい。また図示するようにロボットの前部、後部でタッチセンサ作用部の配置を非対称とすることでロボットの向きが特定できるが、前後の区別がない形態のロボットであればタッチセンサ作用部の数を減らすこともできる。
矩形領域16を特定したら情報処理装置10は、表示画面14のうち当該矩形領域16に所定の画像を表示する。同図の場合、ロボット150の顔部152に表示されるべき顔の画像を表示している。当該画像は静止画でもよいし、動画でもよい。また表示内容は絵や写真など対象物を表す画像でなくてもよく、文字、塗りつぶし領域、図形、模様など表示により表せるものであればその種類は限定されない。当該画像はロボット150の底面150bの対応する領域158から取り込まれ、顔部152に表示される。底面150bで取り込んだ画像を顔部152など別の領域に表示する機構は様々考えられる。いわゆるテレビ石(ウレキサイト)、光ファイバー、鏡などを用いて、光の反射によって映し出してもよいし、カメラとモニタを電気的に接続し、画像の電子データを転送してもよい。
ロボット150の底面150bにはさらに、光学センサ160a、160bを設ける。そして表示画面14の矩形領域16のうち、光学センサ160a、160bに対応する領域18a、18bの画素の輝度を変化させ、それを信号としてロボット150へ入力する。ロボット150は当該変化を検知し、あらかじめ定めた規則に従い、内部のアクチュエータの動きや出力音声・発光などに変換する。なお情報処理装置10からロボット150への信号入力は、このように表示装置における画素の輝度を変化させるものに限らず、電波、赤外線、音波などを用いてもよい。この場合、光学センサに代わり、それらの物理量を検出するセンサを導入する。そのような電波、赤外線、音波等を発生させる機構を情報処理装置10に設けた場合、ロボット150におけるセンサの位置は、ロボット150の底面150bに限らず、当該発生機構に対応する箇所でよい。
なお矩形領域16は、タッチパネル12上の固定の領域として表示画面に枠を表示しておき、その上に所定の向きでロボット150を乗せる態様としてもよい。この場合、ロボット150が乗せられたか否かを検出できればよいため、矩形領域16を特定するための複数のタッチセンサ作用部は必要なくなる。ロボット150の位置や向きを任意とした場合は、上述のようにタッチセンサ作用部156a〜156cの配置によってロボットの前後を特定することにより、ロボット150の顔部152に正しい向きで顔が表示されるように、表示画面14に表示する顔の回転角を調整する。
次に情報処理装置10の構成例を説明する。この例で情報処理装置10は、本実施の形態で必要な、ロボットとの協調動作以外に、ゲーム、コンテンツ表示、通信など一般的な情報処理を実施可能に構成される。ただし上述の通り情報処理装置10の形状や構成は様々考えられ、以下に述べるものに限定する趣旨ではない。
図3(a)は、情報処理装置10の前面を示す。情報処理装置10は、横長の筐体により形成され、ユーザが把持する左右の領域は、円弧状の外郭を有している。情報処理装置10の前面には、矩形のタッチパネル50が設けられる。タッチパネル50は、表示装置20と、表示装置20の表面を覆う透明な前面タッチパッド21から構成される。表示装置20は有機EL(Electro-Liminescence)パネルであり、画像を表示する。なお表示装置20は液晶パネルなどの表示手段であってもよい。前面タッチパッド21は、同時にタッチされた複数ポイントの検出機能をもつマルチタッチパッドであって、タッチパネル50はマルチタッチスクリーンとして構成される。
タッチパネル50の右側には、菱形の頂点にそれぞれ位置する△ボタン22a、○ボタン22b、×ボタン22c、□ボタン22d(以下、総称する場合には「操作ボタン22」とよぶ)が設けられ、タッチパネル50の左側には、上キー23a、左キー23b、下キー23c、右キー23d(以下、総称する場合には「方向キー23」とよぶ)が設けられる。ユーザは方向キー23を操作して、上下左右および斜方の8方向を入力できる。
方向キー23の下側には左スティック24aが設けられ、また操作ボタン22の下側には右スティック24bが設けられる。ユーザは左スティック24aまたは右スティック24b(以下、総称する場合には「アナログスティック24」とよぶ)を傾動して、方向および傾動量を入力する。筐体の左右頂部には、Lボタン26a、Rボタン26bが設けられる。操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26bは、ユーザが操作する操作手段を構成する。
操作ボタン22の近傍に、前面カメラ30が設けられる。左スティック24aの左側および右スティック24bの右側には、それぞれ音声を出力する左スピーカ25aおよび右スピーカ25b(以下、総称する場合には「スピーカ25」とよぶ)が設けられる。また左スティック24aの下側にHOMEボタン27が設けられ、右スティック24bの下側にSTARTボタン28およびSELECTボタン29が設けられる。
図3(b)は、情報処理装置10の背面を示す。情報処理装置10の背面には、背面カメラ31および背面タッチパッド32が設けられる。背面タッチパッド32は、前面タッチパッド21と同様に、マルチタッチパッドとして構成される。情報処理装置10は、前面および背面において、2つのカメラおよびタッチパッドを搭載している。
図4(a)は、情報処理装置10の上面を示す。既述したように、情報処理装置10の上面の左右端側に、Lボタン26a、Rボタン26bがそれぞれ設けられる。Lボタン26aの右側には電源ボタン33が設けられ、ユーザは、電源ボタン33を押下することで、電源をオンまたはオフする。なお情報処理装置10は、操作手段が操作されない時間(無操作時間)が所定時間続くと、サスペンド状態に遷移する電力制御機能を有している。情報処理装置10がサスペンド状態に入ると、ユーザは電源ボタン33を押下することで、情報処理装置10をサスペンド状態からアウェイク状態に復帰させることができる。
ゲームカードスロット34は、ゲームカードを差し込むための差込口であり、この図では、ゲームカードスロット34がスロットカバーにより覆われている状態が示される。なおゲームカードスロット34の近傍に、ゲームカードがアクセスされているときに点滅するLEDランプが設けられてもよい。アクセサリ端子35は、周辺機器(アクセサリ)を接続するための端子であり、この図ではアクセサリ端子35が端子カバーにより覆われている状態が示される。アクセサリ端子35とRボタン26bの間には、ボリュームを調整するための−ボタン36aと+ボタン36bが設けられている。
図4(b)は、情報処理装置10の下面を示す。メモリカードスロット37は、メモリカードを差し込むための差込口であり、この図では、メモリカードスロット37が、スロットカバーにより覆われている状態が示される。情報処理装置10の下面において、音声入出力端子38、マイク39およびマルチユース端子40が設けられる。マルチユース端子40はUSB(Universal Serial Bus)に対応し、USBケーブルを介して他の機器と接続できる。
図4(c)は、情報処理装置10の左側面を示す。情報処理装置10の左側面には、SIMカードの差込口であるSIMカードスロット41が設けられる。
図5は、情報処理装置10の回路構成を示す。各構成はバス92によって互いに接続されている。無線通信モジュール71はIEEE802.11b/g等の通信規格に準拠した無線LANモジュールによって構成され、無線アクセスポイントなどを介してインターネットなどの外部ネットワークに接続する。なお無線通信モジュール71は、ブルートゥース(登録商標)プロトコルの通信機能を有してもよい。携帯電話モジュール72は、ITU(International Telecommunication Union;国際電気通信連合)によって定められたIMT−2000(International Mobile Telecommunication 2000)規格に準拠した第3世代(3rd Generation)デジタル携帯電話方式に対応し、携帯電話網4に接続する。SIMカードスロット41には、携帯電話の電話番号を特定するための固有のID番号が記録されたSIMカード74が挿入される。SIMカード74がSIMカードスロット41に挿入されることで、携帯電話モジュール72は、携帯電話網4との間で通信可能となる。
CPU(Central Processing Unit)60は、メインメモリ64にロードされたプログラムなどを実行する。GPU(Graphics Processing Unit)62は、画像処理に必要な計算を実行する。メインメモリ64は、RAM(Random Access Memory)などにより構成され、CPU60が使用するプログラムやデータなどを記憶する。ストレージ66は、NAND型フラッシュメモリ(NAND-type flash memory)などにより構成され、内蔵型の補助記憶装置として利用される。
モーションセンサ67は、情報処理装置10の動きを検出し、地磁気センサ68は、3軸方向の地磁気を検出する。GPS制御部69は、GPS衛星からの信号を受信し、現在位置を算出する。前面カメラ30および背面カメラ31は、画像を撮像し、画像データを入力する。前面カメラ30および背面カメラ31は、CMOSイメージセンサ(Complementary Metal Oxide Semiconductor Image Sensor)によって構成される。
表示装置20は、有機EL表示装置であり、陰極および陽極に電圧を印加することで発光する発光素子を有する。省電力モードでは、電極間に印加する電圧を通常よりも低くすることで、表示装置20を減光状態とすることができ、電力消費を抑えられる。なお表示装置20はバックライトを備えた液晶パネル表示装置であってもよい。省電力モードでは、バックライトの光量を下げることで、液晶パネル表示装置を減光状態として、電力消費を抑えることができる。
インタフェース90において、操作部70は、情報処理装置10における各種操作手段を含み、具体的には、操作ボタン22、方向キー23、アナログスティック24、Lボタン26a、Rボタン26b、HOMEボタン27、STARTボタン28、SELECTボタン29、電源ボタン33、−ボタン36a、+ボタン36bを含む。前面タッチパッド21および背面タッチパッド32は、マルチタッチパッドであり、前面タッチパッド21は、表示装置20の表面に重ね合わせて配置される。スピーカ25は、情報処理装置10の各機能により生成される音声を出力し、マイク39は、情報処理装置10の周辺の音声を入力する。音声入出力端子38は、外部のマイクからステレオ音声を入力し、外部のヘッドホンなどへステレオ音声を出力する。
ゲームカードスロット34には、ゲームファイルを記録したゲームカード76が差し込まれる。ゲームカード76は、データの書込可能な記録領域を有しており、ゲームカードスロット34に装着されると、メディアドライブにより、データの書込み/読出しが行われる。メモリカードスロット37には、メモリカード78が差し込まれる。メモリカード78は、メモリカードスロット37に装着されると、外付け型の補助記憶装置として利用される。マルチユース端子40は、USB端子として利用でき、USBケーブル80を接続されて、他のUSB機器とデータの送受信を行う。アクセサリ端子35には、周辺機器が接続される。
図6はロボット150の構成を示している。ロボット150は情報処理装置10のタッチパネル50に表示された顔などの画像を取り込み、所定の場所に表示する画像転送機構162を有し、その一端である画像取り込み端部164が底面に、もう一端である画像表示部166が顔部152等、所定の位置に設けられる。底部にはさらに、情報処理装置10のタッチパッドへの作用をもたらすタッチセンサ作用部156a〜156c、およびタッチパネル50における輝度変化を取得する光学センサ160a、160bが設けられる。さらにロボット150は、腕部154a、154bを動かすアクチュエータ168a、168b、音声を出力するスピーカ172、それらの動作を制御する制御回路170を有する。ロボット150にはさらに、照度、気温、音量、時間経過など周囲の環境を表すパラメータ(以下、「環境パラメータ」と呼ぶ)の少なくともいずれかを検出する環境パラメータセンサ174を備えてよい。
制御回路170は、光学センサ160a、160bが取得したタッチパネル50の輝度情報を随時取得し、それを信号として解釈することで、アクチュエータ168a、168bを駆動させたり、スピーカ172から音声を出力したりする。そのため制御回路170は、輝度変化のパターンを、アクチュエータ168a、168bの動きや出力すべき音声データと対応づけたロボット動作テーブルを内部で保持する。また制御回路170は、タッチセンサ作用部156a〜156cによるタッチパッドへの作用のオン/オフ制御も行う。例えば環境パラメータセンサ174が検出した、環境を表すパラメータの変化に応じて、制御回路170は、タッチセンサ作用部156a〜156cのいずれかによる作用のオン/オフを切り替える。情報処理装置10はそれをロボット150からの信号として解釈することで、表示する画像を切り替えたり輝度を変化させたりしてロボット150の表示や動作へフィードバックする。
なお図示するアクチュエータやスピーカは本実施の形態の一例に過ぎず、上述のとおりロボット150を発光させる発光ダイオードを設けたり、アクチュエータを別の部分に設けたりしてもよい。またロボット150は、図示する構造の全ての構成要素を備えていなくてもよく、使用目的、デザイン、価格等の観点から構成要素を適宜取捨選択してよい。また、構成要素のいずれかを備えた複数のブロックを個別に提供し、ユーザが自分の好みに応じて組み立てる態様としてもよい。さらにロボット150はバッテリや電源ボタンなどを適宜備えてよい。またロボット底面、特にタッチセンサ作用部156a〜156cをエラストマーなどで覆い、弾性を持たせることにより、安定的かつ柔軟にタッチパッドへ接触するようにしてもよい。
図7はロボット150と情報処理装置10の機能ブロックの構成を示している。図7において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、記録媒体からメモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
ロボット150は、図6で示した環境パラメータセンサ174からの情報などに基づきタッチセンサ作用部156a〜156c(総称してタッチセンサ作用部156とする)によるタッチパッドへの作用を制御するタッチセンサ作用制御部180、画像取り込み端部164から画像を取り込み、顔部などの画像表示部166に表示する画像転送部182、光学センサ160a、160b(総称して光学センサ160とする)から輝度変化に係る情報を得て、それに応じてアクチュエータ168a、168b(総称してアクチュエータ168とする)の駆動やスピーカ172からの音声出力を制御する動作制御部184を含む。
情報処理装置10は、ロボット150のタッチセンサ作用部156からの作用を検知する作用検知部110、ロボット150の底面に対応する画面上の領域やロボット150の向きを導出し、適正な向きおよび位置に顔などの画像を表示したり所定の箇所の輝度を変化させたりする画像データを生成する表示制御部112、および、生成された画像データを画像として出力する表示部114を含む。
ロボット150のタッチセンサ作用制御部180は、上述の通り、タッチパッドの検出方式に応じた方法で、タッチセンサ作用部156のタッチパッドへの作用のオン/オフ切り替えを制御する。後述するようにロボット150の固体識別をオン状態のタッチセンサ作用部156の位置で表す場合、ロボットごとに設定された当該位置情報に基づきオンとするタッチセンサ作用部156を決定する。
また環境パラメータセンサ174が検出した環境パラメータの変化をロボット150に反映させる場合は、当該パラメータの変化に対応するパターンで、所定のタッチセンサ作用部156のオン/オフを切り替える。ここで「パターン」とは1つのタッチセンサ作用部の作用のオン/オフを切り替えるタイミング(オン/オフ状態の時間変化)でもよいし、複数のタッチセンサ作用部のうちオンにするタッチセンサ作用部の位置やその組み合わせでもよい。またはオンにしているタッチセンサ作用部の位置の時間変化であってもよい。
そのためタッチセンサ作用制御部180には、環境パラメータの変化とタッチセンサ作用部156の変化のパターンとを対応づけた、タッチセンサ作用変化テーブルを記憶するメモリを備える。環境パラメータセンサ174は、照度センサ、温度センサ、マイク、タイマーなど、所定の環境パラメータを計測する機器のいずれかでよく、2つ以上の組み合わせでもよい。
画像転送部182は、図6で説明した画像転送機構162において、画像取り込み端部164から画像表示部166へ画像を転送する機能ブロックである。上述のとおり転送に光の反射を利用する場合は反射させる物質であり、画像データを電気的に転送する場合は伝送ケーブルなどである。動作制御部184は、光学センサ160が取得した、表示装置における画素の輝度変化に基づき、それに対応する動きでアクチュエータ168を駆動させたり、スピーカ172から音声を出力したりする。
そのため動作制御部184には、輝度変化のパターンと、駆動方向、回転角、振動周期、駆動時間などアクチュエータ168の動作を定義するパラメータや、出力すべき音声データなどとを対応づけたロボット動作テーブルを記憶するメモリを備える。ここで輝度変化の「パターン」は、1つの表示領域における画素の発光/非発光を切り替えるタイミング(オン/オフ状態の時間変化)でもよいし、複数の表示領域のうち発光させる表示領域の位置やその組み合わせでもよい。または発光している表示領域の位置の時間変化であってもよい。また発光/非発光のように輝度値を2値とせず、複数の階調を利用して多段階に変化させてもよいし、さらに色情報を検出するようにしてその変化を利用してもよい。
動作制御部184が決定した動作でアクチュエータ168が動くことにより、例えば図1の腕部154が前後に振動したり回転したりする。そのほか、バネを収縮させて固定しておいた装飾品や銃弾(図示せず)を、固定部分をアクチュエータ168で動かし当該バネを解放することにより跳ばしたりしてもよい。また動作制御部184が決定した音声データをスピーカ172から音声として出力することにより、例えば所定のビープ音や、あらかじめ生成した合成音声や録音した音声が発生するようにする。当該音声データも、動作制御部184内部のメモリに格納しておく。
情報処理装置10の作用検知部110は、図3で示したタッチパネル50のうちタッチパッド21、およびCPU60などで構成し、ロボット150のタッチセンサ作用部156がオン状態になったとき、あるはオン状態のタッチセンサ作用部156が接触したとき、その接触位置を検出する。タッチパッド21はマルチタッチパッドであるため、接触点の数によらずその接触を検知し、ディスプレイにおける座標に変換して、表示制御部112に通知する。
図2の例ではタッチセンサ作用部156a〜156cの3点の接触点が検出されるため、表示制御部112は、その位置情報に基づき、ロボット150の底面が接触している領域(図2の矩形領域16)と、そのうちロボットの前面に対応する辺を特定できる。そして表示制御部112は、当該領域のうち画像取り込み端部164が位置する領域に、ロボットの顔など表示すべき画像を表示させた表示画像のデータを生成する。
さらに、ロボット150底面の光学センサ160が位置する領域の輝度を変化させる。この発光は上述の通りロボット150を動作させたり音声を出力したりするためのものであるため、動かしたいタイミングや音声を出力したいタイミングにおいて、その目的に応じたパターンで輝度を変化させる。例えばロボット150が環境パラメータセンサ174の出力値に応じてタッチセンサ作用部156による作用を変化させたとき、それに応じたパターンで輝度を変化させる。あるいは情報処理装置10側に照度センサ、温度センサ、マイク、タイマーなどの環境パラメータセンサのいずれかを設け、そのパラメータの変化に応じたパターンで輝度を変化させてもよい。
あるいは、特にタイミングを設けず、ロボット150が接触している状態では常時、同じパターンで輝度を変化させたり、時間変化させずに一定の輝度で発光させたりすることにより、定常的にロボット150を動作させてもよい。表示制御部112は、図5で示したCPU60、メインメモリ64などによって構成し、ストレージ66や各種記録媒体などからメインメモリ64にロードしたプログラム等に基づき上記処理を実行する。表示部114は、図3で示したタッチパネル50のうち表示装置20で構成し、表示制御部112が生成した表示画像のデータを画像として出力する。
図8は任意の位置にあるロボットと表示画像の関係を示している。上段はタッチパネル50の画面領域200に対するロボット150の底面の位置を示している。このような位置にロボット150があるとき、情報処理装置10の作用検知部110は、3つのタッチセンサ作用部156の中央等の座標を、ディスプレイ座標系においてそれぞれ(x1,y1)、(x2,y2)、(x3,y3)と特定する。すると表示制御部112は、当該3つの座標の距離から、ロボット150の底面を構成する矩形を特定するとともに、当該矩形を構成する辺のうち、ロボットの前面にあたる辺202aを特定する。
そして表示制御部112は、図8下段に示すように、特定した矩形領域210のうちロボット底面の画像取り込み端部164が位置する領域に顔の画像を表示する表示画面204を生成する。このとき、ロボット150の顔部に正しい向きで顔画像が表示されるように顔画像を適宜回転させる。例えば図示するように、顔の下がロボット150の前面にあたる辺202b側に位置するとともに顔の中心軸206が当該辺202bに垂直に交わるように顔画像の表示角度を決定する。ただし適正な顔の角度は画像転送機構162で採用する画像の転送方法によっては図示する例に限らない。表示制御部112はさらに、矩形領域210のうち、ロボット底面の光学センサ160が位置する領域を、輝度を変化させる領域220a、220bとして決定し、上述のような所定のタイミングで輝度を変化させる。
図9は、表示画面204の領域220a、220bにおける輝度の変化と、ロボット150の動作制御部184がそれに応じて決定するロボットの動作を例示している。この例では、所定の周期t1の4周期分に対し、領域220a、220bにおける画素の発光のオン/オフのパターンでアクチュエータの動作を切り替えたり出力音声を切り替えたりしている。図示するような対応情報は、ロボット動作テーブルとして動作制御部184が内部で保持する。また情報処理装置10の表示制御部112では、各オン/オフのパターンを発生させるタイミングについてプログラム等で設定がなされている。
図9の例では、オン/オン/オフ/オンの発光パターンでは、腕部が正方向に回転するように設定される。オン/オン/オフ/オフの発光パターンでは、腕部が逆方向に回転するように設定される。オン/オフ/オフ/オンの発光パターンでは、ビープ音を出力するように設定され、オン/オフ/オフ/オフの発光パターンでは「こんにちは」などの挨拶語を出力するように設定される。
これらの設定は一例であり、様々な輝度変化のパターンで多様な動作や音声出力を実現できる。例えば輝度変化のパターンは矩形波に限らず正弦波などでもよいし、多階調の輝度に対し複数のしきい値を設け、多段階の輝度変化のパターンに対し処理内容を設定してもよい。さらに上述のとおり、ロボット150に発光ダイオードなどの発光体を設け、輝度変化のパターンに応じて発光させるようにしてもよい。またアクチュエータの動きと音声出力は図示するようにそれぞれ独立に行ってもよいし、一つの輝度変化のパターンに対し複数の処理を行ってもよい。
図10は、ロボット150のタッチセンサ作用部156のタッチパッドへのオン/オフのパターンと、情報処理装置10の表示制御部112がそれに応じて発生させる顔画像の変化の対応を例示している。なお同図は複数のタッチセンサ作用部156のいずれかのオン/オフを切り替えることを想定している。またこの例では、所定の周期t2の4周期分に対する作用のオン/オフのパターンで画像を変化させている。例えば図示するように、オン/オン/オフ/オンの作用パターンでは、顔画像の目が閉じるようにする。オン/オフ/オン/オフの作用パターンでは、顔が赤くなるようにする。情報処理装置10の表示制御部112では、このような対応に係る情報がプログラム等で設定されている。
上述のように環境パラメータセンサ174からの出力値に基づき画像を変化させる態様では、タッチセンサ作用制御部180が、当該出力値の変化に与える条件と、図示するような作用のオン/オフのパターンとを対応づけたタッチセンサ作用変化テーブルを内部で保持する。例えば照度計によって計測された照度が所定のしきい値以下となったとき、すなわち周囲が暗くなったとき、目を閉じた顔画像を表示することによりロボット150が眠っている状態を演出する。また、温度計によって計測された気温がしきい値以上となったとき、すなわち周囲が暑くなったとき、顔を赤くすることによりロボット150が暑がっている状態を演出する。
上述のように、ロボットに備えられた複数のタッチセンサ作用部156の作用のパターンの組み合わせによって、さらに多様な設定が可能となる。また、画像を変化させるばかりでなく、上述と同様にアクチュエータを駆動させたり、音声を出力したりしてもよい。この場合、まずタッチセンサ作用部156による作用のパターンの信号がロボット150から情報処理装置10へ入力され、それに応じた輝度変化のパターンの信号が情報処理装置10からロボット150へ入力されるかたちとなる。
タッチセンサ作用部156による信号入力は、図10で示した作用のオン/オフのパターン以外の手段でも実現できる。例えば、ロボット底面におけるタッチセンサ作用部156の位置を可変とし、当該位置を制御するアクチュエータなどの機構を設ける。そしてタッチセンサ作用制御部180による制御のもと、2つのタッチセンサの間隔(例えば図8の座標(x1,y1)と(x2,y2)の間隔)を変化させ、当該間隔を情報処理装置10への入力値とする。この場合、間隔を表す変数そのものを入力値とできるため、徐々に変化する間隔に対応するように画像を徐々に変化させるなど、時間分解能の高い設定が可能となる。
図11はロボットの変形例を示している。ロボット250は、車輪240a、240bを備え、タッチパネル上を移動可能に構成される。その他の構成は上述したロボット150と同様である。情報処理装置10の表示制御部112は、ロボット250の底面に備えた光学センサ160のうち、左側の光学センサに対応する領域、および右側の光学センサに対応する領域の輝度変化のパターンをそれぞれ独立に制御する。これによりロボット250の動作制御部184は、左右の車輪240a、240bの車軸の回転や向きをそれぞれ独立に制御する。
これにより、情報処理装置10が決定した経路でロボット250を移動させることができる。この場合、タッチパネル上でロボット250の底面に対応する領域が変化する。そのため情報処理装置10の表示制御部112は、作用検知部110から接触点の位置座標を取得し続け、それに応じて接触領域を追跡することで、顔画像や輝度を変化させる領域を移動させていく。なおロボット250を移動させる手段は車輪240a、240bに限らない。例えばロボット250の底面に磁石を設けるとともに、タッチパネルに磁界を発生させる機構を設け、当該磁界の変化によってロボット250を移動させてもよい。同様に電界を利用してもよい。
図12はロボット底面の構成の変形例を示している。同図の底面260は、これまで述べたのと同様、画像取り込み端部266、光学センサ264a、264b、および底面の四隅のうち3箇所にタッチセンサ作用部262a、262b、262cを備える。底面260はさらに、6つのタッチセンサ作用部268a、268b、268c、268d、268e、268fを備える。そしてこれら6つのタッチセンサ作用部のうちオンにしているタッチセンサ作用部の位置によってロボットの固体を識別する。同図の例では、タッチセンサ作用部268bがオンの状態であり、その他がオフの状態であることを、黒の塗り潰しか白抜きかで示している。なお底面の領域を特定するための3つのタッチセンサ作用部262a、262b、262cはオンの状態である。
このような底面を有するロボットをタッチパネル上に置くと、情報処理装置10の作用検知部110は、3つのタッチセンサ作用部262a、262b、262cに加え、タッチセンサ作用部268bの位置で接触を検知する。すると表示制御部112は、その位置によってロボットを識別し、それに応じた顔画像を表示装置に表示する。図13はタッチセンサ作用部を利用してロボット固有の顔画像を表示させる際に表示制御部112が参照するテーブルの例を示している。ロボット識別テーブル280は、ID欄282および画像欄284を含む。
ID欄282は、ロボットの識別番号を表し、例えば6つのタッチセンサ作用部268a〜286fのうち1番目のタッチセンサ作用部268aのみがオン状態であるとき、当該ロボットの識別番号を「001」、2番目のタッチセンサ作用部268bのみがオン状態であるとき、当該ロボットの識別番号を「002」、などと規則づけておく。そして画像欄284は、各識別番号のロボットに表示させるべき顔画像の画像データ名を表す。例えば識別番号「001」のロボットに対しては「キャラクタ1」なる名前の顔画像を表示する。識別番号「002」のロボットに対しては「キャラクタ2」なる名前の顔画像を表示する。各画像データは表示制御部112が参照できるメモリなどに別途格納しておく。
ロボットの識別番号と顔画像との対応は、あらかじめ設定しておいてもよいし、初回の起動時などにユーザが対応づけるようにしてもよい。ユーザが作成したアバター画像や撮影した画像を対応づけられるようにしてもよい。このようにすることで、ロボットごとに異なる顔としたり、気分によってユーザが変更したりすることができる。なおオンの状態にある2つ以上のタッチセンサ作用部の位置の組み合わせに対してロボットの識別番号を設定するようにすると、識別できるロボットの数を増やせる。また識別番号によって切り替える対象は、顔などの画像に限らず、動作、出力音声、発光色などのいずれかでもよいし、それらの組み合わせでもよい。
また表示制御部112は、表示装置のうちロボットの底面に対応する位置に顔画像などを表示するのに加え、当該領域以外の、露出している領域に所定の画像を表示してもよい。ロボットが乗せられた状態では、表示装置の画面はロボットがいる「場所」に相当する。したがって地面、道、舞台などを表す画像や何らかの表面を表すテクスチャ画像を表示させたり、ロボットの周囲に別のキャラクタや動植物などを画像として表示させたりしてもよい。表示する画像をロボットに応じて切り替えてもよい。この場合も上述の顔画像と同様、ロボットの識別番号と表示すべき画像とを対応づけておき、オン状態のタッチセンサ作用部の位置によって切り替えればよい。
次に以上の構成によって実現できるロボットおよび情報処理装置の動作について説明する。図14はロボットと情報処理装置の協働によりロボットの態様を変化させる処理手順を示すフローチャートである。まずロボット150が情報処理装置10のタッチパッドへの作用を開始する(S10)。具体的には、ユーザが情報処理装置10のタッチパネル50上にロボット150を置くか、タッチパッド上に置かれたロボットの電源を入れるなどしてタッチセンサ作用部156の作用をオンの状態としたときに、タッチパッドへの作用が開始される。すると情報処理装置10の作用検知部110は、ロボット150のタッチセンサ作用部156が接触している位置の情報取得を開始する(S12)。
これにより情報処理装置10の表示制御部112は、接触点の相対的な位置関係からロボット底面に対応する領域およびロボットの向きを特定する(S14)。そして当該領域のうち、ロボットの画像取り込み端部164に対応する位置に、顔画像を表示する(S16)。この際、図12に示したロボットの識別番号を表す接触がS14で検知されていたら、その識別番号に基づき当該ロボットに対応する画像データをメモリより読み出し表示する。ロボットごとに画像を変化させない場合は、所定の画像データでよい。
なおこの処理に先立ち、タッチパッドの検出ポイントと表示装置の画素との位置関係を取得しておくことにより、用いる情報処理装置によって両者の解像度が異なっていても、検出されたロボット底面に対応する領域に適切なサイズで顔画像などが表示されるようにする。例えば情報処理装置10が実行するソフトウェアが、あらかじめ記憶させておいた両者の解像度を自動で読み出し位置関係を取得してもよいし、ユーザが事前に装置の種別を入力するなどしてもよい。
あるいは情報処理装置10内部で、ロボットの識別番号と、当該ロボット底面の実サイズとを対応づけたデータベースを準備しておき、検出されたロボット150の実サイズに基づき表示すべき画像の画素上のサイズを調整してもよい。このとき、ロボット150と情報処理装置10間の通信に用いる、ロボットからの接触を検知する位置や輝度を変化させる領域の位置などを最適化してもよい。例えばロボット底面のサイズが小さい場合、両者を可能な限り離れた位置に配置することにより互いに干渉しないようにする。接触を検知する位置同士も、所定値以上の間隔が保たれるようにして誤検出を防止する。
このように検知位置や表示領域を最適化した場合、情報処理装置10は、その配置を示す識別番号などを輝度変化を利用してロボット150に通知することにより、後の通信時の整合性を保つ。また、ロボットによって画像取り込み端部164や光学センサ160の位置が異なる場合は、情報処理装置10において、ロボットの識別番号と、底面におけるそれらの位置情報とを対応づけたデータベースも保持しておく。そして情報処理装置10は、検出されたロボットに対応する位置情報によって、顔画像を表示させる位置や輝度を変化させる領域の位置を適切に決定する。
表示された画像はロボット150の画像取り込み端部164から取り込まれ、画像転送部182によりロボットの顔部など所定の位置に設けた画像表示部166に表示される(S18)。一方、情報処理装置10の表示制御部112は、ロボット底面に対応する領域のうち、光学センサ160に対応する位置で輝度を変化させる(S20)。ロボットの光学センサ160はその輝度変化を取得し、当該変化に対応してロボット動作テーブルに設定された動作や出力音声がある場合、動作制御部184がアクチュエータ168を駆動させたりスピーカ172からが音声を出力したりする(S22)。
S20およびS22の処理は、常時行う必要はなく、上述のようにあらかじめ設定された条件を満たしたタイミングや、プログラムされたタイミングなどで適宜おこなってよい。車輪によってロボットを移動させたり、環境パラメータの変化に基づくロボット150からの信号入力(フローチャートには図示せず)を受け付ける場合、情報処理装置10の作用検知部110は、ロボット150のタッチセンサ作用部156が接触している位置情報を検出し続ける。そして移動または信号入力のために接触点の位置が変化した場合(S24のY)、ロボット底面に対応する領域およびロボットの向きを特定し直したり(S14)、信号入力に応じて画像を変化させたりする(S16)。
そのようにして情報処理装置10において、ロボット150の底面に対応する領域を特定しながら画像表示や輝度変化を随時発生させ(S24のN、S28のN、S14、S16、S20、S24)、それに応じてロボット150における画像表示、動作発生、音声出力等を実施する(S26のN、S18、S22)。ユーザがロボット150をタッチパネル50上から離したり、ロボット150の電源を切ったりしてタッチパッドへの作用が停止したら(S26のY)、情報処理装置10の作用検知部110が当該作用停止を検知し(S28のY)、双方で処理を終了する。
以上述べた本実施の形態によれば、ロボットと情報処理装置を、情報処理装置に備えたタッチパッドおよび表示装置からなるタッチパネルを介して相互に反応させる。具体的にはロボットが接触している位置や向きをタッチパッドを用いて検知し、その接触面に対応する領域に画像を表示することでロボットの所定部位に当該画像が表示されるようにする。また情報処理装置からロボットへの入力信号は、表示装置における輝度変化のパターンで実現し、ロボットから情報処理装置への入力信号は、ロボットのタッチパッドへの作用の変化で実現する。これにより、ロボット自体、または情報処理装置における処理をきっかけとして様々な態様が可能となり、たとえ簡易な構成のロボットであっても複雑で面白い変化を与えることができる。
また、ロボットから情報処理装置への入力信号として、タッチパッドへ作用させる位置を利用する。これによりロボットの個体識別を可能にし、それに基づきロボットへ表示させる画像等を情報処理装置側で切り替える。このようにすることで、ロボット自体は安価に提供できるため、ユーザは様々なロボットを収集したり、自分の好みに応じてロボットごとに見た目を変化させたりすることができる。本実施の形態は、ロボットをタッチパネル上に置く、という容易な行為で実現できるため、ロボットの数に応じて端子を増設したりケーブルを用意したりする必要なく、多数のロボットを並べてそれぞれを独立して動作させることも可能である。
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態では、顔画像をロボットの顔部に表示する例を示したが、ロボットが一旦取り込んだ画像を別の物体に投影するようにしてもよい。図15はそのような態様におけるロボットの様子を示している。この例でロボット350の顔部352は、取り込んだ画像をレンズによって拡大するプロジェクタの役割をし、その投影画像がタッチパネル354上に結像している(画像領域356)。
タッチパネル354のうちロボット350の底面に対応する領域には、本実施の形態と同様、画像領域356に投影されるべき画像を表示する(図示せず)。それを一旦、ロボット350が取り込み、タッチパネル354に投影することにより、ロボット350の目から光線が出て画像を結像している状態にできる。このような場合でも、本実施の形態と同様、比較的簡素な構成のロボット350でありながら、単にタッチパネル354に画像を表示するより劇的な状況を演出できる。なおロボット350が画像を投影する代わりに、情報処理装置10がタッチパネル354の画像領域356に直接画像を表示し、あたかもロボット350が投影しているように見せてもよい。このときロボット350からは指向性を有する光を発するなどして、投影している状況をさらに演出してもよい。
あるいはロボット350を、双六などボードゲームの駒としてユーザが動かすようにしてもよい。この場合、タッチパネル354に盤のマス目等を表示し、その進み具合によってロボットが話したり画像が投影されたりするようにしてもよい。図11で示したロボット250のように車輪を設け、ロボットが自らマス目を進むようにしてもよい。この場合、ユーザがタッチパネル354と接続した情報処理装置を操作し、それに応じて当該情報処理装置がタッチパネル354のうち、ロボット底面に対応する領域の輝度を変化させることにより車輪を動かす。
10 情報処理装置、 20 表示装置、 21 タッチパッド、 50 タッチパネル、 60 CPU、 メインメモリ64、 110 作用検知部、 112 表示制御部、 114 表示部、 150 ロボット、 152 顔部、 154 腕部、 156 タッチセンサ作用部、 160 光学センサ、 164 画像取り込み端部、 166 画像表示部、 168 アクチュエータ、 170 制御回路、 172 スピーカ、 174 環境パラメータセンサ、 180 タッチセンサ作用制御部、 182 画像転送部、 184 動作制御部、 250 ロボット、 240a 車輪、 350 ロボット。

Claims (14)

  1. タッチパッドと接続した情報処理装置と、当該タッチパッドとの接触状態を維持可能に構成される出力装置と、を備えた情報処理システムであって、
    前記出力装置は、
    前記タッチパッドが接触を検知するための前記出力装置からの作用を異なる位置に発生させる複数のタッチセンサ作用部と、
    前記タッチセンサ作用部による作用の状態を変化させるタッチセンサ作用制御部と、
    を備え、
    前記情報処理装置は、
    前記タッチパッドから前記作用により検知された接触位置に係る情報を取得する作用検知部と、
    前記接触位置の組み合わせに基づき前記出力装置の状態を特定し、それに応じて前記タッチパッド下に備えられた表示装置における表示画像を変化させる表示制御部と、
    を備えたことを特徴とする情報処理システム。
  2. 前記表示制御部は、前記出力装置の接触面に対応する領域を特定し、当該領域のうち、少なくとも前記出力装置が接触部分に備えた入力端部に対応する位置における表示を変化させ、
    前記出力装置は、
    前記入力端部から前記表示装置における表示の変化に係る情報を取得し、それに応じた内容の出力を行う出力制御部を備えたことを特徴とする請求項1に記載の情報処理システム。
  3. 前記情報処理装置の前記表示制御部は、前記入力端部に対応する位置における画素の輝度を所定のパターンで時間変化させ、
    前記出力装置の前記出力制御部は、前記輝度の変化のパターンに対応づけられた、内部のアクチュエータの駆動、音声出力、発光、の少なくともいずれかを発生させることを特徴とする請求項2に記載の情報処理システム。
  4. 前記情報処理装置の前記表示制御部は、前記入力端部に対応する位置に所定の画像を表示し、
    前記出力装置の前記出力制御部は、前記画像を前記出力装置の所定の部位に表示させることを特徴とする請求項2または3に記載の情報処理システム。
  5. 前記出力装置の前記タッチセンサ作用制御部は、前記タッチセンサ作用部のうちいずれかの、前記作用が発生している状態と停止している状態を、所定のパターンで時間変化させ
    前記情報処理装置の前記表示制御部は、前記パターンに対応づけられた変化を表示画像に与えることを特徴とする請求項1から4のいずれかに記載の情報処理システム。
  6. 前記タッチセンサ作用制御部は、前記タッチセンサ作用部の位置を変化させ、
    前記情報処理装置の前記表示制御部は、前記タッチパッドが検知した複数の接触位置の間隔に応じて、表示画像を変化させることを特徴とする請求項1から4のいずれかに記載の情報処理システム。
  7. 前記タッチセンサ作用制御部は、前記複数のタッチセンサ作用部の前記タッチパッドへの作用が発生している状態と停止している状態を、前記タッチセンサ作用部ごとに切り替え、
    前記情報処理装置の前記表示制御部は、前記タッチパッドが検知した接触位置または当該接触位置の時間変化に応じて、表示画像を変化させることを特徴とする請求項1から4のいずれかに記載の情報処理システム。
  8. 前記出力装置は、周囲の物理量を計測する環境パラメータセンサをさらに備え、
    前記タッチセンサ作用制御部は、前記物理量の変化に応じて動作することを特徴とする請求項1から7のいずれかに記載の情報処理システム。
  9. 前記情報処理装置の前記表示制御部は、前記入力端部に対応する位置における画素の輝度を所定のパターンで時間変化させ、
    前記出力装置の前記出力制御部は、前記輝度の変化のパターンに対応づけられた動きで内部のアクチュエータを駆動させることにより、前記出力装置に備えられた車輪を回転させて当該出力装置を移動させ、
    前記情報処理装置の前記表示制御部は、前記出力装置の移動に応じた前記接触面に対応する領域の移動を追跡することにより、画素の輝度を時間変化させる位置を変化させることを特徴とする請求項2に記載の情報処理システム。
  10. 前記情報処理装置の前記表示制御部は、前記入力端部に対応する位置に所定の画像を表示し、
    前記出力装置の前記出力制御部は、前記画像を他の物体上に投影して表示させることを特徴とする請求項2または3に記載の情報処理システム。
  11. 情報処理装置に接続されたタッチパッドとの接触状態を維持可能に構成される出力装置であって、
    前記タッチパッドが接触を検知するための前記出力装置からの作用を異なる位置に発生させる複数のタッチセンサ作用部と、
    前記タッチセンサ作用部による作用の状態を変化させることにより、前記タッチパッドに検知される接触位置の組み合わせを制御するタッチセンサ作用制御部と、
    前記情報処理装置が、前記組み合わせに基づき当該タッチパッド下に備えられた表示装置における表示画像に与えた変化を検知する入力端部と、
    前記表示画像の変化に応じた内容の出力を行う出力制御部と、
    を備えたことを特徴とする出力装置。
  12. 情報処理装置に接続されたタッチパッドとの接触状態を維持可能に構成される出力装置が行う出力方法であって、
    前記出力装置が備える複数のタッチセンサ作用部が、前記タッチパッドが接触を検知するための前記出力装置からの作用を異なる位置に発生させるステップと、
    前記タッチパッドが前記作用により検知した接触位置に基づき、前記情報処理装置が当該タッチパッド下に備えられた表示装置における表示画像に与えた変化を検知するステップと、
    前記表示画像の変化に応じた内容の出力を行うステップと、
    を含み、
    前記作用を異なる位置に発生させるステップは、前記タッチパッドに検知される接触位置の組み合わせを制御することを特徴とする出力方法。
  13. 情報処理装置に接続されたタッチパッドとの接触状態を維持可能に構成される出力装置が備えるコンピュータに、
    前記出力装置が備える複数のタッチセンサ作用部に、前記タッチパッドが接触を検知するための前記出力装置からの作用を異なる位置に発生させる機能と、
    前記タッチパッドが前記作用により検知した接触位置に基づき、前記情報処理装置が当該タッチパッド下に備えられた表示装置における表示画像に与えた変化を検知する機能と、
    前記表示画像の変化に応じた内容の出力を行う機能と、
    を実現させ
    前記作用を異なる位置に発生させる機能は、前記タッチパッドに検知される接触位置の組み合わせを制御することを特徴とするコンピュータプログラム。
  14. 情報処理装置に接続されたタッチパッドとの接触状態を維持可能に構成される出力装置が備えるコンピュータに、
    前記出力装置が備える複数のタッチセンサ作用部に、前記タッチパッドが接触を検知するための前記出力装置からの作用を異なる位置に発生させる機能と、
    前記タッチパッドが前記作用により検知した接触位置に基づき、前記情報処理装置が当該タッチパッド下に備えられた表示装置における表示画像に与えた変化を検知する機能と、
    前記表示画像の変化に応じた内容の出力を行う機能と、
    を実現させ
    前記作用を異なる位置に発生させる機能は、前記タッチパッドに検知される接触位置の組み合わせを制御するコンピュータプログラムを記録したことを特徴とするコンピュータにて読み取り可能な記録媒体。
JP2013253521A 2013-12-06 2013-12-06 情報処理システム、出力装置、および出力方法 Active JP6132754B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013253521A JP6132754B2 (ja) 2013-12-06 2013-12-06 情報処理システム、出力装置、および出力方法
PCT/JP2014/004100 WO2015083302A1 (ja) 2013-12-06 2014-08-06 情報処理システム、情報処理装置、出力装置、および情報処理方法
US15/039,451 US9833719B2 (en) 2013-12-06 2014-08-06 Information processing system, information processing device, output device, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253521A JP6132754B2 (ja) 2013-12-06 2013-12-06 情報処理システム、出力装置、および出力方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017082223A Division JP6336653B2 (ja) 2017-04-18 2017-04-18 出力装置、情報処理装置、情報処理システム、出力方法、および出力システム

Publications (3)

Publication Number Publication Date
JP2015111375A JP2015111375A (ja) 2015-06-18
JP2015111375A5 JP2015111375A5 (ja) 2016-04-21
JP6132754B2 true JP6132754B2 (ja) 2017-05-24

Family

ID=53273093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253521A Active JP6132754B2 (ja) 2013-12-06 2013-12-06 情報処理システム、出力装置、および出力方法

Country Status (3)

Country Link
US (1) US9833719B2 (ja)
JP (1) JP6132754B2 (ja)
WO (1) WO2015083302A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6553858B2 (ja) * 2014-09-08 2019-07-31 株式会社Cenote 複数の携帯端末間の相対的位置、角度の動的検出システム
CN106325118A (zh) * 2015-06-30 2017-01-11 芋头科技(杭州)有限公司 机器人活跃程度智能控制系统及方法
CN104959985B (zh) * 2015-07-16 2017-10-17 深圳狗尾草智能科技有限公司 一种机器人的控制系统及其方法
CN106468917B (zh) * 2015-09-14 2019-06-14 北京理工大学 一种可触摸现场实时视频图像的远程呈现交互方法和系统
CN205796543U (zh) * 2016-07-05 2016-12-14 福建蓝帽子互动娱乐科技股份有限公司 基于光线强度识别的互动装置
JP6736697B2 (ja) * 2017-01-31 2020-08-05 富士フイルム株式会社 導光部材、ディスプレイ及び導光部材の製造方法
JP6754704B2 (ja) * 2017-01-31 2020-09-16 富士フイルム株式会社 ディスプレイ及びロボット
JP6462099B1 (ja) * 2017-12-01 2019-01-30 株式会社バンダイ 演出出力玩具
JP7219906B2 (ja) * 2018-07-19 2023-02-09 株式会社Icon 学習玩具、これに使用する学習玩具用移動体、及び、これに使用する学習玩具用携帯型情報処理端末
WO2020017396A1 (ja) * 2018-07-19 2020-01-23 株式会社Icon 学習玩具、これに使用する学習玩具用移動体、及びこれに使用する学習玩具用パネル
CN109011651B (zh) * 2018-07-25 2020-06-09 上海葡萄纬度科技有限公司 一种交互式玩具
CN109760067B (zh) * 2019-01-22 2021-05-07 中国科学院大学 会打纸牌的智能机器人系统以及设备
JP6818258B2 (ja) * 2019-02-28 2021-01-20 株式会社セガ 指示デバイス、読み取り方法、プログラム及びタッチセンサシステム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362429A (ja) * 2003-06-06 2004-12-24 Matsushita Electric Ind Co Ltd タッチパネルディスプレイを用いたコマンド入力装置
JP2013535046A (ja) * 2010-06-02 2013-09-09 ジャン・エティエン・ミヌール 自動的にフィギュアを認証する多数プレイヤーインタラクティブセットフィギュアハードウェア/電子ゲームボード
JP2012040076A (ja) * 2010-08-16 2012-03-01 Sega Toys:Kk 玩具セット
US20140024287A1 (en) * 2011-02-09 2014-01-23 Jean Etienne Mineur Figurine that interacts with a capacitive screen in an illuminated manner
TW201235925A (en) * 2011-02-18 2012-09-01 Medici Creativity Co Ltd Driver featuring interactive sensing with touch panel assembly and method of interactive sensing
JP2013017590A (ja) * 2011-07-08 2013-01-31 Wiz Co Ltd 玩具
JP4972218B1 (ja) * 2011-08-12 2012-07-11 株式会社バンダイ 動作体玩具
US9766610B2 (en) * 2012-03-07 2017-09-19 Rehco, Llc Interactive application platform for a motorized toy entity and display
US20130288560A1 (en) * 2012-04-30 2013-10-31 Nader Abou-Hamda Line sensing robot and a method of using the same with a digital display
US9072973B2 (en) * 2012-05-31 2015-07-07 Build-A-Bear Workshop, Inc. Interactive play station
JP6218221B2 (ja) 2012-09-11 2017-10-25 国立大学法人電気通信大学 毛状で柔軟なユーザインタフェース

Also Published As

Publication number Publication date
JP2015111375A (ja) 2015-06-18
US9833719B2 (en) 2017-12-05
US20160346705A1 (en) 2016-12-01
WO2015083302A1 (ja) 2015-06-11

Similar Documents

Publication Publication Date Title
JP6132754B2 (ja) 情報処理システム、出力装置、および出力方法
JP6628460B2 (ja) ゲームコントローラセット
CN110794958B (zh) 在增强/虚拟现实环境中使用的输入设备
US9602809B2 (en) Storage medium storing display control program for providing stereoscopic display desired by user with simpler operation, display control device, display control method, and display control system
US9975042B2 (en) Information processing terminal and game device
AU2011203606B2 (en) Transparent electronic device
US20120135803A1 (en) Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system
KR20200129584A (ko) 복수의 카메라들을 이용한 촬영 제어 방법 및 폴더블 장치
WO2015025442A1 (ja) 情報処理装置および情報処理方法
KR102656447B1 (ko) 컨트롤러와 접촉된 신체 부위에 따라 그래픽 객체를 다르게 표시하는 방법 및 전자 장치
US10004990B2 (en) Information processing terminal, non-transitory storage medium encoded with computer readable information processing program, information processing terminal system, and information processing method
JP4270248B2 (ja) 表示撮像装置、情報入力装置、物体検出プログラムおよび物体の検出方法
KR20200145351A (ko) 서브 디스플레이를 포함하는 전자 장치 및 방법
KR102627014B1 (ko) 전자 장치 및 제스처 인식 방법
US20120306856A1 (en) Recording medium storing display control program for controlling display capable of providing stereoscopic display, display system, display control method, and display
TW201604720A (zh) 電子裝置及儲存介質
CN117348743A (zh) 计算机、渲染方法以及位置指示装置
JP5764390B2 (ja) 画像生成プログラム、画像生成方法、画像生成装置及び画像生成システム
CN111230876A (zh) 移动物品的方法、装置、智能设备以及存储介质
JP6336653B2 (ja) 出力装置、情報処理装置、情報処理システム、出力方法、および出力システム
JP2020062179A (ja) 情報処理装置及びプログラム
CN113487662A (zh) 画面显示方法、装置、电子设备和存储介质
KR20210022921A (ko) 슬라이딩 동작되는 전자 장치
CN111512357A (zh) 基于显示驱动电路中存储的坐标信息移动内容显示位置的电子装置和方法
KR20200066962A (ko) 사용자의 움직임에 기반하여 콘텐트를 제공하기 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170418

R150 Certificate of patent or registration of utility model

Ref document number: 6132754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250