JP3165824B2 - Information sharing apparatus, information presentation method thereof, and recording medium - Google Patents
Information sharing apparatus, information presentation method thereof, and recording mediumInfo
- Publication number
- JP3165824B2 JP3165824B2 JP24847499A JP24847499A JP3165824B2 JP 3165824 B2 JP3165824 B2 JP 3165824B2 JP 24847499 A JP24847499 A JP 24847499A JP 24847499 A JP24847499 A JP 24847499A JP 3165824 B2 JP3165824 B2 JP 3165824B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information sharing
- work
- image
- manipulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Manipulator (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、マニピュレータの
ようなロボットと人間が協同作業を行う際に、ロボット
が協同作業者を監視し、監視状況を協同作業者に知らせ
る情報共有装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information sharing apparatus in which when a robot such as a manipulator and a human perform cooperative work, the robot monitors the cooperator and informs the cooperator of the monitoring status.
【0002】[0002]
【従来の技術】従来、視覚などを用いたロボットの制御
においてはその視覚処理がどのように進行しているかを
確認するためには、作業環境と離れたコンピュータのコ
ンソールにロボットの視覚状態を表示させていた。2. Description of the Related Art Conventionally, in controlling a robot using vision or the like, a visual state of the robot is displayed on a console of a computer remote from a work environment in order to check how the visual processing is progressing. I was letting it.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、ロボッ
トと人間が協同作業を行う場合には、その人間(以下、
協同作業者と称す)は、協同作業中はコンピュータのコ
ンソールを見ることができないので、ロボットの挙動が
わかりにくく、ロボットに対して不安感を持つという問
題があった。However, when a robot and a human perform a cooperative operation, the robot (hereinafter, referred to as a human)
The co-worker cannot see the console of the computer during the co-working, so that the behavior of the robot is difficult to understand, and there is a problem that the user is uneasy about the robot.
【0004】そこで、本発明の目的は、協同作業者に安
心感を与えることができる情報共有装置を提供すること
にある。[0004] It is therefore an object of the present invention to provide an information sharing device that can give a cooperative worker a sense of security.
【0005】[0005]
【課題を解決するための手段】このような目的を達成す
るために、請求項1の発明は、ロボットを制御し、該ロ
ボットと協同作業者との間で作業を行わせる情報共有装
置において、作業環境における前記協同作業者の身体の
作業部分の位置を検出する位置検出手段と、当該検出さ
れた位置に,予め定めたイメージパターンを投影する投
影手段とを具えたことを特徴とする。In order to achieve the above object, according to the present invention, there is provided an information sharing apparatus for controlling a robot and performing work between the robot and a cooperating worker. Position detection means for detecting the position of the work part of the body of the cooperative worker in a work environment, and projection means for projecting a predetermined image pattern onto the detected position are provided.
【0006】請求項2の発明は、ロボットを制御し、該
ロボットと協同作業者との間で作業を行わせる情報共有
装置の情報提示方法において、作業環境における前記協
同作業者の身体の作業部分の位置を検出し、当該検出さ
れた位置に,予め定めたイメージパターンを投影するこ
とを特徴とする。According to a second aspect of the present invention, there is provided an information presenting method for an information sharing apparatus for controlling a robot and performing a work between the robot and a cooperating worker. Is detected, and a predetermined image pattern is projected on the detected position.
【0007】請求項3の発明は、ロボットを制御し、該
ロボットと協同作業者との間で作業を行わせる情報共有
装置にインストールするプログラムを記録した記録媒体
において、該プログラムは、作業環境における前記協同
作業者の身体の作業部分の位置を検出する位置検出ステ
ップと、当該検出された位置に,予め定めたイメージパ
ターンを投影する投影ステップとを具えたことを特徴と
する。According to a third aspect of the present invention, there is provided a recording medium recording a program to be installed in an information sharing device for controlling a robot and performing a task between the robot and a co-worker. A position detecting step of detecting a position of a work part of the body of the cooperating worker; and a projecting step of projecting a predetermined image pattern onto the detected position.
【0008】[0008]
【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。Embodiments of the present invention will be described below in detail with reference to the drawings.
【0009】人と人が把持物体の手渡しを行う時、人は
お互いに相手の手と物体を目で見て、また、見られてい
ることを前提して作業を行っており、これによって、物
体の受け渡しをスムーズに行うことができると考えられ
る。このように協調作業において自分の振る舞いが相手
に見られていることを前提して作業を行うことは円滑な
協調作業の条件であると言える。[0009] When a person hands over a grasped object, the person looks at each other's hands and objects with each other and works on the assumption that the person is seen. It is considered that the delivery of the object can be performed smoothly. In this way, it can be said that performing a task on the premise that one's behavior is seen by the other party in the cooperative task is a condition for a smooth cooperative task.
【0010】本願発明者は、この点に着目し、協同作業
者がロボットと同一環境で任意の作業を行う場合、ロボ
ットを制御する情報共有装置が、協同作業者を正しくモ
ニタリングしているという情報を協同作業者に提示する
ことができる情報共有装置を開発した。The inventor of the present application pays attention to this point, and when the co-worker performs an arbitrary work in the same environment as the robot, the information sharing device that controls the robot correctly monitors the co-worker. An information sharing device that can present to a collaborator was developed.
【0011】情報共有装置のシステム構成を図1に示
す。図1において、情報共有装置はロボットとして使用
するマニピュレータ7、イメージを投影するビデオプロ
ジェクタ8、モニタリング用カメラ9、以上の機器を制
御するパーソナルコンピュータ1で構成される。パーソ
ナルコンピュータ1のビデオボード2からビデオプロジ
ェクタ8に投影用イメージが出力される。FIG. 1 shows a system configuration of the information sharing apparatus. In FIG. 1, the information sharing apparatus includes a manipulator 7 used as a robot, a video projector 8 for projecting an image, a monitoring camera 9, and a personal computer 1 for controlling the above devices. An image for projection is output from the video board 2 of the personal computer 1 to the video projector 8.
【0012】パーソナルコンピュータ1の画像処理ボー
ド3に対して、モニタリング用カメラ9、たとえば、C
CDビデオカメラで撮影されたイメージが送られる。ま
た、マニピュレータ7に対して動作を指示する制御信号
は、パーソナルコンピュータ1のRS232CなどのI
/Oポートから出力される。With respect to the image processing board 3 of the personal computer 1, a monitoring camera 9, for example, C
An image taken by a CD video camera is sent. Further, a control signal for instructing the manipulator 7 to perform an operation includes an I / O signal such as the RS232C
Output from the / O port.
【0013】本実施形態では、机(作業環境)6の上で
協同作業者5がマニピュレータ7から作業対象物を受け
取る例を説明する。In this embodiment, an example will be described in which a cooperator 5 receives a work object from a manipulator 7 on a desk (work environment) 6.
【0014】コンピュータ内に、マニピュレータ7と作
業対象物の幾何モデル(特定の形状のレンダリングイメ
ージ)が構成されている。幾何モデルによるレンダリン
グイメージと、協同作業者の手をパーソナルコンピュー
タが認識していることを示す特定パターンのイメージ、
たとえば、白の矩形のイメージが天井に取り付けたビデ
オプロジェクタ8から机6および協同作業者の手に向か
って投影される。幾何モデルの大きさ、色のみかけおよ
び水平(X−Y)座標位置は実ロボット(マニピュレー
タ7の手渡し部分)と同じになるよう設定されている。
このようなシステム構成において、パーソナルコンピュ
ータ1はマニピュレータ7を内蔵の制御プログラムにし
たがって、制御し、協同作業者5に対して作業対象物の
手渡し作業を行う。作業環境に差し出された協同作業者
の手をモニタリング用カメラ9を介してパーソナルコン
ピュータ1が認識し、手の位置を検出する。検出した位
置に基づいてパーソナルコンピュータ1はビデオプロジ
ェクタ8の投影画像の白の矩形イメージが協同作業者の
手に投影する。これにより、ビデオプロジェタ8から投
影される白の矩形イメージを見て、協同作業者は自分の
手が、情報共有装置により認識されているという感覚を
持つことができ、さらに、情報共有装置が正常に作動し
ていると知ることができる。In the computer, a manipulator 7 and a geometric model (a rendering image of a specific shape) of a work object are configured. Rendered image by geometric model, image of specific pattern indicating that personal computer recognizes hands of co-workers,
For example, a white rectangular image is projected from the video projector 8 mounted on the ceiling toward the desk 6 and the hands of the co-workers. The size, the apparent color, and the horizontal (XY) coordinate position of the geometric model are set to be the same as those of the real robot (the handed portion of the manipulator 7).
In such a system configuration, the personal computer 1 controls the manipulator 7 according to a built-in control program, and hands over the work object to the cooperating worker 5. The personal computer 1 recognizes the hand of the cooperator who has been put into the work environment via the monitoring camera 9 and detects the position of the hand. Based on the detected position, the personal computer 1 projects a white rectangular image of the projected image of the video projector 8 onto the hands of the cooperating worker. This allows the collaborator to see the white rectangular image projected from the video projector 8 and feel as if his or her hand is being recognized by the information sharing device. You can tell that it is working properly.
【0015】協同作業者がある位置で手を一定時間静止
すると、パーソナルコンピュータ1は静止した手の位置
を作業対象物の手渡し位置と判断し、マニピュレータ7
のモデルイメージがマニピュレータの動作に先立って、
上記矩形イメージに近づくようにパーソナルコンピュー
タ1が制御する。このシミュレーション的なイメージの
移動軌跡の後を追ってマニピュレータ7が動作し、協同
作業者と作業対象物の受け渡しを行う。When the cooperative worker stops his hand at a certain position for a certain period of time, the personal computer 1 determines the position of the still hand as the handing position of the work object and the manipulator 7.
Before the manipulator moves, the model image of
The personal computer 1 controls so as to approach the rectangular image. The manipulator 7 operates following the movement locus of the simulation-like image, and transfers the work object to and from the cooperator.
【0016】以上のような制御を行うための制御プログ
ラムの概要を図2に示す。図2の制御プログラムはパー
ソナルコンピュータ1のCPUが実行可能なプログラム
言語で記載され、パーソナルコンピュータ内の記録媒
体、たとえば、ハードディスク記憶装置内に保存記憶さ
れる。なお、CDROMのような記録媒体を介してパー
ソナルコンピュータ1に制御プログラムをインストール
してもよい。FIG. 2 shows an outline of a control program for performing the above control. The control program of FIG. 2 is described in a program language executable by the CPU of the personal computer 1, and is stored and stored in a recording medium in the personal computer, for example, a hard disk storage device. The control program may be installed in the personal computer 1 via a recording medium such as a CDROM.
【0017】図2は制御プログラムの中の本発明に係わ
るプログラム部分を示す。従来から周知のプログラム部
分については図2では省略している。なお、マニピュレ
ータ7のモデルイメージがマニピュレータの動作に先立
って、上記矩形イメージに近づくようにパーソナルコン
ピュータ1が制御するためのプログラム内容については
本願に先立って出願された特願平9−246832号に
開示されているので、その公開公報(特開平11−85
237号)を参照されたい。FIG. 2 shows a program portion according to the present invention in the control program. 2. Conventionally known program portions are omitted in FIG. Prior to the operation of the manipulator, a program for controlling the personal computer 1 so that the model image of the manipulator 7 approaches the rectangular image is disclosed in Japanese Patent Application No. 9-246832 filed prior to the present application. The publication is disclosed in Japanese Unexamined Patent Publication (Kokai) No. 11-85.
237).
【0018】電源が投入されると、図2の処理プログラ
ムがハードディスク記憶装置から読み出され、パーソナ
ルコンピュータ1内のシステムメモリにローディングさ
れ、CPUにより実行される。When the power is turned on, the processing program shown in FIG. 2 is read from the hard disk storage device, loaded into the system memory in the personal computer 1, and executed by the CPU.
【0019】CPUは、画像処理ボード3を介してモニ
タリング用カメラ9から撮影画像を入力し、システムメ
モリ内に格納する(ステップS10)。格納された撮影
画像の中の協同作業者の手のイメージおよびその位置を
CPUにより認識する。The CPU inputs a captured image from the monitoring camera 9 via the image processing board 3 and stores it in the system memory (step S10). The CPU recognizes the image and the position of the hand of the cooperator in the stored captured image.
【0020】本実施形態では、肌色のカラーデータを有
する撮影画像中の画素位置を検出することで、手の領域
および画面中の手の位置を検出する(ステップS2
0)。検出された撮影画面中の手の位置はシステムメモ
リに一時記憶される。本実施形態では連続する一定時間
内で得られた複数組の手の位置データを記憶する。In the present embodiment, the area of the hand and the position of the hand on the screen are detected by detecting the pixel position in the photographed image having the flesh color data (step S2).
0). The detected hand position in the shooting screen is temporarily stored in the system memory. In this embodiment, a plurality of sets of hand position data obtained within a continuous period of time are stored.
【0021】CPUは一定時間前の手の位置データと現
時点で得られた手の位置データとを比較し、一致の判定
が得られた場合には、手が静止していると判断する(ス
テップS30でNO判定)。一致判定が得られない場合
(ステップS30でYES判定)は手が移動しているの
で、手順をステップS30からS50へと進め、マニピ
ューレ−タ7用のモデルイメージと白い矩形イメージと
を合成して投影用イメージを作成する(ステップS5
0)。The CPU compares the position data of the hand for a certain period of time with the position data of the hand obtained at the present time. (NO determination in S30). If a match cannot be determined (YES in step S30), the hand is moving, so the procedure proceeds from step S30 to step S50, where the model image for the manipulator 7 and the white rectangular image are synthesized. Create a projection image (step S5)
0).
【0022】投影画面上の白い矩形イメージの位置は、
ステップS20で検出した手の位置から予め定めた換算
率をかけることで簡単に得られる。また、マニピュレー
タ7のモデルイメージの位置は、マニピューレ−タ7の
位置(水平座標)からやはり換算により得ることができ
る。The position of the white rectangular image on the projection screen is
It is easily obtained by multiplying a predetermined conversion rate from the position of the hand detected in step S20. The position of the model image of the manipulator 7 can also be obtained by conversion from the position (horizontal coordinates) of the manipulator 7.
【0023】合成された投影用イメージがビデオボード
2を介してビデオプロジェクタ8に送られるので、ビデ
オプロジェクタ8から投影された白い矩形イメージは協
同作業者の手の上に投影される(ステップS60)。Since the synthesized projection image is sent to the video projector 8 via the video board 2, the white rectangular image projected from the video projector 8 is projected on the hands of the cooperator (step S60). .
【0024】一方、ステップS30の判定処理でNO判
定(手が静止)の判定が得られた場合には、ステップS
20で検出された撮影画面中の手の位置を実空間上の手
の位置に換算し、マニピュレータ7の受け渡し位置に設
定する(ステップS7)。この後、CPUは、図2の処
理手順を繰り返し実行しながら、ステップS50で合成
するマニピュレータ7のモデル位置を順次に変更して投
影されるモデルイメージをマニピュレータ7の移動に先
行させる。On the other hand, if the determination in step S30 is NO (the hand is stationary), the process proceeds to step S30.
The position of the hand on the photographing screen detected in step 20 is converted to the position of the hand in the real space, and set as the transfer position of the manipulator 7 (step S7). Thereafter, the CPU sequentially changes the model position of the manipulator 7 to be synthesized in step S50 and causes the projected model image to precede the movement of the manipulator 7 while repeatedly executing the processing procedure of FIG.
【0025】以上説明したようにパーソナルコンピュー
タ1のCPUが図2の処理プログラムを実行することに
より協同作業者の手には、その手が移動しても白い矩形
イメージが追従的に投影されるので、協同作業者は情報
共有装置(パーソナルコンピュータ1およびマニピュレ
ータ7)が正常に作動していることを確認でき、あたか
もマニピュレータ7に見られているような安心感を持つ
ことができる。As described above, when the CPU of the personal computer 1 executes the processing program of FIG. 2, a white rectangular image is projected onto the hands of the cooperating worker even if the hands move. In addition, the cooperator can confirm that the information sharing device (the personal computer 1 and the manipulator 7) is operating normally, and can have a sense of security as if it were seen by the manipulator 7.
【0026】上述の実施形態の他に次の形態を実施でき
る。The following embodiment can be carried out in addition to the above embodiment.
【0027】1)上述の実施形態では、ロボットの一例
としてマニピュレータを説明したがその他周知のロボッ
トに本発明を適用することができる。1) In the above-described embodiment, the manipulator is described as an example of the robot, but the present invention can be applied to other known robots.
【0028】2)上述の実施形態では、パーソナルコン
ピュータ1とマニピュレータ7、モニタリング用カメラ
9、ビデオプロジェクタ8との間は有線の信号ケーブル
で接続したが、これらの機器の間を無線でデータ通信す
るようにしてもよい。2) In the above embodiment, the personal computer 1 and the manipulator 7, the monitoring camera 9, and the video projector 8 are connected by a wired signal cable. However, data communication is performed wirelessly between these devices. You may do so.
【0029】3)上述の実施形態では白い矩形イメージ
を協同作業者の手に投影しているようにしているが作業
内容に応じて協同作業者の足等、身体の作業部分に投影
すればよいこと勿論である。3) In the above-described embodiment, the white rectangular image is projected on the hands of the cooperating worker. However, the white rectangular image may be projected on the working part of the body such as the foot of the cooperating worker according to the work content. Of course.
【0030】4)協同作業者に投影するイメージパター
ンの形状、色は上述の実施形態に限らず、用途に応じて
適宜定めればよい。4) The shape and color of the image pattern projected to the cooperating worker are not limited to those in the above-described embodiment, but may be appropriately determined according to the application.
【0031】[0031]
【発明の効果】以上、説明したように、本発明によれ
ば、協同作業者の身体の作業部分に、この作業部分の移
動に追従させて予め定めたイメージを投影することで、
協同作業者は自己が見つめられているという心理的な感
覚を持つことができ、また、装置が正常作動しているこ
とも確認できるので、安心してロボットと協同作業を行
うことができる。As described above, according to the present invention, a predetermined image is projected onto a working part of the body of a cooperator while following the movement of the working part.
The cooperating worker can have a psychological feeling that he / she is being watched, and can confirm that the device is operating normally, so that he / she can cooperate with the robot with confidence.
【図1】本発明実施形態のシステム構成を示すブロック
図である。FIG. 1 is a block diagram illustrating a system configuration according to an embodiment of the present invention.
【図2】パーソナルコンピュータ1のCPUが実行する
処理内容を示すフローチャートである。FIG. 2 is a flowchart illustrating processing executed by a CPU of the personal computer 1;
1 パーソナルコンピュータ 2 ビデオボード 3 画像処理ボード 4 I/Oポート 5 協同作業者 6 机 7 マニピュレータ 8 ビデオプロジェクタ 9 モニタリング用カメラ Reference Signs List 1 personal computer 2 video board 3 image processing board 4 I / O port 5 cooperator 6 desk 7 manipulator 8 video projector 9 monitoring camera
Claims (3)
業者との間で作業を行わせる情報共有装置において、 作業環境における前記協同作業者の身体の作業部分の位
置を検出する位置検出手段と、 当該検出された位置に,予め定めたイメージパターンを
投影する投影手段とを具えたことを特徴とする情報共有
装置。1. An information sharing device for controlling a robot and performing a work between the robot and a cooperating worker, comprising: a position detecting means for detecting a position of a work part of a body of the cooperating worker in a working environment; An information sharing device comprising: a projection unit configured to project a predetermined image pattern onto the detected position.
業者との間で作業を行わせる情報共有装置の情報提示方
法において、 作業環境における前記協同作業者の身体の作業部分の位
置を検出し、 当該検出された位置に,予め定めたイメージパターンを
投影することを特徴とする情報共有装置の情報提示方
法。2. An information presenting method for an information sharing apparatus for controlling a robot and performing a work between the robot and a cooperating worker, wherein a position of a body working part of the cooperating worker in a work environment is detected. An information presentation method for an information sharing device, comprising projecting a predetermined image pattern onto the detected position.
業者との間で作業を行わせる情報共有装置にインストー
ルするプログラムを記録した記録媒体において、該プロ
グラムは、 作業環境における前記協同作業者の身体の作業部分の位
置を検出する位置検出ステップと、 当該検出された位置に,予め定めたイメージパターンを
投影する投影ステップとを具えたことを特徴とする記録
媒体。3. A recording medium recording a program to be installed in an information sharing device for controlling a robot and performing a work between the robot and a cooperator, the program comprising: A recording medium, comprising: a position detecting step of detecting a position of a work part of a body; and a projecting step of projecting a predetermined image pattern onto the detected position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24847499A JP3165824B2 (en) | 1999-09-02 | 1999-09-02 | Information sharing apparatus, information presentation method thereof, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24847499A JP3165824B2 (en) | 1999-09-02 | 1999-09-02 | Information sharing apparatus, information presentation method thereof, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001071292A JP2001071292A (en) | 2001-03-21 |
JP3165824B2 true JP3165824B2 (en) | 2001-05-14 |
Family
ID=17178694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24847499A Expired - Lifetime JP3165824B2 (en) | 1999-09-02 | 1999-09-02 | Information sharing apparatus, information presentation method thereof, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3165824B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5502348B2 (en) * | 2009-03-12 | 2014-05-28 | ファナック株式会社 | Simulation method |
JP5673716B2 (en) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | Robot system and method of manufacturing workpiece |
JP7035555B2 (en) | 2018-01-23 | 2022-03-15 | セイコーエプソン株式会社 | Teaching device and system |
-
1999
- 1999-09-02 JP JP24847499A patent/JP3165824B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2001071292A (en) | 2001-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5464083B2 (en) | Information processing apparatus, information processing method, and program | |
US20030214524A1 (en) | Control apparatus and method by gesture recognition and recording medium therefor | |
JPH0844490A (en) | Interface device | |
WO1999056274A1 (en) | Vision pointer method and apparatus | |
JP2006068315A (en) | Pause detection program, video game device, pause detection method, and computer-readable recording medium recorded with program | |
JP6452440B2 (en) | Image display system, image display apparatus, image display method, and program | |
WO2005065013A3 (en) | Method and apparatus for improved handset multi-tasking, including pattern recognition and augmentation of camera images | |
JP4275304B2 (en) | Interface device and recording medium recording interface processing program | |
KR20130030117A (en) | Character image processing apparatus and method for footstake clean up in real time animation | |
WO2019155735A1 (en) | Information processing device, information processing method, and program | |
JP3165824B2 (en) | Information sharing apparatus, information presentation method thereof, and recording medium | |
JP2001084375A (en) | Operation verification system and non-contact manipulation system | |
LIU et al. | A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery | |
JP2000276577A (en) | Image sensitive event generator | |
JPH02118713A (en) | Character recognition device | |
JP2006004093A (en) | Switching unit | |
JPH07271482A (en) | Computer system | |
JP5907184B2 (en) | Information processing apparatus, information processing method, and program | |
JP3005715B2 (en) | Information sharing apparatus, method, and recording medium | |
JP2004053760A (en) | Projector system | |
JP2000333119A (en) | Information processing unit, information processing system, operation control method and storage medium | |
JP7470578B2 (en) | Work Support System | |
KR101285114B1 (en) | Bodily sensation Education method using Motion Detection in robot and thereof system | |
JP2021089615A (en) | Information processing apparatus, information processing method, and program | |
WO2023276605A1 (en) | Lighting control system, lighting control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
R150 | Certificate of patent or registration of utility model |
Ref document number: 3165824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |