JP6800296B2 - How to operate the optical tracking system and the optical tracking system - Google Patents

How to operate the optical tracking system and the optical tracking system Download PDF

Info

Publication number
JP6800296B2
JP6800296B2 JP2019175196A JP2019175196A JP6800296B2 JP 6800296 B2 JP6800296 B2 JP 6800296B2 JP 2019175196 A JP2019175196 A JP 2019175196A JP 2019175196 A JP2019175196 A JP 2019175196A JP 6800296 B2 JP6800296 B2 JP 6800296B2
Authority
JP
Japan
Prior art keywords
pattern portion
unit
image
marker
marker unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019175196A
Other languages
Japanese (ja)
Other versions
JP2019215378A (en
Inventor
ヒョン‐キ イ、
ヒョン‐キ イ、
ジョン‐キュ ホン、
ジョン‐キュ ホン、
ミン‐ヨン キム、
ミン‐ヨン キム、
ユ‐ソン チェ、
ユ‐ソン チェ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academic Cooperation Foundation of KNU
Original Assignee
Industry Academic Cooperation Foundation of KNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130047984A external-priority patent/KR101406220B1/en
Priority claimed from KR20130060034A external-priority patent/KR101487248B1/en
Priority claimed from KR20130060035A external-priority patent/KR101487251B1/en
Application filed by Industry Academic Cooperation Foundation of KNU filed Critical Industry Academic Cooperation Foundation of KNU
Publication of JP2019215378A publication Critical patent/JP2019215378A/en
Application granted granted Critical
Publication of JP6800296B2 publication Critical patent/JP6800296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Description

本発明は、オプティカルトラッキングシステム及びこれを用いたトラッキング方法に関し、より詳細には、患部や手術道具のような目的物に取り付けられたマーカーの座標を追跡して目的物の空間位置及び方向を検出するオプティカルトラッキングシステム及びこれを用いたトラッキング方法に関するものである。 The present invention relates to an optical tracking system and a tracking method using the same, and more specifically, tracks the coordinates of a marker attached to an object such as an affected area or a surgical tool to detect the spatial position and direction of the object. It relates to an optical tracking system to be operated and a tracking method using the optical tracking system.

最近では、腹腔鏡手術や耳鼻咽喉科の手術をするとき、患者の苦痛をさらに減らして速やかに患者が回復できるようにするために、ロボット手術が進められている実情である。 Recently, robotic surgery is being promoted in order to further reduce the pain of patients and enable them to recover quickly when performing laparoscopic surgery or otolaryngology surgery.

かかるロボット手術の際には、手術の危険を最小化してさらに精密な手術を行われるようにするために、患部や手術道具のような目的物の空間位置及び方向を正確に追跡して検出した後、前記手術道具を患者の患部へ正確に操縦(NAVIGATE)できるナビゲーションが用いられる。 During such robotic surgery, the spatial position and orientation of objects such as affected areas and surgical tools were accurately tracked and detected in order to minimize the risk of surgery and enable more precise surgery. Later, a navigation is used that allows the surgical tool to be accurately steered to the affected area of the patient (NAVIGATE).

上記のような手術用ナビゲーションには、上述したように患部や手術器具のような目的物の空間位置及び方向を正確に追跡して検出することができるトラッキングシステムが含まれる。 Surgical navigation as described above includes a tracking system capable of accurately tracking and detecting the spatial position and orientation of an object such as an affected area or surgical instrument as described above.

上記のようなトラッキングシステムは、通常、患部や手術器具のような目的物に取り付けられるマーカーと、前記マーカーによって放出される光を結像させる第1及び第2結像ユニットと、前記第1及び第2結像ユニットと連結されて前記マーカーの3次元座標を算出した後、既に格納された前記互いに隣り合うマーカーを連結する直線の情報及び互いに隣り合う一対の直線がなす角度情報を前記マーカーの3次元座標と比較して前記目的物の空間位置及び方向を算出するプロセッサとを含む。 Tracking systems such as those described above typically include a marker attached to an object such as an affected area or surgical instrument, first and second imaging units that image the light emitted by the marker, and the first and second imaging units. After calculating the three-dimensional coordinates of the marker connected to the second imaging unit, the information of the straight line connecting the markers adjacent to each other and the angle information formed by the pair of straight lines adjacent to each other are obtained from the marker. It includes a processor that calculates the spatial position and direction of the object in comparison with three-dimensional coordinates.

上記のような従来の一般的なトラッキングシステムは、結像ユニットに結像されるマーカーの円形状の直径を用いて前記プロセッサを通じてマーカーと離隔された距離を測定する。しかし、前記結像ユニットに結像された前記マーカーの円形状の枠が前記結像ユニットレンズの歪みによって不透明であるので、前記マーカーの円形状の直径を正確に測定することが難しいという問題があるだけでなく、距離変化に応じた前記マーカーの円形状の直径の変化が微少でマーカーと距離測定時に識別力が非常に低く、マーカーの位置を正確に測定することができないという問題点があった。 Conventional general tracking systems such as those described above use the circular diameter of the marker imaged on the imaging unit to measure the distance separated from the marker through the processor. However, since the circular frame of the marker imaged on the imaging unit is opaque due to the distortion of the imaging unit lens, there is a problem that it is difficult to accurately measure the circular diameter of the marker. Not only that, there is a problem that the change in the circular diameter of the marker according to the change in distance is very small, the distinguishing power between the marker and the distance is very low, and the position of the marker cannot be measured accurately. It was.

従って、本発明の目的は、測定しようとする目的物の距離と関係なく、目的物の正確な空間位置及び方向を検出してトラッキングできるオプティカルトラッキングシステム及びこれを用いたトラッキング方法を提供することにある。 Therefore, an object of the present invention is to provide an optical tracking system capable of detecting and tracking an accurate spatial position and direction of an object regardless of the distance of the object to be measured, and a tracking method using the same. is there.

本発明の一実施例によるオプティカルトラッキングシステムは、目的物に取り付けられて内部に含まれたパターン部のイメージを拡大させて結像させることができるように、前記パターン部の平行出射光を放出させる少なくとも1つのマーカーユニットと、前記マーカーユニットから放出される前記パターン部の平行出射光を受光して、拡大されたパターン部のイメージを結像させる少なくとも1つの結像ユニットと、前記結像ユニットに結像されて拡大されたパターン部のイメージを用いて前記マーカーユニットの空間位置及び方向を算出するプロセッサとを含む。 The optical tracking system according to an embodiment of the present invention emits parallel emission light of the pattern portion so that the image of the pattern portion contained inside the object can be enlarged and imaged. The at least one marker unit, the at least one imaging unit that receives the parallel emission light of the pattern portion emitted from the marker unit and forms an image of the enlarged pattern portion, and the imaging unit. It includes a processor that calculates the spatial position and direction of the marker unit using an image of a pattern portion that has been imaged and enlarged.

一実施例によれば、前記マーカーユニットは、多数のパターンが形成された少なくとも1つのパターン部と、前記パターン部に光を照射する少なくとも1つの光源と、前記光源から照射され前記パターン部を通過したり前記パターン部により反射された光を前記結像ユニットに平行出射光形態で放出させる少なくとも1つの第1レンズ部とを含むことができる。 According to one embodiment, the marker unit has at least one pattern portion in which a large number of patterns are formed, at least one light source that irradiates the pattern portion with light, and is irradiated from the light source and passes through the pattern portion. It can also include at least one first lens unit that emits light reflected by the pattern unit to the imaging unit in the form of parallel emission light.

ここで、前記パターン部は前記第1レンズ部の焦点距離に配置されることが望ましい。 Here, it is desirable that the pattern portion is arranged at the focal length of the first lens portion.

一方、前記第1レンズ部は対物レンズであり得る。 On the other hand, the first lens unit can be an objective lens.

一実施例によれば、前記光源は前記マーカーユニットの内部に配置され得る。 According to one embodiment, the light source may be located inside the marker unit.

他の施例によれば、前記光源は前記マーカーユニットの外部に配置され得る。 According to other examples, the light source may be located outside the marker unit.

ここで、前記光源はLED(Light Emitting Diode)であり得る。 Here, the light source may be an LED (Light Emitting Diode).

一実施例によれば、前記結像ユニットは、前記マーカーユニットから放出された前記パターン部の平行出射光を、レンズ部を通じて受光して前記平行出射光により拡大されたパターン部のイメージをセンサ部に結像させるカメラであり得る。 According to one embodiment, the imaging unit receives the parallel emission light of the pattern portion emitted from the marker unit through the lens unit, and receives an image of the pattern portion enlarged by the parallel emission light as a sensor unit. It can be a camera that forms an image on the lens.

一方、前記プロセッサは、前記結像ユニットに結像されて拡大されたパターン部のイメージの位置及び大きさの変化を用いて、前記マーカーユニットの空間位置を算出し、前記拡大されたパターン部の領域別パターン位置及びパターンの大きさの変化を用いて前記マーカーユニットの方向を算出することができる。 On the other hand, the processor calculates the spatial position of the marker unit by using the change in the position and size of the image of the pattern portion imaged and enlarged on the imaging unit, and the enlarged pattern portion. The direction of the marker unit can be calculated by using the pattern position for each area and the change in the size of the pattern.

一実施例によれば、前記プロセッサは、前記結像ユニットに結像されて拡大されたパターン部のイメージの位置及び大きさを、既に格納された基準パターン部イメージの基準位置及び大きさと比較して前記マーカーユニットの空間位置を算出することができ、前記拡大されたパターン部の領域別パターンの位置及びパターンの大きさと、既に格納されたパターン部イメージの領域別基準パターンの位置及び基準パターンの大きさとを比較して前記マーカーユニットの方向を算出することができる。 According to one embodiment, the processor compares the position and size of the image of the pattern portion imaged and magnified by the imaging unit with the reference position and size of the already stored reference pattern portion image. The spatial position of the marker unit can be calculated, and the position and pattern size of the area-specific pattern of the enlarged pattern portion and the position and reference pattern of the area-specific reference pattern of the already stored pattern unit image can be calculated. The direction of the marker unit can be calculated by comparing with the size.

一方、前記マーカーユニットは、少なくとも1つの光源から照射される光を、表面にパターン部が設けられたボールレンズを通じて反射させて平行出射光形態で放出させることもできる。ここで、前記パターン部は、前記ボールレンズの表面全体または表面の一部に設けられることができる。 On the other hand, the marker unit can also reflect the light emitted from at least one light source through a ball lens provided with a pattern portion on the surface and emit it in the form of parallel emission light. Here, the pattern portion can be provided on the entire surface or a part of the surface of the ball lens.

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射され、パターン部により反射されたり前記パターン部を透過した光を魚眼レンズに通過させて平行出射光形態で放出することができる。 According to another embodiment, the marker unit can be irradiated from at least one light source, and light reflected by the pattern portion or transmitted through the pattern portion can be passed through the fisheye lens and emitted in the form of parallel emission light. ..

前記パターン部は前記魚眼レンズの焦点距離に配置され得る。 The pattern portion may be arranged at the focal length of the fisheye lens.

または、前記光源は、前記パターン部により光が反射されて前記魚眼レンズを通過できるように、前記マーカーユニットの外部に配置され得る。これとは異なって、前記光源は、前記光源から照射された光が前記パターン部を透過して前記魚眼レンズを通過できるように、前記マーカーユニットの内部に配置され得る。 Alternatively, the light source may be arranged outside the marker unit so that light is reflected by the pattern portion and can pass through the fisheye lens. Unlike this, the light source may be arranged inside the marker unit so that the light emitted from the light source can pass through the pattern portion and pass through the fisheye lens.

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射されてパターン部により反射されたり前記パターン部を透過した光を対物レンズに通過させて平行出射光形態で放出させた後、プリズムを通じて画角が異なる平行出射光を放出することができる。 According to another embodiment, after the marker unit is irradiated from at least one light source and reflected by the pattern portion or passed through the pattern portion and passed through the objective lens to be emitted in the form of parallel emission light. , Parallel emission light with different angles of view can be emitted through the prism.

前記パターン部は、前記対物レンズの焦点距離に配置され得る。 The pattern portion may be arranged at the focal length of the objective lens.

または、前記光源は、前記パターン部により光が反射されて前記対物レンズを通過できるように、前記マーカーユニットの外部に配置され得る。これとは異なって、前記光源は、前記光源から照射された光が前記パターン部を透過して前記対物レンズを通過できるように、前記マーカーユニットの内部に配置され得る。 Alternatively, the light source may be arranged outside the marker unit so that light is reflected by the pattern portion and can pass through the objective lens. Unlike this, the light source may be arranged inside the marker unit so that the light emitted from the light source can pass through the pattern portion and pass through the objective lens.

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射される光を、パターン部が設けられたミラー部を通じて反射させて平行出射光形態で放出させることができる。 According to another embodiment, the marker unit can reflect the light emitted from at least one light source through the mirror portion provided with the pattern portion and emit it in the form of parallel emission light.

前記マーカーユニットは、前記ミラー部により反射されて平行光形態で放出される光をもう一度平行出射光形態に変換させて放出させることができるように、前記ミラー部と一定間隔離隔されるように配置された第1レンズをさらに含むことができる。 The marker unit is arranged so as to be isolated from the mirror portion for a certain period of time so that the light reflected by the mirror portion and emitted in the parallel light form can be converted into the parallel emission light form again and emitted. The first lens made can be further included.

または、前記マーカーユニットは、前記ミラー部に入射される光量を調節し、前記結像ユニットに結像される拡大されたパターン部のイメージの画角及び解像度を調節できるように、前記ミラー部に設けられる絞りをさらに含むことができる。 Alternatively, the marker unit may adjust the amount of light incident on the mirror unit so that the angle of view and resolution of the image of the enlarged pattern unit imaged on the imaging unit can be adjusted. The aperture provided can be further included.

一方、前記ミラー部は球面または非球面形態のミラーであり得る。 On the other hand, the mirror portion may be a spherical or aspherical mirror.

続いて、本発明の一実施例によるオプティカルトラッキングシステムを用いたトラッキング方法は、パターン部のイメージを拡大させて結像させることができるように、目的物に取り付けられたマーカーユニットから前記パターン部の平行出射光を放出させるステップと、前記マーカーユニットから放出された前記パターン部の平行出射光を結像ユニットにより受光して拡大されたパターン部のイメージを結像させるステップと、前記結像ユニットに結像されて拡大されたパターン部のイメージを用いて、プロセッサを通じて前記マーカーユニットの空間位置及び方向を算出するステップとを含む。 Subsequently, in the tracking method using the optical tracking system according to the embodiment of the present invention, the marker unit attached to the target object can be attached to the pattern portion so that the image of the pattern portion can be enlarged and imaged. A step of emitting parallel emission light, a step of receiving the parallel emission light of the pattern portion emitted from the marker unit by the imaging unit and forming an image of the enlarged pattern portion, and a step of forming an image on the imaging unit. It includes a step of calculating the spatial position and direction of the marker unit through a processor using an image of a pattern portion that has been imaged and enlarged.

一実施例によれば、前記マーカーユニットの空間位置及び方向を算出するステップは、前記プロセッサを通じて前記結像ユニットに結像されて拡大されたパターン部のイメージを用いて前記マーカーユニットが回転された角度を算出し、前記マーカーユニットの方向を算出するステップと、前記プロセッサを通じて前記結像ユニットに結像されて拡大されたパターン部のイメージ及び前記マーカーユニットの回転された角度を用いて前記マーカーユニットの空間位置を算出するステップとを含むことができる。 According to one embodiment, in the step of calculating the spatial position and direction of the marker unit, the marker unit was rotated using an image of a pattern portion imaged and enlarged on the imaging unit through the processor. The marker unit is calculated using the steps of calculating the angle and calculating the direction of the marker unit, the image of the pattern portion imaged and enlarged on the imaging unit through the processor, and the rotated angle of the marker unit. Can include a step of calculating the spatial position of.

ここで、前記マーカーユニットの方向を算出するステップは、前記プロセッサを通じて前記結像ユニットに結像されて拡大されたパターン部のイメージの領域別パターンの部位置及びパターン部の大きさの変化を測定するステップと、前記プロセッサに既に格納された前記パターン部イメージの領域別基準パターン部の位置及び基準パターン部の大きさと、前記結像ユニットに結像されて拡大されたパターン部のイメージの領域別パターン部の位置及びパターン部の大きさの変化とを比較し、マーカーユニットの回転された角度を算出するステップとを含むことができる。 Here, in the step of calculating the direction of the marker unit, the change in the position of the pattern and the size of the pattern portion for each region of the image of the pattern portion imaged and enlarged on the imaging unit through the processor is measured. Steps to be performed, the position of the reference pattern portion by region and the size of the reference pattern portion of the pattern portion image already stored in the processor, and the region of the image of the pattern portion imaged and enlarged by the imaging unit. It can include a step of comparing the position of the pattern portion and the change in the size of the pattern portion and calculating the rotated angle of the marker unit.

そして、前記マーカーユニットの空間位置を算出するステップは、前記プロセッサを通じて前記結像ユニットに結像されて拡大されたパターン部のイメージの位置及び大きさを測定するステップと、前記プロセッサに既に格納された前記パターン部のイメージの基準位置及び大きさと前記結像ユニットに結像されて拡大されたパターン部のイメージの位置及び大きさとを前記プロセッサを通じて比較し、マーカーユニットの空間位置を算出するステップを含むことができる。 Then, the step of calculating the spatial position of the marker unit is the step of measuring the position and size of the image of the pattern portion imaged and enlarged on the imaging unit through the processor, and the step already stored in the processor. A step of calculating the spatial position of the marker unit by comparing the reference position and size of the image of the pattern portion with the position and size of the image of the pattern portion imaged and enlarged by the imaging unit through the processor. Can include.

一実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射される光を、表面にパターン部が設けられたボールレンズを通じて反射させて平行出射光形態で放出させることができる。 According to one embodiment, the marker unit can reflect light emitted from at least one light source through a ball lens provided with a pattern portion on the surface and emit it in the form of parallel emission light.

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射されてパターン部により反射されたり前記パターン部を透過した光を魚眼レンズに通過させて平行出射光形態で放出することができる。 According to another embodiment, the marker unit can emit light in the form of parallel emission light, which is irradiated from at least one light source and reflected by the pattern portion or passed through the pattern portion through a fisheye lens. ..

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射されてパターン部により反射されたり前記パターン部を透過した光を対物レンズに通過させて平行出射光形態で放出させた後、プリズムを通じて画角が異なる平行出射光を放出することができる。 According to another embodiment, after the marker unit is irradiated from at least one light source and reflected by the pattern portion or passed through the pattern portion and passed through the objective lens to be emitted in the form of parallel emission light. , Parallel emission light with different angles of view can be emitted through the prism.

他の実施例によれば、前記マーカーユニットは、少なくとも1つの光源から照射される光を、パターン部が設けられたミラー部を通じて反射させて平行出射光形態で放出させることができる。 According to another embodiment, the marker unit can reflect the light emitted from at least one light source through the mirror portion provided with the pattern portion and emit it in the form of parallel emission light.

このように、本発明の一実施例によるオプティカルトラッキングシステム及びこれを用いたトラッキング方法は、マーカーユニットからパターン部の平行出射光を放出させて結像ユニットに拡大されたパターン部のイメージを結像させた後、これを用いてマーカーユニットの空間位置を算出する。即ち、前記マーカーユニットの位置精度を結像ユニットの解像力にのみ依存せず、パターン部のイメージを拡大させて結像ユニットに結像させることによって、測定しようとする目的物の距離が結像ユニットと遠く離れていても前記目的物の空間位置及び方向を精度の減少なしに算出することができる。 As described above, in the optical tracking system according to the embodiment of the present invention and the tracking method using the same, the parallel emission light of the pattern portion is emitted from the marker unit to form an image of the enlarged pattern portion on the imaging unit. After that, the spatial position of the marker unit is calculated using this. That is, the position accuracy of the marker unit does not depend only on the resolving power of the imaging unit, and the distance of the target object to be measured is measured by enlarging the image of the pattern portion and forming an image on the imaging unit. The spatial position and direction of the target object can be calculated without a decrease in accuracy even if the object is far away.

従って、本発明の一実施例によるオプティカルトラッキングシステム及びこれを用いたトラッキング方法は、測定しようとする目的物の距離と関係なく目的物の正確な空間位置及び方向を検出してトラッキングできるので、可用領域を大幅に広げることができるだけでなく、従来のマーカーに比べてマーカーユニットの大きさを大幅に減らして製作できるので、装備を小型化させることができるという効果がある。 Therefore, the optical tracking system according to the embodiment of the present invention and the tracking method using the same can detect and track the accurate spatial position and direction of the target object regardless of the distance of the target object to be measured. Not only can the area be greatly expanded, but the size of the marker unit can be significantly reduced compared to conventional markers, so there is the effect that the equipment can be miniaturized.

本発明の第1実施例によるトラッキングシステムの概略図である。It is the schematic of the tracking system according to 1st Example of this invention. マーカーユニットのパターン部の一例を示した図面である。It is a drawing which showed an example of the pattern part of a marker unit. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of tracking an object using the optical tracking system according to 1st Embodiment of this invention. マーカーユニットから光が放出される過程を説明するための図面である。It is a drawing for demonstrating the process which light is emitted from a marker unit. 結像ユニットに平行出射光が入射される過程を説明するための図面である。It is a drawing for demonstrating the process in which a parallel emission light is incident on an imaging unit. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the direction of an object using the optical tracking system according to 1st Example of this invention. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of an object using the optical tracking system according to 1st Embodiment of this invention. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of an object using the optical tracking system according to 1st Embodiment of this invention. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of an object using the optical tracking system according to 1st Embodiment of this invention. 本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of an object using the optical tracking system according to 1st Embodiment of this invention. マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position and direction of a marker unit. マーカーユニットの方向が算出される過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the direction of a marker unit. マーカーユニットの空間位置を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position of a marker unit. 本発明の第2実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 2nd Example of this invention. 本発明の第2実施例によるマーカーユニットの空間位置が算出される過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit by 2nd Embodiment of this invention. 本発明の第3実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to the 3rd Example of this invention. 本発明の第3実施例によるオプティカルトラッキングシステムのプロセッサによりマーカーユニットの空間位置が算出される過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit by the processor of the optical tracking system according to 3rd Embodiment of this invention. 本発明の第4実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 4th Example of this invention. 本発明の第4実施例によるオプティカルトラッキングシステムのプロセッサによりマーカーユニットの空間位置が算出される過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit by the processor of the optical tracking system according to 4th Embodiment of this invention. 本発明の第5実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 5th Example of this invention. 本発明の第5実施例によるマーカーユニットを示した図面である。It is a drawing which showed the marker unit according to 5th Example of this invention. 本発明の第5実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of tracking an object using the optical tracking system according to 5th Embodiment of this invention. マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position and direction of a marker unit. マーカーユニットの方向が算出される過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the direction of a marker unit. 本発明の第5実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the direction of an object using the optical tracking system according to 5th Example of this invention. マーカーユニットの空間位置を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. 本発明の第6実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to the 6th Example of this invention. 本発明の第7実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 7th Example of this invention. 本発明の第8実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 8th Example of this invention. 本発明の第9実施例によるマーカーユニットを説明するための図面である。It is a drawing for demonstrating the marker unit according to the 9th Example of this invention. 本発明の第10実施例によるマーカーユニットを説明するための図面である。It is a drawing for demonstrating the marker unit according to the tenth embodiment of this invention. 本発明の第11実施例によるオプティカルトラッキングシステムの概略図である。It is the schematic of the optical tracking system according to 11th Example of this invention. 本発明の第11実施例によるマーカーユニットを示した図面である。It is a drawing which showed the marker unit according to the eleventh embodiment of this invention. 本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of tracking an object using the optical tracking system according to 11th Embodiment of this invention. マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position and direction of a marker unit. マーカーユニットの方向が算出される過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the direction of a marker unit. 本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the direction of an object using the optical tracking system according to 11th Example of this invention. マーカーユニットの空間位置を算出する過程を説明するためのフローチャートである。It is a flowchart for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit. マーカーユニットの空間位置を算出する過程を説明するための図面である。It is a drawing for demonstrating the process of calculating the spatial position of a marker unit.

発明の具体的な説明Specific description of the invention

本発明は、多様な変更を加えることができ、また、様々な形態を有することができるところ、特定の実施例を図面に例示して本文に詳細に説明する。しかし、これは本発明を特定の開示形態について限定しようとするのではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むものと理解されるべきである。 The present invention can be modified in various ways and can have various forms, and a specific embodiment will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the invention to any particular form of disclosure, but should be understood to include all modifications, equivalents or alternatives contained within the ideas and technical scope of the invention.

第1、第2等の用語は多様な構成要素を説明するのに用いられるが、前記構成要素は前記用語によって限定されてはならない。前記用語は1つの構成要素を他の構成要素から区別する目的でのみ用いられる。例えば、本発明の権利範囲を逸脱せずに第1の構成要素は第2の構成要素と呼ばれることができ、同様に第2の構成要素は第1の構成要素と呼ばれることができる。 The terms first, second, etc. are used to describe various components, but the components should not be limited by the terms. The term is used only to distinguish one component from the other. For example, the first component can be referred to as the second component without departing from the scope of rights of the present invention, and similarly the second component can be referred to as the first component.

本出願で使用する用語は単に特定の実施例を説明するために使用しており、本発明を限定しようとする意図ではない。単数の表現は文脈上明確に異なって意味しない限り、複数の表現を含む。本出願で、「含む」または「有する」等の用語は明細書に記載された特徴、数字、ステップ、動作、構成要素、部分品またはこれらを組み合わせたものが存在することを指定するものであり、1つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部分品またはこれらを組み合わせたもの等の存在または付加の可能性を予め排除しないものと理解されるべきである。 The terms used in this application are used solely to describe a particular embodiment and are not intended to limit the invention. A singular expression includes multiple expressions unless they have distinctly different meanings in the context. In this application, terms such as "including" or "having" specify the existence of features, numbers, steps, actions, components, components or combinations thereof described herein. It should be understood that it does not preclude the possibility of existence or addition of one or more other features or numbers, steps, actions, components, components or combinations thereof.

異なって定義しない限り、技術的であったり科学的である用語を含めてここで使用される全ての用語は、本発明が属する技術分野で通常の知識を有する者によって一般に理解されるものと同一の意味を有する。 Unless defined differently, all terms used herein, including those that are technical or scientific, are the same as those commonly understood by those with ordinary knowledge in the technical field to which the present invention belongs. Has the meaning of.

一般に使用される辞典に定義されている用語等は関連技術の文脈上の意味と一致する意味を有すると解釈されるべきであり、本出願で明白に定義しない限り、理想的であったり過度に形式的な意味で解釈されない。 Terms and the like defined in commonly used dictionaries should be construed to have a meaning consistent with the contextual meaning of the relevant technology, which is ideal or excessive unless explicitly defined in this application. Not interpreted in a formal sense.

以下、図面を参照して、本発明の望ましい実施例をより詳細に説明する。 Hereinafter, desirable embodiments of the present invention will be described in more detail with reference to the drawings.

本発明の一実施例によるオプティカルトラッキングシステム及びこれを用いたトラッキング方法は、患部や手術道具のような目的物に少なくとも1つのマーカーユニットを取り付けた後、前記マーカーユニットから放出される平行出射光を結像ユニットを通じて受光して、前記マーカーユニットに含まれたパターン部の拡大イメージを結像させた後、前記パターン部の拡大イメージを用いてプロセッサを通じて目的物の空間位置及び方向を算出することができるようにするものであって、その詳細な構成については図面を参照して説明する。 In the optical tracking system according to the embodiment of the present invention and the tracking method using the same, after attaching at least one marker unit to an object such as an affected area or a surgical tool, the parallel emission light emitted from the marker unit is emitted. After receiving light through the imaging unit to form an enlarged image of the pattern portion included in the marker unit, the spatial position and direction of the target object can be calculated through the processor using the enlarged image of the pattern portion. The detailed configuration thereof will be described with reference to the drawings.

<実施例1>
図1は、本発明の第1実施例によるトラッキングシステムの概略図であり、図2はマーカーユニットのパターン部の一例を示した図面である。
<Example 1>
FIG. 1 is a schematic view of a tracking system according to a first embodiment of the present invention, and FIG. 2 is a drawing showing an example of a pattern portion of a marker unit.

図1及び図2を参照すると、本発明の第1実施例によるトラッキングシステムは、マーカーユニット110、結像ユニット120及びプロセッサ130を含む。 Referring to FIGS. 1 and 2, the tracking system according to the first embodiment of the present invention includes a marker unit 110, an imaging unit 120 and a processor 130.

前記マーカーユニット110は、目的物に取り付けられて内部に含まれたパターン部111のイメージを拡大させて結像させることができるように前記パターン部111の平行出射光を放出させる。 The marker unit 110 emits parallel emission light of the pattern portion 111 so that the image of the pattern portion 111 included in the target object can be enlarged and imaged.

例えば、前記マーカーユニット110はパターン部111、光源112及び第1レンズ部113を含むことができる。 For example, the marker unit 110 can include a pattern unit 111, a light source 112, and a first lens unit 113.

前記パターン部111は、複数のパターン部111aが一定の形態及び間隔で形成される。例えば、前記パターン部111はパターン部111aが形成された部分を除いた残りの部分が光を透過させることができるように製作され得る。他の例を挙げると、前記パターン部111はパターン部111aが形成された部分にのみ光を透過させ、残りの部分は光を透過させることができないように製作され得る。また他の例を挙げると、前記パターン部111は、前記光源112から照射された光が反射され得るように製作されることもできる。ここで、前記パターン部111は後述される第1レンズ部113の焦点距離に配置され得る。 In the pattern portion 111, a plurality of pattern portions 111a are formed in a constant form and at intervals. For example, the pattern portion 111 can be manufactured so that the remaining portion excluding the portion where the pattern portion 111a is formed can transmit light. As another example, the pattern portion 111 may be manufactured so that light can be transmitted only to a portion where the pattern portion 111a is formed, and the remaining portion cannot transmit light. Further, to give another example, the pattern portion 111 can be manufactured so that the light emitted from the light source 112 can be reflected. Here, the pattern unit 111 may be arranged at the focal length of the first lens unit 113, which will be described later.

前記光源112は、前記パターン部111に光を照射する。例えば、前記光源112は、前記パターン部111の後方部に位置するように前記マーカーユニット110の内部に配置され得る。前記のように、前記光源112がパターン部111の後方部に配置される場合には、前記パターン部111が前記光源112から照射される光の一部が透過されて、後述される結像ユニット120に入射される。他の例を挙げると、前記光源112は、前記マーカーユニット110の外部に配置されることもできる。前記光源112が前記マーカーユニット110の外部に配置される場合には、前記光源112から照射される光は、前記パターン部111により反射されて後述される結像ユニット120に入射される。ここで、前記光源112はLED(Light Emitting Diode)であり得る。 The light source 112 irradiates the pattern portion 111 with light. For example, the light source 112 may be arranged inside the marker unit 110 so as to be located behind the pattern portion 111. As described above, when the light source 112 is arranged behind the pattern unit 111, a part of the light emitted from the light source 112 is transmitted through the pattern unit 111, and the imaging unit described later is transmitted. It is incident on 120. As another example, the light source 112 may be arranged outside the marker unit 110. When the light source 112 is arranged outside the marker unit 110, the light emitted from the light source 112 is reflected by the pattern unit 111 and incident on the imaging unit 120 described later. Here, the light source 112 may be an LED (Light Emitting Diode).

前記第1レンズ部113は、前記光源112から照射されて前記パターン部111を通過したり、前記パターン部111により反射された光を前記結像ユニット120に平行出射光形態で放出させて入射され得るように前記パターン部111の前方部に配置される。例えば、前記第1レンズ部113は、前記パターン部111のイメージを拡大させて結像ユニット120に結像させることができるようにする対物レンズであり得る。 The first lens unit 113 is irradiated from the light source 112 and passes through the pattern unit 111, or the light reflected by the pattern unit 111 is emitted to the imaging unit 120 in the form of parallel emission light and incident. It is arranged in front of the pattern portion 111 so as to obtain it. For example, the first lens unit 113 may be an objective lens that enlarges the image of the pattern unit 111 so that the imaging unit 120 can form an image.

前記結像ユニット120は、前記マーカーユニット110から放出される前記パターン部111の平行出射光を受光して拡大されたパターン部111のイメージを結像させることができる。ここで、前記結像ユニット120は、前記マーカーユニット110から放出された前記パターン部111の平行出射光をレンズ部121を通じて受光して前記平行出射光により拡大されたパターン部111のイメージをセンサ部122に結像させるカメラであり得る。 The imaging unit 120 can receive an image of the enlarged pattern unit 111 by receiving the parallel emission light of the pattern unit 111 emitted from the marker unit 110. Here, the imaging unit 120 receives the parallel emission light of the pattern unit 111 emitted from the marker unit 110 through the lens unit 121, and receives an image of the pattern unit 111 magnified by the parallel emission light as a sensor unit. It can be a camera that forms an image on 122.

前記プロセッサ130は、前記結像ユニット120と連結されて前記結像ユニット120に結像されて拡大されたパターン部111のイメージを用いて前記マーカーユニット110の空間位置及び方向を算出することができる。ここで、前記プロセッサ130は、前記結像ユニット120に結像されて拡大されたパターン部111のイメージの位置及び大きさの変化を用いて前記マーカーユニット110の空間位置を算出することができる。また、前記プロセッサ130は、前記拡大されたパターン部111の領域別パターン部の位置及びパターン部111aの大きさの変化を用いて前記マーカーユニット110の方向を算出することができる。 The processor 130 can calculate the spatial position and direction of the marker unit 110 by using the image of the pattern unit 111 which is connected to the imaging unit 120 and imaged on the imaging unit 120 and enlarged. .. Here, the processor 130 can calculate the spatial position of the marker unit 110 by using the change in the position and size of the image of the pattern unit 111 imaged and enlarged by the imaging unit 120. Further, the processor 130 can calculate the direction of the marker unit 110 by using the position of the area-specific pattern portion of the enlarged pattern portion 111 and the change in the size of the pattern portion 111a.

図1〜図7dを参照して本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置及び方向を算出する過程について説明する。 The process of calculating the spatial position and direction of the target object by using the optical tracking system according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7d.

図3は本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートであり、図4はマーカーユニットから光が放出される過程を説明するための図面であり、図5は結像ユニットに平行出射光が入射される過程を説明するための図面であり、図6は本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面であり、図7a〜図7dは、本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置を算出する過程を説明するための図面であり、図8は、マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートであり、図9は、マーカーユニットの方向が算出される過程を説明するためのフローチャートであり、図10は、マーカーユニットの空間位置を算出する過程を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining a process of tracking an object by using the optical tracking system according to the first embodiment of the present invention, and FIG. 4 is a drawing for explaining a process of emitting light from a marker unit. FIG. 5 is a drawing for explaining a process in which parallel emission light is incident on the imaging unit, and FIG. 6 is a drawing for calculating the direction of the target object using the optical tracking system according to the first embodiment of the present invention. 7a to 7d are drawings for explaining the process of calculating the spatial position of the target object by using the optical tracking system according to the first embodiment of the present invention. FIG. 8 is a flowchart for explaining the process of calculating the spatial position and the direction of the marker unit, FIG. 9 is a flowchart for explaining the process of calculating the direction of the marker unit, and FIG. 10 is a flowchart for explaining the process of calculating the direction of the marker unit. It is a flowchart for demonstrating the process of calculating the spatial position of a marker unit.

図1〜図7dを参照すると、本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングするためには、まずパターン部111のイメージを拡大させて結像させることができるように、目的物に取り付けられたマーカーユニット110から前記パターン部111の平行出射光を放出させる(S110)。 With reference to FIGS. 1 to 7d, in order to track an object using the optical tracking system according to the first embodiment of the present invention, the image of the pattern portion 111 can be enlarged and imaged. , The parallel emission light of the pattern portion 111 is emitted from the marker unit 110 attached to the target object (S110).

パターン部111の平行出射光を放出させる過程についてより詳細に説明すると、まず光源112を作動させて前記パターン部111に光を照射し、前記光源112から照射された光が前記パターン部111を透過したり、前記パターン部111により反射されるようにする。前記パターン部111を透過したり前記パターン部111により反射された光は図4に示した通り、対物レンズからなる第1レンズ部113を通過して平行出射光形態で放出される。 The process of emitting the parallel emission light of the pattern unit 111 will be described in more detail. First, the light source 112 is operated to irradiate the pattern unit 111 with light, and the light emitted from the light source 112 is transmitted through the pattern unit 111. Or make it reflected by the pattern unit 111. As shown in FIG. 4, the light transmitted through the pattern unit 111 or reflected by the pattern unit 111 passes through the first lens unit 113 made of an objective lens and is emitted in the form of parallel emission light.

前記第1レンズ部113を通過してマーカーユニット110から放出されたパターン部111の平行出射光は結像ユニット120に入射されて拡大されたパターン部111のイメージを結像させる(S120)。 The parallel emission light of the pattern unit 111 emitted from the marker unit 110 through the first lens unit 113 is incident on the imaging unit 120 to form an enlarged image of the pattern unit 111 (S120).

拡大されたパターン部111のイメージを結像させる過程について、より詳細に説明すると、前記第1レンズ部113を通過してマーカーユニット110から放出されたパターン部111の平行出射光は、図5に示した通り、結像ユニット120のレンズ部121を通過するようになる。前記結像ユニット120のレンズ部121を通過したパターン部111の平行出射光は、センサ部122に拡大されたパターン部111のイメージを結像させるようになる。 The process of forming an image of the enlarged pattern unit 111 will be described in more detail. FIG. 5 shows the parallel emission light of the pattern unit 111 emitted from the marker unit 110 through the first lens unit 113. As shown, it passes through the lens unit 121 of the imaging unit 120. The parallel emission light of the pattern unit 111 that has passed through the lens unit 121 of the imaging unit 120 causes the sensor unit 122 to form an image of the enlarged pattern unit 111.

前記のように、結像ユニット120に拡大されたパターン部111のイメージが結像されると、プロセッサ130は、前記拡大されたパターン部111のイメージを用いて前記マーカーユニット110の空間位置及び方向を算出する(S130)。 As described above, when the image of the enlarged pattern unit 111 is formed on the imaging unit 120, the processor 130 uses the image of the enlarged pattern unit 111 to form the spatial position and direction of the marker unit 110. Is calculated (S130).

図8を参照して前記マーカーユニット110の空間位置及び方向を算出する過程について、より詳細に説明すると、次の通りである。 The process of calculating the spatial position and direction of the marker unit 110 with reference to FIG. 8 will be described in more detail as follows.

図8は、マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。 FIG. 8 is a flowchart for explaining a process of calculating the spatial position and direction of the marker unit.

図8を参照すると、前記プロセッサ130を通じて前記マーカーユニット110の空間位置及び方向を算出するためには、前記プロセッサ130を通じて前記結像ユニット120に結像されて拡大されたパターン部111のイメージを用いて前記マーカーユニット110が回転された角度を算出し、前記マーカーユニット110の方向を算出する(S131)。 Referring to FIG. 8, in order to calculate the spatial position and direction of the marker unit 110 through the processor 130, an image of the pattern portion 111 imaged and enlarged by the imaging unit 120 through the processor 130 is used. The angle at which the marker unit 110 is rotated is calculated, and the direction of the marker unit 110 is calculated (S131).

前記のようにプロセッサ130により前記マーカーユニット110の回転された角度が算出されると、前記プロセッサ130を通じて前記結像ユニット120に結像されて拡大されたパターン部111のイメージと前記マーカーユニット110の回転された角度とを用いて前記マーカーユニット110の空間位置を算出する(S132)。 When the rotated angle of the marker unit 110 is calculated by the processor 130 as described above, the image of the pattern portion 111 imaged and enlarged on the imaging unit 120 through the processor 130 and the marker unit 110 The spatial position of the marker unit 110 is calculated using the rotated angle (S132).

ここで、前記結像ユニット120の空間位置及び方向情報は、前記プロセッサ130に既に格納される。 Here, the spatial position and direction information of the imaging unit 120 is already stored in the processor 130.

図6及び図9を参照して、前記マーカーユニット110の方向を算出するステップ(S131)について、より詳細に説明すると次の通りである。 The step (S131) for calculating the direction of the marker unit 110 with reference to FIGS. 6 and 9 will be described in more detail as follows.

図9は、マーカーユニットの方向が算出される過程を説明するためのフローチャートである。 FIG. 9 is a flowchart for explaining a process of calculating the direction of the marker unit.

図9を参照すると、前記マーカーユニット110の方向を算出するためには、まず前記プロセッサ130を通じて、前記結像ユニット120に結像されて拡大されたパターン部111のイメージの領域別パターン部111aの位置及びパターン部111aの大きさの変化を測定する(S1310)。 Referring to FIG. 9, in order to calculate the direction of the marker unit 110, first, the area-specific pattern unit 111a of the image of the pattern unit 111 imaged and enlarged on the imaging unit 120 through the processor 130. Changes in the position and the size of the pattern portion 111a are measured (S1310).

前記パターン部111のイメージの領域別パターン部111aの位置及びパターン部111aの大きさの変化を測定した後、前記プロセッサ130に既に格納された前記パターン部111のイメージの領域別基準パターン部111aの位置及び基準パターン部111aの大きさと、前記結像ユニット120に結像されて拡大されたパターン部111のイメージの領域別パターン部111aの位置及びパターン部111aの大きさの変化とを比較し、マーカーユニット110の回転された角度を算出することによって、前記マーカーユニット110の方向を算出するようになる(S1311)。 After measuring the change in the position of the area-specific pattern unit 111a of the image of the pattern unit 111 and the size of the pattern unit 111a, the area-specific reference pattern unit 111a of the image of the pattern unit 111 already stored in the processor 130. The size of the position and reference pattern portion 111a is compared with the change in the position of the pattern portion 111a for each region and the size of the pattern portion 111a of the image of the pattern portion 111 imaged and enlarged by the imaging unit 120. By calculating the rotated angle of the marker unit 110, the direction of the marker unit 110 is calculated (S1311).

即ち、図6に示した通り、マーカーユニット110が回転をすると、結像ユニット120に結像されて拡大されたパターン部111のイメージI1のパターン部111aの位置及び大きさも変わるようになることによって、前記プロセッサ130に既に格納された前記パターン部のイメージI2の領域別基準パターン部111aの位置及び基準パターン部111aの大きさと、前記結像ユニット120に結像されたパターン部のイメージI1の領域別パターン部111aの位置及びパターン部111aの大きさの変化とを比較するようになると、前記マーカーユニット110の回転された角度を算出することができるので、前記マーカーユニット110の方向を算出することができるようになる。 That is, as shown in FIG. 6, when the marker unit 110 rotates, the position and size of the pattern portion 111a of the image I1 of the pattern portion 111 imaged and enlarged by the imaging unit 120 also change. The position of the region-specific reference pattern portion 111a of the pattern portion image I2 already stored in the processor 130, the size of the reference pattern portion 111a, and the region of the image I1 of the pattern portion imaged on the imaging unit 120. When the position of the separate pattern portion 111a and the change in the size of the pattern portion 111a are compared, the rotated angle of the marker unit 110 can be calculated, so that the direction of the marker unit 110 can be calculated. Will be able to.

次に、図7a〜図7d及び図10を参照して前記マーカーユニットの空間位置を算出するステップ(S132)について、より詳細に説明すると、次の通りである。 Next, the step (S132) of calculating the spatial position of the marker unit with reference to FIGS. 7a to 7d and 10 will be described in more detail as follows.

図10は、マーカーユニットの空間位置を算出する過程を説明するためのフローチャートである。 FIG. 10 is a flowchart for explaining a process of calculating the spatial position of the marker unit.

図10を参照すると、前記マーカーユニット110の空間位置を算出するためには、まず前記プロセッサ130を通じて前記結像ユニット120に結像されて拡大されたパターン部111のイメージの位置及び大きさを測定する(S1320)。 Referring to FIG. 10, in order to calculate the spatial position of the marker unit 110, first, the position and size of the image of the pattern portion 111 imaged and enlarged on the imaging unit 120 are measured through the processor 130. (S1320).

前記パターン部111のイメージの位置及び大きさを測定した後、前記プロセッサ130に既に格納された前記パターン部111のイメージの基準位置及び大きさと、前記結像ユニット120に結像されて拡大されたパターン部111のイメージの位置及び大きさとを前記プロセッサ130を通じて比較し、マーカーユニット110の空間位置を算出するようになる(S1321)。 After measuring the position and size of the image of the pattern unit 111, the reference position and size of the image of the pattern unit 111 already stored in the processor 130 and the image formed on the imaging unit 120 and enlarged. The position and size of the image of the pattern unit 111 are compared with each other through the processor 130, and the spatial position of the marker unit 110 is calculated (S1321).

図7aは、前記マーカーユニット110がプロセッサ130に既に格納された位置に存在するとき、前記パターン部111のイメージが結像ユニット120に結像される基準位置及び大きさを示したものであって、図7bに示した通り、マーカーユニット110と結像ユニット120との間の離隔された距離D2が基準距離D1より短くなる場合には、プロセッサ130に既に格納されたパターン部111のイメージの基準大きさA1より拡大されたパターン部111のイメージの大きさA2が前記結像ユニット120に、さらに大きく結像される。従って、前記パターン部111のイメージの基準大きさA1と、前記結像ユニット120に結像されて拡大されたパターン部111のイメージの大きさA2とをプロセッサ(130)を通じて比較し、前記マーカーユニット110の空間位置を算出することができるようになる。 FIG. 7a shows a reference position and size in which an image of the pattern unit 111 is imaged on the imaging unit 120 when the marker unit 110 is already stored in the processor 130. As shown in FIG. 7b, when the separated distance D2 between the marker unit 110 and the imaging unit 120 is shorter than the reference distance D1, the reference of the image of the pattern unit 111 already stored in the processor 130. The image size A2 of the image of the pattern unit 111, which is larger than the size A1, is further imaged on the imaging unit 120. Therefore, the reference size A1 of the image of the pattern unit 111 and the image size A2 of the image of the pattern unit 111 imaged and enlarged by the imaging unit 120 are compared through the processor (130), and the marker unit. It becomes possible to calculate the spatial position of 110.

一方、図面には示さなかったが、マーカーユニット110と結像ユニット120との間の離隔された距離D2が基準距離D1より長くなる場合には、プロセッサ130に既に格納されたパターン部のイメージの基準大きさA1より、拡大されたパターン部111のイメージの大きさA2が前記結像ユニット120に小さく結像される。 On the other hand, although not shown in the drawing, when the separated distance D2 between the marker unit 110 and the imaging unit 120 is longer than the reference distance D1, the image of the pattern portion already stored in the processor 130 is displayed. The image size A2 of the enlarged pattern portion 111 is formed smaller than the reference size A1 on the imaging unit 120.

そして、図7cに示した通り、マーカーユニット110が基準位置B1下に位置する場合には、前記プロセッサ130に既に格納されたパターン部111のイメージの基準位置(C1:図7a参照)より、前記拡大されたパターン部111のイメージが上部に位置して前記結像ユニット120に結像される。従って、前記パターン部111のイメージの基準位置C1と前記結像ユニット120に結像されて拡大されたパターン部111のイメージの位置C2とをプロセッサ130を通じて比較して前記マーカーユニット110の空間位置を算出することができるようになる。 Then, as shown in FIG. 7c, when the marker unit 110 is located below the reference position B1, the reference position (C1: see FIG. 7a) of the image of the pattern unit 111 already stored in the processor 130. The enlarged image of the pattern portion 111 is located at the upper part and is imaged on the imaging unit 120. Therefore, the spatial position of the marker unit 110 is determined by comparing the reference position C1 of the image of the pattern unit 111 with the position C2 of the image of the pattern unit 111 imaged and enlarged by the imaging unit 120 through the processor 130. You will be able to calculate.

一方、図面には示さなかったが、マーカーユニット110が基準位置B1上に位置する場合には、前記プロセッサ130に既に格納されたパターン部111のイメージの基準位置C1より、前記拡大されたパターン部111のイメージが下部に位置するように前記結像ユニット120に結像される。 On the other hand, although not shown in the drawing, when the marker unit 110 is located on the reference position B1, the enlarged pattern portion is larger than the reference position C1 of the image of the pattern portion 111 already stored in the processor 130. The image of 111 is imaged on the imaging unit 120 so that it is located at the bottom.

そして、前記マーカーユニット110と結像ユニット120との間の離隔された距離D2が基準距離D1と異なり、前記マーカーユニット110が基準位置B1に位置しない場合には、前記プロセッサ130に既に格納された前記パターン部のイメージの基準位置C1及び大きさA1と、前記結像ユニット120に結像されて拡大されたイメージの位置C2及び大きさA2とを比較してマーカーユニット110の空間位置を算出することができる。 Then, when the separated distance D2 between the marker unit 110 and the imaging unit 120 is different from the reference distance D1 and the marker unit 110 is not located at the reference position B1, it is already stored in the processor 130. The spatial position of the marker unit 110 is calculated by comparing the reference position C1 and the size A1 of the image of the pattern portion with the position C2 and the size A2 of the image imaged and enlarged on the imaging unit 120. be able to.

一方、図7dに示した通り、前記マーカーユニット110と結像ユニット120との間の離隔された距離D2が基準距離D1と同一であり、前記マーカーユニット110が基準位置B1に位置した状態で前記マーカーユニット110の方向のみがθだけ変更された場合には、前記結像ユニット120に結像される拡大されたパターン部111のイメージの大きさA2及び位置C2が前記プロセッサ130に既に格納された前記パターン部111のイメージの基準位置C1及び大きさA1と同一に算出される。従って、前記マーカーユニット110の方向は、ステップS1311で説明した通り、前記拡大されたパターン部111のイメージI1の領域別パターン部111aの位置及びパターン部111aの大きさの変化と、プロセッサ130に既に格納されたパターン部のイメージI2の領域別基準パターン部111aの位置及び基準パターン部111aの大きさとを比較してマーカーユニット110の回転された角度を算出することによって、前記マーカーユニット110の方向を算出することができる。 On the other hand, as shown in FIG. 7d, the separated distance D2 between the marker unit 110 and the imaging unit 120 is the same as the reference distance D1, and the marker unit 110 is located at the reference position B1. When only the direction of the marker unit 110 is changed by θ, the size A2 and the position C2 of the image of the enlarged pattern portion 111 imaged on the imaging unit 120 are already stored in the processor 130. It is calculated to be the same as the reference position C1 and the size A1 of the image of the pattern portion 111. Therefore, as described in step S1311, the direction of the marker unit 110 has already changed in the position of the area-specific pattern portion 111a of the image I1 of the enlarged pattern portion 111 and the size of the pattern portion 111a, and in the processor 130. The direction of the marker unit 110 is determined by calculating the rotated angle of the marker unit 110 by comparing the position of the region-specific reference pattern portion 111a of the stored pattern portion image I2 and the size of the reference pattern portion 111a. Can be calculated.

<実施例2>
本実施例によるオプティカルトラッキングシステムは、2つの結像ユニットが配置される内容を除けば、第1実施例によるオプティカルトラッキングシステムと実質的に同一であるので、結像ユニットの配置と関連された一部内容を除いた他の構成要素及び内容に関する詳細な説明は省略することにする。
<Example 2>
The optical tracking system according to the present embodiment is substantially the same as the optical tracking system according to the first embodiment except that the two imaging units are arranged, and thus is related to the arrangement of the imaging units. Detailed explanations about other components and contents excluding the contents of the parts will be omitted.

図11は、本発明の第2実施例によるオプティカルトラッキングシステムの概略図である。 FIG. 11 is a schematic view of an optical tracking system according to a second embodiment of the present invention.

図11を参照すると、本実施例によるオプティカルトラッキングシステムは1つのマーカーユニット210と、第1、2結像ユニット220a、220bと、プロセッサ230とを含む。 Referring to FIG. 11, the optical tracking system according to this embodiment includes one marker unit 210, first and second imaging units 220a and 220b, and a processor 230.

前記第1、2結像ユニット220a、220bは、前記マーカーユニット210を中心に互いに一定角度離隔されるように配置され、前記マーカーユニット210から放出されるパターン部211の平行出射光をそれぞれ受光して、それぞれ互いに異なる拡大されたパターン部211のイメージを結像させる。ここで、前記第1、2結像ユニット220a、220bは、図11に示した通り、Y軸上に配置されることが望ましい。 The first and second imaging units 220a and 220b are arranged so as to be separated from each other by a certain angle about the marker unit 210, and receive parallel emission light of the pattern portion 211 emitted from the marker unit 210, respectively. Then, images of the enlarged pattern portions 211, which are different from each other, are formed. Here, it is desirable that the first and second imaging units 220a and 220b are arranged on the Y-axis as shown in FIG.

本実施例によるオプティカルトラッキングシステムは第1、2結像ユニット220a、220bで2つの拡大されたパターン部211のイメージを結像させるので、プロセッサ230により前記マーカーユニット210の空間位置座標も2つを算出することができるので、第1実施例によるオプティカルトラッキングシステムより正確なマーカーユニット210の空間位置及び方向を算出することができる。 In the optical tracking system according to the present embodiment, the first and second imaging units 220a and 220b form an image of the two enlarged pattern portions 211, so that the processor 230 also obtains two spatial position coordinates of the marker unit 210. Since it can be calculated, the spatial position and direction of the marker unit 210 can be calculated more accurately than the optical tracking system according to the first embodiment.

図11及び図12を参照して、本実施例によるオプティカルトラッキングシステムのプロセッサによりマーカーユニットの空間位置が算出される過程について例を挙げて説明すると、次の通りである。 The process of calculating the spatial position of the marker unit by the processor of the optical tracking system according to the present embodiment will be described with reference to FIGS. 11 and 12 with reference to FIGS. 11 and 12.

図12は、本発明の第2実施例によるマーカーユニットの空間位置が算出される過程を説明するための図面である。 FIG. 12 is a drawing for explaining a process of calculating the spatial position of the marker unit according to the second embodiment of the present invention.

図12に示した通り、マーカーユニット210の第1レンズ部213の座標をX、Yとすると、前記第1レンズ部213の座標X、Yは数式1のように表現され得る。 As shown in FIG. 12, assuming that the coordinates of the first lens unit 213 of the marker unit 210 are X and Y, the coordinates X and Y of the first lens unit 213 can be expressed as in Equation 1.



ここで、fcは、第1、2結像ユニット220a、220bに結像されて拡大されたパターン部211のイメージのX軸座標であり、Lは、第2結像ユニット220bのレンズ部221bのY軸座標であり、uは、第1結像ユニット220aに結像されて拡大されたパターン部211のイメージの中心座標のY軸座標であり、uは、第2結像ユニット220bに結像されて拡大されたパターン部211のイメージの中心座標のY軸座標である。 Here, fc is the X-axis coordinate of the image of the pattern portion 211 imaged and enlarged by the first and second imaging units 220a and 220b, and L is the lens portion 221b of the second imaging unit 220b. The Y-axis coordinates, u 1 is the Y-axis coordinates of the center coordinates of the image of the pattern unit 211 imaged and enlarged on the first imaging unit 220a, and u 2 is the Y-axis coordinates on the second imaging unit 220b. It is the Y-axis coordinate of the center coordinate of the image of the pattern part 211 which was imaged and enlarged.

図12に示した通り、前記マーカーユニット210の第1レンズ部213の位置は固定された状態で方向のみがθだけの回転値があるとき、第1、2結像ユニット220a、220bにより確認されるマーカーユニット210のパターン部211の実空間座標(X、Y)(X、Y)は数式2のように表現され得る。 As shown in FIG. 12, the position of the first lens portion 213 of the marker unit 210 is confirmed by the first and second imaging units 220a and 220b when there is a rotation value of only θ in the direction in a fixed state. The real space coordinates (X 1 , Y 1 ) (X 2 , Y 2 ) of the pattern portion 211 of the marker unit 210 can be expressed as in Equation 2.



ここで、fは、マーカーユニット210の第1レンズ部213の焦点距離であり、θは、マーカーユニット210の回転値である。 Here, f b is the focal length of the first lens unit 213 of the marker unit 210, and θ is the rotation value of the marker unit 210.

そして、第1結像ユニット220aに結像される拡大されたパターン部211のイメージの中心座標をX、Yとし、第2結像ユニット220bに結像される拡大されたパターン部211のイメージの中心座標をX4、Y4とすると、図12に示した通り、第1結像ユニット220aに結像される拡大されたパターン部211のイメージの中心座標(X、Y)と、第1結像ユニット220aのレンズ部221aの中心座標(0、0)と、マーカーユニット210の第1レンズ213の中心座標(X、Y)と、第1結像ユニット220aにより確認されるマーカーユニット210のパターン部211の実空間座標(X、Y)とはライン1上に位置するということを確認することができ、第2結像ユニット220bに結像される拡大されたパターン部211のイメージの中心座標(X、Y)と、第2結像ユニット220bのレンズ部221bの中心座標(0、L)と、マーカーユニット210の第1レンズ部213の中心座標(X、Y)と、第2結像ユニット220bにより確認されるマーカーユニット210のパターン部211の実空間座標(X、Y)とはライン2上に位置するということを確認することができる。ここで、(X、Y)=(−fc′、−u)、(X、Y)=(−fc、L+u)で表されることができ、(X、Y)と(X、Y)は、数式2のように表現され得る。 Then, the center coordinates of the enlarged pattern 211 image is focused on the first imaging unit 220a and X 3, Y 3, the enlarged pattern 211 is imaged on the second imaging unit 220b When the center coordinates of the image and X4, Y4, as shown in FIG. 12, the center coordinates of the enlarged pattern 211 image is imaged in the first imaging unit 220a (X 3, Y 3) , the The center coordinates (0, 0) of the lens unit 221a of the 1 imaging unit 220a, the center coordinates (X, Y) of the first lens 213 of the marker unit 210, and the marker unit 210 confirmed by the first imaging unit 220a. It can be confirmed that the real space coordinates (X 1 , Y 1 ) of the pattern portion 211 of the above are located on the line 1, and the enlarged pattern portion 211 imaged on the second imaging unit 220b. The center coordinates of the image (X 4 , Y 4 ), the center coordinates of the lens unit 221b of the second imaging unit 220b (0, L), and the center coordinates of the first lens unit 213 of the marker unit 210 (X, Y). When, it is possible to confirm that the actual space coordinates of the pattern portion 211 of the marker unit 210 to be confirmed by the second imaging unit 220b (X 2, Y 2) and is located on line 2. Here, (X 3 , Y 3 ) = (-fc', -u 1 ), (X 4 , Y 4 ) = (-fc, L + u 2 ) can be represented by (X 1 , Y 1). ) And (X 2 , Y 2 ) can be expressed as in Equation 2.

前記のようにライン1及びライン2に位置したそれぞれの座標を表1を通じて整理すると、次の通りである。 The coordinates of the lines 1 and 2 as described above are arranged through Table 1 as follows.



表1は、図12に示されたライン1及びライン2に位置した座標整理表であって、前記表1を参照してライン1及びライン2上の3座標(1)、(2)、(3)で2つの式を作ってその差を算出すると、数式3のように表現され得る。 Table 1 is a coordinate rearranging table located on the line 1 and the line 2 shown in FIG. 12, and the three coordinates (1), (2), (2) on the line 1 and the line 2 with reference to the above table 1. If two equations are created in 3) and the difference is calculated, it can be expressed as Equation 3.



また、ライン1、ライン2上の3座標(1)、(2)、(4)で2つの式を作ってその差を算出すると、数式4のように表現され得る。 Further, when two equations are created with the three coordinates (1), (2) and (4) on the line 1 and the line 2 and the difference is calculated, it can be expressed as the equation 4.



また、ライン1、ライン2上の3座標(1)、(3)、(4)で2つの式を作れば、数式5及び数式6のように表現され得る。 Further, if two equations are created with the three coordinates (1), (3), and (4) on the line 1 and the line 2, they can be expressed as equations 5 and 6.





そして、数式3を数式4に代入して両辺をcosθで除算するとtanθを求めることができ、tanθは数式7のように表現され得る。 Then, by substituting the mathematical formula 3 into the mathematical formula 4 and dividing both sides by cos θ, the tan θ can be obtained, and the tan θ can be expressed as in the mathematical formula 7.



一方、数式5及び数式6でθ値を知っていれば変数はX、Yだけであるので、2式を連立すると、マーカーユニット210の第1レンズ部213の座標であるX、Yを算出することができ、前記マーカーユニット210の第1レンズ部213の座標X、Yは数式8のように表現され得る。 On the other hand, if the θ values are known in Equations 5 and 6, the variables are only X and Y. Therefore, when the two equations are combined, X and Y, which are the coordinates of the first lens unit 213 of the marker unit 210, are calculated. The coordinates X and Y of the first lens unit 213 of the marker unit 210 can be expressed as in Equation 8.



<実施例3>
本実施例によるオプティカルトラッキングシステムは、マーカーユニットに対する一部内容を除けば、第1実施例によるオプティカルトラッキングシステムと同一であるので、マーカーユニットと関連された一部内容を除いた他の構成要素に関する詳細な説明は省略することにする。
<Example 3>
Since the optical tracking system according to the present embodiment is the same as the optical tracking system according to the first embodiment except for some contents for the marker unit, it relates to other components except for some contents related to the marker unit. A detailed description will be omitted.

図13は、本発明の第3実施例によるオプティカルトラッキングシステムの概略図である。 FIG. 13 is a schematic view of an optical tracking system according to a third embodiment of the present invention.

図13を参照すると、本実施例によるオプティカルトラッキングシステムは1つのマーカーユニット310、第1結像ユニット320及びプロセッサ330を含む。 Referring to FIG. 13, the optical tracking system according to this embodiment includes one marker unit 310, a first imaging unit 320 and a processor 330.

前記マーカーユニット310はパターン部311と、第1、2光源312a、312bと、第1、2レンズ部313a、313b とを含むことができる。 The marker unit 310 can include a pattern unit 311, first and second light sources 312a and 312b, and first and second lens units 313a and 313b.

前記パターン部311には多数のパターン部(図示せず)が一定間隔に形成される。ここで、前記パターン部311は、前記第1、2レンズ部313a、313bと対応し、図13に示した通り、2つに形成され得るだけでなく、後述される図14に示した通り、1つにも形成され得る。 A large number of pattern portions (not shown) are formed in the pattern portion 311 at regular intervals. Here, the pattern portion 311 corresponds to the first and second lens portions 313a and 313b, and can be formed in two as shown in FIG. 13, as shown in FIG. 14 described later. It can be formed into one.

前記第1、2光源312a、312bは互いに所定間隔離隔されるように前記パターン部311の後方に配置されて前記パターン部311に光を照射する。 The first and second light sources 312a and 312b are arranged behind the pattern portion 311 so as to be separated from each other by a predetermined time, and irradiate the pattern portion 311 with light.

前記第1、2レンズ部313a、313bは互いに所定間隔離隔されるように前記パターン部311の前方部に配置され、前記第1、2光源312a、312bから照射されて前記パターン部311を通過した光を結像ユニット320に平行出射光形態で放出させることができるようにする。 The first and second lens portions 313a and 313b were arranged in front of the pattern portion 311 so as to be separated from each other by a predetermined distance, and were irradiated from the first and second light sources 312a and 312b and passed through the pattern portion 311. The light can be emitted to the imaging unit 320 in the form of parallel emission light.

本実施例によるオプティカルトラッキングシステムのマーカーユニット310の方向を算出する過程は、第1実施例によるオプティカルトラッキングシステムと同一であるので、これに関する説明は省略し、図14を参照としてマーカーユニット310の空間位置がプロセッサ330により算出される過程についてのみ例を挙げて説明する。 Since the process of calculating the direction of the marker unit 310 of the optical tracking system according to the present embodiment is the same as that of the optical tracking system according to the first embodiment, the description thereof is omitted, and the space of the marker unit 310 is referred to with reference to FIG. Only the process in which the position is calculated by the processor 330 will be described with an example.

図14は、本発明の第3実施例によるオプティカルトラッキングシステムのプロセッサによりマーカーユニットの空間位置が算出される過程を説明するための図面である。 FIG. 14 is a drawing for explaining a process of calculating the spatial position of the marker unit by the processor of the optical tracking system according to the third embodiment of the present invention.

図14に示した通り、結像ユニット320に結像されるイメージ座標をu、uとすると、マーカーユニット310の第1レンズ部313aの中心座標(X、Y)を過ぎてパターン部311と会う点の座標、即ちパターン部311の実空間座標(X1、Y1)は数式9のように表現され得る。 As shown in FIG. 14, assuming that the image coordinates formed on the imaging unit 320 are u 1 and u 2 , the pattern portion 311 passes through the center coordinates (X, Y) of the first lens portion 313a of the marker unit 310. The coordinates of the point where it meets, that is, the real space coordinates (X1, Y1) of the pattern unit 311 can be expressed as in Equation 9.



また、前記マーカーユニット310の第2レンズ部313bの中心座標(−sinθ1+X、cosθ1+Y)を過ぎてパターン部311と会う座標、即ちパターン部311の実空間座標(X、Y)は数式10のように表現され得る。 Further, the coordinates that pass the center coordinates (-sin θ1 + X, cos θ1 + Y) of the second lens portion 313b of the marker unit 310 and meet the pattern portion 311, that is, the real space coordinates (X 2 , Y 2 ) of the pattern portion 311 are shown in Equation 10. Can be expressed as.



一方、実施例2と同様にライン1及びライン2上のそれぞれの座標を表2を通じて整理すると、次の通りである。 On the other hand, as in the second embodiment, the coordinates on the line 1 and the line 2 are arranged through Table 2 as follows.



表2は、図10に示されたライン1及びライン2に位置した座標整理表であって、前記表2を参照してライン1及びライン2上の3座標(2)、(3)、(4)で2つの式を作って整理すると、X、Yは数式11のように表現され得る。 Table 2 is a coordinate rearranging table located on the line 1 and the line 2 shown in FIG. 10, and the three coordinates (2), (3), (3) on the line 1 and the line 2 are referred to with reference to the above table 2. If two equations are created and arranged in 4), X and Y can be expressed as Equation 11.



また、ライン1及びライン2上の3座標(1)、(2)、(3)で2つの式を作ってその差を算出すると、数式12のように表現され得る。 Further, when two equations are created with the three coordinates (1), (2) and (3) on the line 1 and the line 2 and the difference is calculated, it can be expressed as the equation 12.



また、ライン1及びライン2上の3座標(1)、(2)、(4)で2つの式を作ってその差を算出すると、数式13のように表現され得る。 Further, if two equations are created with the three coordinates (1), (2) and (4) on the line 1 and the line 2 and the difference is calculated, it can be expressed as the equation 13.



また、ライン1及びライン2上の3座標(1)、(3)、(4)で2つの式を作ると、数式14と数式15のように表現され得る。 Further, if two equations are made with the three coordinates (1), (3), and (4) on the line 1 and the line 2, they can be expressed as equations 14 and 15.





一方、数式12を数式13に代入して両辺をcosθで除算すると、tanθは数式16のように表現され得る。 On the other hand, when Equation 12 is substituted into Equation 13 and both sides are divided by cosθ, tanθ can be expressed as Equation 16.



そして、数式14と数式15でθ値を知っていれば、変数はX、Yだけであるので、2式を連立すると、第1レンズ部313aの座標X、Yは数式17のように表現され得る。 Then, if the θ values are known in the mathematical formulas 14 and 15, the variables are only X and Y. Therefore, when the two equations are combined, the coordinates X and Y of the first lens unit 313a are expressed as the mathematical formula 17. obtain.



また、数式17で第1レンズ部313aの座標が算出されるので、第2レンズ部(313b)の座標(−sinθ1+X、cosθ1+Y)も算出され得る。 Further, since the coordinates of the first lens unit 313a are calculated by the mathematical formula 17, the coordinates (−sin θ1 + X, cos θ1 + Y) of the second lens unit (313b) can also be calculated.

<実施例4>
本実施例によるオプティカルトラッキングシステムは、2つの結像ユニットと2つのマーカーユニットが配置される内容を除くと、第1実施例によるオプティカルトラッキングシステムと実質的に同一であるので、結像ユニット及びマーカーユニットの配置と関連された一部内容を除いた他の構成要素及び内容に関する詳細な説明は省略することにする。
<Example 4>
Since the optical tracking system according to the present embodiment is substantially the same as the optical tracking system according to the first embodiment except for the content in which the two imaging units and the two marker units are arranged, the imaging unit and the marker Detailed explanations of other components and contents except for some contents related to the arrangement of units will be omitted.

図15は、本発明の第4実施例によるオプティカルトラッキングシステムの概略図である。 FIG. 15 is a schematic view of an optical tracking system according to a fourth embodiment of the present invention.

図15を参照すると、本実施例によるオプティカルトラッキングシステムは第1、2マーカーユニット410a、410bと、第1、2結像ユニット420a、420bと、プロセッサ430とを含む。 Referring to FIG. 15, the optical tracking system according to this embodiment includes first and second marker units 410a and 410b, first and second imaging units 420a and 420b, and a processor 430.

前記第1、2マーカーユニット410a、410bは目的物に所定間隔離隔されて取り付けられ、前記第1、2マーカーユニット410a、410b間の空間位置及び方向はプロセッサ430に既に格納される。 The first and second marker units 410a and 410b are attached to the target object at a predetermined interval, and the spatial position and direction between the first and second marker units 410a and 410b are already stored in the processor 430.

前記第1、2結像ユニット420a、420bは、それぞれ第1、2マーカーユニット410a、410bから放出されるパターン部411a、411bの平行出射光を受光して拡大されたイメージを結像させる。即ち、第1結像ユニット420aは、第1マーカーユニット410aから放出されるパターン部411aの平行出射光を受光して拡大されたイメージを結像させ、第2結像ユニット420bは、第2マーカーユニット410bから放出されるパターン部411bの平行出射光を受光して拡大されたイメージを結像させる。 The first and second imaging units 420a and 420b receive the parallel emission light of the pattern portions 411a and 411b emitted from the first and second marker units 410a and 410b, respectively, and form an enlarged image. That is, the first imaging unit 420a receives the parallel emission light of the pattern portion 411a emitted from the first marker unit 410a to form an enlarged image, and the second imaging unit 420b forms the second marker. The parallel emission light of the pattern portion 411b emitted from the unit 410b is received to form an enlarged image.

前記プロセッサ430は、前記第1、2結像ユニット420a、420bと連結されて前記結像ユニット420a、420bに結像されて拡大されたパターン部411a、411bのイメージを用いて前記第1、2マーカーユニット410a、410bの空間位置及び方向を算出する。 The processor 430 is connected to the first and second imaging units 420a and 420b, and is imaged on the imaging units 420a and 420b and magnified by using the image of the pattern portions 411a and 411b. The spatial positions and directions of the marker units 410a and 410b are calculated.

図16は、本発明の第4実施例によるオプティカルトラッキングシステムのプロセッサによりマーカーユニットの空間位置が算出される過程を説明するための図面である。 FIG. 16 is a drawing for explaining a process of calculating the spatial position of the marker unit by the processor of the optical tracking system according to the fourth embodiment of the present invention.

図16に示した通り、本実施例によるオプティカルトラッキングシステムはプロセッサ430により第1結像ユニット420aのレンズ部421aの中心から第1マーカーユニット410aの第1レンズ部413aの中心に向かうベクトルを算出し、第2結像ユニット420bのレンズ部421bの中心から第2マーカーユニット410bの第2レンズ部413bの中心に向かうベクトルを算出した後、算出された2つのベクトルを通じてlとlの2つの直線式を作って2つ直線の交点を算出することによって第1、2マーカーユニット410a、410bの空間位置を算出することができるようになる。 As shown in FIG. 16, in the optical tracking system according to the present embodiment, the processor 430 calculates a vector from the center of the lens unit 421a of the first imaging unit 420a toward the center of the first lens unit 413a of the first marker unit 410a. After calculating the vector from the center of the lens portion 421b of the second imaging unit 420b toward the center of the second lens portion 413b of the second marker unit 410b, two of l l and l r are passed through the calculated two vectors. By creating a linear formula and calculating the intersection of two straight lines, the spatial positions of the first and second marker units 410a and 410b can be calculated.

<実施例5>
図17は、本発明の第5実施例によるオプティカルトラッキングシステムの概略図であり、図18は、本発明の第5実施例によるマーカーユニットを示した図面である。
<Example 5>
FIG. 17 is a schematic view of the optical tracking system according to the fifth embodiment of the present invention, and FIG. 18 is a drawing showing a marker unit according to the fifth embodiment of the present invention.

図17及び図18を参照すると、本実施例によるオプティカルトラッキングシステムは少なくとも1つの光源540、少なくとも1つのマーカーユニット510、少なくとも1つの結像ユニット520及びプロセッサ530を含む。 With reference to FIGS. 17 and 18, the optical tracking system according to this embodiment includes at least one light source 540, at least one marker unit 510, at least one imaging unit 520 and processor 530.

前記少なくとも1つの光源540は、前記マーカーユニット510に向かって光を照射できるように配置される。例えば、前記光源540はLED(Light Emitting Diode)であり得る。ここで、前記少なくとも1つの光源540は、前記マーカーユニット510の外部に配置されることが望ましい。 The at least one light source 540 is arranged so that light can be emitted toward the marker unit 510. For example, the light source 540 may be an LED (Light Emitting Diode). Here, it is desirable that the at least one light source 540 is arranged outside the marker unit 510.

前記少なくとも1つのマーカーユニット510は、前記光源540から照射される光を反射させて平行出射光形態で放出されるようにする。 The at least one marker unit 510 reflects the light emitted from the light source 540 so as to be emitted in the form of parallel emission light.

前記マーカーユニット510は、ボールレンズ513と、前記ボールレンズ513の表面に設けられたパターン部511とを含むことができる。ここで、前記パターン部511は、前記ボールレンズ513の全体表面に設けられることができる。これとは異なって前記パターン部511は、前記ボールレンズ513の表面一部にのみ設けられることができる。 The marker unit 510 can include a ball lens 513 and a pattern portion 511 provided on the surface of the ball lens 513. Here, the pattern portion 511 can be provided on the entire surface of the ball lens 513. Unlike this, the pattern portion 511 can be provided only on a part of the surface of the ball lens 513.

前記ボールレンズ513は、前記結像ユニット520にパターン部511の拡大されたイメージを結像させることができるように、前記光源540から照射される光を反射させて平行出射光形態で前記結像ユニット520側に放出する。 The ball lens 513 reflects the light emitted from the light source 540 so that the imaging unit 520 can form an enlarged image of the pattern portion 511, and the image is formed in the form of parallel emission light. Discharge to the unit 520 side.

前記少なくとも1つの結像ユニット520は、前記マーカーユニット510から放出される前記平行出射光を受光して前記パターン部511の拡大されたイメージを結像させる。 The at least one imaging unit 520 receives the parallel emission light emitted from the marker unit 510 and forms an enlarged image of the pattern portion 511.

例えば、前記結像ユニット520は、前記マーカーユニット510から放出された前記平行出射光をレンズ部521を通じて受光して前記平行出射光により拡大されたパターン部511のイメージをセンサ部522に結像させるカメラであり得る。 For example, the imaging unit 520 receives the parallel emission light emitted from the marker unit 510 through the lens unit 521 and forms an image of the pattern unit 511 magnified by the parallel emission light on the sensor unit 522. It can be a camera.

前記プロセッサ530は、前記結像ユニット520に結像された前記パターン部511の拡大されたイメージと、前記プロセッサ530に既に格納された基準パターン部のイメージとを比較して前記マーカーユニット510の空間位置及び方向を算出する。 The processor 530 compares the enlarged image of the pattern unit 511 imaged on the imaging unit 520 with the image of the reference pattern unit already stored in the processor 530, and the space of the marker unit 510. Calculate the position and direction.

より詳細に説明すると、前記プロセッサ530は、前記結像ユニット520に結像されて拡大されたパターン部511のイメージの位置及び大きさを、既に格納された基準パターン部のイメージの基準位置及び大きさと比較して前記マーカーユニット510の空間位置を算出し、前記拡大されたパターン部511の領域別パターン部の位置及びパターン部511の大きさと、既に格納されたパターン部のイメージの領域別基準パターン部の位置及び基準パターン部の大きさとを比較して前記マーカーユニット510の方向を算出し、前記マーカーユニット510の空間位置及び方向を算出することによって目的物の空間位置及び方向を算出することができる。 More specifically, the processor 530 sets the position and size of the image of the pattern portion 511 imaged and enlarged by the imaging unit 520 to the reference position and size of the image of the reference pattern portion already stored. The spatial position of the marker unit 510 is calculated in comparison with the above, and the position of the pattern portion by region and the size of the pattern portion 511 of the enlarged pattern portion 511 and the reference pattern for each region of the image of the already stored pattern portion are calculated. The spatial position and direction of the target object can be calculated by calculating the direction of the marker unit 510 by comparing the position of the portion and the size of the reference pattern portion and calculating the spatial position and direction of the marker unit 510. it can.

図17〜図24を参照して本発明の第5実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置及び方向を算出するようになる過程について説明する。 The process of calculating the spatial position and direction of the target object by using the optical tracking system according to the fifth embodiment of the present invention will be described with reference to FIGS. 17 to 24.

図19は、本発明の第5実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートである。 FIG. 19 is a flowchart for explaining a process of tracking an object using the optical tracking system according to the fifth embodiment of the present invention.

図17〜図19を参照すると、本発明の第5実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングするためには、まず光源540を作動させてマーカーユニット510、即ちパターン部511が設けられたボールレンズ513に向かって光を照射する(S210)。 Referring to FIGS. 17 to 19, in order to track an object using the optical tracking system according to the fifth embodiment of the present invention, the light source 540 is first operated to provide a marker unit 510, that is, a pattern portion 511. Light is emitted toward the ball lens 513 (S210).

前記マーカーユニット510に向かって照射された光はパターン部511のイメージを拡大させて結像させることができるようにボールレンズ513の表面にパターン部511が設けられたマーカーユニット510により反射されて平行出射光形態で放出される(S220)。 The light emitted toward the marker unit 510 is reflected and parallel by the marker unit 510 provided with the pattern portion 511 on the surface of the ball lens 513 so that the image of the pattern portion 511 can be enlarged and imaged. It is emitted in the form of emitted light (S220).

前記ボールレンズ513により反射されて放出された平行出射光は、結像ユニット520に入射されて拡大されたパターン部511のイメージを結像させる(S230)。 The parallel emission light reflected and emitted by the ball lens 513 is incident on the imaging unit 520 to form an image of the enlarged pattern portion 511 (S230).

前記拡大されたパターン部511のイメージを結像させる過程(S230)について、より詳細に説明すると、前記ボールレンズ513により反射されて放出されたパターン部511の平行出射光は結像ユニット520のレンズ部521を通過するようになり、前記結像ユニット520のレンズ部521を通過したパターン部511の平行出射光はセンサ部522に拡大されたパターン部511のイメージを結像させるようになる。 The process of forming an image of the enlarged pattern portion 511 (S230) will be described in more detail. The parallel emission light of the pattern portion 511 reflected and emitted by the ball lens 513 is the lens of the imaging unit 520. The parallel emission light of the pattern unit 511 that has passed through the unit 521 and passed through the lens unit 521 of the imaging unit 520 causes the sensor unit 522 to form an image of the enlarged pattern unit 511.

上記のように結像ユニット520に拡大されたパターン部511のイメージが結像されると、プロセッサ530は、前記拡大されたパターン部511のイメージを用いて前記マーカーユニット510の空間位置及び方向を算出する(S240)。 When the image of the enlarged pattern unit 511 is formed on the imaging unit 520 as described above, the processor 530 uses the image of the enlarged pattern unit 511 to determine the spatial position and direction of the marker unit 510. Calculate (S240).

図20を参照して前記マーカーユニット510の空間位置及び方向を算出する過程について、より詳細に説明すると、次の通りである。 The process of calculating the spatial position and direction of the marker unit 510 with reference to FIG. 20 will be described in more detail as follows.

図20は、マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。 FIG. 20 is a flowchart for explaining a process of calculating the spatial position and direction of the marker unit.

図20を参照すると、前記プロセッサ530を通じて前記マーカーユニット510の空間位置及び方向を算出するためには、前記プロセッサ530を通じて前記結像ユニット520に結像されて拡大されたパターン部511のイメージを用いて前記マーカーユニット510が回転された角度を算出し、前記マーカーユニット510の方向を算出する(S241)。 Referring to FIG. 20, in order to calculate the spatial position and direction of the marker unit 510 through the processor 530, an image of the pattern portion 511 imaged and enlarged on the imaging unit 520 through the processor 530 is used. The angle at which the marker unit 510 is rotated is calculated, and the direction of the marker unit 510 is calculated (S241).

上記のように、プロセッサ530により前記マーカーユニット510の回転された角度が算出されると、前記プロセッサ530を通じて前記結像ユニット520に結像されて拡大されたパターン部511のイメージと前記マーカーユニット510の回転された角度とを用いて前記マーカーユニット510の空間位置を算出する(S242)。 As described above, when the rotated angle of the marker unit 510 is calculated by the processor 530, the image of the pattern portion 511 imaged and enlarged on the imaging unit 520 through the processor 530 and the marker unit 510 The spatial position of the marker unit 510 is calculated using the rotated angle of (S242).

ここで、前記結像ユニット520の空間位置及び方向情報は、前記プロセッサ530に既に格納される。 Here, the spatial position and direction information of the imaging unit 520 is already stored in the processor 530.

図21及び図22を参照して、前記マーカーユニット510の方向を算出するステップ(S241)について、より詳細に説明すると、次の通りである。 The step (S241) for calculating the direction of the marker unit 510 will be described in more detail with reference to FIGS. 21 and 22 as follows.

図21は、マーカーユニットの方向が算出される過程を説明するためのフローチャートであり、図22は、本発明の第1実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面である。 FIG. 21 is a flowchart for explaining a process of calculating the direction of the marker unit, and FIG. 22 shows a process of calculating the direction of the target object using the optical tracking system according to the first embodiment of the present invention. It is a drawing to do.

図21を参照すると、前記マーカーユニット510の方向を算出するためには、まず前記プロセッサ530を通じて前記結像ユニット520に結像されて拡大されたパターン部511のイメージの領域別パターン部511の位置及びパターン部511の大きさの変化を測定する(S1410)。 Referring to FIG. 21, in order to calculate the direction of the marker unit 510, first, the position of the pattern portion 511 for each region of the image of the pattern portion 511 imaged and enlarged on the imaging unit 520 through the processor 530. And the change in the size of the pattern portion 511 is measured (S1410).

前記パターン部511のイメージの領域別パターン部511の位置及びパターン部511の大きさの変化を測定した後、前記プロセッサ530に既に格納された前記パターン部511のイメージの領域別基準パターン部511の位置及び基準パターン部511の大きさと、前記結像ユニット520に結像されて拡大されたパターン部511のイメージの領域別パターン部511の位置及びパターン部511の大きさの変化とを比較してマーカーユニット510の回転された角度を算出することによって、前記マーカーユニット510の方向を算出するようになる(S2411)。 After measuring the change in the position of the pattern unit 511 for each area of the image of the pattern unit 511 and the size of the pattern unit 511, the reference pattern unit 511 for each area of the image of the pattern unit 511 already stored in the processor 530. Comparing the size of the position and reference pattern portion 511 with the changes in the position of the pattern portion 511 and the size of the pattern portion 511 for each region of the image of the pattern portion 511 imaged and enlarged by the imaging unit 520. By calculating the rotated angle of the marker unit 510, the direction of the marker unit 510 is calculated (S2411).

即ち、図22に示した通り、マーカーユニット510が回転をすると結像ユニット520に結像されて拡大されたパターン部511のイメージIのパターン部511の位置及び大きさも変わるようになることによって、前記プロセッサ530に既に格納された前記パターン部のイメージIの領域別基準パターン部511の位置及び基準パターン部511の大きさと、前記結像ユニット520に結像されたパターン部のイメージIの領域別パターン部511の位置及びパターン部511の大きさの変化とを比較するようになると、前記マーカーユニット510の回転された角度θを算出することができるので、前記マーカーユニット510の方向を算出することができるようになる。 That is, as shown in FIG. 22, when the marker unit 510 rotates, the position and size of the pattern portion 511 of the image I 1 of the pattern portion 511 imaged and enlarged by the imaging unit 520 also changes. , The position of the region-specific reference pattern portion 511 of the pattern portion image I 2 already stored in the processor 530, the size of the reference pattern portion 511, and the image I 1 of the pattern portion imaged on the imaging unit 520. When the position of the pattern portion 511 for each region and the change in the size of the pattern portion 511 are compared, the rotated angle θ of the marker unit 510 can be calculated, so that the direction of the marker unit 510 can be changed. You will be able to calculate.

次に、図23〜図24dを参照して前記マーカーユニットの空間位置を算出するステップ(S242)について、より詳細に説明すると、次の通りである。 Next, the step (S242) for calculating the spatial position of the marker unit with reference to FIGS. 23 to 24d will be described in more detail as follows.

図23は、マーカーユニットの空間位置を算出する過程を説明するためのフローチャートであり、図24a〜図24dは、マーカーユニットの空間位置を算出する過程を説明するための図面である。 FIG. 23 is a flowchart for explaining the process of calculating the spatial position of the marker unit, and FIGS. 24a to 24d are drawings for explaining the process of calculating the spatial position of the marker unit.

図23〜図24dを参照すると、前記マーカーユニット510の空間位置を算出するためには、まず前記プロセッサ530を通じて前記結像ユニット520に結像されて拡大されたパターン部511のイメージの位置及び大きさを測定する(S2420)。 With reference to FIGS. 23 to 24d, in order to calculate the spatial position of the marker unit 510, first, the position and size of the image of the pattern unit 511 imaged and enlarged on the imaging unit 520 through the processor 530. Measure (S2420).

前記パターン部511のイメージの位置及び大きさを測定した後、前記プロセッサ530に既に格納された前記パターン部511のイメージの基準位置及び大きさと、前記結像ユニット520に結像されて拡大されたパターン部511のイメージの位置及び大きさとを前記プロセッサ530を通じて比較し、マーカーユニット510の空間位置を算出するようになる(S2421)。 After measuring the position and size of the image of the pattern unit 511, the reference position and size of the image of the pattern unit 511 already stored in the processor 530 and the image formed on the imaging unit 520 are enlarged. The position and size of the image of the pattern unit 511 are compared with each other through the processor 530, and the spatial position of the marker unit 510 is calculated (S2421).

図24aは、前記マーカーユニット510がプロセッサ530に既に格納された位置に存在するとき、前記パターン部511のイメージが結像ユニット520に結像される基準位置及び大きさを示したものであって、図24bに示した通り、マーカーユニット510と結像ユニット520との間の離隔された距離D2が基準距離D1より短くなる場合には、プロセッサ530に既に格納されたパターン部511のイメージの基準大きさA1より拡大されたパターン部511のイメージの大きさA2が前記結像ユニット520に、さらに大きく結像される。従って、前記パターン部511のイメージの基準大きさA1と、前記結像ユニット520に結像されて拡大されたパターン部511のイメージの大きさA2とをプロセッサ530を通じて比較し、前記マーカーユニット510の空間位置を算出することができるようになる。 FIG. 24a shows a reference position and a size in which an image of the pattern unit 511 is imaged on the imaging unit 520 when the marker unit 510 is already stored in the processor 530. As shown in FIG. 24b, when the separated distance D2 between the marker unit 510 and the imaging unit 520 is shorter than the reference distance D1, the reference of the image of the pattern unit 511 already stored in the processor 530. The image size A2 of the image of the pattern portion 511 enlarged from the size A1 is further imaged on the imaging unit 520. Therefore, the reference size A1 of the image of the pattern unit 511 and the image size A2 of the image of the pattern unit 511 imaged and enlarged by the imaging unit 520 are compared through the processor 530, and the marker unit 510 is compared. You will be able to calculate the spatial position.

一方、図面には示さなかったが、マーカーユニット510と結像ユニット520との間の離隔された距離D2が基準距離D1より長くなる場合には、プロセッサ530に既に格納されたパターン部のイメージの基準大きさA1より拡大されたパターン部511のイメージの大きさA2が前記結像ユニット520に小さく結像される。 On the other hand, although not shown in the drawing, when the separated distance D2 between the marker unit 510 and the imaging unit 520 is longer than the reference distance D1, the image of the pattern portion already stored in the processor 530 The image size A2 of the image portion 511 enlarged from the reference size A1 is formed smaller on the imaging unit 520.

そして、図24cに示した通り、マーカーユニット510が基準位置B1下に位置する場合には、前記プロセッサ530に既に格納されたパターン部511のイメージの基準位置(C1:図24a参照)より前記拡大されたパターン部511のイメージが上部に位置して前記結像ユニット520に結像される。従って、前記パターン部511のイメージの基準位置C1と、前記結像ユニット520に結像されて拡大されたパターン部511のイメージの位置C2とをプロセッサ530を通じて比較し、前記マーカーユニット510の空間位置を算出することができるようになる。 Then, as shown in FIG. 24c, when the marker unit 510 is located below the reference position B1, the enlargement is made from the reference position (C1: see FIG. 24a) of the image of the pattern unit 511 already stored in the processor 530. The image of the patterned portion 511 is located at the upper part and is imaged on the imaging unit 520. Therefore, the reference position C1 of the image of the pattern unit 511 and the position C2 of the image of the pattern unit 511 imaged and enlarged by the imaging unit 520 are compared through the processor 530, and the spatial position of the marker unit 510 is compared. Will be able to be calculated.

一方、図面には示さなかったが、マーカーユニット510が基準位置B1より上に位置する場合には、前記プロセッサ530に既に格納されたパターン部511のイメージの基準位置C1より前記拡大されたパターン部511のイメージが下部に位置するように前記結像ユニット520に結像される。 On the other hand, although not shown in the drawing, when the marker unit 510 is located above the reference position B1, the enlarged pattern portion from the reference position C1 of the image of the pattern portion 511 already stored in the processor 530. The image of 511 is imaged on the imaging unit 520 so as to be located at the bottom.

そして、前記マーカーユニット510と結像ユニット520との間の離隔された距離D2が基準距離D1と異なり、前記マーカーユニット510が基準位置B1に位置しない場合には、前記プロセッサ530に既に格納された前記パターン部のイメージの基準位置C1及び大きさA1と、前記結像ユニット520に結像されて拡大されたパターン部のイメージの位置C2及び大きさA2とを比較してマーカーユニット510の空間位置を算出することができる。 Then, when the separated distance D2 between the marker unit 510 and the imaging unit 520 is different from the reference distance D1 and the marker unit 510 is not located at the reference position B1, it is already stored in the processor 530. The spatial position of the marker unit 510 is compared with the reference position C1 and the size A1 of the image of the pattern portion and the position C2 and the size A2 of the image of the pattern portion imaged and enlarged by the imaging unit 520. Can be calculated.

一方、図24dに示した通り、前記マーカーユニット510と結像ユニット520との間の離隔された距離D2が基準距離D1と同一であり、前記マーカーユニット510が基準位置B1に位置した状態で前記マーカーユニット510の方向のみがθだけ変更された場合には、前記結像ユニット520に結像される拡大されたパターン部511のイメージの大きさA2及び位置C2が前記プロセッサ530に既に格納された前記パターン部511のイメージの基準位置C1及び大きさA1と同一に算出される。従って、前記マーカーユニット510の方向はステップS2411で説明した通り、前記拡大されたパターン部511のイメージIの領域別パターン部511aの位置及びパターン部511aの大きさの変化と、プロセッサ530に既に格納されたパターン部のイメージIの領域別基準パターン部511aの位置及び基準パターン部511aの大きさとを比較してマーカーユニット510の回転された角度を算出することによって、前記マーカーユニット510の方向を算出することができる。 On the other hand, as shown in FIG. 24d, the distance D2 separated between the marker unit 510 and the imaging unit 520 is the same as the reference distance D1, and the marker unit 510 is located at the reference position B1. When only the direction of the marker unit 510 is changed by θ, the size A2 and the position C2 of the image of the enlarged pattern portion 511 imaged on the imaging unit 520 are already stored in the processor 530. It is calculated to be the same as the reference position C1 and the size A1 of the image of the pattern portion 511. Therefore, as the direction is described in step S2411 of the marker unit 510, the magnitude and changes in the position and pattern portion 511a of the enlarged image I 1 of the pattern portion 511 regional pattern portion 511a, already processor 530 The direction of the marker unit 510 by calculating the rotated angle of the marker unit 510 by comparing the position of the region-specific reference pattern portion 511a and the size of the reference pattern portion 511a of the stored pattern unit image I 2. Can be calculated.

上述した通り、本発明の一実施例によるオプティカルトラッキングシステムは、マーカーユニット510からパターン部511の平行出射光を放出させて結像ユニット520に拡大されたパターン部511のイメージを結像させた後、これを用いてマーカーユニット510の空間位置を算出する。即ち、前記マーカーユニット510の位置精度を結像ユニット520の解像力にのみ依存せず、パターン部511のイメージを拡大させて結像ユニット520に結像させることによって測定しようとする目的物の距離が結像ユニット520と遠く離れていても、前記目的物の空間位置及び方向を精度の減少なしに算出することができる。 As described above, in the optical tracking system according to the embodiment of the present invention, the parallel emission light of the pattern unit 511 is emitted from the marker unit 510 to form an image of the enlarged pattern unit 511 on the imaging unit 520. , The spatial position of the marker unit 510 is calculated using this. That is, the position accuracy of the marker unit 510 does not depend only on the resolving power of the imaging unit 520, and the distance of the target object to be measured by enlarging the image of the pattern unit 511 and forming an image on the imaging unit 520 is determined. Even if it is far away from the imaging unit 520, the spatial position and direction of the target object can be calculated without a decrease in accuracy.

従って、本発明の一実施例によるオプティカルトラッキングシステムは測定しようとする目的物の距離と関係なく、目的物の正確な空間位置及び方向を検出してトラッキングできるので、可用領域を大幅に広げることができるだけでなく、従来のマーカーユニットに比べてマーカーユニット510の大きさを大幅に減らして製作できるので、装備を小型化させることができる。 Therefore, the optical tracking system according to the embodiment of the present invention can detect and track the accurate spatial position and direction of the target object regardless of the distance of the target object to be measured, so that the usable area can be greatly expanded. Not only that, the size of the marker unit 510 can be significantly reduced as compared with the conventional marker unit, so that the equipment can be miniaturized.

<実施例6>
図25を参照して本発明の第6実施例によるオプティカルトラッキングシステムについて説明すると、次の通りである。
<Example 6>
The optical tracking system according to the sixth embodiment of the present invention will be described with reference to FIG. 25 as follows.

図25は、本発明の第6実施例によるオプティカルトラッキングシステムを説明するための図面である。 FIG. 25 is a drawing for explaining an optical tracking system according to a sixth embodiment of the present invention.

図25を参照すると、本実施例によるオプティカルトラッキングシステムは少なくとも1つの光源(図示せず)と、マーカーユニット610と、第1、2結像ユニット620A、620Bと、プロセッサ630等を含むことができる。 Referring to FIG. 25, the optical tracking system according to this embodiment can include at least one light source (not shown), marker units 610, first and second imaging units 620A, 620B, processor 630 and the like. ..

図25に示した通り、本実施例によるオプティカルトラッキングシステムはボールレンズ613の表面にパターン部611が設けられたマーカーユニット610を中心に第1、2結像ユニット620a、620bが配置され、前記プロセッサ630が前記第1、2結像ユニット620a、620bと連結されて構成され得る。 As shown in FIG. 25, in the optical tracking system according to the present embodiment, the first and second imaging units 620a and 620b are arranged around the marker unit 610 provided with the pattern portion 611 on the surface of the ball lens 613, and the processor. The 630 may be configured by being connected to the first and second imaging units 620a and 620b.

従って、前記第1、2結像ユニット620a、620bが前記マーカーユニット610から放出される平行出射光をそれぞれ受光して、前記パターン部611の拡大されたイメージを結像させ、例えば、前記結像ユニット620a、620bは、前記マーカーユニット610から放出された前記平行出射光を各レンズ部621a、621bを通じて受光して前記平行出射光により拡大されたパターン部611のイメージをそれぞれのセンサ部622a、622bに結像させるカメラであり得る。 Therefore, the first and second imaging units 620a and 620b receive the parallel emission light emitted from the marker unit 610, respectively, to form an enlarged image of the pattern portion 611, for example, the imaging. The units 620a and 620b receive the parallel emission light emitted from the marker unit 610 through the lens units 621a and 621b, and receive an image of the pattern unit 611 enlarged by the parallel emission light, respectively, in the sensor units 622a and 622b. It can be a camera that forms an image on the lens.

前記プロセッサ630は、前記第1、2結像ユニット620a、620bにそれぞれ結像されたパターン部611の拡大されたイメージと、既に格納された基準パターン部のイメージとを比較し、前記マーカーユニット610の空間位置及び方向を算出する。ここで、前記第1、2結像ユニット620a、620b及び前記少なくとも1つの光源の空間位置及び方向は、前記プロセッサ630に既に格納される。 The processor 630 compares the enlarged image of the pattern portion 611 imaged on the first and second imaging units 620a and 620b with the image of the reference pattern portion already stored, and the marker unit 610. Calculate the spatial position and direction of. Here, the spatial positions and directions of the first and second imaging units 620a and 620b and at least one light source are already stored in the processor 630.

<実施例7>
図26を参照して本発明の第7実施例によるオプティカルトラッキングシステムについて説明すると、次の通りである。
<Example 7>
The optical tracking system according to the seventh embodiment of the present invention will be described with reference to FIG. 26 as follows.

図26は、本発明の第7実施例によるオプティカルトラッキングシステムを説明するための図面である。 FIG. 26 is a drawing for explaining an optical tracking system according to a seventh embodiment of the present invention.

図26を参照すると、本実施例によるオプティカルトラッキングシステムは少なくとも1つの光源(図示せず)と、第1〜第3マーカーユニット710a、710b、710cと、結像ユニット720と、プロセッサ730等を含むことができる。 Referring to FIG. 26, the optical tracking system according to this embodiment includes at least one light source (not shown), first to third marker units 710a, 710b, 710c, an imaging unit 720, a processor 730, and the like. be able to.

図26に示した通り、本実施例によるオプティカルトラッキングシステムは、ボールレンズ713a、713b、713cの表面にパターン部711a、711b、711cが設けられた第1〜第3マーカーユニット710a、710b、710cが所定間隔で目的物に配置され、前記光源から照射される光が前記第1〜第3マーカーユニット710a、710b、710cにより反射されて平行出射光形態で放出され、前記第1〜第3マーカーユニット710a、710b、710cにより放出された平行出射光は、前記結像ユニット720により受光されて、第1〜第3マーカーユニット710a、710b、710cの拡大されたパターン部711a、711b、711cのイメージを結像させるようになる。 As shown in FIG. 26, in the optical tracking system according to the present embodiment, the first to third marker units 710a, 710b, 710c provided with the pattern portions 711a, 711b, 711c on the surface of the ball lenses 713a, 713b, 713c are provided. The light emitted from the light source is reflected by the first to third marker units 710a, 710b, and 710c and emitted in the form of parallel emission light, which is arranged on the target object at predetermined intervals, and the first to third marker units are emitted. The parallel emission light emitted by the 710a, 710b, and 710c is received by the imaging unit 720, and images of the enlarged pattern portions 711a, 711b, and 711c of the first to third marker units 710a, 710b, and 710c are displayed. The image will be formed.

結像ユニット720は、前記第1〜第3マーカーユニット710a、710b、710cから放出された前記平行出射光をレンズ部721を通じて受光して前記平行出射光により拡大されたパターン部711a、711b、711cのイメージをセンサ部722に結像させることができる。 The imaging unit 720 receives the parallel emission light emitted from the first to third marker units 710a, 710b, 710c through the lens unit 721 and magnifies the pattern portion 711a, 711b, 711c by the parallel emission light. Image can be formed on the sensor unit 722.

一方、プロセッサ730は、前記結像ユニット720と連結されて前記結像ユニット720に結像された第1〜第3マーカーユニット710a、710b、710cの拡大されたパターン部711a、711b、711cのイメージと、既に格納された基準パターン部のイメージとを比較し、前記マーカーユニット710a、710b、710cの空間位置及び方向を算出する。ここで、前記結像ユニット720及び前記少なくとも1つの光源の空間位置及び方向は、前記プロセッサ730に既に格納される。 On the other hand, the processor 730 is an image of the enlarged pattern portions 711a, 711b, 711c of the first to third marker units 710a, 710b, 710c which are connected to the imaging unit 720 and imaged on the imaging unit 720. And the image of the reference pattern portion already stored are compared with each other, and the spatial positions and directions of the marker units 710a, 710b, and 710c are calculated. Here, the spatial positions and directions of the imaging unit 720 and the at least one light source are already stored in the processor 730.

また、前記目的物に取り付けられた第1〜第3マーカーユニット710a、710b、710cの幾何学的情報も前記プロセッサ730に既に格納される。 In addition, the geometric information of the first to third marker units 710a, 710b, and 710c attached to the target object is already stored in the processor 730.

ここで、前記第1〜第3マーカーユニット710a、710b、710cの幾何学的情報とは、互いに隣り合うマーカーユニット710a、710b、710cを仮想で連結する直線L1、L2、L3の長さ情報と、前記互いに隣り合う仮想の一対の直線L1、L2、L3がなす角度θ1、θ2、θ3情報であり得る。 Here, the geometric information of the first to third marker units 710a, 710b, 710c is the length information of the straight lines L1, L2, L3 that virtually connect the marker units 710a, 710b, 710c adjacent to each other. , The angles θ1, θ2, and θ3 formed by the pair of virtual straight lines L1, L2, and L3 that are adjacent to each other can be information.

<実施例8>
図27を参照し、本発明の第8実施例によるオプティカルトラッキングシステムについて説明すると、次の通りである。
<Example 8>
The optical tracking system according to the eighth embodiment of the present invention will be described with reference to FIG. 27 as follows.

図27は、本発明の第8実施例によるオプティカルトラッキングシステムを説明するための図面である。 FIG. 27 is a drawing for explaining an optical tracking system according to an eighth embodiment of the present invention.

図27を参照すると、本実施例は第2結像ユニット820bがさらに追加されることを除いては第7実施例と実質的に同一である。 Referring to FIG. 27, the present embodiment is substantially the same as the seventh embodiment except that a second imaging unit 820b is further added.

即ち、図27に示した通り、本実施例によるオプティカルトラッキングシステムではボールレンズ813a、813b、813cの表面にパターン部811a、811b、811cが設けられた第1〜第3マーカーユニット810a、810b、810cが所定間隔で目的物に取り付けられ、第1〜第3マーカーユニット810a、810b、810cを中心に第1、2結像ユニット820a、820bが配置され、前記第1、2結像ユニット820a、820bにはプロセッサ830が連結される。 That is, as shown in FIG. 27, in the optical tracking system according to the present embodiment, the first to third marker units 810a, 810b, 810c in which the pattern portions 811a, 811b, 811c are provided on the surfaces of the ball lenses 813a, 813b, 813c. Are attached to the target object at predetermined intervals, and the first and second imaging units 820a and 820b are arranged around the first to third marker units 810a, 810b and 810c, and the first and second imaging units 820a and 820b are arranged. The processor 830 is connected to the.

これによって、光源から照射される光が前記第1〜第3マーカーユニット810a、810b、810cにより反射され、平行出射光形態で結像ユニット820a、820bにより受光されて拡大されたパターン部811a、811b、811cのイメージを結像させるようになる。 As a result, the light emitted from the light source is reflected by the first to third marker units 810a, 810b, 810c, and is received by the imaging units 820a, 820b in the form of parallel emission light, and the patterned portions 811a, 811b are enlarged. , The image of 811c is formed.

結像ユニット820a、820bは、前記第1〜第3マーカーユニット810a、810b、810cから放出された前記平行出射光をレンズ部821a、821bを通じて受光して前記平行出射光により拡大されたパターン部811a、811b、811cのイメージをセンサ部822a、822bにより結像させることができる。 The imaging units 820a and 820b receive the parallel emission light emitted from the first to third marker units 810a, 810b and 810c through the lens portions 821a and 821b, and the pattern portion 811a enlarged by the parallel emission light. , 811b, 811c can be imaged by the sensor units 822a, 822b.

<実施例9>
本実施例によるオプティカルトラッキングシステムは、マーカーユニットの一部内容を除けば、第5実施例によるオプティカルトラッキングシステムと実質的に同一であるので、マーカーユニットと関連された一部内容を除いた他の構成要素及び内容に関する詳細な説明は省略することにする。
<Example 9>
Since the optical tracking system according to the present embodiment is substantially the same as the optical tracking system according to the fifth embodiment except for some contents of the marker unit, other parts except for some contents related to the marker unit are excluded. Detailed description of the components and contents will be omitted.

図28は、本発明の第9実施例によるマーカーユニットを説明するための図面である。 FIG. 28 is a drawing for explaining a marker unit according to a ninth embodiment of the present invention.

図28を参照すると、本実施例によるオプティカルトラッキングシステムのマーカーユニット910はパターン部911と、魚眼レンズ913とを含むことができる。 Referring to FIG. 28, the marker unit 910 of the optical tracking system according to this embodiment can include a pattern portion 911 and a fisheye lens 913.

前記パターン部911は少なくとも1つの光源(図示せず)から照射される光を反射させたり透過させることができる。即ち、前記光源がマーカーユニット910の外部に配置される場合には、前記パターン部911は、前記光源から照射される光を反射させることができるように製作されることが望ましく、前記光源が前記パターン部911の後方部に位置するように前記マーカーユニット910の内部に配置される場合には、前記パターン部911は、前記光源から照射される光を透過させることができるように製作されることが望ましい。 The pattern portion 911 can reflect or transmit light emitted from at least one light source (not shown). That is, when the light source is arranged outside the marker unit 910, it is desirable that the pattern portion 911 is manufactured so as to be able to reflect the light emitted from the light source, and the light source is the light source. When arranged inside the marker unit 910 so as to be located behind the pattern portion 911, the pattern portion 911 is manufactured so as to allow light emitted from the light source to be transmitted. Is desirable.

前記魚眼レンズ913は、前記少なくとも1つの光源から照射され、前記パターン部911により反射されたり、前記パターン部911を透過した光を通過させて平行出射光形態で結像ユニット(図示せず)側に放出させることができるように、前記パターン部911の前方部に配置される。 The fisheye lens 913 is irradiated from the at least one light source and is reflected by the pattern portion 911 or passed through the pattern portion 911 to the imaging unit (not shown) side in the form of parallel emission light. It is arranged in front of the pattern portion 911 so that it can be released.

ここで、前記パターン部911は、前記魚眼レンズ913の焦点距離に配置されることが望ましい。 Here, it is desirable that the pattern portion 911 is arranged at the focal length of the fisheye lens 913.

<実施例10>
本実施例によるオプティカルトラッキングシステムはマーカーユニットの一部内容を除けば、第1実施例によるオプティカルトラッキングシステムと実質的に同一であるので、マーカーユニットと関連された一部内容を除いた他の構成要素及び内容に関する詳細な説明は省略することにする。
<Example 10>
Since the optical tracking system according to this embodiment is substantially the same as the optical tracking system according to the first embodiment except for some contents of the marker unit, other configurations except for some contents related to the marker unit are made. Detailed description of the elements and contents will be omitted.

図29は本発明の第10実施例によるマーカーユニットを説明するための図面である。 FIG. 29 is a drawing for explaining a marker unit according to a tenth embodiment of the present invention.

図29を参照すると、本実施例によるオプティカルトラッキングシステムのマーカーユニット1010はパターン部1011と、対物レンズ1013と、プリズム1014等を含むことができる。 Referring to FIG. 29, the marker unit 1010 of the optical tracking system according to the present embodiment can include a pattern unit 1011, an objective lens 1013, a prism 1014, and the like.

前記パターン部1011は、少なくとも1つの光源(図示せず)から照射される光を反射させたり透過させることができる。即ち、前記光源がマーカーユニット1010の外部に配置される場合には、前記パターン部1011は、前記光源から照射される光を反射させることができるように製作されることが望ましく、前記光源が前記パターン部1011の後方部に位置するように前記マーカーユニット1010の内部に配置される場合には、前記パターン部1011は、前記光源から照射される光を透過させることができるように製作されることが望ましい。 The pattern portion 1011 can reflect or transmit light emitted from at least one light source (not shown). That is, when the light source is arranged outside the marker unit 1010, it is desirable that the pattern portion 1011 is manufactured so as to be able to reflect the light emitted from the light source, and the light source is the light source. When arranged inside the marker unit 1010 so as to be located at the rear portion of the pattern portion 1011, the pattern portion 1011 is manufactured so as to allow light emitted from the light source to be transmitted. Is desirable.

前記対物レンズ1013は、前記少なくとも1つの光源から照射されて前記パターン部1011により反射されたり前記パターン部1011を透過した光を通過させて平行出射光形態で結像ユニット(図示せず)側に放出させることができるように、前記パターン部1011の前方部に配置される。 The objective lens 1013 is irradiated from at least one light source and reflected by the pattern unit 1011 or passed through the pattern unit 1011 to the imaging unit (not shown) side in the form of parallel emission light. It is arranged in the front portion of the pattern portion 1011 so that it can be released.

ここで、前記パターン部1011は、前記対物レンズ1013の焦点距離に配置されることが望ましい。 Here, it is desirable that the pattern portion 1011 is arranged at the focal length of the objective lens 1013.

前記プリズム1014は、前記対物レンズ1013を通過した平行出射光を通過させて前記平行出射光の画角を広げた後、結像ユニットに入射されるようにする。ここで、前記プリズム1014はピラミッド形態に形成されることが望ましい。 The prism 1014 passes the parallel emission light that has passed through the objective lens 1013 to widen the angle of view of the parallel emission light, and then is incident on the imaging unit. Here, it is desirable that the prism 1014 is formed in a pyramid shape.

<実施例11>
図30は、本発明の第11実施例によるオプティカルトラッキングシステムの概略図であり、図31は、本発明の第11実施例によるマーカーユニットを示した図面である。
<Example 11>
FIG. 30 is a schematic view of the optical tracking system according to the eleventh embodiment of the present invention, and FIG. 31 is a drawing showing a marker unit according to the eleventh embodiment of the present invention.

図30及び図31を参照すると、本実施例によるオプティカルトラッキングシステムは少なくとも1つの光源1140、少なくとも1つのマーカーユニット1110、少なくとも1つの結像ユニット1120及びプロセッサ1130を含む。 With reference to FIGS. 30 and 31, the optical tracking system according to this embodiment includes at least one light source 1140, at least one marker unit 1110, at least one imaging unit 1120 and processor 1130.

前記少なくとも1つの光源1140は、前記マーカーユニット1110に向かって光を照射できるように配置される。例えば、前記光源1140はLED(Light Emitting Diode)であり得る。ここで、前記少なくとも1つの光源1140は、前記マーカーユニット1110の外部に配置されることが望ましい。 The at least one light source 1140 is arranged so that light can be emitted toward the marker unit 1110. For example, the light source 1140 can be an LED (Light Emitting Diode). Here, it is desirable that the at least one light source 1140 is arranged outside the marker unit 1110.

前記少なくとも1つのマーカーユニット1110は、前記光源1140から照射される光を反射させて平行出射光形態で放出して前記結像ユニット1120にパターン部1111の拡大されたイメージを結像させることができるようにする。 The at least one marker unit 1110 can reflect the light emitted from the light source 1140 and emit it in the form of parallel emission light so that the imaging unit 1120 can image an enlarged image of the pattern portion 1111. To do so.

前記マーカーユニット1110はミラー部1113及びパターン部1111などを含むことができる。 The marker unit 1110 may include a mirror unit 1113, a pattern unit 1111 and the like.

前記ミラー部1113は少なくとも1つの光源1140から前記マーカーユニット1110に向かって照射される光をパターン部1111側に反射させた後、前記パターン部1111により反射された光を再反射させて前記少なくとも1つの結像ユニット1120側に平行光形態で放出させる。ここで、前記ミラー部1113は球面または非球面形態のミラーであり得る。例えば、前記ミラー部1113には光が一点に集まることができるように反射させる凹ミラーを用いることができる。 The mirror unit 1113 reflects the light emitted from at least one light source 1140 toward the marker unit 1110 toward the pattern unit 1111, and then rereflects the light reflected by the pattern unit 1111 to cause the at least one. It is emitted to one imaging unit 1120 side in a parallel light form. Here, the mirror portion 1113 may be a spherical or aspherical mirror. For example, a concave mirror that reflects light so that light can be collected at one point can be used for the mirror portion 1113.

前記パターン部1111は、前記ミラー部1113の焦点距離に配置され、前記ミラー部1113から反射されて入射される光を前記ミラー部1113側に再反射させる。 The pattern portion 1111 is arranged at the focal length of the mirror portion 1113, and the light reflected and incident from the mirror portion 1113 is re-reflected toward the mirror portion 1113.

一方、前記マーカーユニット1110は、第1レンズ1112をさらに含むことができる。 On the other hand, the marker unit 1110 can further include a first lens 1112.

前記第1レンズ1112は、前記ミラー部1113と焦点距離だけ離隔されるように配置され得る。即ち、前記第1レンズ1112は、前記ミラー部1113と前記第1レンズ1112の焦点距離だけ離隔されるように配置され、前記ミラー部1113により反射されて平行出射光形態で放出される光を前記少なくとも1つの結像ユニット1120側にもう一度平行出射光形態に変換させて放出させる。 The first lens 1112 may be arranged so as to be separated from the mirror portion 1113 by a focal length. That is, the first lens 1112 is arranged so as to be separated by the focal length of the mirror portion 1113 and the first lens 1112, and the light reflected by the mirror portion 1113 and emitted in the form of parallel emission is emitted. At least one imaging unit 1120 side is once again converted into a parallel emission light form and emitted.

一方、前記マーカーユニット1110は、前記ミラー部1113に設けられる絞り1114をさらに含むことができる。前記絞り1114は、前記光源1140から照射されて前記ミラー部1113に入射される光量を調節し、前記結像ユニット1120に結像される拡大されたパターン部1111のイメージの画角及び解像度を調節できる。 On the other hand, the marker unit 1110 can further include a diaphragm 1114 provided in the mirror portion 1113. The aperture 1114 adjusts the amount of light emitted from the light source 1140 and incident on the mirror unit 1113, and adjusts the angle of view and resolution of the image of the enlarged pattern unit 1111 imaged on the imaging unit 1120. it can.

前記少なくとも1つの結像ユニット1120は、前記マーカーユニット1110から放出される前記平行出射光を受光して前記パターン部1111の拡大されたイメージを結像させる。 The at least one imaging unit 1120 receives the parallel emission light emitted from the marker unit 1110 and forms an enlarged image of the pattern portion 1111.

例えば、前記結像ユニット1120は、前記マーカーユニット1110から放出された前記平行出射光をレンズ部1121を通じて受光して前記平行出射光により拡大されたパターン部1111のイメージをセンサ部1122に結像させるカメラであり得る。 For example, the imaging unit 1120 receives the parallel emission light emitted from the marker unit 1110 through the lens unit 1121 and forms an image of the pattern unit 1111 magnified by the parallel emission light on the sensor unit 1122. It can be a camera.

前記プロセッサ1130は、前記結像ユニット1120に結像された前記パターン部1111の拡大されたイメージと、前記プロセッサ1130に既に格納された基準パターンイメージとを比較して前記マーカーユニット1110の空間位置及び方向を算出する。 The processor 1130 compares the enlarged image of the pattern unit 1111 imaged on the imaging unit 1120 with the reference pattern image already stored in the processor 1130, and the spatial position of the marker unit 1110 and the spatial position of the marker unit 1110. Calculate the direction.

さらに詳細に説明すると、前記プロセッサ1130は、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの位置及び大きさを、既に格納された基準パターンイメージの基準位置及び大きさと比較して前記マーカーユニット1110の空間位置を算出し、前記拡大されたパターン部1111の領域別パターンの位置およびパターン部1111の大きさと、既に格納されたパターンイメージの領域別基準パターンの位置及び基準パターンの大きさとを比較して前記マーカーユニット1110の方向を算出し、前記マーカーユニット1110の空間位置及び方向を算出することによって、目的物の空間位置と方向を算出することができる。 More specifically, the processor 1130 compares the position and size of the image of the pattern unit 1111 imaged and enlarged by the imaging unit 1120 with the reference position and size of the already stored reference pattern image. Then, the spatial position of the marker unit 1110 is calculated, the position of the area-specific pattern of the enlarged pattern unit 1111 and the size of the pattern unit 1111, and the position and reference pattern of the area-specific reference pattern of the already stored pattern image. The spatial position and direction of the target object can be calculated by calculating the direction of the marker unit 1110 by comparing with the size of the marker unit 1110 and calculating the spatial position and direction of the marker unit 1110.

図30〜図37を参照して本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物の空間位置及び方向を算出するようになる過程について説明する。 The process of calculating the spatial position and direction of the target object by using the optical tracking system according to the eleventh embodiment of the present invention will be described with reference to FIGS. 30 to 37.

図32は、本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングする過程を説明するためのフローチャートである。 FIG. 32 is a flowchart for explaining a process of tracking an object using the optical tracking system according to the eleventh embodiment of the present invention.

図30〜図32を参照すると、本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物をトラッキングするためには、まず光源1140を作動させ、マーカーユニット1110、即ちパターン部1111が設けられたミラー部1113に向かって光を照射する(S310)。 Referring to FIGS. 30 to 32, in order to track an object using the optical tracking system according to the eleventh embodiment of the present invention, the light source 1140 is first operated, and the marker unit 1110, that is, the pattern portion 1111 is provided. Light is emitted toward the mirror portion 1113 (S310).

前記マーカーユニット1110に向かって照射された光はパターン部1111のイメージを拡大させて結像させることができるようにミラー部1113の焦点距離にパターン部1111が設けられたマーカーユニット1110により反射されて平行出射光形態で放出される(S320)。 The light emitted toward the marker unit 1111 is reflected by the marker unit 1110 provided with the pattern unit 1111 at the focal length of the mirror unit 1113 so that the image of the pattern unit 1111 can be enlarged and imaged. It is emitted in the form of parallel emission light (S320).

より詳細に説明すると、前記マーカーユニット1110に向かって照射された光は、前記ミラー部1113により反射されてパターン部1111上の一点に集まった後、前記パターン部1111及びミラー部1113により再び反射されて平行光形態で放出され、前記ミラー部1113により平行出射光形態で放出された光は、前記第1レンズ1112を通じて再び平行出射光形態に変換されて放出される。 More specifically, the light emitted toward the marker unit 1110 is reflected by the mirror unit 1113, collected at one point on the pattern unit 1111, and then reflected again by the pattern unit 1111 and the mirror unit 1113. The light emitted in the parallel light form and emitted by the mirror unit 1113 in the parallel emission form is converted into the parallel emission light form again through the first lens 1112 and emitted.

前記マーカーユニット1110により反射されて放出された平行出射光は、結像ユニット1120に入射されて拡大されたパターン部1111のイメージを結像させる(S330)。 The parallel emission light reflected and emitted by the marker unit 1110 is incident on the imaging unit 1120 to form an image of the enlarged pattern portion 1111 (S330).

前記拡大されたパターン部1111のイメージを結像させる過程(S330)について、より詳細に説明すると、前記マーカーユニット1110により反射されて放出されたパターン部1111の平行出射光は結像ユニット1120のレンズ部1121を通過するようになり、前記結像ユニット1120のレンズ部1121を通過したパターン部1111の平行出射光はセンサ部1122に拡大されたパターン部1111のイメージを結像させるようになる。 The process of forming an image of the enlarged pattern portion 1111 (S330) will be described in more detail. The parallel emission light of the pattern portion 1111 reflected and emitted by the marker unit 1110 is the lens of the imaging unit 1120. The parallel emission light of the pattern unit 1111 that has passed through the lens unit 1121 of the imaging unit 1120 will form an image of the enlarged pattern unit 1111 on the sensor unit 1122.

前記結像ユニット1120に拡大されたパターン部1111のイメージが結像されると、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージを確認した後、絞り1114を作動させて前記ミラー部1113に入射される光量を調節して前記結像ユニット1120に結像される拡大されたパターン部1111のイメージの画角及び解像度を調節する(S340)。 When the image of the enlarged pattern portion 1111 is formed on the imaging unit 1120, the aperture 1114 is operated after confirming the image of the enlarged pattern portion 1111 formed on the imaging unit 1120. The angle of view and the resolution of the image of the enlarged pattern portion 1111 imaged on the imaging unit 1120 are adjusted by adjusting the amount of light incident on the mirror portion 1113 (S340).

前記絞り1114によりミラー部1113に入射される光量が調節されて画角及び解像度が調節された拡大されたパターン部1111のイメージが前記結像ユニット1120に結像されると、プロセッサ1130は、前記画角及び解像度が調節された拡大されたパターン部1111のイメージを用いて前記マーカーユニット1110の空間位置及び方向を算出する(S350)。 When the image of the enlarged pattern portion 1111 whose angle of view and resolution are adjusted by adjusting the amount of light incident on the mirror portion 1113 by the diaphragm 1114 is formed on the imaging unit 1120, the processor 1130 is described. The spatial position and direction of the marker unit 1110 are calculated using the image of the enlarged pattern portion 1111 whose angle of view and resolution are adjusted (S350).

図33を参照して、前記マーカーユニット1110の空間位置及び方向を算出する過程(S150)について、より詳細に説明すると、次の通りである。 The process of calculating the spatial position and direction of the marker unit 1110 (S150) with reference to FIG. 33 will be described in more detail as follows.

図33は、マーカーユニットの空間位置及び方向を算出する過程を説明するためのフローチャートである。 FIG. 33 is a flowchart for explaining a process of calculating the spatial position and direction of the marker unit.

図33を参照すると、前記プロセッサ1130を通じて前記マーカーユニット1110の空間位置及び方向を算出するためには、前記プロセッサ1130を通じて前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージを用いて前記マーカーユニット1110が回転された角度を算出し、前記マーカーユニット1110の方向を算出する(S351)。 Referring to FIG. 33, in order to calculate the spatial position and direction of the marker unit 1110 through the processor 1130, an image of the pattern portion 1111 imaged and enlarged by the imaging unit 1120 through the processor 1130 is used. The angle at which the marker unit 1110 is rotated is calculated, and the direction of the marker unit 1110 is calculated (S351).

前記のようにプロセッサ1130により前記マーカーユニット1110の回転された角度が算出されると、前記プロセッサ1130を通じて前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージと前記マーカーユニット1110の回転された角度とを用いて前記マーカーユニット1110の空間位置を算出する(S352)。 When the rotated angle of the marker unit 1110 is calculated by the processor 1130 as described above, the image of the pattern portion 1111 imaged and enlarged on the imaging unit 1120 through the processor 1130 and the marker unit 1110 The spatial position of the marker unit 1110 is calculated using the rotated angle (S352).

ここで、前記結像ユニット1120の空間位置及び方向情報は、前記プロセッサ1130に既に格納される。 Here, the spatial position and direction information of the imaging unit 1120 is already stored in the processor 1130.

図34及び図35を参照して、前記マーカーユニット1110の方向を算出するステップ(S351)について、より詳細に説明すると、次の通りである。 The step (S351) for calculating the direction of the marker unit 1110 with reference to FIGS. 34 and 35 will be described in more detail as follows.

図34は、マーカーユニットの方向が算出される過程を説明するためのフローチャートであり、図35は、本発明の第11実施例によるオプティカルトラッキングシステムを用いて目的物の方向を算出する過程を説明するための図面である。 FIG. 34 is a flowchart for explaining the process of calculating the direction of the marker unit, and FIG. 35 explains the process of calculating the direction of the target object using the optical tracking system according to the eleventh embodiment of the present invention. It is a drawing to do.

図34を参照すると、前記マーカーユニット1110の方向を算出するためには、まず前記プロセッサ1130を通じて前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの領域別パターン部1111の位置及びパターン部1111の大きさの変化を測定する(S3510)。 Referring to FIG. 34, in order to calculate the direction of the marker unit 1110, first, the position of the pattern portion 1111 for each region of the image of the pattern portion 1111 imaged and enlarged on the imaging unit 1120 through the processor 1130. And the change in the size of the pattern portion 1111 is measured (S3510).

前記パターン部1111のイメージの領域別パターンの位置及びパターンの大きさの変化を測定した後、前記プロセッサ1130に既に格納された前記パターン部1111のイメージの領域別基準パターンの位置及び基準パターンの大きさと、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの領域別パターンの位置及びパターンの大きさの変化とを比較し、マーカーユニット1110の回転された角度を算出することによって、前記マーカーユニット1110の方向を算出するようになる(S3511)。 After measuring the change in the area-specific pattern position and pattern size of the image of the pattern unit 1111, the area-specific reference pattern position and reference pattern size of the image of the pattern unit 1111 already stored in the processor 1130. The rotation angle of the marker unit 1110 is calculated by comparing the position of the pattern for each region and the change in the size of the pattern in the image of the pattern unit 1111 imaged and enlarged on the imaging unit 1120. Therefore, the direction of the marker unit 1110 is calculated (S3511).

即ち、図35に示した通り、マーカーユニット1110が回転をすると、結像ユニット1120に結像されて拡大されたパターン部1111のイメージIのパターン部1111の位置及び大きさも変わるようになることにより、前記プロセッサ1130に既に格納された前記パターンイメージIの領域別基準パターンの位置及び基準パターンの大きさと、前記結像ユニット1120に結像されたパターンイメージIの領域別パターンの位置及びパターンの大きさの変化とを比較するようになると、前記マーカーユニット1110の回転された角度を算出することができるので、前記マーカーユニット111の方向を算出することができるようになる。 That is, as shown in FIG. 35, when the marker unit 1110 rotates, the position and size of the pattern portion 1111 of the image I 1 of the pattern portion 1111 imaged and enlarged by the imaging unit 1120 also changes. Therefore, the position and the size of the reference pattern for each region of the pattern image I 2 already stored in the processor 1130, the position of the pattern for each region of the pattern image I 1 imaged in the imaging unit 1120, and When the change in the size of the pattern is compared, the rotated angle of the marker unit 1110 can be calculated, so that the direction of the marker unit 111 can be calculated.

次に、図36及び図37を参照して前記マーカーユニットの空間位置を算出するステップ(S352)について、より詳細に説明すると、次の通りである。 Next, the step (S352) of calculating the spatial position of the marker unit with reference to FIGS. 36 and 37 will be described in more detail as follows.

図36は、マーカーユニットの空間位置を算出する過程を説明するためのフローチャートであり、図37a〜図37dは、マーカーユニットの空間位置を算出する過程を説明するための図面である。 FIG. 36 is a flowchart for explaining the process of calculating the spatial position of the marker unit, and FIGS. 37a to 37d are drawings for explaining the process of calculating the spatial position of the marker unit.

図36〜図37dを参照すると、前記マーカーユニット1110の空間位置を算出するためには、まず前記プロセッサ1130を通じて前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの位置及び大きさを測定する(S3520)。 With reference to FIGS. 36 to 37d, in order to calculate the spatial position of the marker unit 1110, first, the position and size of the image of the pattern portion 1111 imaged and enlarged on the imaging unit 1120 through the processor 1130. Measure (S3520).

前記パターン部1111のイメージの位置及び大きさを測定した後、前記プロセッサに既に格納された前記パターン部1111のイメージの基準位置及び大きさと、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの位置及び大きさとを前記プロセッサ1130を通じて比較し、マーカーユニット1110の空間位置を算出するようになる(S3521)。 After measuring the position and size of the image of the pattern unit 1111, the reference position and size of the image of the pattern unit 1111 already stored in the processor and the pattern imaged and enlarged by the imaging unit 1120. The position and size of the image of unit 1111 are compared with each other through the processor 1130, and the spatial position of the marker unit 1110 is calculated (S3521).

図37aは、前記マーカーユニット1110がプロセッサ1130に既に格納された位置に存在するとき、前記パターン部1111のイメージが結像ユニット1120に結像される基準位置及び大きさを示したものであって、図37bに示した通り、マーカーユニット1110と結像ユニット1120との間の離隔された距離D2が基準距離D1より短くなる場合には、プロセッサ1130に既に格納されたパターン部1111のイメージの基準大きさA1より拡大されたパターン部1111のイメージの大きさA2が前記結像ユニット1120に、さらに大きく結像される。従って、前記パターン部1111のイメージの基準大きさA1と、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの大きさA2とをプロセッサ1130を通じて比較し、前記マーカーユニット1110の空間位置を算出することができるようになる。 FIG. 37a shows a reference position and size in which an image of the pattern unit 1111 is imaged on the imaging unit 1120 when the marker unit 1110 is already stored in the processor 1130. As shown in FIG. 37b, when the separated distance D2 between the marker unit 1110 and the imaging unit 1120 is shorter than the reference distance D1, the reference of the image of the pattern unit 1111 already stored in the processor 1130. The size A2 of the image of the pattern unit 1111 enlarged from the size A1 is further imaged on the imaging unit 1120. Therefore, the reference size A1 of the image of the pattern unit 1111 and the image size A2 of the image of the pattern unit 1111 imaged and enlarged by the imaging unit 1120 are compared through the processor 1130, and the marker unit 1110 is compared. You will be able to calculate the spatial position.

一方、図面には示さなかったが、マーカーユニット1110と結像ユニット1120との間の離隔された距離D2が基準距離D1より長くなる場合には、プロセッサ1130に既に格納されたパターンイメージの基準大きさA1より拡大されたパターン部1111のイメージの大きさA2が前記結像ユニット1120に小さく結像される。 On the other hand, although not shown in the drawing, when the separated distance D2 between the marker unit 1110 and the imaging unit 1120 is longer than the reference distance D1, the reference size of the pattern image already stored in the processor 1130. The image size A2 of the pattern portion 1111 enlarged from the A1 is formed smaller on the imaging unit 1120.

そして、図37cに示した通り、マーカーユニット1110が基準位置B1下に位置する場合には、前記プロセッサ1130に既に格納されたパターン部1111のイメージの基準位置(C1:図37a参照)より前記拡大されたパターン部1111のイメージが上部に位置し、前記結像ユニット1120に結像される。従って、前記パターン部1111のイメージの基準位置C1と、前記結像ユニット1120に結像されて拡大されたパターン部1111のイメージの位置C2とをプロセッサ1130を通じて比較し、前記マーカーユニット1110の空間位置を算出することができるようになる。 Then, as shown in FIG. 37c, when the marker unit 1110 is located below the reference position B1, the enlargement is made from the reference position (C1: see FIG. 37a) of the image of the pattern unit 1111 already stored in the processor 1130. The image of the pattern portion 1111 is located at the upper part and is imaged on the imaging unit 1120. Therefore, the reference position C1 of the image of the pattern unit 1111 and the position C2 of the image of the pattern unit 1111 imaged and enlarged by the imaging unit 1120 are compared through the processor 1130, and the spatial position of the marker unit 1110 is compared. Will be able to be calculated.

一方、図面には示さなかったが、マーカーユニット1110が基準位置B1上に位置する場合には、前記プロセッサ1130に既に格納されたパターン部1111のイメージの基準位置C1より前記拡大されたパターン部1111のイメージが下部に位置するように前記結像ユニット1120に結像される。 On the other hand, although not shown in the drawing, when the marker unit 1110 is located on the reference position B1, the pattern portion 1111 enlarged from the reference position C1 of the image of the pattern portion 1111 already stored in the processor 1130. Is imaged on the imaging unit 1120 so that the image of is located at the bottom.

そして、前記マーカーユニット1110と結像ユニット1120との間の離隔された距離D2が基準距離D1と異なり、前記マーカーユニット1110が基準位置B1に位置しない場合には、前記プロセッサ1130に既に格納された前記パターンイメージの基準位置C1及び大きさA1と、前記結像ユニット1120に結像されて拡大されたパターンイメージの位置C2及び大きさA2とを比較し、マーカーユニット1110の空間位置を算出することができる。 When the separated distance D2 between the marker unit 1110 and the imaging unit 1120 is different from the reference distance D1 and the marker unit 1110 is not located at the reference position B1, it is already stored in the processor 1130. The spatial position of the marker unit 1110 is calculated by comparing the reference position C1 and the size A1 of the pattern image with the position C2 and the size A2 of the pattern image imaged and enlarged by the imaging unit 1120. Can be done.

一方、図37dに示した通り、前記マーカーユニット1110と結像ユニット1120との間の離隔された距離D2が基準距離D1と同一であり、前記マーカーユニット1110が基準位置B1に位置した状態で、前記マーカーユニット1110の方向のみがθだけ変更された場合には、前記結像ユニット1120に結像される拡大されたパターン部1111のイメージの大きさA2及び位置C2が前記プロセッサ1130に既に格納された前記パターン部1111のイメージの基準位置C1及び大きさA1と同一に算出される。従って、前記マーカーユニット1110の方向はステップS3511で説明した通り、前記拡大されたパターン部1111のイメージIの領域別パターン1111aの位置及びパターン1111aの大きさの変化を、プロセッサ1130に既に格納されたパターンのイメージIの領域別基準パターン1111aの位置及び基準パターン1111aの大きさと比較し、マーカーユニット1110の回転された角度を算出することによって、前記マーカーユニット1110の方向を算出することができる。 On the other hand, as shown in FIG. 37d, the separated distance D2 between the marker unit 1110 and the imaging unit 1120 is the same as the reference distance D1, and the marker unit 1110 is located at the reference position B1. When only the direction of the marker unit 1110 is changed by θ, the size A2 and the position C2 of the image of the enlarged pattern portion 1111 imaged on the imaging unit 1120 are already stored in the processor 1130. It is calculated to be the same as the reference position C1 and the size A1 of the image of the pattern portion 1111. Therefore, the direction of the marker unit 1110 as described in step S3511, the position and the size change of the pattern 1111a of the enlarged pattern area by pattern 1111a of the image I 1 of 1111, already stored in the processor 1130 The direction of the marker unit 1110 can be calculated by comparing the position of the region-specific reference pattern 1111a and the size of the reference pattern 1111a of the image I 2 of the pattern, and calculating the rotated angle of the marker unit 1110. ..

上述した通り、本発明の一実施例によるオプティカルトラッキングシステムは、マーカーユニット1110からパターン部1111の平行出射光を放出させ、結像ユニット1120に拡大されたパターン部1111のイメージを結像させた後、これを用いてマーカーユニット1110の空間位置を算出する。即ち、前記マーカーユニット1110の位置精度を結像ユニット1120の解像力にのみ依存せず、パターン部1111のイメージを拡大させて結像ユニット1120に結像させることによって、測定しようとする目的物の距離が結像ユニット1120と遠く離れていても、前記目的物の空間位置及び方向を精度の減少なしに算出することができる。 As described above, in the optical tracking system according to the embodiment of the present invention, the parallel emission light of the pattern unit 1111 is emitted from the marker unit 1110 to form an image of the enlarged pattern unit 1111 on the imaging unit 1120. , The spatial position of the marker unit 1110 is calculated using this. That is, the position accuracy of the marker unit 1110 does not depend only on the resolution of the imaging unit 1120, and the distance of the target object to be measured is measured by enlarging the image of the pattern unit 1111 and forming an image on the imaging unit 1120. Can calculate the spatial position and orientation of the object without loss of accuracy, even if is far away from the imaging unit 1120.

従って、本発明の一実施例によるオプティカルトラッキングシステムは、測定しようとする目的物の距離と関係なく、目的物の正確な空間位置及び方向を検出してトラッキングできるので、可用領域を大幅に広げることができるだけでなく、従来のマーカーユニットに比べてマーカーユニット1110の大きさを大幅に減らして製作できるので、装備を小型化させることができる。 Therefore, the optical tracking system according to the embodiment of the present invention can detect and track the accurate spatial position and direction of the target object regardless of the distance of the target object to be measured, and thus greatly expand the usable area. Not only that, the size of the marker unit 1110 can be significantly reduced as compared with the conventional marker unit, so that the equipment can be miniaturized.

一方、光源1140から照射されてマーカーユニット1110のミラー部1113に入射される光量を調節し、前記ミラー部1113により反射されて前記結像ユニット1120に結像される拡大されたパターン部1111のイメージの画角及び解像度を調節できるので、さらに正確な目的物の空間位置と方向を検出してトラッキングできるという長所がある。 On the other hand, the amount of light emitted from the light source 1140 and incident on the mirror unit 1113 of the marker unit 1110 is adjusted, and the image of the enlarged pattern unit 1111 reflected by the mirror unit 1113 and imaged on the imaging unit 1120. Since the angle and resolution of the image can be adjusted, there is an advantage that the spatial position and direction of the target object can be detected and tracked more accurately.

上述した本発明の詳細な説明では本発明の望ましい実施例を参照して説明したが、該当技術分野の熟練した当業者または該当技術分野に通常の知識を有する者であれば、後述する特許請求の範囲に記載された本発明の思想及び技術領域から逸脱しない範囲内で本発明を多様に修正及び変更させられることを理解できるであろう。 Although the detailed description of the present invention described above has been described with reference to desirable embodiments of the present invention, a person skilled in the art or a person having ordinary knowledge in the relevant technical field can request a patent described later. It can be understood that the present invention can be variously modified and modified without departing from the idea and technical domain of the present invention described in the scope of.

Claims (8)

オプティカルトラッキングシステムの作動方法であって、
パターン部のイメージを拡大させて結像させることができるように、目的物に取り付けられた前記オプティカルトラッキングシステムのマーカーユニットが前記パターン部を通過したり、前記パターン部により反射された光を放出させるステップと、
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を前記オプティカルトラッキングシステムの第1結像ユニットが受け入れて第1拡大されたパターン部のイメージを結像させるステップと、
前記第1拡大されたパターン部のイメージを用いて前記オプティカルトラッキングシステムのプロセッサが前記マーカーユニットの方向を算出するステップと、
を含み、
前記マーカーユニットは、少なくとも1つの光源から照射される光を、表面にパターン部が設けられたボールレンズを通じて反射させて平行出射光形態で放出させる、
オプティカルトラッキングシステムの作動方法。
How the optical tracking system works
The marker unit of the optical tracking system attached to the target object passes through the pattern portion or emits light reflected by the pattern portion so that the image of the pattern portion can be enlarged and imaged. Steps and
The first imaging unit of the optical tracking system receives the light that has passed through the pattern portion emitted from the marker unit or is reflected by the pattern portion to form an image of the first enlarged pattern portion. Steps and
A step in which the processor of the optical tracking system calculates the direction of the marker unit using the image of the first enlarged pattern portion, and
Only including,
The marker unit reflects light emitted from at least one light source through a ball lens provided with a pattern portion on the surface and emits it in the form of parallel emission light.
How the optical tracking system works.
前記マーカーユニットの方向を算出するステップは、
前記プロセッサが前記第1拡大されたパターン部のイメージを用いて前記マーカーユニットが回転された角度を算出し、前記マーカーユニットの方向を算出するステップ
を含む請求項1に記載のオプティカルトラッキングシステムの作動方法。
The step of calculating the direction of the marker unit is
The operation of the optical tracking system according to claim 1, wherein the processor calculates the angle at which the marker unit is rotated using the image of the first enlarged pattern portion, and calculates the direction of the marker unit. Method.
前記マーカーユニットの方向を算出するステップは、
前記プロセッサが前記第1拡大されたパターン部のイメージの領域別パターン部の位置を測定するステップと、
前記プロセッサに既に格納された前記パターン部のイメージの領域別基準パターン部の位置と、前記第1拡大されたパターン部のイメージの領域別パターン部の位置とを比較し、マーカーユニットの回転された角度を算出するステップと、
を含む請求項2に記載のオプティカルトラッキングシステムの作動方法。
The step of calculating the direction of the marker unit is
A step in which the processor measures the position of the pattern portion for each region of the image of the first enlarged pattern portion, and
The position of the region-specific reference pattern portion of the image of the pattern portion already stored in the processor was compared with the position of the region-specific pattern portion of the image of the first enlarged pattern portion, and the marker unit was rotated. Steps to calculate the angle and
2. The method of operating the optical tracking system according to claim 2.
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を前記オプティカルトラッキングシステムの第2結像ユニットが受け入れて第2拡大されたパターン部分のイメージを結像させるステップと、
前記第1拡大されたパターン部のイメージ及び前記第2拡大されたパターン部のイメージを用いて、前記プロセッサが前記マーカーユニットの空間位置を算出するステップと、
をさらに含む請求項1に記載のオプティカルトラッキングシステムの作動方法。
The second imaging unit of the optical tracking system receives the light that has passed through the pattern portion emitted from the marker unit or is reflected by the pattern portion to form an image of the second enlarged pattern portion. Steps and
A step in which the processor calculates the spatial position of the marker unit using the image of the first enlarged pattern portion and the image of the second enlarged pattern portion.
The method of operating the optical tracking system according to claim 1, further comprising.
オプティカルトラッキングシステムの作動方法であって、
パターン部のイメージを拡大させて結像させることができるように、目的物に取り付けられた前記オプティカルトラッキングシステムのマーカーユニットが前記パターン部を通過したり、前記パターン部により反射された光を放出させるステップと、
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を前記オプティカルトラッキングシステムの第1結像ユニットが受け入れて第1拡大されたパターン部のイメージを結像させるステップと、
前記第1拡大されたパターン部のイメージを用いて前記オプティカルトラッキングシステムのプロセッサが前記マーカーユニットの方向を算出するステップと、
を含み、
前記マーカーユニットは、少なくとも1つの光源から照射されて前記パターン部を通過したり、前記パターン部により反射された光を対物レンズに通過させて平行出射光形態で放出させた後、プリズムを通じて画角が異なる平行出射光を放出する、
オプティカルトラッキングシステムの作動方法。
How the optical tracking system works
The marker unit of the optical tracking system attached to the target object passes through the pattern portion or emits light reflected by the pattern portion so that the image of the pattern portion can be enlarged and imaged. Steps and
The first imaging unit of the optical tracking system receives the light that has passed through the pattern portion emitted from the marker unit or is reflected by the pattern portion to form an image of the first enlarged pattern portion. Steps and
A step in which the processor of the optical tracking system calculates the direction of the marker unit using the image of the first enlarged pattern portion, and
Including
The marker unit is irradiated from at least one light source and passes through the pattern portion, or the light reflected by the pattern portion is passed through the objective lens and emitted in the form of parallel emission light, and then the angle of view is passed through the prism. Emit different parallel emission light,
How the optical tracking system works.
オプティカルトラッキングシステムの作動方法であって、
パターン部のイメージを拡大させて結像させることができるように、目的物に取り付けられた前記オプティカルトラッキングシステムのマーカーユニットが前記パターン部を通過したり、前記パターン部により反射された光を放出させるステップと、
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を前記オプティカルトラッキングシステムの第1結像ユニットが受け入れて第1拡大されたパターン部のイメージを結像させるステップと、
前記第1拡大されたパターン部のイメージを用いて前記オプティカルトラッキングシステムのプロセッサが前記マーカーユニットの方向を算出するステップと、
を含み、
前記マーカーユニットは、少なくとも1つの光源から照射される光を、パターン部が設けられたミラー部を通じて反射させて平行出射光形態で放出させる、
オプティカルトラッキングシステムの作動方法。
How the optical tracking system works
The marker unit of the optical tracking system attached to the target object passes through the pattern portion or emits light reflected by the pattern portion so that the image of the pattern portion can be enlarged and imaged. Steps and
The first imaging unit of the optical tracking system receives the light that has passed through the pattern portion emitted from the marker unit or is reflected by the pattern portion to form an image of the first enlarged pattern portion. Steps and
A step in which the processor of the optical tracking system calculates the direction of the marker unit using the image of the first enlarged pattern portion, and
Including
The marker unit reflects light emitted from at least one light source through a mirror portion provided with a pattern portion and emits it in the form of parallel emission light.
How the optical tracking system works.
オプティカルトラッキングシステムにおいて、
目的物に取り付けられ、パターン部のイメージを拡大させて結像させることができるように、前記パターン部を通過したり、前記パターン部により反射された光を放出させるマーカーユニットと、
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を受信して第1拡大されたパターン部のイメージを結像させる第1結像ユニットと、
前記第1拡大されたパターン部のイメージを用いて前記マーカーユニットの方向を算出するプロセッサと、
を含み、
前記マーカーユニットは、少なくとも1つの光源から照射される光を、表面にパターン部が設けられたボールレンズを通じて反射させて平行出射光形態で放出させる、
オプティカルトラッキングシステム。
In the optical tracking system
A marker unit that is attached to an object and emits light that passes through the pattern portion or is reflected by the pattern portion so that the image of the pattern portion can be magnified and imaged.
A first imaging unit that passes through the pattern portion emitted from the marker unit or receives light reflected by the pattern portion to form an image of the first enlarged pattern portion.
A processor that calculates the direction of the marker unit using the image of the first enlarged pattern portion, and
Including
The marker unit reflects light emitted from at least one light source through a ball lens provided with a pattern portion on the surface and emits it in the form of parallel emission light.
Optical tracking system.
前記マーカーユニットから放出された前記パターン部を通過したり、前記パターン部により反射された光を受信して第2拡大されたパターン部分のイメージを結像させる第2結像ユニット
をさらに含み、
前記プロセッサは、前記第1拡大されたパターン部のイメージ及び前記第2拡大されたパターン部のイメージを用いて、前記マーカーユニットの空間位置を算出する、請求項7に記載のオプティカルトラッキングシステム。
It further includes a second imaging unit that passes through the pattern portion emitted from the marker unit and receives the light reflected by the pattern portion to form an image of the second enlarged pattern portion.
The optical tracking system according to claim 7, wherein the processor calculates the spatial position of the marker unit by using the image of the first enlarged pattern portion and the image of the second enlarged pattern portion.
JP2019175196A 2013-04-30 2019-09-26 How to operate the optical tracking system and the optical tracking system Active JP6800296B2 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020130047984A KR101406220B1 (en) 2013-04-30 2013-04-30 Optical tracking system and method for tracking using the same
KR10-2013-0047984 2013-04-30
KR20130060034A KR101487248B1 (en) 2013-05-28 2013-05-28 Optical tracking system
KR10-2013-0060035 2013-05-28
KR10-2013-0060034 2013-05-28
KR20130060035A KR101487251B1 (en) 2013-05-28 2013-05-28 Optical tracking system and method for tracking using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017253282A Division JP6595574B2 (en) 2013-04-30 2017-12-28 Tracking method

Publications (2)

Publication Number Publication Date
JP2019215378A JP2019215378A (en) 2019-12-19
JP6800296B2 true JP6800296B2 (en) 2020-12-16

Family

ID=51843669

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016510628A Active JP6272458B2 (en) 2013-04-30 2014-04-29 Optical tracking system and tracking method using the same
JP2017253282A Active JP6595574B2 (en) 2013-04-30 2017-12-28 Tracking method
JP2019175196A Active JP6800296B2 (en) 2013-04-30 2019-09-26 How to operate the optical tracking system and the optical tracking system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016510628A Active JP6272458B2 (en) 2013-04-30 2014-04-29 Optical tracking system and tracking method using the same
JP2017253282A Active JP6595574B2 (en) 2013-04-30 2017-12-28 Tracking method

Country Status (5)

Country Link
US (3) US10307210B2 (en)
EP (1) EP2992852B1 (en)
JP (3) JP6272458B2 (en)
CN (2) CN108236505B (en)
WO (1) WO2014178610A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160321810A1 (en) * 2015-04-28 2016-11-03 Pixart Imaging (Penang) Sdn. Bhd. Optical navigation sensor, electronic device with optical navigation function and operation method thereof
KR20160039588A (en) * 2016-03-22 2016-04-11 주식회사 우리옵토 Micro-pattern formaing method on optical lenz having a certain curvature
KR101820682B1 (en) 2016-08-09 2018-01-23 주식회사 고영테크놀러지 Marker for optical tracking, optical tracking system, and optical tracking method
KR102166372B1 (en) 2017-12-20 2020-10-15 주식회사 고영테크놀러지 Optical tracking system and optical tracking method
KR102102291B1 (en) 2017-12-20 2020-04-21 주식회사 고영테크놀러지 Optical tracking system and optical tracking method
CN112567200A (en) 2018-08-15 2021-03-26 国立研究开发法人产业技术综合研究所 Marker substance

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6345504A (en) 1986-08-13 1988-02-26 Matsushita Electric Works Ltd Range finder
JP3223863B2 (en) * 1997-01-09 2001-10-29 富士電機株式会社 Distance measuring device
JP3326682B2 (en) 1997-09-04 2002-09-24 アンリツ株式会社 Displacement measuring device
US6017125A (en) * 1997-09-12 2000-01-25 The Regents Of The University Of California Bar coded retroreflective target
EP1767174A3 (en) * 1999-10-21 2008-09-17 Technolas GmbH Ophthalmologische Systeme Iris recognition and tracking for optical treatment
JP2004038536A (en) * 2002-07-03 2004-02-05 Ricoh Co Ltd Measuring method of optical element
JP2004212283A (en) * 2003-01-07 2004-07-29 Nikon-Trimble Co Ltd Surveying airplane, target for surveying airplane, and automatic collimation surveying system
JP2005077295A (en) * 2003-09-02 2005-03-24 Canon Inc Measuring apparatus for optical three-dimensional position and measuring method for position
EP1861035A1 (en) 2005-03-11 2007-12-05 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope
CN101170961A (en) * 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 Methods and devices for surgical navigation and visualization with microscope
JP4459155B2 (en) * 2005-11-14 2010-04-28 株式会社東芝 Optical position measuring device
JP4489007B2 (en) * 2005-11-14 2010-06-23 株式会社東芝 Puncture needle adapter
CN101379412B (en) 2006-02-09 2011-08-10 北方数字股份有限公司 Retroreflective marker-tracking systems
EP1873666B1 (en) * 2006-06-27 2009-03-25 BrainLAB AG Medical marker tracking system with determination of the marker characteristics
JP2008026236A (en) * 2006-07-24 2008-02-07 Olympus Corp Position and attitude measuring instrument, and position and attitude measuring method
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
CN100594839C (en) * 2007-05-17 2010-03-24 大连现代高技术发展有限公司 Real-time tracing positioning apparatus
JP2010190793A (en) 2009-02-19 2010-09-02 Yaskawa Electric Corp Apparatus and method for measuring distance
KR101049507B1 (en) 2009-02-27 2011-07-15 한국과학기술원 Image-guided Surgery System and Its Control Method
JP2010276447A (en) * 2009-05-28 2010-12-09 Seiko Epson Corp Position measuring apparatus, position measuring method and robot system
EP2491337A4 (en) * 2009-10-20 2017-03-22 Imris Inc. Imaging system using markers
JP2011136005A (en) 2009-12-28 2011-07-14 Fujifilm Corp Endoscope apparatus
US8657809B2 (en) * 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
KR101188715B1 (en) * 2010-10-04 2012-10-09 한국과학기술연구원 3 dimension tracking system for surgery simulation and localization sensing method using the same
WO2014089439A1 (en) * 2012-12-07 2014-06-12 University Of Houston Surgical procedure management systems and methods

Also Published As

Publication number Publication date
EP2992852A4 (en) 2016-12-28
US20210038323A1 (en) 2021-02-11
JP6272458B2 (en) 2018-01-31
JP2019215378A (en) 2019-12-19
CN105142561B (en) 2018-01-30
CN108236505B (en) 2021-02-26
JP2016516526A (en) 2016-06-09
CN108236505A (en) 2018-07-03
US20160287341A1 (en) 2016-10-06
EP2992852B1 (en) 2018-03-07
CN105142561A (en) 2015-12-09
WO2014178610A1 (en) 2014-11-06
JP6595574B2 (en) 2019-10-23
JP2018077245A (en) 2018-05-17
EP2992852A1 (en) 2016-03-09
US10307210B2 (en) 2019-06-04
US20190239963A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6800296B2 (en) How to operate the optical tracking system and the optical tracking system
US20220395159A1 (en) Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool
KR101406220B1 (en) Optical tracking system and method for tracking using the same
US10219866B2 (en) Optical tracking method and system based on passive markers
KR101487248B1 (en) Optical tracking system
JP6626132B2 (en) Range image acquisition device and its application
CN109938837B (en) Optical tracking system and optical tracking method
US20140005475A1 (en) Image Tracking System and Image Tracking Method Thereof
US20200129240A1 (en) Systems and methods for intraoperative planning and placement of implants
TW201830049A (en) Distance sensor including adjustable focus imaging sensor
WO2013176265A1 (en) Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method
JP7030317B2 (en) Pupil detection device and pupil detection method
EP3503032B1 (en) Optical tracking system and optical tracking method
CN104902840B (en) Tracking system and the tracking using above-mentioned tracking system
Luhmann Eccentricity in images of circular and spherical targets and its impact to 3D object reconstruction
ES2933452T3 (en) Method and device for measuring the local refractive power and/or the distribution of the refractive power of a spectacle lens
JP2006220603A (en) Imaging apparatus
KR101487251B1 (en) Optical tracking system and method for tracking using the same
JP6430813B2 (en) Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201124

R150 Certificate of patent or registration of utility model

Ref document number: 6800296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250