총 46 건
레코더 저장 및 확인 방법 1. 레코더를 저장할 경로를 파일 모양 아이콘을 클릭하여 지정합니다. 2. 저장할 레코더 파일의 크기를 지정합니다. (무분별한 PC 저장공간 사용 방지) 3. "Create recorder"를 클릭하여 레코더를 생성합니다. 4. 녹음 버튼(동그라미)을 클릭하여 녹화를 시작 후 이미지를 취득하면 생성한 레코더 파일에 버퍼가 저장됩니다. 5. 녹화를 완료 하면 "Close recorder"를 클릭하여 레코더를 닫습니다. ※레코더 기능을 사용하려면 레코더 라이센스가 필요합니다. 6. 탭 오픈소스 영역에서 + 버튼을 클릭합니다. 7. Sources 목록에서 "Recorder Containers"를 클릭합니다. 8. Recent 목록에서 앞서 생성한 레코더를 선택 후 "Open"을 클릭합니다. 9. Record 스크롤로 저장된 버퍼를 확인할 수 있으며, Range를 설정하여 원하는 버퍼를 .tiff 이미지 및 .mkv 동영상으로 저장이 가능합니다. 10. 저장방법은 File type, Format, Range 를 설정 후 Name을 지정하고 "Export"를 클릭합니다.
2023.05.09• 시작 프로그램에서 cxDiscover 프로그램을 실행합니다. • 아이콘은 IP 가 맞지 않아 연결이 안 된 상태를 의미합니다. • 고정 IP를 설정할 모델을 선택하고, 우측 마우스를 클릭하여 메뉴를 클릭합니다. • 우측 그림처럼 Assign persistent IP (Static)을 선택하고 설정할 IP와 Subnet을 입력합니다. • 입력을 마치면 버튼을 클릭합니다. • 잠시 대기하면 아이콘이 표시됩니다. • 해당 아이콘은 연결이 가능한 상태를 의미합니다.
2022.10.271. AT Sensor 구성품 전체 구성품 • AT Sensor • M12 GigE Cable • M12 17 pin pigtail cable for power. ※ I/O Tool Box, 옵션 제공 2. AT Sensor setup • Sensor 보호 스티커 - Camera, Laser 보호 스티커를 제거합니다. - 먼지가 묻었을 경우 Lens Cleaning Tissue 이용하여 닦아냅니다. • GigE 및 Power & I/O Port 확인 • GigE 및 Power & I/O Port LED - LED 구성 요소 및 출력 형태를 확인합니다. • GigE cable 연결 - RJ45 부분을 PC의 LAN Card에 연결합니다. - Male Connector 부분을 Sensor의 GigE Port에 연결합니다. • Power & I/O Cable 연결 - Female Connector 부분을 Sensor의 Power & I/O Port 에 연결합니다. - Laser Supply, Trigger 및 Encoder Input Spec 확인합니다. - Pin Map 확인하여 측정 환경에 맞게 배선합니다. - Sensor 전원(Pin No.8)Laser 전원 (Pin No.2). * GND 연결 (Pin No.5 or Pin No.9). - 이미지 취득 시작 시점을 Trigger 사용 (Pin No. 13,14,17). - 이미지 취득 시 Encoder 사용 (Pin No. 4,6,7,10). - 장비 GND 연결 (Shield). • Sensor 설치 - 시료의 측정면을 기준으로 Working Distance 를 확인하여 설치합니다. - WD 에 따라 Profile 의 기준면이 설정됩니다.
2022.10.271.기능 소개 소개 • 센서의 Dynamic Range 를 증가시키기 위한 기능. • 레이저 라인 검출의 정밀도를 높이기 위해 사용. • 매우 약하거나 매우 강한 감도 레벨을 동시에 제어하는 기술. • Single / Dual / Triple Mode 제공. • 시간에 따른 강도를 제어하여 포화를 방지. • 어두운 강도는 유지, 밝은 강도는 제한. 2. 적용 과정 3DExplorer HDR 1. Multi Slope Knee Point Count 를 0으로 설정. 2. Camera Mode 를 3D Maximum Intensity (MAX)를 선택. 3. Data Output channels 의 DC0을 True로 설정. 4. Exposure Time을 1us 으로 설정. 5. 검출 대상 물체의 표면을 스캔. 6. Image View 의 Data Scale 을 1022 ~ 1023 으로 설정하여 포화된 데이터가 존재하는지 확인. 7. 포화 된 데이터가 존재하면, 레이저 파워를 낮춰가며 스캔을 반복. 8. AOI Threshold 를 0으로 설정. 9. Light Controller Source 를 Off로 설정. 10. 레이저가 꺼진 상태로 이미지를 획득. (Background 노이즈가 존재하는 이미지가 취득 됨.) 11. Background noise 최대 값을 확인한 후, AoiThreshold 값을 10 더한 값으로 설정. (예 : Maximum Intensity 69, Aoithreshold = 79) 12. Light Controller Source 를 On으로 설정. 13. Exposure Time 을 늘리고 DC0의 Data에서 밝기가 0인 픽셀이 거의 표시가 되지 않을 때 까지 Scan을 반복 (주의 : occluded 영역에는 0 값이 있어야 합니다.) Image View 의 Data Scale 을 0~1로 설정 후 물체의 스캔 영역에 검은색(0값)이 안보일 때 까지 반복 14. 어드벤스 사용자의 경우 maximum intensity 의 데이터를 파일로 내보내고 히스토그램 분석을 수행합니다. 히스토그램의 intensity 값 분포는 Dynamic Range 의 중간에 있어야합니다. ( 예 : 10 bit 의 intensity 범위에서 약 512 이어야 합니다.) 그렇지 않으면 노출 시간을 적절하게 조정 해야합니다. 15. Dual Slope Mode 사용. (Multi Slope Knee Point Count = 1, Multi Slope Knee Point Selector = 1) Off 되어 있던 Multi Slope Mode 가 Manual 로 변경. 16. Exposure Slope Duration 을 (Exposure Time -1) / Exposure Time과 동일하게 설정. (예 : (2100-1) / 2100 = 99.9523%) ) Multi Slope Exposure Limit = 99.9523 % 17. DC0의 이미지를 확인하여 포화 된 경우 Multi Slope Saturation Threshold 를 줄이고 픽셀이 포화가 되지 않을 때 까지 반복. 18. Camera Mode 알고리즘을 COG 또는 FIR-Peak 로 변경. 19. 먼저 DC2를 활성화 하고 DC0을 사용하지 않는다면 비활성화. 20. Dual Slope Mode 설정이 끝나 0 또는 포화 픽셀 없이 프로파일 획득 가능
2022.10.271. C# 샘플 코드 프로젝트 에러 • 제조사에서 제공하는 C# 기본 예제 코드를 실행하면, 아래 그림과 같이 참조 dll에 에러가 표시됩니다. • 프로젝트에 dll 참조가 실패한 모습으로, 다음 슬라이드부터 올바른 설정 방법을 설명합니다. 2. NuGet 패키지 관리자 설정 • 툴 바의 도구 메뉴에서 NuGet 패키지 관리자의 메뉴를 클릭합니다. • 아래 화면과 같이 옵션 창이 표시되면, 버튼을 클릭하여 패키지 소스를 추가합니다. • 새로운 패키지 소스가 추가되면, 하단의 버튼을 클릭합니다. • 패키지 소스 폴더 선택 창이 표시되면, 아래 기본 경로를 지정합니다. C:\Program Files\cxSupportPackage\cxSDK\.NET • 해당 경로에는 아래의 nupkg 파일이 존재합니다. • 패키지 소스 경로가 추가되면 아래 그림과 같이 표시됩니다. 3. NuGet 패키지 설치 • 툴 바의 도구 메뉴에서 NuGet 패키지 관리자의 메뉴를 클릭합니다. • NuGet- 솔루션 화면에서 다음의 순서대로 패키지를 설치합니다. ⓛ 패키지 소스를 Packge source 로 선택 ② Cx...Lib.NET 파일을 차례대로 선택. ③ 프로젝트 파일 선택 후 설치 버튼 클릭. • AT SDK의 NuGet 설치가 완료되면 아래 그림과 같이 표시 됩니다. • 이제 정상적으로 프로젝트 빌드 및 실행이 가능합니다.
2022.10.271. 개요 Automation Technology 의 Compact Sensor 제품을 사용하는 방법은 아래 그림과 같이 간단하게 도식화 할 수 있습니다. 본 문서는 각 과정에서 카메라의 파라미터를 어떻게 설정해야 하는지를 설명합니다. 그림 1. Compact Sensor 를 이용한 데이터 취득 흐름 2. 영역 설정(AOI) Compact Sensor 에는 CMOS 센서가 탑재되어 있습니다. 일반 Area 카메라처럼 AOI 의 크기를 낮출수록 출력 속도가 빨라집니다. 따라서 불필요한 영역을 AOI 로 제외해 출력속도를 높이는 것이 일반적입니다. 그림 2. Calibrartion Target 을 스캔하는 모습 먼저, 스캔하고자 하는 물체를 스테이지에 올려놓고 2D 영상을 취득합니다. 2D 영상 취득을 위해서는 아래와 같이 파라미터를 변경합니다. 위와 같이 설정하면 전체 해상도 기준으로 영상을 취득하게 됩니다. 그림 3. 전체 해상도로 취득 된 데이터 취득 된 화면에서 필요한 영역만큼 마우스로 Drag & Drop 하여 AOI 영역으로 설정합니다. 그림 4. 필요한 부분만 AOI 영역으로 지정 그림 5. AOI 가 설정 된 데이터 출력 위 그림과 같이 설정하면 변경 된 AOI 정보를 아래의 파라미터에서 확인할 수 있습니다. 그림 6. AOI 가 적용된 파라미터 목록 마지막으로 아래의 파라미터를 설정하여 프레임 속도를 높입니다. 1 을 입력하면 AOI 크기에 맞는 값이 자동으로 계산되어 집니다. 3. 영상 비율 AOI 영역 설정이 완료되면, 영상 비율이 1:1이 맞는지 확인하는 작업이 필요합니다. 즉, X축 분해능과 Y축 분해능을 맞춰야 한다는 의미입니다. 모션 스테이지를 사용하는 경우 엔코더(Encoder) 신호를 카메라에 입력하면 쉽게 설정이 가능하지만, 그렇지 않은 경우에는 영상을 보면서 대략적으로 맞춰야 합니다. 먼저, 데이터 취득을 3D 모드로 변경합니다. N 값은 취득할 세로 라인수 만큼 입력합니다. 3.1 엔코더(Encoder) 신호를 받는 경우 카메라는 엔코더 신호의 Rising, Falling Edge 에서 트리거로 인식되며, 엔코더의 A 상만 받는 경우와 A 상, B 상 모두 받는 경우에 따라 'N'값 계산이 달라집니다. ※ 주의사항 1. 아래에서 설명하는 계산 식은 이상적인 방식이며, 정확하게 비율이 맞지 않을 수 있습니다. 원근감 때문에 시료와의 거리에 따라 dx가 달라지기 때문입니다. 따라서 Divider 값 계산 후 Motion 속도 또는 Divider 의 조정이 필요합니다. ※ 주의사항 2. Trigger Overrun 은 카메라의 속도보다 빠른 속도로 엔코더 신호가 입력될 때 발생합니다. 해당 파라미터는 Overrun 이 발생하면 true, 발생하지 않으면 false 를 표시합니다. Overrun 발생 시 카메라의 속도를 높여야 하며, AOI 크기를 더 이상 낮추지 못해 속도를 높이지 못하는 경우에는 Overrun 을 감안하고 데이터를 취득할 수 있습니다. ① A 상만 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 2번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6um 인 경우. 2.5um/2 = 1.25um, dx/1.25um = 14.88 ≒ 15 (정수형) ② A상, B 상 모두 받는 경우. 이 경우에는 카메라는 엔코더 펄스 당 4번 트리거로 인식됩니다. 예시) Encoder Pitch 2.5um, dx 18.6 um 인 경우. 2.5um/4 = 0.625um, dx/0.625um = 29.76 ≒ 30 (정수형) 3.2 엔코더(Encoder) 신호를 받지 않는 경우 엔코더 신호를 받지 않는 경우에는 획득한 데이터를 보면서 모션 속도 또는 카메라의 속도를 조절하여 비율을 맞춰야 합니다. 일반적으로 모션 속도는 고정되어 있으니 카메라의 속도를 조정하여 비율을 맞춰야 합니다. 비율이 맞지 않으면 N 값을 늘리거나 줄여서 속도를 변경할 수 있습니다. 만약, AOI 크기 때문에 더 이상 N 값을 줄일 수 없다면 AOI 크기를 더욱 낮춰야 합니다. 그림 7. 비율이 맞지 않는 모습. 모션 속도보다 카메라 속도가 빠른 경우. 그림 8. 카메라 속도를 낮추어 비율을 맞춘 모습. 4. 알고리즘 선택 3D 알고리즘에는 TRSH / MAX / COG / FIR PEAK 4가지가 있습니다. 반사가 심한 재질의 경우 FIR PEAK 알고리즘이 사용되며, 일반적인 경우에는 COG 알고리즘을 사용합니다. 물론 이 두 알고리즘으로 정확한 데이터 확보가 되지 않는다면, TRSH 및 MAX 데이터도 취득해 봐야 합니다. 5. 데이터 최적화 광삼각법 3D 어플리케이션은 반사된 빛을 처리하기 때문에 난반사에 영향을 많이 받습니다. 즉, 3D 데이터를 깔끔하게 얻기 위해 최적화 작업이 필요합니다. 3D 데이터의 방해가 되는 요소로는 반사 빛이 너무 강하거나 노출 시간이 긴 경우, 시료의 재질, 질감 등이 있습니다. 아래 목록은 밝기 억제와 노이즈 제거에 도움이 되는 파라미터입니다. 각 파라미터의 권장 값은 없으며, 상황에 따라 적절한 파라미터 조정이 필요합니다. ① Multi Slope Saturation Threshold (HDR) HDR 파라미터는 어두운 부분에는 영향을 주지 않고, 포화되는 부분에만 밝기를 억제하는 기능으로 매우 유용합니다. 보통 60% 기준으로, 너무 밝은 부분이 있으면 점차적으로 줄여서 설정합니다. ② Exposure Time Exposure Time은 프레임 전체의 밝기에 영향을 줍니다. 출력 속도에 영향을 주지 않도록 Frame Interval보다 짧게 설정하며, 이 값도 점차적으로 조정하며 설정합니다. ③ AOI Threshold AOI Threshold를 높이면 난반사 지점의 불필요한 데이터를 제외시킬 수 있습니다. 하지만 불필요한 데이터가 필요한 데이터와 비슷한 레벨에 위치한다면 제외시킬 수 없습니다. 이 파라미터는 기본값 기준으로 점차적으로 증가시켜 불필요한 데이터가 없어지는지 확인하며 설정합니다. ④ Light Brightness 레이저 밝기의 세기를 조정합니다. 밝기가 너무 세면 반사 정도가 심해 불필요한 데이터가 취득될 수 있습니다. 이를 방지하기 위해 100%에서 점차적으로 줄여가며 데이터의 변화를 확인합니다. 6. 데이터 채널 데이터 채널인 DC0~DC2를 선택하여 2D 이미지와 3D 데이터 출력이 가능합니다. 선택된 카메라 모드에 따라 출력되는 DC0~DC2의 데이터가 달라지므로, 필요한 채널을 확인해야 합니다. (카메라 모드 및 FIR 설정에 따라 출력되는 데이터 채널 내용은 카메라 매뉴얼의 ‘The Data Channel Assignment DC0, DC1 and DC2’ 항목을 참고해주세요.) 카메라 모드를 3D 알고리즘으로 선택하면 16bit 데이터로 출력됩니다. 만약, COG 또는 FIR PEAK로 선택하면 DC2는 Subpixel이 적용된 16bit 데이터가 출력되며, 이 데이터를 calibration 적용하여 metric 데이터 및 point cloud로 변환하여 사용할 수 있습니다.
2022.10.271. 설치 방법 • CLIP Studio v1.5.0.exe를 실행합니다. • 아래 그림과 같이 Welcome 페이지가 표시됩니다. • 버튼을 클릭합니다. • 라이선스 화면입니다. • CLIP Studio를 설치하기 위해 버튼을 클릭합니다. • 설치 구성 요소 선택 화면입니다. • Files와 Driver는 기본 선택이고, CLIP SDK는 선택 항목입니다. CLIP SDK를 설치하기 위해 체크하고 버튼을 클릭합니다. • 설치 경로 선택화면입니다. 버튼을 클릭하여 설치를 진행합니다. • 설치 과정 중 Microsoft Visual C++ 2013, 2015-2019 Redistributable (x64) 설치 화면이 표시 됩니다. • 이미 설치가 돼있다면, 왼쪽 그림처럼 표시됩니다. 이 때 버튼을 클릭합니다. • 설치가 안되어 있다면, 오른쪽 그림처럼 표시됩니다. 설치 후 버튼을 클릭합니다. • 다음은 Common Vision Blox (x64) 설치 화면입니다. • AT 제품을 사용하기 위한 드라이버를 제공합니다. • 설치 방법은 간단하게 버튼만 클릭하면 됩니다. • 다음은 cxSupportPackage 2.9.0 설치 화면입니다. • AT 제품의 SDK 및 유틸리티가 설치됩니다. • 설치 방법은 간단하게 버튼만 클릭하면 됩니다. • 모든 설치를 완료하면, 아래와 같이 CLIP Studio 프로그램이 실행됩니다.
2022.10.271. CLIP SDK 구성 요소 • CLIP SDK는 사용자 편의를 위해 Wrapping 된 클래스를 제공합니다. * 센서 제어 : cxSDK를 Wrapping 한 ClipSensor.dll * 랜더링 : VTK Library를 Wrapping 한 ClipRenderWindow.dll ※ VTK 9.0.0 사용 < CLIP Studio 프로그램 실행 화면 > • CLIP Studio v1.5.0.exe 를 설치한 기본 경로는 다음과 같습니다. C:\Program Files\Fainstec\CLIP Studio • 하위 경로인 SDK 폴더에는 아래의 파일이 존재합니다. * CLIP : dll, lib, h * Sample Code : MFC, CS * ThirdParty : VTK Library 2. CLIP SDK 주의 사항 • AT SDK의 PointCloud.h에는 OpenCV를 사용하고 있습니다. C:\Program Files\cxSupportPackage\cxSDK\cx3dLib\wrapper\cpp\include\AT\cx\c3d • ClipSensor.dll 은 OpenCV를 사용하지 않으므로, 오른쪽 그림과 같이 주석 처리합니다. • RenderWindow.dll에서 제공하는 RenderWindow2D, RenderWindow3D를 사용하기 위해서는 CLIP License가 필요합니다. • License가 없으면 왼쪽 그림처럼 예외 메시지가 발생합니다. • License가 있다면, 오른쪽 그림과 같이 RenderWindow가 동작합니다. 3. MFC 샘플 코드 • MFC 샘플 코드 - 프로젝트 설정 MFC에서 CLIP SDK를 사용하기 위한 설정입니다. (예제 코드 프로젝트에 기본으로 경로가 설정되어 있습니다.) • 프로젝트 속성 > 디버깅 > 환경에 아래의 경로를 설정합니다. path=$(CX_SDK_ROOT_64)\bin;$(CLIP_SDK_ROOT)\CLIP\bin;$(CLIP_SDK_ROOT)\ThirdParty\VTK\Debug\bin; • 프로젝트 속성 > C/C++ > 일반 > 추가 포함 디렉터리에 아래의 경로를 설정합니다. • 프로젝트 속성 > 링커 > 일반 > 추가 라이브러리 디렉터리에 아래의 경로를 설정합니다. MFC 샘플 코드 - ExamAcquisition2D • 프로젝트 빌드 후 실행하면, 아래 그림과 같이 2D 라이브 영상을 취득할 수 있습니다. MFC 샘플 코드 - ExamAcquisition2D • 프로젝트 빌드 후 실행하면, 아래 그림과 같이 스캔 된 3D 데이터를 취득 할 수 있습니다. 4. C# 샘플 코드 C# 샘플 코드 - dll 참조 • C# 프로젝트의 참조에 ClipSensor_NetApi_d.dll 또는 ClipSensor_NetApi.dll 을 추가합니다. (RenderWindow 사용 시 ClipRenderWindow_NetApi.dll 도 추가해야 합니다.) • Debug 또는 Release 설정에 따른 Bin 폴더에 아래의 dll을 추가합니다. • AT Sensor dlls -> C:\Program Files\cxSupportPackage\cxSDK\bin • VTK dlls -> Debug: C:\Program Files\Fainstec\CLIP Studio\SDK\ThirdParty\VTK\Debug\bin -> Release : C:\Program Files\Fainstec\CLIP Studio\SDK\ThirdParty\VTK\Release\bin C# 샘플 코드 - ExamAcquisition2D • 프로젝트 빌드 후 실행하면, 아래 그림과 같이 2D 라이브 영상을 취득할 수 있습니다. C# 샘플 코드 - ExamAcquisition3D • 프로젝트 빌드 후 실행하면, 아래 그림과 같이 스캔 된 3D 데이터를 취득할 수 있습니다.
2022.10.27Calibrartion File Upload • C5-CS 센서에 Calibration File 을 업로드하기 위해서는 CVB에서 제공하는 유틸리티를 사용해야 합니다. • 아래의 기본 경로에서 GEVConfigManager.exe 프로그램을 실행합니다. C:\Program Files\STEMMER IMAGING\Common Vision Blox\Hardware\StemmerImaging\Utilities • Filter Driver 항목에서 업로드가 필요한 센서를 선택하고 버튼을 클릭합니다. • 센서 연결 후 좌측 상단의 File Upload 메뉴를 클릭합니다. • 새로 저장할 공간을 선택하고 버튼을 클릭합니다. • 제조사로부터 특별한 언급이 없었다면 CalibrartionUser를 선택합니다. • 파일 선택 창이 표시되면 업로드할 Calibrartion File(*.xml)을 선택합니다. • 업로드가 완료되면 아래와 같이 메시지 창이 표시됩니다. 2. Calibrartion File Download • C5-CS 센서에 Calibrartion File을 다운로드 하기 위해서는 CVB에서 제공하는 유틸리티를 사용해야 합니다. • 아래의 기본 경로에서 GEVConfigManager.exe 프로그램을 실행합니다. C:\Program Files\STEMMER IMAGING\Common Vision Blox\Hardware\StemmerImaging\Utilities • Filter Drivier 항목에서 다운로드가 필요한 센서를 선택하고 버튼을 클릭합니다. • 센서 연결 후 좌측 상단의 File Download 메뉴를 클릭합니다. • 센서의 특정 공간을 선택하고 버튼을 클릭합니다. • 파일 저장 창이 표시되면 다운로드 할 Calibration File (*.xml)의 이름을 지정하고 버튼을 클릭합니다. • 다운로드가 완료되면 아래와 같이 메시지 창이 표시됩니다.
2022.10.27Auto Start 모드 설명 Auto Start 모드란? • 일반적인 검사 시스템의 경우, 스캔을 위한 물체 감지를 위해 근접 센서를 사용하는 것이 일반적입니다. • 하지만 경우에 따라 근접 센서를 사용하지 못하는 경우, 3D 센서 내부에서 물체를 감지하는 기능을 사용할 수 있습니다. • Auto Start 모드는 자동저으로 물체를 감지하고 이미지 취득을 트리거하여 전체 물체를 스캔합니다. • 또한, 시작 트리거 이전에 캡처된 히스토리 버퍼(History Buffer) 데이터를 획득하여 완전한 스캔을 보증하는 옵션이 있습니다. Auto Start 모드 동작 원리 • AOI 내에 물체가 인식될 때까지 3D 스캔을 대기합니다. 하지만 물체 인식을 위한 데이터 취득은 계속됩니다. • AOI 내에 물체가 인식되면 본격적인 3D 스캔이 시작됩니다. • AOI 내의 물체를 인식하기 위한 파라미터 설정이 필요합니다. 2. Auto Start 모드 적용 과정 Auto Start 모드 적용 과정 - AOI • cxExplorer에서 물체가 보이는 조건으로 2D Profile 이미지를 취득합니다. • 좌측 상단의 아이콘을 클릭하여 AOI Rectangle을 지정하고, 아이콘을 클릭하여 AOI를 설정합니다. Auto Start 모드 적용 과정 - SequencerMode • SequencerMode를 Auto Start로 설정합니다. • SequencerMode를 Auto Start로 설정해야, 이와 관련된 모든 파라미터에 접근이 가능합니다. Auto Start 모드 적용 과정 - AutoStartThreshold • Auto Start 조건이 충족되는 라인 위치를 정의합니다. • 해당 파라미터는 AbsolutePosition 값에 따라 계산 방법이 달라집니다. -> AbsolutePosition 은 CameraControls > ModeAndAlgorithmControls 에 있습니다. • AutoStartThreshold 계산 예시는 다음과 같습니다. -> 설정한 AOI 정보가 다음과 같을 때 * AoiHeight : 50 * AoiOffsetY : 800 -> AbsolutePosition 값에 따라 다음과 같이 계산됩니다. * AutoStartThreshold = 800 + 50/2 = 825 (AbsolutePosition : TURE) * AutoStartThreshold = 50/2 = 25 (AbsolutePosition : FALSE) Auto Start 모드 적용 과정 - AutoStartNumPixel • 레이저 위치 외에도, 충족되는 유효한 레이저 위치의 수를 정의합니다. • 캡처 된 각 프로파일의 위치 값이 AutoStartNumPixel의 수를 초과하지 않는 한, 센서는 시작 트리거가 생성되지 않습니다. Auto Start 모드 적용 과정 - Column Evaluation Mask • 유효한 센서 열과 제외되어야 하는 센서 열을 정의합니다. • 적용 예시는 다음과 같습니다. -> 0~2047 중 500~1500 Column만 유효 열로 설정하고 싶을 때. * ColRangeStart : 500, ColRangeEnd : 1500, ColRangeEnableCommand 실행 * ColRangeStart : 0, ColRangeEnd : 499, ColRangeDisableCommand 실행 * ColRangeStart : 1501, ColRangeEnd : 2047, ColRangeDisableCommand 실행 * ColRangeAvtivate 실행 Auto Start 모드 적용 과정 - AutoStartOption • 레이저 라인 위치의 유효 범위를 정의합니다. • 옵션에 따라 위, 아래 방향으로 레이저 라인을 인식합니다. * PosLessThanAtuoStartThreshold * PosGreaterThanAtuoStartThreshold Auto Start 모드 적용 과정 - AutoStartBufferOption • 시작 트리거가 시작되기 전에 미리 취득된 데이터를 얻을지 정의합니다. • 다음의 옵션이 제공됩니다. * none * HistoryBuffer • 3D 모드에서 AT 제품은 3개의 내부 버퍼를 사용하여 프로파일을 동시에 취득하고, 3D 프레임을 PC로 전송합니다. HistoryBuffer는 이 버퍼들 중 하나입니다. • 설정된 옵션에 따라 첫 번째 프레임(Buff#1)이 버려질 수 있습니다. • HistoryBuffer의 크기는 제한되어 있으며, 버퍼가 가득 차면 가장 오래된 데이터를 덮어쓰기 시작합니다. • 또한, HistoryBuffer와 함께 청크(Chunk) 모드를 사용해야 합니다. -> 청크 모드의 사용 방법은 cx_cam_chunk_test 예제 코드를 참고하세요 • HistoryBuffer의 청크 데이터에는 실제 유효한 Y 크기가 포함되어 있습니다. -> sizeYReal : 유효한 프로파일 수 • 예제 코드를 실행하면 아래와 같이 실제 유효한 Y 크기를 얻을 수 있습니다. • 다시 정리하면, HistoryBuffer 를 사용하여 트리거 된 직전 이미지를 얻을 수 있습니다. • 하지만, 실제 유효한 Y 크기를 얻어 추출하고, 트리거 된 직후 이미지와 병합(merge) 작업이 필요합니다.
2022.10.27