총 8 건
안녕하세요, 여러분! 화인스텍이 지난 3월 27(수) - 29(금)까지 서울 코엑스에서 개최됐던 ‘2024 스마트공장·자동화산업전(Smart Factory·Automation World 2024) 전시회를 무사히 마무리했습니다! 국내유일무이한 스마트팩토리 자동화 전시회인 SFAW에서 화인스텍은 다양한 자동화 산업 기반 시설의 효율성을 높이는 방향성을 제공하기 위한 목표를 갖고 차세대 기술력을 갖춘 제품으로 전시회 부스를 구성했습니다. 화인스텍 부스 메인 SFAW 전시회 화인스텍 부스 특히, 이번 전시회는 화인스텍과의 공식 해외 머신비전 파트너사들와 함께 협력하여 Industry 4.0, 공장 자동화, 인공지능 등 미래 기술에 적용 가능한 종합 머신비전 솔루션을 소개했기 때문에 더욱 특별한 시간이었습니다. 전시회 동안 로봇, 물류 산업에 필수인 3D 피킹 어플리케이션, 자율주행에 최적화된 초고속 데이터 전송이 가능한 GVIF 카메라, ITS 및 우주항공 산업에 적용 가능한 SWIR 솔루션 등이 뜨거운 관심을 받았는데요, 그 생생했던 현장을 사진을 통해 만나보세요! 3D 피킹 어플리케이션을 위한 솔루션 Instant Meshing with MotionCam-3D-Color MotionCam-3D Color + Bin Picking Studio 3D modeling in motion Euresys 보드 완전 동기화 멀티 보드간의 완벽한 동기화를 위한 C2C Link SONY 센서가 적용된 SWIR 카메라 웨이퍼 두께 710µm 투과 및 비투과 시연 Emberion SWIR 카메라 Emberion VS20 VIS 초고속 데이터 전송이 가능한 LVDS 규격의 GVIF 카메라 - 2024 머신비전 기술 세미나 - 화인스텍은 SFAW 2024 전시회에서 진행하는 세미나에도 참여했습니다. 기술부 이동국 대리가 '2D 검사의 어려움을 해결하는 Photometric 솔루션’ 주제로 스크래치 검사를 가능하게 하는 혁신적인 포토메트릭 기술을 소개했는데요, 이 세미나를 통해 제조업체의 품질 관리를 더욱 강화하고 모색하는 의미 있는 시간이었습니다. 화인스텍 2024 머신비전 세미나 화인스텍은 내년 2025 스마트공장·자동화산업전에 다시 참가할 예정입니다. 내년에는 어떤 기술과 주제로 여러분께 찾아올지 많은 기대 부탁드립니다!
2024.04.081. 2024 머신비전과 딥러닝 규모와 시장 방향 최근 AI 기술이 발전함에 따라 제조업계에서의 머신비전도 새로운 솔루션의 전환이 시작되어 가고 있습니다. Bizwit Research & Consulting LLP의 보고서에 따르면 세계의 딥러닝 시장은 2022~2029년에는 33.5% 이상의 성장률을 보일 것이라고 전했습니다. 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템으로 대량의 정보를 수집, 분석 및 해석하여 데이터를 처리하여 다양한 산업과 업무에서 정확성, 신뢰성, 비용 절감, 생산성 등의 향상에 기여합니다. 정교한 작업이 가능한 AI 딥러닝은 소매업, 의료, 자동차, 농업, 보안, 로봇, 항공우주, 제조산업에서 다양한 솔루션을 제공합니다. 제조 산업에서 AI 기술은 2022년에서 2023년까지의 연 평균 47.8%의 성장성을 지속하고 있습니다. (자료 제공=VMR) 위 이미지에서 시장조사기관 VMR(Verified Market Research)이 최근 발표한 ‘글로벌 빅 데이터 시장’ 연구 보고서에서 제공한 자료에서 보이는 것처럼 제조업계에서 딥러닝 도입으로 인한 자동화는 이제는 선택이 아니라 필수입니다. 따라서, 머신비전 업계에서도 검사 자동화에 있어서는 룰(rule) 기반에서 딥러닝 기반을 통한 솔루션으로 부각되면서 딥러닝 기반 시스템으로 빠르게 전환되어 가고 있습니다. 2. 룰 기반에서 딥 러닝(Deep Learning) 시스템의 새로운 전환 | 룰 기반(Rule Based Learning) 시스템 VS 딥 러닝(Deep Learning) 기반 시스템 딥 러닝(Deep Learning) 이전의 머신비전은 주로 ‘룰 베이스(Rule base)’ 기반으로, 양품과 불량품 데이터를 각각 대량으로 확보한 뒤 머신비전 카메라로 촬영한 제품 사진과 비교해 양품과 불량품을 검사했습니다. 그러나 룰 기반은 기존 DB 기준을 넘어서는 불량에 대해 제대로 인식하지 못하는 미검 상황이 다수 발생합니다. 룰 베이스는 DB 안에서 이뤄지는 시스템이라면 딥 러닝(Deep Learning) 기반의 시스템은 양품과 불량품의 특징에 관한 데이터를 다층적으로 학습하여 DB에 등록되지 않은 데이터라도 미리 추출한 특징으로 기반으로 하여 합리적으로 불량 여부를 판단할 수 있는 기능을 제공합니다. 동시에 추가로 수집된 데이터를 스스로 학습하여 정확성과 생산성을 스스로 향상시킵니다. 현재 머신비전 분야는 ML·DL 등을 포함한 기술과 빅데이터 및 5G 같은 다양한 ICT 기술이 접목되면서 검사 정확도를 높이고 있으며, 공정 효율 개선에도 실질적인 도움을 주고 있습니다. Business Research insight의 머신비전 시장의 딥 러닝 보고서에 따르면 2022부터 2028년까지의 머신 비전 딥 러닝 시장 규모는 연평균 54.4%의 성장률(CAGR)을 나타낼 것이라고 예상했습니다. 이러한 추세에 따라 제조업계에서는 딥 러닝(Deep Learning)을 활용하여 높은 해상도, 실시간 처리, 효율적인 학습 알고리즘을 통해 새로운 유형의 불량 탐지의 정확성을 높여 산업 내에서 경쟁력을 유지하고 신기술에 대한 요구를 해결할 수 있는 기대감이 점점 더 커지고 있습니다. 3. 딥러닝과 머신비전의 융합 활용 사례 딥러닝은 인간의 두뇌를 이루는 생물학적 신경망을 모방해 만든 컴퓨팅 시스템입니다. 머신비전업계에서 딥러닝은 CNN*(컨볼루션 신경망)과 딥 피드 포워드*(deep, feed-forward) 방식의 인공 신경망으로, 이미지를 분석하는 데 가장 널리 적용되고 있습니다. 컨볼루션 신경망(CNN)은 부품 분류, 검출, 결함 감지 등을 효과적으로 수행하기 때문에 제조업에서는 이 기술을 활용하여 자동적이고 정확한 제품 검사, 결함 감지, 및 품질 향상을 위한 머신 비전 시스템을 구축할 수 있습니다. *CNN(컨볼루션 신경망)은 주로 이미지 인식 및 패턴 인식에 사용되는 딥러닝의 한 유형으로 이미지 처리 작업에 특화되어 있다. *딥 피드 포워드(deep feedforward)는 깊이(depth)가 깊다는 딥과 정보가 한 방향으로만 흐르는(feed-forward)라는 뜻의 구조로 이 신경망이 여러 층으로 구성되어 있고 정보가 깊다는 의미. 그리고 더 나아가 딥 러닝 기술을 활용하여 이미지 분석 및 검사 분야에서 혁신적인 솔루션을 제공하는 기업들이 존재합니다. 그 예로 Eurerys가 딥 러닝 기술로 실시간으로 부품을 분류하고 결함을 탐지하는 기술을 제조 업계에 제공함으로써 생산 효율성을 향상하고 품질 표준을 유지하는 데 기여해왔습니다. | 딥 러닝과 머신 비전의 융합 적용사례: Euresys – Open eVision 라이브러리 “머신비전 산업에서 대표적인 이미지 분석 라이브러리” Euresys는 이미지 및 비디오 수집 구성 요소, 프레임 그래버, FPGA IP 코어 및 이미지 처리 소프트웨어를 설계하고 제공하는 선도적이고 혁신적인 하이테크 기업입니다 Euresys는 Open eVision은 머신 비전 검사 애플리케이션을 독립적인 이미지로 처리하고 분석하는 라이브러리입니다. - 프레임 그래버, GigE 비전 및 USB3 비전 카메라를 포함한 모든 이미지 소스 호환 - Deep Learning 및 3D 같은 최신 기술 지원 - 정확한 서브 픽셀 측정 및 보정 - 64-bit libraries for C++ and .NET (C#, VB.NET, C++/CLI) under Windows (x86-64) - Linux(x86-64 또는 ARMv8-A)용 64비트 라이브러리 Open eVision 기술은 딥 러닝 기술을 활용하여 안정적이면서도 변화하는 환경에 대응하여 다양한 조건이나 요구에 유연하게 대처하는 머신 비전 검사를 제공합니다. 특히 딥 러닝 기술을 활용한 라이브러리인 Deep Learning Bundle은 새로운 보조 세분화 도구를 통하여 픽셀 단위의 완벽한 주석을 얻는 빠르고 효율적인 방법을 제시합니다. 이는 보조 세분화 도구를 통해 이미지를 작은 부분으로 분할하여 각 부분의 특성을 분석한 후에 이미지의 각 픽셀에 주석을 달아 물체나 특징을 픽셀 수준에서 정확하게 식별하고 기록하여 작업을 신속하고 효율적으로 동작하는 방법을 제공한다는 의미입니다. Euresys의 Deep Learning Bundle은 특히 머신 비전 애플리케이션의 이미지 분석을 위해 맞춤화, 매개변수에 최적화된 기술입니다. 또한, Deep Learning Bundle은 데이터 증강(Data Augmentation) 기능을 활용하여 딥 러닝 신경망을 학시키는 방식으로 작동합니다. 다시 말해, 프로그램 가능한 한계 내에서 기존의 기준 이미지를 수정(예: 이동, 회전, 확대)하여 추가로 기준 이미지를 생성하는 '데이터 증강'을 구현합니다. 이로써 Deep Learning Bundle은 클래스 당 겨우 100개의 학습 이미지로도 효과적으로 작동할 수 있습니다. 데이터 증강(Data Augmentation) 따라서, Deep Learning Bundle은 Open eVision 라이브러리의 핵심 부분으로 데이터 증강과 보조 세분화 도구를 통해 이미지 주석을 신속하고 정확하게 수행하여 기술적 효율성과 성능을 향상시켜 머신 비전 검사 분야에서 안정적이고 유연한 솔루션을 제공합니다. 특히, Deep Learning Bundle은 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)과 같은 다양한 딥 러닝 솔루션을 통해 Open eVision 라이브러리의 핵심 부분으로서 기술적인 효율성과 성능을 높이고 있습니다. | Deep Learning Bundle이 제공하는 세가지 특징 및 적용사례 Deep Learning Bundle은 Open eVision 라이브러리의 일부이며 딥 러닝 라이브러리는 딥 러닝이 솔루션을 제공하는 세 가지 특정 기능, 즉 분류(EasyClassify), 분할(EasySegment), 로컬라이제이션(EasyLocate)에 대응하는 소프트웨어 도구로 구성되어 있습니다. 1) Euresys Deep Learning Bundle의 분류 라이브러리: EasyClassify EasyClassify는 이미지 분류를 위한 Deep Learning의 분류 도구로, 불량 감지 및 제품 인식과 같은 작업에 사용됩니다. 이 도구는 소프트웨어 사용자가 초기에 머신비전 시스템을 통해 취득한 이미지에 라벨링 작업을 하면 그 후 EasyClassify가 딥 러닝 기술을 활용하여 주어진 이미지가 특정 클래스에 속할 확률을 계산하고, 이를 클래스로 할당합니다. 즉, 이미지가 학된 각 클래스에 속할 가능성을 확률로 제시해 줍니다. 사용자는 어떤 부품이 양호하고 어떤 부품이 불량하며 어떤 부품이 어떤 클래스에 속하는지만 알려주면 됩니다. 이 학습 프로세스 후에 EasyClassify 라이브러리가 이미지를 분류합니다. EasyClassify는 결함을 명확하게 규정하기 어려울 때 기존 머신 비전보다 더 성능이 뛰어납니다. 예를 들면, 다양한 스케일 및 위치에서 복잡한 모양과 텍스처에 따라 분류가 달라지는 경우가 여기에 해당합니다. 2) Euresys Deep Learning Bundle의 분할 라이브러리: EasySegment EasySegment은 개체 및 결함을 쉽게 분할할 수 있도록 설계된 Deep Learning Bundle의 분할 도구입니다. 이를 활용하여 결함이 포함된 부품을 식별하고 그 결함이 이미지의 어떤 위치에 있는지 정확하게 구분합니다. Euresys-EasySegment EasySegment는 이미지의 정상 및 비정상 결함을 감지하고, 결함이 없는 “우수한” 이미지만을 학습하는 무감독(비지도 학습) 모드와 결함 이미지를 분할하고 더 나은 분할과 "결함 감지"를 위해 결함 모델도 학습하는 감독(지도 학습) 모드가 존재합니다. EasySegment의 무감독(비지도 학습)과 감독(지도 학습) 적용 사례: 무감독 모드를 활용한 샘플 데이터 세트: 패브릭 결함 감지 무감독(비지도 학습) 모드: “패브릭” 샘플 데이터 세트는 어떻게 EasySegment의 무감독 모드를 사용하여 소수의 양호한 샘플만 학습하고 어떤 종류의 결함이 예상되는지 알려주지 않은 상태로 패브릭에서 결함을 감지 및 분할할 수 있는지를 보여줍니다. 감독 모드를 활용한 샘플 데이터 세트: 커피 이물질 감지 및 분할 감독(지도 학습) 모드: “커피” 샘플 데이터 세트는 어떻게 EasySegment의 감독 모드를 사용하여 이물질의 색상과 질감이 커피와 매우 유사한 경우에도생산 라인에서 이물질을 효율적으로 감지 및 분할할 수 있는지를 보여줍니다. 정리하자면, EasySegment의 무감독 모드는 양호한 샘플의 이미지만 학습하기 때문에, 결함의 유형을 알고 있지 않은 경우나, 결함 샘플이 준비되지 않는 경우에도 검사를 수행할 수 있습니다. 반면, EasySegment 감독 모드는 무감독 모드보다 더 나은 정확도를 달성하고 더 복잡한 결함을 분할할 수 있습니다. 또한 EasySegment를 무감독 모드로 돌려서 얻은 결과를 확인하고, 그 결과를 실제 데이터와 비교해서 필요한 부분을 가져와서 감독 모드를 위해 필요한 주석을 더 쉽게 달거나 편리하게 활용할 수 있습니다. 3) Euresys Deep Learning Bundle의 현지화 및 분류 라이브러리: EasyLocate EasyLocate는 딥 러닝 번들의 일부로, 사물의 위치를 찾아내고 식별하는 도구입니다. 주로 이미지에서 물체, 제품 또는 결함을 찾아내고 그것들을 구분하는 데 사용됩니다. 특히 EasyLocate는 이미지에 겹쳐 있는 물체를 식별할 수 있는 능력을 갖추고 있어, 해당 물체들의 개별적인 개수를 계산하는 데에도 활용될 수 있습니다. EasyLocate는 축 정렬 바운딩 박스와, 관심점 총 두 가지 방법을 사용하여 사물의 위치를 찾아낼 수 있습니다. 축 정렬 바운딩 박스를 이용한 샘플 데이터 첫 번째로는 “축 정렬 바운딩 박스” 방법으로 다양한 개체 및 크기에 정확한 주석 및 위치를 지정합니다. 이미지 속에서 찾은 각 개체(또는 결함)를 둘러싼 축 정렬 바운딩 박스를 만든 후 각각의 틀에 어떤 종류의 물체나 결함인지에 관한 클래스 레이블을 각 바운딩 박스에 할당합니다 위의 샘플 데이터처럼 "전자 부품" 데이터 세트는 EasyLocate 바운딩 박스가 열악한 조명 조건에서도 비닐봉지 안에 대량으로 보관된 다양한 종류의 전자 부품을 안정적으로 감지하고 계산할 수 있는 방법을 보여줍니다. 관심점을 이용한 샘플 데이터 두 번째는 관심점 방법으로 크기가 유사한 개체에 대한 빠른 단일 포인트로 주석 및 위치를 지정합니다. 즉, 이미지 속에서 크기가 비슷한 물체들을 예측하고 각 위치에 클래스 레이블을 할당하여 신속하게 하나의 지점으로 표시합니다. 단, 이 방법은 이미지의 모든 개체(또는 결함)의 크기가 비슷해야 합니다. 왼쪽의 샘플 데이터에서 보여지는 것처럼 “세라믹 커패시터 데이터 시트”는 EasyLocate 관심점이 서로 겹치거나 접촉하는 많은 세라믹 커패시터를 안정적으로 감지하고 정확하게 계산할 수 있는 방법을 보여줍니다. EasyLocate 관심점을 사용하면 한 번의 클릭으로 개체에 주석을 추가할 수 있으므로 주석 처리가 더 빨라집니다. 현재 Euresys의 Deep Learning Bundle의 EasyClassify / EasySegment / EasyLocate 툴은 표식 검사나 LED 검사가 필요한 전자제품 제조 산업에서 활용하고 있으며 일반 제조 산업용에서도 존재 여부 검사, 표면 분석, 어셈블리 검사, 레이블 인쇄 기계의 코드 품질 검증 등에 머신 비전 솔루션을 제공하고 있습니다. 앞으로 자동화 산업에서 성공적인 어플리케이션 구현에 있어 이미지 데이터 관리의 중요성은 더욱 강조될 것 입니다. 4. 딥 러닝 머신비전 솔루션, 제조산업의 자동화를 혁신하다 | Conclusion 머신 비전은 많은 이점을 제공하지만 이미지 품질에 영향을 미치는 일관되지 않은 조명 조건 및 실시간 처리에 대한 강력한 계산 능력과 같은 도전에 직면하고 있습니다. 또한 다양한 장치와의 상호 운용성 및 통합을 보장하기 위한 계속된 개발이 필요합니다. 따라서 인공 지능과 머신 비전의 융합은 머신 비전 업계에서 운영 효율성에서 중요한 전환을 의미합니다. 이차전지 제조과정에서는 2.5D 알고리즘과 LED 광학계 조명을 적용하여 영상처리 및 전처리 알고리즘이 강조되고 있습니다. 제조 산업이 계속해서 디지털 혁신을 수용함에 따라 비전 검사에서 딥 러닝의 역할이 진화하고 있습니다. 이러한 발전으로 제품 품질, 운영 효율성, 그리고 전반적인 경쟁력이 향상될 것으로 예상됩니다. 머신 비전을 적용한 다양한 솔루션은 산업 자동화와 스마트 제조 분야에서 주요 요소로 인식되어 제품 품질 향상과 생산 공정 효율화에 기여하고 있습니다. 뿐만 아니라 이차전지, 제약, 의료, 바이오 분야에서도 딥 러닝을 활용한 머신 비전 솔루션이 도입되고 있습니다. 마지막으로 식품 검사 및 분류를 위한 머신 비전은 특히 두드러지게 늘어나고 있습니다. 특히 패키징 공정에서는 딥 러닝을 기반으로 한 솔루션을 활용하여 제품 결합 여부를 확인하고 제품 누출을 방지하며 배송 지연을 예방할 수 있습니다. 물류 자동화의 핵심 기술인 AGV(무인운송로봇) 및 AMR(자율이동로봇)과 같은 로봇에도 머신 비전 솔루션이 도입되어, 로봇이 물건을 감지하고 이동하는 데 도움이 됩니다. 그러므로 머신 비전 자동화에 대한 딥 러닝 기술의 활용은 로봇 공학, 자율 주행 차량, 그리고 스마트 제조 분야에서 계속해서 증가할 것으로 전망됩니다. Euresys의 Deep Learning Bundle에 관한 자세한 내용을 알고 싶으시다면 화인스텍 홈페이지에서 확인해보시기를 바랍니다! 참고 자료: 유레시스 홈페이지 지티티코리아(https://www.gttkorea.com) 인더스트리뉴(https://www.industrynews.co.kr/news/articleView.html?idxno=49846)
2024.01.083D 기본 교육 - 기본 용어 정리 안녕하세요 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 머신비전 3D 검사 기본 용어에 대해 포스팅하겠습니다. 1. 데카르트 좌표 머신비전 3D 검사를 볼 때 가장 기본인 좌표입니다. 데카르트 3D 좌표계라고 하는데 이름은 어렵지만 아래 이미지와 같이 AutoCad 는 물론 3D Tool에서 항상 보던 그 녀석입니다. <사진 1> 데카르트 좌표 X, Y, Z 축의 하나의 점으로 표현하여 위치를 나타냅니다. 2. Depth Map(Height Map, Range Map, 깊이 맵) 이미지의 각 픽셀에 세 번째 좌표가 Gray value로 표현된 2D 이미지입니다. 픽셀 값은 물리적 높이 값이 아닌, 광 삼각 측량의 레이저 라인 프로파일의 변위를 나타내고 Calibration 단계를 거쳐 Point Cloud, ZMap으로 변환하는데 사용됩니다. Depth Map은 아래와 같은 이미지입니다. <사진 2> Depth Map Image 3. Point Cloud Data(PCD) 스캔 된 객체를 나타내는 3D 점 좌표의 집합이라고 생각하시면 됩니다. 3D Processing에 사용됩니다. <사진 3> Point Cloud Data(PCD) 4. Mash 3D Point Cloud Data 점들을 연결하여 3D 표현으로 만드는 표현방식입니다. 단어 그대로 그물망처럼 점을 이어 표현하는 방식입니다. <사진 4> Point Cloud Data 와 Mash 표현 5. ZMap 3D 데이터 표현 방식 중 다른 방식입니다. 2.5D Image라고 부르기도 합니다. 메트릭 및 Calibration이 적용된 이미지이며, 픽셀 값에 물리적 높이 값이 적용되어 있습니다. ZMap에서는 우리가 일반적으로 사용하는 2D Processing 가능합니다. <사진 5> ZMap 6. LLE(Line Laser Extraction) 카메라 센서로 획득된 레이저 프로파일로 Depth Map을 생성할 수 있습니다. LLE 알고리즘에 따라 정확도가 달라질 수 있는 점은 숙지하셔야 합니다. <사진 6> LLE 생성 과정 아래 EURESYS에서 출시한 Coaxlink LLE Framegrabber에 알고리즘이 탑재되어 있습니다. <사진 7> EURESYS Coaxlink Quad 3D-LLE CoaxPress Interface Camera만 있다면 3D Camera처럼 사용이 가능합니다. 무료 소프트웨어 #머신비전 3D 무료소프트웨어 를 소개해 드릴까 합니다. 1. ImageJ Software 간단한 이미지 분석이 가능한 무료 소프트웨어이며, 16Bit Image View 가 가능합니다. 실제로 3D Depth Map Image는 16Bit 이미지로 윈도 기본 뷰어에서는 제대로 보이지 않습니다. <사진 8> ImageJ 이미지 뷰어 차이 2. CloudCompare Software 3D 포인트 클라우드 데이터 프로세싱 무료 소프트웨어입니다. 3D (Point Cloud Data) 확장자 : .PCD .PLY .CSV .XYZ … 등 지원을 합니다. <사진 9> CloudCompare Software CloudCompare는 3D 포인트 클라우드 프로세싱 소프트웨어입니다. 3D 포인트 클라우드 데이터를 편집하고 랜더링하기 위한 기본 도구 세트를 제공하며 통계 계산, 색상, 거리 측정, 리샘플링 등의 고급 기능도 제공하는 소프트웨어입니다. 오픈소스 프로젝트이며 무료 소프트웨어이기 때문에 누구나 사용할 수 있습니다. 머신비전 3D 검사 기본 용어에 대해 살펴봤습니다. 도움이 되셨길 바라며, 다음 포스팅 때 뵙겠습니다.
2022.05.17빛의 파장과 카메라 이미지 안녕하세요? 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번 포스팅은 빛의 파장에 따른 카메라 이미지에 대해 포스팅하겠습니다. 렌즈의 색수차에 대해서는 아래 글을 참고해 주세요. 우리가 일상에서 만나는 조명은 대부분이 백색입니다. 형광등, LED 조명 등, 태양은 사람 눈에 보이는 가시광과 그 외의 파장도 갖고 있는 것은 모두 알고 있는 사실이죠. 조명의 색에 따라 색을 판단하기 어려운 경우도 있죠 노래방의 파란 형광등이나, 빨간 정육점의 빨간 형광등이 그 예죠 빨간 형광등은 고기를 더 빨갛게 보이게 해서 고기가 신선해 보이도록 눈속임하죠. 우리가 검사를 하기 위해 검사 대상체를 보는데 조명이 중요합니다. 하지만 필터를 사용하여 우리가 원하는 마크나 이물을 더욱더 쉽게 찾아낼 수 있습니다. 아래 이미지를 한번 볼까요? <그림 1> 파란 물체 어렸을 때 분명 배운 내용입니다. 하지만 이걸 써먹을 줄을 몰랐습니다. 파란 물체는 빨간색, 녹색은 흡수하고 파란빛을 반사시키기 때문에 저희 눈에 파란색으로 보이는 거죠? <그림 2> 빨간 물체 빨간 물체 또한 위와 마찬가지입니다. 빨간색은 반사하고 나머지는 흡수하죠 <그림 3> 흰색 물체 흰색 물체는 모든 빛을 반사하기 때문에 하얗고 <그림 4> 검정 물체 검정 물체는 모든 빛을 흡수하기 때문에 까맣습니다. 아래 이미지처럼 파란 배경에 빨간색 원을 찾아내고 싶다면 아래 경우로 사용할 때 확실하게 찾을 수 있을 것입니다. <그림 5> 블루필터 사용 블루필터를 사용하면 파란 배경에는 파란광만 물체에 도달하고 파란색 부분만 반사하기 때문에 빨간원은 까맣게 배경은 하얗게 나옵니다. <그림 6> 레드 필터 사용 레드 필터를 쓰면 위와 같이 원이 하얗게 나올 것입니다. 어떤 검사를 할 때 배경색과 검사할 색도 같이 검토한다면 여러분은 다른 사람들 보다 더 나은 비전 설루션을 제공할 수 있을 것이라 생각이 듭니다. 어떠신가요? 이번에는 어릴 때 배웠던 것을 리마인드 하여 머신비전에 활용하는 시간을 가지게 되었습니다. 다음에 더 나은 포스팅으로 인사드리겠습니다.
2022.05.12Bayer Color VS 3-Sensor Color 안녕하세요 화인스텍 마케팅 팀 입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 이번 포스팅은 Bayer Color 카메라와 멀티센서 Color 카메라의 이미지를 비교하도록 하겠습니다. 구조적으로 먼저 설명드리면 Bayer Color Sensor는 아래와 같은 이미지 입니다. <사진 1> Bayer Color Sensor 멀티센서는 아래와 같이 프리즘으로 RGB 파장을 나눠 3장의 센서에 데이터를 넘겨줍니다. <사진 2> Multi Color Sensor Bayer Color Camera의 경우 한 픽셀에 RGB 값중에 하나의 필터에 맞는 하나의 값만 가져올 수 있지만 Multi Sensor Camera의 경우 R,G,B 값을 모두 가져올 수 있습니다. 색감이 뛰어나며, 분해능에 대해 손실이 없습니다. 인쇄물, 바이오, 의료 산업에는 Multi Sensor Camera를 우선 검토하는 것이 맞습니다. Bayer Color Camera의 경우 필터 배열로 인해 직선이 제대로 표현되지 않을 수도 있습니다. 아래 그래프는 Bayer Color Camera 와 Multi-Sensor Color Camera의 파장 차이 그래프이니 참고해주시면 됩니다. <사진 3>Bayer-Mono Camera <사진 4> Prism Base Color Camera <사진 4> Prism Base Camera의 파장별 감도 그래프는 <사진 3> Bayer Color Camera 파장별 감도 그래프에 비해 RGB 별 겹쳐지는 구간이 매우 적습니다. 이것이 가장 중요한 부분이고 실제 RGB가 가공되지 않은 데이터를 사용할 수 있다는 이야기 입니다. 하지만 카메라 원가에 가장 큰 영향을 미치는 이미지 센서가 3개로 가격이 높은 편입니다. 대표적으로 프리즘 베이스 카메라는 JAI 사 에서 공급을 하고 있습니다. 이상으로 이번 포스팅을 마치겠습니다. 다음에는 멀티 센서의 종류로 알아보도록 하겠습니다.
2022.05.10텔레센트릭 렌즈란? 안녕하세요 화인스텍 마케팅 팀입니다. 지난번에 머신비전 렌즈의 종류에 대해 확인해 봤습니다. 이번엔 그 안에 세부 내용으로 텔레센트릭 렌즈(Telecentric Lens)에 대해 포스팅하겠습니다. 저희 화인스텍은 브이에스테크놀러지(VS Technology) 사의 렌즈를 취급합니다. 머신비전에서 텔레센트릭 렌즈(Telecentric Lens)를 개발하게 된 것은 아래와 같은 문제 때문입니다. <사진 1> 과 같은 물체를 볼 때 <사진 1> 대상 물체 일반 렌즈는 <사진 2> 와 같이 보입니다. <사진 2> 일반 렌즈의 이미지 이렇게 되면 원의 규격과 위치를 볼 때 렌즈의 중앙부와 주변부의 값이 차이가 납니다. 렌즈의 중앙부의 원은 정원이겠지만 주변부는 타원으로 보이겠죠? 대상체의 높낮이에 대해서도 다르기 때문에 같은 사이즈의 원기둥의 지름이 다르게 표기됩니다. 아래의 이유 때문이죠 <사진 3> 일반 렌즈의 형상 일반 렌즈는 사람의 눈처럼 멀리 있는 것은 작게 가까이 있는 물체는 크게 보입니다. 자동화 공정에서 정밀하게 두 물체의 간격을 볼 때는 문제가 생깁니다. 이것을 해결하기 위해 텔레센트릭 렌즈(Telecentric Lens)가 개발되었습니다. <사진 4> 텔레센트릭의 구조 텔레센트릭 렌즈(Telecentric Lens)는 평행한 거리에 상관없이 평행의 빛을 가져오도록 설계되었습니다. 하지만 단점이 있습니다. 평행한 빛을 가져오기 때문에 보고자 하는 영역(FOV)이 커지면, 렌즈도 커집니다. <사진 5> 텔레센트릭 렌즈의 구조 피할 수 없는 단점입니다. 텔레센트릭 렌즈(Telecentric Lens)는 크게 두 가지가 있는데요. 물체 측 텔레센트릭 렌즈(Telecentric Lens)와 물체 측, 상측(센서)텔레센트릭 설계가 되어있는 Bi 텔레센트릭 렌즈(Bi Telecentric Lens) 입니다. <사진 4>가 일반 물체 측 텔레센트릭 렌즈(Telecentric Lens)이며, 아래 <사진6>이 Bi 텔레센트릭 렌즈(Bi Telecentric Lens) 입니다. <사진 6> Bi 텔레센트릭 Bi 텔레센트릭 렌즈(Bi Telecentric Lens)의 장점은 카메라 센서의 기구적 오차 센서의 마이크로 렌즈로 들어가는 각기 다른 각도의 빛에 의한 빛 균일도 수차에 의해 발생되는 문제 를 최소화 할 수 있습니다. 하지만 라인업이 많지 않은 이유는 설계가 복잡하고 내부에 렌즈가 더 많이 필요하기 때문에 가격이 비싸고 동일 배율, WD라고 하더라도 크기도 큽니다. 브이에스테크놀러지(VS Technology) 에 라인업이 많은 편 입니다. 특별히 문제없다면 일반적인 텔레센트릭 렌즈(Telecentric Lens)로 사용하시면 되겠습니다. 이상 텔레센트릭 렌즈(Telecnetric Lens)에 대해 포스팅을 마치겠습니다. 다음에는 더 좋은 내용으로 찾아뵙겠습니다.
2022.05.10머신비전 조명의 종류 안녕하세요 화인스텍 마케팅 팀입니다. 화인스텍 블로그를 찾아주셔서 감사합니다. 오늘은 경험이 가장 많이 필요한 조명에 대해 포스팅하겠습니다. 머신비전 조명 자체에는 특별함이 그다지 크지 않습니다. 어느 조명업체를 통해 구매하던지 모양은 정해져 있습니다. 많은 테스트를 통해 조명을 설치할 수 있는 공간과 보고자 하는 시료에 알맞은 조명을 사용하는 것이 중요합니다. 실제 조명은 아래 예시보다 더 많이 있지만 대표적으로 사용되는 조명만 다루었습니다. 1. 바 조명 (DB, DB2, DBS Series) <사진 1-1> 바 조명(DB, DB2, DBS Series)<출처: www.lvs.co.kr> 조명 (DB, DB2, DBS Series)은 아래와 같은 형태로 사용합니다. <사진 1-2> 바 조명(DB, DB2, DBS Series) 사용 예시 <출처: www.lvs.co.kr> 바 조명은 개인적으로 테스트할 때 많이 사용했습니다. 어떤 각도에서 어떤 조명이 좋을지 감잡기 딱 좋습니다. 2. 면발광 원형 조명 (IFRK Series) <사진 2-1> 면발광 원형 조명 (IFRK Series) <출처: www.lvs.co.kr> 면발광 링 조명 (IFRK Series)은 아래와 같이 사용합니다. <사진 2-2> 면발광 링 조명 (IFRK Seires) <출처: www.lvs.co.kr> 면발광 링 조명 (IFRK Sereis)은 면을 밝게 반사시켜 빛 반사의 차이로 검사할 때 사용합니다. 3. 직사광 원형 조명 (IFRK Series) <사진 3-1> 직사광 링 조명 (DRT/DRF Series) <출처: www.lvs.co.kr> 직사광 - 링 조명 (DRT/DRF Series)은 아래와 같이 사용합니다. <사진 3-2> 직사광 링 조명 (DRT/DRF Series) <출처: www.lvs.co.kr> 면발광 링 조명 (IFRK Series)과 쓰임은 크게 다르지 않지만 직사광 링 조명 (DRT/DRF Series)은 LED 소자의 각도에 따라 원하는 이미지를 얻고자 할 때 사용합니다. DRF의 경우는 각도 없이 평면으로 꺾임 없이 발산합니다. 반사가 잘 되는 물체에서는 LED 소자가 반사되어 확산판을 추가로 장착해야 합니다. 4. 직사광 Low Angle 링 조명 (DLA2/DL Series) <사진 4-1> 직사광 Low Angle 링 조명 (DLA2/DL Series) <출처: www.lvs.co.kr> 직사광 Low Angle 링 조명 (DLA2/DL Series)는 아래와 같이 사용합니다. <사진 4-2> 직사광 Low Angle 링 조명 (DLA2/DL Series) 사용 예시 <출처: www.lvs.co.kr> 직사광 Low Angle 링 조명 (DLA2/DL Series) 조명은 금속과 같이 반사가 잘 되는 물체의 모서리를 반사시켜 원하는 이미지를 얻고자 할 때 사용합니다. 5. 면발광 - 플랫 조명 (IFS, IFS2 Series) <사진 5-1> 면발광 - 플랫 조명 (IFS, IFS2 Series) <출처: www.lvs.co.kr> 면발광 - 플랫 조명 (IFS, IFS2 Series)는 아래와 같이 사용합니다. <사진 5-2> 면발광 - 플랫 조명 (IFS, IFS2 Series) 사용 예시 <출처: www.lvs.co.kr> 면발광 - 플랫 조명(IFS, IFS2 Series)는 흔히 이야기하는 백라이트 입니다. 실루엣을 보고 외형 혹은 투과하여 내부에 배선 등을 볼 때 사용합니다. 6. 돔형 무형 조명 (IDM Series) <사진 6-1> 돔형 무영 조명 (IDM Series) <출처: www.lvs.co.kr> 돔형 무형 조명 (IDM Series)의 사용 예시는 아래와 같습니다. <사진 6-2> 돔형 무형 조명 (IDM Series) 사용 예시 <출처: www.lvs.co.kr> 돔형 무영 조명 (IDM Series) 은 돔 조명이라고 흔히 부릅니다. 금속, 유리와 같은 반사체에 빛을 골고루 분산하고 인쇄된 글씨 확인할 때 가장 많이 사용합니다. 7. 면발광 - 동축 조명 (ICFV Series) <사진 7-1> 면발광 - 동축 조명 (ICFV Series) <출처: www.lvs.co.kr> 면발광 - 동축 조명 (ICFV Series)의 사용 예시는 아래와 같습니다. <사진 7-2> 면발광 - 동축 조명 (ICFV Series) <출처: www.lvs.co.kr> Display Panel Align 설비에서 많이 사용되는 형태의 조명입니다. 필름의 엣지나, 패널의 엣지를 확인할 때 그리고 그 안의 마크를 확인할 때 유용하다고 보시면 됩니다. 8. 고휘도 콤팩트 스포트라이트 (SHL, SHL2 Series) / 동축 조명 <사진 8-1> 고휘도 콤팩트 스포트라이트 (SHL, SHL2 Series) <출처: www.lvs.co.kr> 고휘도 콤팩트 스포트 라이트 (SHL, SHL2 Series)를 사용하는 예시는 아래와 같습니다. <사진 8-2> 고휘도 콤팩트 스포트라이트 (SHL, SHL2 Series) <출처: www.lvs.co.kr> 스폿 조명은 프리즘(빔 스플리터)이 내장된 렌즈에 사용합니다. 대부분 텔레센트릭 렌즈이며, 렌즈 옆에 아래 사진과 같이 동축 삽입구가 있습니다. 동축은 렌즈의 축과 빛의 축을 같은 선상에 맞췄다고 보시면 됩니다. <사진 8-3> 텔레센트릭 렌즈 동축 조명 삽입구 <출처: www.vst.co.jp> 면발광 - 동축조명 (ICFV Series) 과 비슷한 형태이며, 면발광 - 동축 조명 (ICFV Series)은 외부에 동축 조명을 부착한다고 보시면 됩니다. 지금까지 머신비전 조명의 종류에 대해 포스팅했습니다. 그럼 오늘도 좋은 하루 보내세요~
2022.04.28머신비전 렌즈의 종류 안녕하세요 화인스텍 마케팅 팀 입니다. 화인스텍 홈페이지를 찾아주셔서 감사합니다. 렌즈로는 첫 포스트로 찾아뵙게 됐습니다. 머신비전 기초자료 내용은 쉽습니다! 몰라서 어려운 것 중 하나라고 보시면 됩니다 머신비전의 기본 용어 정리에 O/I와 관련이 있습니다. 머신비전 렌즈는 종류로 나눠서 아래와 같이 설명할 수 있습니다. 종류 특징 사용 목적 CCTV (Fixed focal length) 조리개 조절과 배율 변경 가능하며, 무한 광학계이다.(DOF가 무한이다) 렌즈군 중에 저렴한 렌즈이다. MOD(Minimun object distance) 이전 거리는 볼 수 없다. 넓은 FOV를 보고 싶을 때 사용. DOF가 무한이기 때문에 보안, 감시용으로 많이 쓰임. Macro 짧은 물체와 렌즈 간의 거리용으로 설계 CCTV 대비 왜곡이 적음 배율, 조리개 변경 가능 0.5배 이하 저배율에서 1,000mm 이내에 FOV를 보고자 하고 텔레센트릭 보다 가격이 저렴한 구성으로 사용하고자 할 때 사용됨. Telecentric 렌즈의 광축에 평행되게 빛을 받으며, 왜곡이 최소화되어 이미지 취득이 가능 고정 배율, WD가 고정되어 생산되어, 구매할 때 고려 사항이 많음 0.1배 ~ 10배까지 다양한 라인업이 있으며, 검사 오차를 줄여야 하는 정밀한 제품의 Align 을 위한 광학계로 많이 사용됨. Varifocal (가변초점 렌즈) 초점거리가 변경이 가능하며, 멀리 있거나 가까이 있는 물체에 유연하게 대응 가능하다. Macro 렌즈는 초점거리 이동 시 카메라 위치를 바꿔야 하지만 줌렌즈처럼 카메라를 움직이지 않고 초점을 맞출 수 있다. 일반적인 DSLR 렌즈가 이와 같으며 초점거리를 바꿔 FOV를 바꾸고 반셔터로 초점을 다시 맞춘다. 머신비전 용 렌즈는 거의 수동으로 제작되어 자동 라인에서는 더 저렴한 CCTV 혹은 Macro 렌즈로 사용 됨. Zoom O/I, WD의 변동 없이 배율 변경이 가능 Manual Zoom 과 Motorized Zoom 렌즈가 있음. 카메라와 렌즈를 이동하지 않고 물체를 확대해야 할 때 사용하고 보안 감시용으로 많이 사용됨 Microscope 5배~100배 혹은 그 이상까지 확대하고 정밀하게 보기 위해 사용 NA가 낮아 밝으며, DOF가 짧고, 분해능이 좋은 영상을 취득할 수 있음. 디스플레이 Repair 설비나 현미경에서 주로 사용되며, 연구소에서 많이 사용됨 어떠신가요? 주절주절 쓰긴 했지만 도움이 되셨으리라 생각이 드네요 이 중에서 CCTV와 Macro 렌즈(Low distortion) 렌즈의 차이를 한번 보시죠 <이미지 01> LDA LENS와 CCTV 렌즈의 차이 <출처 : VS Technology 2019-2020 카탈로그> 위 이미지를 보시면 Macro Lens 중에 왜곡을 줄인 Low Distortion 렌즈의 비교 이미지입니다. 차이가 나죠? 그럼 일반적인 렌즈와 텔레센트릭 렌즈의 이해도를 한번 보실까요? <이미지 2> 물체에 따른 렌즈별 형상 <출처 : VS Technology 2019-2020 카탈로그> 어떠신가요? 느낌이 오시나요? 다음에는 렌즈별로 좀 더 디테일하게 알아보도록 하겠습니다. 그럼 오늘도 즐거운 하루 보내세요!
2022.04.27