ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인텔 모빌애 (Intel Mobileye) CES 2020 (자율주행 / ADAS / 카메라 / 컴퓨터 비전 알고리즘 / VIDAR / 로보택시 / REM / EyeQ 칩) 알아봐요
    카테고리 없음 2020. 2. 28. 16:51

    >


    ​ ​ ​ 하나. 모빌에(Mobileye)​(하나) 작은 기업 개요 하나 999년에 설립된 이스라엘에서 설립된 비전(Vision)기반 지능형 운전자 보조 시스템(ADAS)서비스 제공 업체 ​-20개 4년 뉴욕 증권 거래소에 상장.이스라엘 작은 기업이 추진한 작은 기업공개(IPO) 사례 중 가장 큰 성공을 거둬 유명. 20하나 7년 인텔이 약 하나 7조 6,000억원에 인수. 모빌에 인수는 인텔의 역사를 통해서 가장 성공적인 선택 사항의 하나로 꼽히는 것 ​-핵심 기술인 지능형 ADAS는 전방 충돌 경고(FCW), 보행자 충돌 경고(PCW)차선이 가면 경고(LDW), 지능형 전조등 제어(IHC), 속도 제한 표지(SLI)등을 지원 ​ 창업 초기 BMW, GM, 볼보 등 완성 차 업체에 주문자 상표 부착 방식(OEM)에서 제품을 제공했지만 2007년부터는 애프터 마켓에도 진출하고 독자 브랜드 이제부터라고 구축 ​-과거 테슬라 또 모델 S에 천장률 주행 전체인 오토파 1롯데(Autopilot)기능을 실현하는, 모빌에 비전 중심 컴퓨팅 칩'EyeQ 3'을 채용했지만 오토파 1롯데에 문제가 발생하고 운전자 사망 사코이 발생.이 사코우에 현재의 파트너 관계 종료 ​-20하나 9년 ADAS시장의 큰 성장에 힘입어 매출액이 하나 0억달러에 육박하고 최근 20하나 9년 3분기 매출은 전년 동기 대비 20%이상 성장 ​


    >


    <출처:TECH M>​ ​ ​(2)의 주요 서비스-FCW(Forward Collision Warning):전방 차량 충돌 경보 ​-HWM&Warning(Headway Monitoring&Warning):차간 거리의 모니터링과 경보 ​-PCW(Pedestrian Collision Warning):보행자 추돌 경보 ​-LDW(Lane Departure Warning):차선 이탈 경보 ​-SLI(Speed Limit Indication):제한 속도 표지판 인식과 속도의 국물이 너무 경보 ​-REM(Road Experience Management):EyeQ 4 chip, GPS, G-Sensor통신 모듈이 내장된 Mobileye 8 Connect에 의한 고화질지도 발발. 밑으로 더 자세한 설명 ​ ​ ​ ​ 2. 인텔 모빌 아이 CES 2020​-모빌 아이는 CES 2020으로 최근까지 누적 5,400만개 이상 출하된 '오링이큐(EyeQ)'칩을 포함하고 인텔에서 가장 빠르게 성장하는 비즈니스인 자율 주행 기술에 대해서 발표 ​-모빌 아이는 현재 레이더와 라이다망을 탑재한 비법과 단지 카메라만을 탑재한 2개의 서로 다른 비법으로 자율 주행 기술을 개발하고 ​ 이 날, 인텔은 카메라 센서만 장착한 자율 주행 자동차가 도로를 주행하는 모습이 그 다소움 오래 무표은지프 23분짜리 동영상을 유포. 영상에서 차량은 복잡한 교차로, 보행자나 배달차량 등이 밀집한 환경 등에서도 운행에 성공 - 기타 자율주행을 위한 컴퓨터 비전, 매핑, 운전자 보조시스템(ADAS), MaaS(Mobility-as-a-Service)에 관한 기술과 개념에 대한 설명 - 실적도 급속하게 성장하고 있어 향후 데이터 수익화나 로보택시 등으로 사업을 확장할 것이라고 밝혔다.


    >


    <출처:Mobileye>​ ​ ​ ​ 3. 카메라 센서 비전 인식 ​-모빌 아이는 자율 주행에 두개의 각각 다른 방식으로 접근. 하나 바뀌지 않는 카메라만, 또 하나 바뀌지 않는 레이더와 라이데스로만 사용해 비전인식-특히 자율주행을 위한 카메라 트렌드는 앞쪽에만 설치하는 것에서 사방을 감싸듯 변하고 있다. 한편, 비용은 불과 수백달러에 불과 ​-카메라만 사용하는 방식의 자율 주행 차량이 센싱 실수가 발생할 확률은 하나 0,000시각당 한가지 사건이 목표. 이는 매 1 2시각의 운전할 것이라고 말했을 때, 하나 0년에 한번씩 ​-최종적으로는 라이프니과 레이더만 사용하는 방식과 결합하고 하나, 000만 시각당 한가지 제안의 오류 확률을 달성할 것으로 기대 ​


    >


    <출처:Mobileye>​ ​ ​ ​ 4. 컴퓨터 비전(Computer Vision)​(일)카테고리별 분류인)로드 사용자(Road Users):자동차, 보행자, 자전거, 스쿠터 등 도로 위에서 움직일 수 있는 대상자를 인식. 그들은 정의함으로써 매우 다양 ​ 2)로드 지오 메트리(Road Geometry):차로만 아니라 도로 표면의 종류 및 상태, 각도, 높낮이, 각 차선의 의의 등을 이해 ​ 3)로드 바운더리(Road Boundaries):커브, 가드레일 등 주행 가능한 도로인지 경계를 구분 ​ 4)로드 시맨틱(Road Semantics):도로상 나쁘지 않고 주변의 신호등이나 표지는 보행자의 움직입니다, 차량의 캄파 구의 등을 인식하고 그 의의가 있는 사람인지 이해. 특히 수신호 같은 보행자의 제스처에 따라 운행이 가능한지 멈춰야 하는지가 결정되기 때문에 이런 움직임을 합니다.의의를 이해하는 것은 중요.


    >


    <출처:Mobileye>​ ​ ​(2)기술 구성할지)Detection(감지):픽셀 단위로 차량 및 사물의 외형(Appearance), 원근감이 나쁘지 않아 움직입니다 등을 통해서 3차원과 같은 깊이(Geometry)확인 ​ 2)Measurements(측정):차량을 정확히 제어하기 위해서는 모든 것이 3차원에 위치하고 있어야 하기 때문에 카메라를 통해서 입력을 받은 2D리드 하는 것을 3D로 변환 ​ 3)Internal Redundancy:위에서 이 말을 쓴 4개의 카테고리 내에서는 복수의 컴퓨터 비전 엔진이 독립적으로 실행된다. 또한 아름답지 않은 크고 깊은 알고리즘을 사용하는 것이 아니라 서로 영향을 주지 않는 각기 다른 알고리즘을 여러 번 사용하여 감지 및 측정 기능을 구현


    >


    <출처:Mobileye>​ ​ ​ ​ 5. 컴퓨터 비전 알고리즘의 종류 ​(1)감지 알고리즘, 예를 들면 이하의 리드하는 것의 흰색 버스를 인식하기 때문에 즉 로드 사용자 범주에서 감지 기능을 위한 6개의 각기 다른 엔진(알고리즘)을 사용 ​ 1)3DVD:전통적인 패턴 인식 방법. 먼저 전체 리드를 스캔하고, 그 안에서 인식이 필요한 대상을 찾아 박스화하고, 외형(appearance)을 확인한 다소비 신경망을 통해 학습. 차가 열려 있을 때, 그 안에서 갑자기 사람들이 잘못되지 않아서 일어날 수도 있기 때문에 차 문이 열려 있는 상태가 나쁘지 않아 휠체어, 유모차 등 특별한 경우도 인식할 수 있도록 학습 ​ 2)Full Image Detection: 그렇게 버스가 붙어 있어 크게 보이면 같은 외형에서도 박스화하기 어렵기 때문에 다른 방식으로 접근하는 알고리즘 ​ 3)Top View FS(Free Space):주도할 녹색 공간은 운전 가능한 공간인 무료 space에서 운전 불가능한 공간과 구분 ​ 4)VIDAR:라이 무카 아닌 카메라를 사용한 알고리즘. 사람은 삼각 측량을 통해서 눈에 들어간 2차원 리드하는 것을 3차원에서 느끼는 것처럼 차량을 둘러싼 12대의 카메라(원거리용 8대, 주차용 4대)도 삼각 측량을 구현하고 3D리드 하는 것을 생성(테슬라와 같은 방식). 거기서 얻은 선구 데이터를 라임 프로세싱 알고리즘에 주입하여 인공지능 신경망 학습※테슬라비전 인식 방법 참고


    ​ ​ 5)Scene Segmentation:보행자, 자동차 도로 쟈싱무 등 각 대상을 같은 부류별로 구분 ​ 6)Wheels​


    >


    <출처:Mobileye>​ ​ ​(2)측정 알고리즘 하나)Map World Model:REM기술을 통해서 HD맵 생성 ​ 2)Visual Road Model:HD맵을 활용하여 도로의 형태 과인 깊이, 각도, 고저 등을 구분하고 3차원 정보를 얻는 알고리즘 ​ 3)Range Net:사물의 외형을 통해서 길이 나의 폭과 같은 범위 측정 ​ 4)VIDAR​ ​ ​-이런 알고리즘을 통해서 내 온 결과치를 최종적으로 전체 통합하고 자율 주행 의사 결정 ​-예를 들어 자율 주행 차량이 판단하므로, 그 차가 떠받치고 있는 그이츄이이 주차된 차처럼 장애물로 여기고 이를 피하고 안 갈 것인지 아니면 교통 체증과 잘 기다리며 천천히 가야 한다 물건이 맞는지 판단하는 것은 헷갈리는 사건 이를 해결하기 위해 단순히 전술한 것뿐만 아니라 다른 알고리즘이 가져온 다양한 정보를 종합하여 어떤 귀취인지 판단


    >


    <출처:Mobileye>​ ​ ​ ​ 6. 로봇 택시&에 저 한개(Agile)​-모빌 아이의 주장은 자율 주행의 활용 사례는 가장 앞서고 로봇 택시이다. 1개 반의 사람이 자동 운전 차를 탈 수 있는 때보다 몇년은 빨리 로보 택시 사업이 시행된다고 예상-이것은 내용과 같은 비즈니스이기 때문에 사람 수준에 주행 성능이 좋지 않으면 성공할 수 없다. 따라서 자율주행은 안전할 뿐만 아니라 남들만큼 민첩함과 날렵함이 중요-아래 예루살람에서 시행된 자율주행 영상을 보면 T자형 도로에서 모빌아이 차량은 비보호자 회전을 시도한다. 그러나 차가 멈추지 않자 모빌아이의 차는 멈춰서기를 반복하며 조금씩 전진. 결국 틈새를 내서 직진차가 오기 전에 커브에 진입하고, 자절성공-모빌아이는 자율주행차가 이처럼 상황에 맞게 유연하고 기민한 주행능력까지 갖춰야 살아남을 수 있다. 설명


    ​ ​ ​ ​ 7.REM(Road Experience Management)​-복수의 차량에서 정보를 모으는 크라우드 소싱을 활용하고 고화질의 지도를 생성하는 기술 ​-L2+ADAS가 탑재된 차량이 주행하면서 들어온 공헌하고 있는 중 중요한 정보만을 추출해서 클라우드의 서버에 전송 서버에는 인텔 고성능 서버용 CPU의 AI가속 기능을 활용하고 이를 종합하고 고화질의 지도를 생성한 뒤 다시 각 차량에 전송. 1킬로당 약 10킬로바이트에 불과했던 초등 저 대역 폭 데이터 업로드를 통해서 표식 학문에 가까운 성능을 실현. 이 과정은 전체 자동화되고 시각당 45야드 1의 지도를 생성 ​, 최근 16,000회 이상의 주행 데이터를 활용하고 라스 베이거스 나 400km이상의 고화질 지도 생성. 특히 네바다 땅은 도로 지도를 생성하는데 24시 각도 걸리지 않아요 소리. 이 지도는 만개의 표지판, 만곳의 신호나 가로등 같은 기둥, 1,500km이상의 중앙선을 포함 수천개의 도로 주변 사물에 대해서 센티 미터 수준의 정밀도를 공급 ​-BMW, NISSAN, 폴크스바겐과 기이 2년 전체 부지, 이를 실시, 모빌 아이는 하루에 600만 km의 주행 데이터를 받아 온 소리. 향후 분기까지 유럽 전역, 올해 예기까지 미국 전역에 대한 도로 지도를 만들 수 있을 것으로 예상 ​-추가로 올해 3개 완성 차 업체와 100만대의 차량이 데이터를 보내기로 계약 체결. 이렇게 2022년까지 총 1,400만대의 차량에서 데이터를 받을 것으로 보이​-China의 토지 역시 매핑을 돌리고 칭화 대학의 유니 그룹과 조인트 벤처를 만들어 데이터 수집 중.China, 전기 자동차 회사 인왕(NIO)은 China 회사 중 모빌 어린이의 자율주행 시스템을 소비자용 차량에 가장 먼저 탑재한 쿤끼옵이다.2019년 예기 인왕산에서 자율 주행 Lv4설계 수주를 받았으며 2022년 솔루션을 탑재한 차량의 발매 예상 ​


    >


    <출처: Mobileye>8.Eye Q칩(하나)개요-모빌아이의 완전 자율주행을 위한 비전 중간 컴퓨팅 칩. 카메라 기반 이미지 처리 알고리즘과 ADAS기능이 이 프로세서 상에서 작동 ​-두개대, 즉 두개의 칩으로 구성된 우쟈 신 위에서 설명한 비전 알고리즘은 모드의 칩만으로 처리된 것( 다른 하자 입는 컴퓨팅 파워가 부족한 하나의 사태에 대비한 것으로 추측)​-모드 칩 크기도 90mm스퀘어에서 제온(인텔의 서버용 프로세서)와 같은 수백밀리 이상의 다른 제품에 비해매우 매우 작은 사이즈 ​ ​ ​(2)개발의 현황-20하나 7년 하나 2월 TSMC를 통해서 7쟈싱의 공정을 도입하고 EyeQ 5제작 완료, 20하나 8년 스토리 정식 공개 ​-현재 챠랴은 단 2개의 EyeQ 5칩으로 2022년에는 6개가 적용되는 것과 예상.사실상 6개까지는 필요가 없우쟈 신 망하 낫을 대비해서 리스크를 막기 위해서 충분한 컴퓨팅 파워를 탑재 ​-2020년 EyeQ 6샘플의 출시가 예상된다. 2023년에는 챠랴은 단 단 하 쟈싱의 EyeQ 6칩 장착 ​-모빌 아이는 이런 자율 주행 시스템 비용을 하나 0,000~하나 5,000달러 수준에서 2025년까지 5,000달러 이하로 낮출 것이 목표. 소비자들이 지불하기에 합리적인 비용이라고 생각하는 것


    >


    <출처:Mobileye>-이날 전반적인 발표를 듣고 느낀 점은 테슬라와 마찬가지로 비전인식 기술이 라이더와 같은 높은 하드웨어를 배제하고 점차 소프트웨어 속으로 단순화되어 간다는 점. 삼성의 갤럭시폰과 달리 구글의 픽셀폰이 나쁘지 않고, 아이플 앱과 고가의 카메라 모듈을 끼워 넣는 것보다 인공지능을 통해 카메라 성능을 향상시키는 것도 마찬가지-그러므로 더 나쁘지는 않은 자율주행을 위한 비전 기술이 점점 세분화되고 있다는 점. 보행자도 어떤 보행자, 어떻게 움직이는 보행자, 도로도 미세한 각도에서 높낮이 변천까지 측정하면서 정확도를 훨씬 높이고 운전 중 발생 살릴 수 있는 모든 위험을 일일이 제거해 나쁘지는 않을 것으로 보인다. 또한 인공지능 신경망을 주제별로 압축하는 소프트웨어적인 방법으로 해결하여 나쁘지 않으므로 소프트웨어의 중요성은 계속 커질 것으로 보이며, 이러한 다양한 결과를 원활하게 통합하고 정확한 의사 자결을 지원하는 기술 또한 중요해질 것으로 소견


    댓글

Designed by Tistory.