-
테슬라 인공지능 학습 & 자율주행 투자자 행사 Q&A (인공신경망 / 뉴럴넷 / 데이터 / 시뮬레이션 / 라벨링 / 카메라 / 라이다 / 레이더 / 알고리즘 / AI) 좋네요카테고리 없음 2020. 2. 11. 07:10
>
* Tesla Autonomy Day 행사에서 발표한 이 스토리의 토대. 테슬라의 인공지능 뉴럴넷(신경망)은 어떻게 구성되고 학습되는가?사람은 첼로, 보트, 이구아나, 가위 이미지를 보면 금방 구별할 수 있지만 컴퓨터는 그렇지 않다. 컴퓨터에 있어서 이미지는 단순히 방대한 픽셀이 격자상에 놓인 것으로 각 픽셀은 밝기의 값인 숫자로 표현된다.
>
<출처:테슬라 유튜브:Tesla Autonomy Day> - 이구아나가 몸의 색깔을 바꾸고, 다른 동작을 취하며, 배경이 바뀌어도 사람은 이구아나가 알 수 있는 sound. 눈을 통해 대상을 보고 신경을 통해 뇌에 신호가 전달되는 과정 등을 통해 이미 학습되었기 때문에 - 이러한 인간의 학습 과정을 컴퓨터로 가져온 것이 즉석 '인공신경망'
>
<출처: 테슬라 유튜브: Tesla Autonomy Day> ※ 인공신경망의 구조와 학습에 대한 자세한 설명은 아래 참조
-자율 주행에서 예를 들면 이하의 이미지 같은 상황 1시, 조 썰매 타기에 인공 지능이 판단하는 것으로 볼 수 없는 다음만 따라가다 계속 직진하고 사고가 일어날 가능성 잇소리
>
<출처: 테슬라 유튜브: Tesla Autonomy Day>
>
<출처:테슬라 유튜브:Tesla Autonomy Day> - 여기서 인간이 할 일은 인공지능 알고리즘을 수정하는 것이 아니라, 아래의 기지와 같이 라벨링(Labeling, 정답 제공)이 정확한 데이터를 제공하는 것. 그러면 인공지능은 학습하고 스스로 알고리즘을 수정해 새로운 특징을 찾아 정확도를 높인다.
>
<출처:테슬라 유튜브:Tesla Autonomy Day> 2. 테슬라의 차량이 인공 지능 개발에 왜 중요한가. -테슬라나 자율 주행 때문에 시뮬레이션 데이터를 인공 지능에 많이 주입하고 있지만 실제로 주행 데이터를 대체할 것은 아무것도 없는 sound-시뮬레이션은 대상이 아니며 환경 묘사, 물리 법칙, 주변 모든 물체의 움직이는 등을 모델링 하기에 너무 어렵고 정확하지 않는 sound-특히 눈이 나쁘지 않아 비가 내리는 정세, 갑자기 도로 공사, 차도 위의 보행자와 같은 1반 적이 아닌 정세를 전체 시뮬레이션할 수 없는 sound-인공 신경망 학습에서 필수는 방대하고 다양한, 그리고 실제 세계를 반영한 데이터. 그 때문에 도로 위를 달리는 수백만대의 실제 차량을 보유한 이 회사는 자율 주행의 개발에 매우 매우 유리한 포지션을 획득 -역시한 인간이 11보다 데이터에 표시(아버지를 의미하는 태그를 달1)를 하는 것은 아주 비효율적.동사 차량은 이러한 라벨링을 대신 해 주기 위해서 라벨링 된 대량의 데이터를 얻기 쉬운 점.
>
<출처:테슬라 유튜브:Tesla Autonomy Day> - 이렇게 만약 테슬라 차량의 전방에 옆 차선의 차가 끼어들면, 이 녹화된 영상에 차선변경시에 걸릴 때, 이과인 차량 사이의 거리 등에 관해 인간이 주석을 달 수 있다. 이 데이터는 다시 신경망의 학습에 사용되고 성능을 더욱 높이게 되는 것 3.Depth perception거리 인식&카메라 비전 -테슬라 차량은 라임 없이 카메라를 사용.전혀 가보지 않은 길이 내 눈에서도 잘 보이지 않는 경사로, 커브길 등을 가는데도 불구하고 높은 예측력을 보이고 있는 것
>
<출처:테슬라 유튜브:Tesla Autonomy Day>-인간의 경우, 두 눈으로 대상을 보지만 왼쪽과 오른쪽 눈, 해당지만 3개가 삼각형의 구조를 이룬다. 뇌는 이와 같이 각 눈으로부터 오는 정보를 통합해 대상의 멀고 가까움을 인지. 그래서 한쪽 눈을 감으면 대상의 원근을 느끼기 힘들다-동물의 경우 대부분은 눈이 양쪽으로 많이 떨어져 있고 각 눈에서 들어오는 대상이 정말 거의 겹치지 않는 소리. 그래서 자신의 머리를 여러 방향으로 움직이고 거리를 판단 -테슬라 차량에 달린 카메라들은 몇초간 운행하면서 찍은 데이터만 Multi-view stereo기술을 통해서 이들을 통합하여 멀고 가까운 거리가 인식되게 3차원으로 만들어 낼 수 잇 소리. 사람의 물건을 보는 듯한 방법
자율주행에 있어서 거리를 인식하는데 라임 없이 카메라를 이용하는 것만으로도 충분히 높은 성능을 내고 있음. 라임은 카메라 비전에 비해 정보가 더 부족하고 카메라는 더 디테일한 정보를 제공한다.차로에 쓰레기 같은 이물질이 있으면 라임은 이것이 무엇인지 모르고 표준 개구리수로 의견을 개진하지만 카메라 비전은 이를 구분할 수 있다. 역시 옆으로 달리는 자전거가 내 쪽으로 올지 반대로 갈지 카메라 비전을 통해 머리의 움직임, 몸의 방향 등을 보고 판단할 수 있다. 이는 운행 및 안전 제어에 큰 영향을 미침 4.Q&A(하나)인공 지능 신경망에 활성화 함수에서 ReLU함수를 썼는데 다른 함수를 사용하는 유연성이 있는가?유연성 있는 소음 tan h와 sigmoid함수를 사용하기도 하는 소리 (2)하나 4나노 핑펫 공정 기반이라고 했지만 하나 0나노나 7나노에 대해서는?-제가 디자인을 시작했을 때는 우리가 구매하기 바란다 IP가 하나 0나노 기반이 없어 하나 4나노를 해야 합니다 소리. 다음 세대의 칩으로는 그 아래에서도 준비하는 소리 (3)엔비디아 제품보다 7배나 실행력이 매우 높다는 것의 토우쯔룰 쉽게 설명하면?-7배나 큰 신경망을 쓸 수 있어 더욱 더 정교한 자율 주행 인공 지능이 가능 (4)AMD, 인텔의 프로세서 아키텍처의 방향이 다르지만 둘 중에 더 관심이 있어 아키텍처는?-관심은 있지만 테슬라에게 생각한 것은 아닌 소음. AMD와 인텔 전체는 훌륭하지만 이들은 많은 고객을 위해 제품을 일반화시켜야 한다. 반면 우리는 오로지 자율주행 하나만 고려해 칩을 디자인할 수 있고 소프트웨어도 그 칩에 최적화시킬 수 있다. 이에 관해서는 우리를 이기는 자가 없을 것 (5)라임 센서에 관한 의견은?-전혀 불필요하고 비싸기만 한 부록일 뿐입니다.금방 사라진 (6)에 던 신지의 소비량에 대한 자세한 설명?-모델 3은 마일 당 250와트가 목표 (7)차세대 칩 디자인의 주요 목표는?- 자세한 사항은 이야기 못하지만, 현재의 시스템보다 3배 더 좋은 성능을 내지 (8)칩을 독자의 대량 생산에 따른 비용 절감 효과는?~앞으로 연간 백만대 이상의 차가 생산되는데 그렇다면 칩 자체 대량 생산에 의한 비용 절감 효과가 충분히 있다. 제공에 관한 글 솜씨 없는 소리 (9)칩 디자인은 외부 IP를 사왔어?아니면 독자적인 설계. -동사 자체 설계 (하나 0)칩 설계의 기본이 된 디자인이 있다면?- 없는 소리.전체의 자체 설계 (하나하나)칩 생산은 어디?-삼성 (하나 2)칩 관련 IP를 지키는 방법은?-소프트웨어 알고리즘을 베꼈다고 해도 그것을 설치하는데 매우 어렵다 가끔 걸린다. 그 사이에 우리는 몇 배 성장할 수 있다-역시 다른 경쟁자들에게는 fleet(테슬라 차량 같은 하드웨어)이 없다. 우리는 그들의 수백배가 넘는 소프트웨어와 하드웨어가 결합된 차량이 존재하며, 그 차량들은 인공지능 학습에 필요한 데이터를 계속 모으고 있다. 테슬라도 이와 같습니다 소리 (하나 3) 다른 경쟁, 자율 주행사가 많은 시뮬레이션 주행 데이터를 축적하고 있지만 실제로 주행 데이터와 시뮬레이션 데이터의 차이가 미치는 효과는?테슬라도 좋은 시뮬레이션 테스트 시스템을 갖고 있다. 그러나 시뮬레이션은 실제 세계에서 나타나는 극단적인 이상치(롱 테일, Long tail)을 잡아내지 못하 (하나 4)차 랴은당 얼마나 많은 데이터를 수집하는가?수집하는 데이터의 양도 중요하지만 얼마나 다양한 데이터를 수집하느냐가 더 중요하다. 그래서 우리에게 필요한 데이터만을 수집할 수 있도록 전략을 취하는 소리 (하나 5)인간의 차량 주행은 비이성적인 때가 많아서 테슬라의 자율 주행 차는 안전을 최우선으로 매우 조심할 텐데 그렇다면 어떻게 그 많은 롱 테일을 극복할 수 있는가?-계속하고 수많은 레어 케이스의 데이터를 수집하고 학습하고 있으며 성능은 그에은챨지 받는 소리 (하나 6)99.99퍼센트의 극단적인 경우나 보조용으로 라임 카마 도움이 될지 모르나?스페이스X의 경우 우주정거장 길을 찾아 도킹하는 데 직접 개발한 라임 사용. 그러나 자동차에 라임을 쓰는 것은 어리석은 짓이다. 비전이 해결되면 운전에 지장이 없는 높은만 하고 쓸모가 없는 소리 -안개나 먼지 등은 레이더가 그것을 뚫고 시야를 제공할 수 있다, 준 고리 정보는 울트라 소닉이 제공 (하나 7)의 차가 데이터를 선택적으로 회사에 보낸다고 했는데, 어떻게 이루어지고 그것은 실 때에 처리인가, 아니면 저장된 정보를 처리하는가?우리가 원하는 정보에 대해 가장 많이 명시하고 있으며 관련 정보만 차량에서 회사로 전송된다. 이 과정은 차로 간간이 처리된다. 이 수백만 대의 차량 자체가 모여 거대한 데이터센터라고 할 수 있는 소음(하나8)의 눈이 쌓여 있을 경우 카메라나 레이더로도 차선을 인식하지 못하는데, 해결책은? 가장 이미 차선이 차단된 여러 개의 귀취에 관한 데이터를 모으고 여기에 사람이 정답(올바른 차선이 그려진 데이터)을 제공해 인공지능을 학습시킨다. 이를 통해 이미 학습된 곳이라면 차선이 보이지 않아도 자율주행 가능-차선보다 중요한 것은 운전 가능한 공간인지 아닌지를 가리는 것. 사람도 그냥 그려진 차선뿐 아니라 주변 환경을 모두 고려해 올바른 차선으로 가고 있는지를 판단할 수 있도록 테슬라의 자율주행도 마찬가지다. 이러한 예측력, 판별력에 대해서는 매우 자신 있고, 이번 겨울에 확인하고 보이는 소리 -잘 알고 있는 곳이라면 GPS를 이용하기보다 표준 아는 길로 다니는 것이 더 효율적인 것처럼 학습된 인공 지능은 GPS, HD맵 등에 크게 의존할 필요 없는 소리 (하나 9)더 정교한 맵에 관한 경쟁 회사들의 이야기가 많지만 어떻게 의견?-고 정밀 GPS는 매우 좋은 없는 접근. 그것은 극히 불안정하고, 도로상의 미세한 변화도 모르고 있음