Board

Lab board

[랩 세미나] 가을학기 세미나 진행 상황

페이지 정보

profile_image

작성자 최고관리자

댓글 0건 조회 1,463회 작성일 2021-08-11 00:25

본문

[ 조상재 ]

- "Model Predictive Control"

  특정 입력으로부터 사용자가 원하는 모델의 출력을 얻기 위해 각 모델에 특화된 제어가 필수적으로 요구된다. 기존 산업 분야에서 널리 사용되어 왔던 PID 제어에 대한 소개를 시작으로, PID제어의 각 파라미터인 kp, ki, kd의 변화에 대한 출력의 변화를 설명하고 이에 따른, 튜닝 과정을 설명한다. PID 제어 기술의 기술적 한계를 설명하며 로봇이나 자율주행차와 같은 입출력이 복잡한 시스템에서 흔히 사용하는 제어 기술인 Model Predictive Control(MPC)을 소개한다. MPC의 병렬처리특성, 사전탐지 특성, 그리고 시 불변환경에 대한 강인성을 소개한다.

Reference :  C. E. Garca, D. M. Prett, and M. Morari, “Model predictive control: Theory and practice,” Automatica, vol. 25, no. 3, pp. 335~348, May 1989

[ Aswin Nahrendra ]


[ 정승환 ]


[ 백동희 ]

- "Deep residual learning for image recognition"

  본 논문은 2016년 ILSVRC(ImageNet Large Scale Visual Recognition Competition) Classification 분야에서 처음으로 인간의 인지 에러율보다 낮은 에러율을 달성한 Backbone Network이다. Residual Block 구조를 제시함으로서 기존 22 레이어에 불과했던 신경망을 최대 152 레이어의 깊은 구조의 신경망을 설계하였다. Residual Block의 구조에 대해 자세히 살펴보고 어떻게 깊은 신경망 최적화 문제를 접근했는지 살펴보고자 한다.

Reference: He, Kaiming, et al. "Deep residual learning for image recognition." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

- "Object Detection Network in Camera"

  Object Detection은 주변 환경을 측정한 센서 데이터로부터 의미 있는 객체(e.g. 보행자, 자동차)를 인지하는 것을 의미한다. 자율주행 자동차의 경우, 안전한 주행을 위해 보행자, 자동차, 신호등, 도로 표지판과 같은 다수의 객체를 높은 정확성과 낮은 Latency로 인식하는 것이 필수적이다. 따라서 실시간성을 크게 개선시킨 1-Stage Detector YOLO(You Only Look Once)의 구조와 동작 원리에 대해서 살펴보고자 한다. 이어서 최근 정확성에서 SOTA를 달성한 EfficientDet에서 차용하고 있는 Feature Pyramid Network의 원리에 대해서 살펴보고자 한다.

Reference
1. Redmon, Joseph, et al. "You only look once: Unified, real-time object detection." Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.
2. Liu, W., et al. "SSD: Single shot multibox detector. arXiv 2016." arXiv preprint.
3. Lin, Tsung-Yi, et al. "Feature pyramid networks for object detection." Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.

- "Semantic Segmentation in Camera"

  Semantic Segmentation은 주변 환경을 측정한 센서 데이터로부터 같은 의미의 데이터를 찾아 표현하는 과정을 의미한다. 디지털 이미지의 경우, 각 픽셀이 속하는 클래스를 찾아서 같은 의미를 갖는 영역으로 표현한다. Semantic Segmentation의 입력 이미지의 크기와 출력 텐서의 크기는 동일하므로 Segmentation 신경망은 Semantic 정보를 추출하는 Encoder와 Semantic 정보로 부터 원래 이미지의 크기로 복원하는 Decoder로 구성되어 있다. 처음으로 제시된 Semantic Segmentation 구조인 Fully Convolutional Network의 구조에 대해 살펴보고, Skip Connection을 적용하여 세밀하고 작은 정보를 깊은 층으로 전달한 U-Net 구조에 대해서 살펴보고자 한다.

Reference
1. Long, J., et al. "Fully convolutional networks for semantic segmentation. arXiv 2014." arXiv preprint arXiv:1411.4038 (2014).
2. Ronneberger, Olaf, Philipp Fischer, and Thomas Brox. "U-net: Convolutional networks for biomedical image segmentation." International Conference on Medical image computing and computer-assisted intervention. Springer, Cham, 2015.

- "Ultra Fast Structure-aware Deep Lane Detection"

  차선 인식은 자율주행차의 안전한 도로 주행을 위해서 필수적인 기능이다. 이미지 처리 기반의 차선 인식의 경우, 하이퍼 파라미터에 민감하며 가린 차선 등을 추론하는데 어려움이 있기 때문에 현재 딥러닝 기반의 차선 인식 알고리즘이 개발되고 있다. 딥러닝 기반 차선 인식은 일반적으로 많은 연산량을 필요로 하는 Semantic Segmentation 구조로 구현하기 때문에 많은 연산량을 필요로 한다. 하지만 본 논문에서 제시한 신경망은 Grid Cell을 도입하고 Lane에 대한 Domain Knowledge를 고려한 손실 함수 설계로 높은 정확성과 낮은 Latency를 도달하였다. 본 논문의 차선 인식 신경망 구조와 원리에 대해 살펴보고자 한다.

Reference: Qin, Zequn, Huanyu Wang, and Xi Li. "Ultra Fast Structure-aware Deep Lane Detection." arXiv preprint arXiv:2004.11757 (2020).

- "Compact Neural Architecture"

  딥러닝을 적용한 Object Detection, Semantic Segmentation 등의 Task 성능은 Backbone Network의 성능과 비례한다[1]. 따라서 Backbone Network의 성능을 높이는 것이 Task의 성능을 높이는 데 필수적이다. Backbone Network는 SENet(2017)까지 신경망의 크기를 키움으로서 Backbone의 성능을 높이는데 집중했었다. 하지만 최근에는 자율주행과 같이 다수의 신경망을 탑재해야하는 Edge Computing이 중요해짐에 따라 MobileNet(2017), MNasNet(2018) 등의 Compact Architecture에 대한 연구가 진행되고 있다. 현재까지 개발된 Compact Network Architecture에 대해 살펴보고자 한다.

Reference
1. Kornblith, S., J. Shlens, and Q. V. Le. "Do better ImageNet models transfer better? arXiv 2018." arXiv preprint arXiv:1805.08974.
2. Huang, Gao, et al. "Densely connected convolutional networks. arXiv 2016." arXiv preprint arXiv:1608.06993 1608 (2018).
3. Xie, Saining, et al. "Aggregated residual transformations for deep neural networks." Proceedings of the IEEE conference on computer vision and pattern recognition. 2017.
4. Howard, Andrew G., et al. "Mobilenets: Efficient convolutional neural networks for mobile vision applications." arXiv preprint arXiv:1704.04861 (2017).
5. Tan, Mingxing, and Quoc V. Le. "Efficientnet: Rethinking model scaling for convolutional neural networks." arXiv preprint arXiv:1905.11946 (2019).

[ 장윤하 ]

- “Overview: Creating Autonomous Vehicle Systems_ prediction, routing, Decision, Planning”

자율주행 자동차의 전체 프로세스인 인지, 판단, 제어 분야 중 ‘판단’부분의 overview를 진행하였다. 
Prediction: 자율주행 자동차의 센서 퓨전 데이터를 통해 얻은 차량의 움직임(차량의 차선변경, 정지 상황, 교차로에서의 좌회전 등)을 각각 a finite trajectory of lane sequences로 분류한다. 분류한 trajectory를 상황에 맞게 선택한 후 이 길을 track해간다.
Routing: HD map의 segmented lane을 이용하여 최적 경로 생성의 기본적인 알고리즘에 대해 알아보았다. 모든 노드의 최단경로를 파악하는 Dijkstra와 각 노드에서 목적지까지 heuristic한 조건과 최단거리를 함께 고려하는 A* 알고리즘 두가지와 이 두 알고리즘의 경로를 최적화하는 Dynamic programming를 알아보았다.
Decision: 자동차가 주어진 상황에서 결정하는 행동을 FSM(Finite State Machine) Decision Tree를 통해 알아보았다.
Planning: 지엽적인 local motion planning에 적용되는 longitudinal and lateral planning에 대해 알아보았다.

Reference: S. Liu, L. Li, J. Tang, S. Wu, and J.-L. Gaudiot, “Creating autonomous vehicle systems,” Synth. Lect. Comput. Sci., vol. 6, no. 1, p. 186, 2017

- “Darpa Challenge: Boss, Junior”

앞서 진행한 CAVS overview의 기술이 실제로 적용된 2007년도에 진행한 Darpa Challenge의 1등(Boss), 2등(Junior) 팀의 behavioral decision, motion planning에 대해 살펴보았다.

Reference:
1. D. Ferguson, T. M. Howard, et M. Likhachev, Motion planning in urban environments: Part I ?, in 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008.
2. D. Ferguson, T. M. Howard, et M. Likhachev, Motion planning in urban environments: Part II ?, in 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008.
 

댓글목록

등록된 댓글이 없습니다.