본문 바로가기

딥러닝 & 머신러닝/프로젝트

(12)
YasuoNet : 딥러닝을 활용한 리그 오브 레전드 경기 영상 하이라이트 추출 이 연구는 작년 8월 "2020년도 AI 양재 허브 인공지능 실무자 양성 과정"에서 진행했던 프로젝트였으며, 서울특별시의 지원을 받았습니다. 이번 게시물은 해당 프로젝트의 연장선 상에서 작성한 논문을 좀 더 보기 편하게 재작성하고 내용을 추가한 것입니다. 해당 논문의 제목은 "3D CNN과 Bi-LSTM을 이용한 리그 오브 레전드 경기 영상 하이라이트 추출 (Highlight Extraction of League of Legends Game Video using 3D CNN and Bi-LSTM)"이며, "제 22회 전자정보통신 학술대회"에 제출된 바 있습니다. 0. 초록 최근 영상 스트리밍 시장의 규모가 증가함에 따라 시청자들의 서비스 이용 시간도 날이 갈수록 길어지고 있습니다. 그런데 게임 영상의 경..
머신러닝 수업 프로젝트 (6) : 기법 비교 및 최종 실험, 결론, 사용 코드 E. 데이터 증강 기법에 대한 비교 실험 Table 8과 Figure 36은 [A. 실험 조건]에서 설명한 기본적인 실험 조건 아래에서 PyramidNet에 데이터 증강 기법을 실험한 결과를 나타냅니다. 데이터 증강 기법의 경우 Basic과 Various로 구분됩니다. Basic은 Random Crop과 Random Horizontal Flip만을 사용한 것이고, Various는 Table 3의 모든 데이터 증강 기법을 사용한 것입니다. 결과적으로 Various 데이터 증강 기법을 사용했을 때 0.82737의 Test Accuracy로 Basic 방법보다 더 높은 결과를 보여주었습니다. 따라서 Table 3에 명시된 모든 데이터 증강 방법을 최종 모델에 사용했습니다. F. 활성화 함수에 대한 비교 실험 ..
머신러닝 수업 프로젝트 (5) : 모델 및 하이퍼 파라미터 비교 실험 4. 실험 A. 실험 조건 이번 대회에서 사용한 데이터는 CINIC-10입니다. CINIC-10은 32x32 크기의 RGB 이미지 데이터로 각각 90,000장의 훈련, 검증, 테스트 데이터로 구성되어 있으며 비행기, 자동차, 새, 고양이, 사슴, 개, 개구리, 말, 배, 트럭 총 10개의 클래스로 구성되어있습니다. Figure 13은 CINIC-10 데이터의 예시를 보여줍니다. 실험 환경은 구글 코랩(Google Colab)이며, 그에 따라 GPU는 Tesla K80 또는 Tesla P100을 사용하였습니다. 실험에선 우선 최적의 성능을 나타내는 모델을 탐색하기 위해 기본적인 실험 조건을 설정했습니다. 하이퍼 파라미터인 학습률(learning rate)은 0.001, 배치 사이즈 (batch size)는..
머신러닝 수업 프로젝트 (4) : 제안 방법 3. 제안 방법 본 연구에선 딥러닝 모델인 DenseNet, Xception, PyramidNet의 파라미터 수를 대회 규정에 맞춰 줄이기 위해, 그 구조를 일부 변경한 모델을 사용하고자 했습니다. 그다음, 같은 조건에서 각 모델을 학습시켜 최고의 테스트 정확도를 나타내는 모델을 선정합니다. 이후 실험을 통해 해당 모델에 맞는 최적의 하이퍼 파라미터 값을 찾아 적용한 후, 데이터 증강, Mish 활성화 함수, 앙상블 기법을 적용하여 더욱 향상된 성능을 얻고자 했습니다. A. 변형 DenseNet 원논문에서 제시한 DenseNet-121의 경우 Dense Block은 총 56개, Transition Layer는 총 3개이며, 파라미터 수가 약 1,300만 개에 이릅니다. 우리는 여기서 Dense Block..
머신러닝 수업 프로젝트 (3) : 관련 연구 - 기법 D. 데이터 증강 (Data Augmentation) 과적합(overfitting)은 학습할 샘플이 너무 적어 새로운 데이터에 일반화할 수 있는 모델을 훈련할 수 없기 때문에 발생합니다. 그러나 매우 많은 데이터를 제공하면 데이터의 더 다양한 측면을 모델이 학습할 수 있으므로 모델의 과적합을 막고 일반화 성능을 높일 수 있습니다. Figure 8과 같이, 데이터 증강은 여러 가지 랜덤한 변환(회전, 이동, 뒤집기, 밝기 변화 등)을 적용하여 기존 훈련 데이터와 비슷한 훈련 데이터를 더 많이 생성하고, 이로써 과적합 문제를 해결할 수 있습니다. E. Mish 활성화 함수 (Mish Activation Function) Figure 9의 빨간색 그래프는 Mish 활성화 함수를 나타냅니다. Mish 활성화 함..
머신러닝 수업 프로젝트 (2) : 관련 연구 - 모델 2. 관련 연구 A. DenseNet DenseNet은 Figure 1의 Dense Block을 중심으로 설계된 모델입니다. Dense Block은 1x1 Convolution 연산과 3x3 Convolution 연산을 하는 layer로 구성되어 있으며, ResNet의 Residual Block(Figure 2)과 비슷하지만 다릅니다. Residual Block은 바로 직전 층에 주입된 값(x)을 직전 층을 통과한 값 (F(x))에 더하는데, Dense Block은 거쳐왔던 모든 층들에 주입된 값들을 쌓아서 다음 레이어에 전달합니다. DenseNet은 서로 다른 모든 층에서 특징, 즉 feature map을 반영하기 때문에 layer 사이사이에 가치 있는 정보가 충분히 지나다닐 수 있도록 합니다. 다른 ..
머신러닝 수업 프로젝트 (1) : 초록 및 소개 저는 이번 경희대학교의 2020년도 2학기 '머신러닝' 대체 기말고사로 캐글 대회에 참여했고, 이번 게시물은 해당 대회의 결과에 대한 최종 보고서를 좀 더 보기 편하게 재작성한 것입니다. 0. 초록 이번 대회의 목적은 여러 딥러닝 모델 및 기법들을 사용해, 총 10개의 클래스를 가진 CINIC-10 테스트 데이터 90,000장에 대한 예측 정확도를 최대화하는 것이었습니다. 단, 이때 사용되는 모델은 pre-trained되지 않아야 했으며, 파라미터 수는 200만개 이하로 제한되었습니다. 본 연구에선 대회의 목적 달성을 위해 DenseNet, Xception, PyramidNet을 파라미터 수 200만 개 이하로 변형하여 사용했습니다. 성능 향상을 위해 활용한 기법은 데이터 증강(Data Augmentat..
2019.11.15 AI 경진대회 발표를 듣고 난 후 메모한 것들 Kp지수 예측 경진대회 발표에 참석해서 수상자들의 얘기를 듣고 배워나가야 할 것들을 메모한 것입니다. 이번 대회에 참여한 수상자들의 발표를 들으니까 아직 우리가 더 배워야 할 것들이 많이 남았다는 것을 느꼈다. 충분한 지식이 없었다는 게 좀 아쉬웠다. 그리고 우주환경 자체에 대한 지식보다는 머신러닝과 딥러닝에 관한 지식이 이번 대회에서 훨씬 중요하다는 것을 깨달았다. 그럼에도 불구하고 많은 대학원생들과 실력있는 학부생들 사이에서 반정도라도 했다는 것에선 꽤 만족스러움을 느낄 수 있었다. 이런 실무를 처음 해봤던 것 치곤 선방했다. 그래도 아직 채워나갈 것들이 많이 쌓여있다. 열심히 하자!! 기본적 머신러닝 알고리즘: GBDT (XGboost, LGboost, LightGBM, random forest t..