PGB: BERT 프루닝을 위한 순서 변경 규칙 및 그룹화 


50권  6호, pp. 503-510, 6월  2023
10.5626/JOK.2023.50.6.503


PDF

  요약

최근 사전 학습된 트랜스포머 계열의 모델은 자연어 처리, 이미지 인식 등 다양한 인공지능 분야에서 활발히 사용되고 있다. 그러나 해당 모델들은 수십억 개의 파라미터를 가지고 있어 추론 시에 상당한 연산량을 필요로 하며 자원이 제한된 환경에서 사용하기에는 많은 제약이 따른다. 이러한 문제들을 해결하기 위해 본 논문은 트랜스포머 모델에 대한 그룹화 기반의 새로운 구조화된 프루닝 방법인 PGB(Permutation Grouped BERT pruning)를 제안한다. 제안된 방법은 자원 제약 조건에 따라 최적의 어텐션 순서를 변경하는 방법을 찾고, 모델의 정보 손실을 최소화하기 위해 헤드의 중요도를 기반으로 불필요한 헤드에 대해 프루닝한다. 다양한 비교 실험을 통해 사전 학습된 BERT 모델에 대한 기존의 구조화된 프루닝 방법보다 본 논문에서 제안한 방법이 추론 속도 및 정확도 손실 측면에서 더 우수한 성능을 보임을 확인한다.


  통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.


  논문 참조

[IEEE Style]

H. Lim and D. Choi, "PGB: Permutation and Grouping for BERT Pruning," Journal of KIISE, JOK, vol. 50, no. 6, pp. 503-510, 2023. DOI: 10.5626/JOK.2023.50.6.503.


[ACM Style]

Hye-Min Lim and Dong-Wan Choi. 2023. PGB: Permutation and Grouping for BERT Pruning. Journal of KIISE, JOK, 50, 6, (2023), 503-510. DOI: 10.5626/JOK.2023.50.6.503.


[KCI Style]

임혜민, 최동완, "PGB: BERT 프루닝을 위한 순서 변경 규칙 및 그룹화," 한국정보과학회 논문지, 제50권, 제6호, 503~510쪽, 2023. DOI: 10.5626/JOK.2023.50.6.503.


[Endnote/Zotero/Mendeley (RIS)]  Download


[BibTeX]  Download



Search




Journal of KIISE

  • ISSN : 2383-630X(Print)
  • ISSN : 2383-6296(Electronic)
  • KCI Accredited Journal

사무국

  • Tel. +82-2-588-9240
  • Fax. +82-2-521-1352
  • E-mail. chwoo@kiise.or.kr