모델 전문화를 위한 조건부 지식 증류 기법
48권 4호, pp. 369-376, 4월 2021

요약
통계
2022년 11월부터 누적 집계
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.
동일한 세션일 때 여러 번 접속해도 한 번만 카운트됩니다. 그래프 위에 마우스를 올리면 자세한 수치를 확인하실 수 있습니다.
|
논문 참조
[IEEE Style]
H. Kim and D. Choi, "Conditional Knowledge Distillation for Model Specialization," Journal of KIISE, JOK, vol. 48, no. 4, pp. 369-376, 2021. DOI: 10.5626/JOK.2021.48.4.369.
[ACM Style]
Hakbin Kim and Dong-Wan Choi. 2021. Conditional Knowledge Distillation for Model Specialization. Journal of KIISE, JOK, 48, 4, (2021), 369-376. DOI: 10.5626/JOK.2021.48.4.369.
[KCI Style]
김학빈, 최동완, "모델 전문화를 위한 조건부 지식 증류 기법," 한국정보과학회 논문지, 제48권, 제4호, 369~376쪽, 2021. DOI: 10.5626/JOK.2021.48.4.369.
[Endnote/Zotero/Mendeley (RIS)] Download
[BibTeX] Download