Research Article

The Journal of the Acoustical Society of Korea. 30 November 2021. 578-586
https://doi.org/10.7776/ASK.2021.40.6.578

ABSTRACT


MAIN

  • I. 서 론

  • II. 기존 연구

  •   2.1 트랜스포머 음성인식

  •   2.2 비교사 데이터 증강

  •   2.3 변분 오토인코더

  • III. 제안 방법

  •   3.1 변분 오토인코더 기반 증강 모델

  •   3.2 비교사 데이터 증강 학습법

  • IV. 실험결과 및 토의

  •   4.1 데이터베이스

  •   4.2 실험

  •   4.3 실험 결과

  • V. 결 론

I. 서 론

최근 수년간 음향모델 및 언어모델 기반의 음성인식기를 하나의 모델로 학습하기 위한 종단간 음성인식(Automatic Speech Recognition, ASR) 기술이 연구되었다. 종단간 음성인식은 하나의 모델을 학습하여 입력 음성신호를 해당 텍스트로 직접 매핑한다. 종단간 음성인식은 일반적으로 인코더-디코더로 구성되며, 각 모듈을 학습하고 결합하는 과정 없이 단일 모델을 사용하기 때문에 학습과정이 간단하다. 종단간 음성인식은 DeepSpeech,[1] Listen And Spell(LAS),[2] 트랜스포머(Transformer)[3] 순서로 연구되었다. DeepSpeech, LAS는 장단기 메모리(Long Short-Term Memory, LSTM) 또는 양방향 장단기 메모리(Bidirectional Long Short-Term Memory, BLSTM)를 기반으로 인코더-디코더 구조로 구성된다. 장단기 메모리 등의 회귀 구조의 단점은 모델의 계산량이 커서 많은 메모리를 필요로 하며, 학습 속도 또한 느리다. 이를 보완하기 위해서 트랜스포머가 제안되었다. 트랜스포머는 회귀 구조 없이 주의집중 및 순방향 층을 사용하여 인코더-디코더 구조를 구성한다.

종단간 음성인식의 성능을 높이기 위한 연구로는 준지도 학습이 있다. 준지도 학습은 소량의 레이블된 데이터와 대량의 레이블 없는 데이터를 사용하여 기존 모델의 성능을 높이기 위한 방법이다. 준지도 학습은 많은 학습 데이터를 필요로 하는 종단간 음성인식의 문제점을 해결하고 성능을 높일 수 있다. 준지도 학습에 관한 연구로는 음성인식기와 음성합성기(Text-To-Speech, TTS)를 직렬로 결합하여 입력과 모델의 출력간의 손실을 최소화 하는 주기 일관성[4,5]연구가 있었다. 다음은 원본 음성과 증강된 음성 간의 분포 차이를 줄이는 일관성 손실함수를 학습에 반영한 비교사 데이터 증강(Unsupervised Data Augmentation, UDA)[6]이 제안되었다. 최근에는 자기학습을 교사-학생[7] 메커니즘으로 학습하는 잡음 학생[8] 방법이 제안되었다.

종단간 음성인식의 성능을 높이기 위한 다른 연구로 데이터 증강 방법이 있다. 데이터 증강은 정답은 동일하지만 기존의 음성과는 다른 데이터를 생성하여 학습에 이용하는 방법이다. 속도 섭동[9]은 음성 신호의 속도를 변화시켜서 새로운 음성 신호를 생성하는 증강 방법이다. 최근에는 종단간 음성인식기의 입력으로 사용되는 특징에 직접 적용이 가능한 데이터 증강 방법들이 제안되었다. 그 대표적인 방법에는 SpecAugment,[10] SpecSwap[11] 등이 있는데, 간단한 변환 방법으로도 높은 성능 향상을 보인다. 기존의 데이터 증강 방법들은 대부분 경험에 의해서 최적의 파라미터를 찾는 과정이 필요하다는 단점이 있다.

본 연구에서는 변분 오토인코더(Variational AutoEncoder, VAE)[12] 기반의 데이터 증강 모델을 학습하여 기존의 종단간 음성인식기의 성능을 개선하는 방법을 제안한다. 변분 오토인코더 기반의 증강모델은 모델 스스로가 증강된 데이터를 생성하기 때문에 별도의 파라미터를 찾기 위한 실험이 불필요하다. 제안 방법을 비교사 데이터 증강 기반의 준지도 학습에 적용하여 한번 더 성능을 개선시킨다.

본 논문은 다음과 같이 구성된다. 2장에서는 실험에 사용한 베이스라인 음성인식 모델 및 비교사 데이터 증강 학습에 관해서 설명한다. 3장에서는 제안한 변분 오토인코더 기반 증강모델 및 디코더 고정을 적용한 비교사 데이터 증강 학습 방법에 대해서 설명한다. 4장에서는 실험에 사용한 데이터베이스, 실험환경, 실험결과에 대해서 설명한다. 5장에서 결론을 맺는다.

II. 기존 연구

2.1 트랜스포머 음성인식

종단간 음성인식 모델은 인코더-디코더 구조의 트랜스포머를 사용한다. Fig. 1은 학습에 사용한 트랜스포머의 구조이다.[3]

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F1.jpg
Fig. 1.

Block diagram of the Transformer-based ASR model.

인코더는 입력된 특징벡터 x를 고차원의 중간 벡터 표현 e로 변환한다.

(1)
e=Encoder(x),

여기서 x=[x(1),x(2),...,x(T)]는 로그 멜-필터뱅크 특징이며, T는 입력 음성의 프레임 개수이다. e=[e(1),e(2),...,e(U)]는 인코더의 출력 벡터이며, U는 압축된 인코더 출력 벡터의 프레임 수다. N은 인코더 블록의 개수를 의미한다. 인코더의 출력 벡터는 디코더의 입력으로 사용된다.

디코더는 인코더의 출력벡터 e를 입력으로 사용하여 매 시간 프레임에 대한 z를 출력한다.

(2)
z=Decoder(e),

여기서 z는 디코더 모델의 출력이며 각 토큰의 확률 분포를 의미한다. M은 디코더 블록의 개수를 의미한다. 트랜스포머의 인코더 및 디코더는 멀티헤드 주의집중 블록[3]을 사용한다.

2.2 비교사 데이터 증강

비교사 데이터 증강[6]은 이미지 및 텍스트 분류 문제를 위해 제안된 준지도 학습 방법이며 최근 음성인식분야에도 연구되고 있다. 비교사 데이터 증강은 레이블 없는 데이터에 데이터 증강 방법을 적용하여 증강된 데이터를 생성하고, 레이블 없는 데이터와 증강된 데이터의 모델 출력 분포 간의 차이가 최소가 되도록 모델을 학습시킨다.

비교사 데이터 증강은 2 단계의 학습 과정을 수행한다. 1 단계에서는 레이블된 데이터를 사용하여 베이스라인 모델을 학습한다. 2 단계에서는 레이블된 데이터로 기존의 교차 엔트로피 손실함수를 계산하고, 레이블 없는 데이터로 일관성 손실함수를 계산한다. 학습된 베이스라인 모델은 위의 두 손실함수를 결합한 최종 손실함수로 재학습된다. 비교사 데이터 증강은 증강된 데이터의 인식 결과가 원본 데이터의 인식 결과와 동일해지도록 학습하면서 다양한 변이에 강인한 모델을 생성한다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F2.jpg
Fig. 2.

(Color available online) Training objective for UDA, where ASR is a trained baseline model that predicts a distribution of y^A given xA and y^U given xU.

Fig. 2는 음성인식을 위한 비교사 데이터 증강 학습 과정을 설명한다. 1 단계에서 레이블된 음성 데이터 xL과 전사 텍스트 yL을 사용하여 베이스라인 모델을 학습하며, 베이스라인 모델로 Fig. 1의 학습된 모델을 그대로 사용한다. 2 단계에서 베이스라인 모델은 xL,yL과 레이블 없는 음성 데이터 xU로 재학습된다. 교사 손실함수인 LSxL에 대한 모델의 출력 분포인 pθ(y^LxL)yL을 이용하여 다음과 같이 계산한다.

(3)
LS=-yLlogzL.
(4)
zL~pθ(y^LxL).

y^LxL입력에 대한 음성인식 모델의 인식 결과를 나타내며, zLpθ(y^LxL)로부터 얻어진 프레임 단위의 출력이다. LS 계산에는 교차 엔트로피를 사용한다. xU에 데이터 증강을 적용하여 생성된 증강된 데이터 xAxU를 사용하여 일관성 손실함수 LC를 다음과 같이 계산한다.

(5)
LC=DKL(pθ(y^UxU)pθ(y^AxA))=xUlogxUxA.
(6)
zU~pθ(y^UxU).
(7)
zA~pθ(y^AxA).

pθ(y^UxU)xU, pθ(y^AxA)xA 입력에 대한 음성인식 모델의 출력 분포를 의미하고, zU,zApθ(y^UxU),pθ(y^AxA)로부터 얻어진 프레임 단위의 출력이다. y^U는 입력 xU에 대한 모델의 인식 결과, y^A는 입력 xA에 대한 모델의 인식 결과, DKL(pθ(y^UxU)pθ(y^AxA))은 두 확률 분포 pθ(y^UxU),pθ(y^AxA) 간의 KL 발산(Kullback-Leibler divergence)을 의미한다. ASR 모델은 LSLC를 결합한 최종 손실함수 Ltotal을 사용하여 재학습된다.

(8)
Ltotal=LS+αLC,

여기서 αLC의 결합 비율을 조절하기 위한 변수이며, 본 실험에서는 최적의 α를 찾기 위한 실험을 수행한다. 비교사 데이터 증강은 레이블 없는 데이터와 증강된 데이터의 인식 결과가 동일해지도록 학습한다. 입력 음성의 다양한 변이에 강인하게 모들을 학습시키는 효과가 있으며, 레이블 없는 데이터를 활용하여 낮은 비용으로 음성인식의 성능을 향상시킨다.

2.3 변분 오토인코더

변분 오토인코더[12]는 학습데이터의 분포와 유사한 분포를 갖는 새로운 데이터를 생성하는 오토인코더 기반의 생성모델이다. 변분 오토인코더는 변분법을 사용하는데, 변분법은 어떤 함수 p(x)의 극점을 찾는 문제에서 해당함수를 직접 계산하기 어려울 때, 쉽게 계산이 가능한 다른 함수 q(x)로 대체하여 근사적인 해를 구하는 방법이다.

변분 오토인코더의 구조는 인코더-디코더로 구성된다. 인코더는 입력 데이터 x를 은닉 공간의 z로 변환한다. 이때, qϕ(zx)는 인코더의 출력분포이다. 디코더는 은닉 공간의 데이터 z를 입력 공간의 데이터 x로 변환한다. 이때, pθ(xz)는 디코더의 출력분포이다. 변분 오토인코더의 최종 목적은 원본 데이터를 복원하기 위해서 pθ(x)를 최대화하는 것이다.

변분 오토인코더의 학습방법은 다음과 같다. 로그우도 logpθ(x)의 수식을 정리하면, KL발산은 0보다 같거나 크기 때문에 logpθ(x)의 최소값은 증거하한(Evidence Lower BOund, ELBO) L(θ,ϕ;xi)으로 주어진다.[12]

(9)
logpθ(xi)=KL(qϕ(zxi)pθ(zxi))_L(θ,ϕ;xi)L(θ,ϕ;xi).
(10)
L(θ,ϕ;xi)=Eqϕ[logpθ(xiz)]-KL(qϕ(zxi)pθ(z)).

변분 오토인코더의 손실함수 LA를 다음과 같이 정의하여 최소화 되도록 학습하게 되면, 증거하한 L(θ,ϕ;xi)이 최대화 되고 따라서 logpθ(x)가 최대화 된다.

(11)
LA=-L(θ,ϕ;xi)=-Eqϕ(zxi)[logpθ(xiz)]+KL(qϕ(zxi)pθ(z))=12(xi-xi')2+KL(qϕ(zxi)pθ(z)).

손실함수의 첫번째 항은 모델의 출력이 입력과 유사하도록, 두번째 항은 이상적인 샘플링을 위한 qϕ(zxi) 분포가 prior pθ(z)와 유사한 분포가 되도록 학습된다. 즉, 최대한 원본 음성과 유사하면서 이상적인 샘플링 함수의 값이 최대한 prior값과 같도록 만든다.

III. 제안 방법

3.1 변분 오토인코더 기반 증강 모델

제안 방법에서는 데이터 증강 모델로 변분 오토인코더를 사용한다. 학습은 2단계로 수행된다. 1단계에서 Fig. 3과 같이 학습데이터를 사용하여 변분 오토인코더 모델을 학습한다. 변분 오토인코더 모델은 입력 음성과 모델의 출력의 차이가 최소가 되면서 이상적인 샘플링 함수 qϕ(zx)가 prior pθ(z)와 유사하도록 학습한다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F3.jpg
Fig. 3.

(Color available online) Structural diagram of the variational autoencoder.

2단계에서는 생성된 증강 데이터 x'을 기존 데이터 x에 추가하여 Fig. 1의 기존 음성인식 모델을 학습한다. 증강 모델로부터 생성된 데이터를 추가하여 더욱 많은 데이터로 모델을 학습하여 성능을 개선하는 효과를 기대한다.

3.2 비교사 데이터 증강 학습법

Fig. 4는 학습된 데이터 증강 및 음성인식 모델을 이용한 비교사 데이터 증강 기반의 준지도 학습방법을 나타낸다. 미리 학습된 증강모델 및 음성인식 모델에 비교사 데이터 증강 학습 방법을 적용한다. 제안된 비교사 데이터 증강 학습 방법은 2.2절과 유사하지만 크게 2가지의 차이점이 있다. 데이터 증강으로 학습된 변분 오토인코더 증강모델을 고정시킨다. 이는 비교사 데이터 증강 학습 시 증강모델이 음성인식 모델과 동시에 학습되면서 잘못된 방향으로 학습되지 않도록 방지하기 위함이다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F4.jpg
Fig. 4.

(Color available online) Block diagram of the proposed UDA-based training method.

또한, 비교사 데이터 증강 모델 학습 시에는 음성인식 모델의 디코더를 고정시킨다. 종단간 음성인식 모델에서 인코더는 음향모델, 디코더는 언어모델의 역할을 수행한다. 이미 레이블된 데이터로 학습된 음성인식 모델의 디코더를 고정시킴으로써 음향모델의 역할인 인코더를 잘 학습시키는 것에 집중하도록 한다. 증강된 데이터를 추가하여 인코더를 더 집중적으로 학습시키면 인코더에서 더 의미있는 음향 정보를 추출하고 이는 음성인식 성능을 향상시킬 것으로 기대한다.

제안하는 두 가지 모델 고정기술을 바탕으로 2.2절의 비교사 데이터 증강 학습 방법에 따라서 음성인식 모델을 재학습한다.

IV. 실험결과 및 토의

4.1 데이터베이스

본 실험에서는 음성인식 실험에 많이 사용되는 WSJ[13]과 LibriSpeech[14] 데이터베이스를 사용하였다. WSJ의 학습데이터는 si84 15 h과 si284 81 h으로 구성된다. 평가 데이터는 eval93 1.1 h, 검증 데이터는 dev92 1.0 h으로 구성된다. LibriSpeech는 전체 학습 데이터는 960 h으로 train-clean-100 100 h과 train-clean- 360 360 h, 그리고 train-other-500 500 h으로 구성된다. 검증 데이터는 dev-clean 5.1 h, 평가데이터는 test- clean 5.3 h으로 구성된다. UDA의 𝛼에 따른 실험 결과를 확인하기 위해서 WSJ의 si84를 레이블된 데이터, si284를 레이블 없는 데이터로 사용하였다. 평가 및 검증에는 eval93, dev92를 사용하였다. 데이터 증강모델 실험을 위해서 LibriSpeech의 train-clean-100을 사용하였으며, 준지도 학습 실험에는 레이블된 데이터로 train-clean-100, 레이블 없는 데이터로 train- clean-360을 사용하였다. 두 실험 모두 평가 및 검증에는 test-clean, dev-clean의 2개 세트를 사용하였다.

4.2 실험

본 연구에서는 종단간 음성인식 모델의 실험환경을 제공하는 툴킷인 ESPnet[15]을 사용하였다. 음성인식 모델은 트랜스포머를 사용하며 인코더 블록 12개, 디코더 블록 6개로 구성된다. 각 멀티헤드 주의집중의 헤드는 8개, 각 층은 512 차원으로 구성된다. 배치크기는 64, 드롭아웃은 0.1, epoch 100을 사용하였다.

변분 오토인코더 모델은 음성인식의 트랜스포머 인코더 블록의 구조를 사용하여 인코더 1층, 디코더 1층을 사용하였다. 각 헤드는 4개, 각 층은 128층을 사용하였고 배치크기는 64, 드롭아웃은 0.1, epoch 50을 사용하였다.

언어모델(Language Model, LM)은 트랜스포머의 멀티-헤드 주의블록을 사용하며, 헤드 8개, 16층으로 구성된다.

4.3 실험 결과

평가 지표로 음성인식 모델의 출력 결과를 디코딩한 최종 인식 결과의 인식 단위별 인식결과인 문자오류율(Character Error Rate, CER)과 단어오류율(Word Error Rate, WER)를 측정하였다.

Table 1은 WSJ에서 𝛼값의 변화에 따른 비교사 데이터 증강의 성능을 보여준다. WSJ의 데이터를 사용하여 최적의 𝛼값을 찾기 위한 실험을 수행하였다. 실험 결과 𝛼에 따라서 성능변화가 발생하는 것을 볼 수 있다. 𝛼 = 5에서 비교사 데이터 증강의 성능이 가장 좋은 것을 볼 수 있었으며 베이스라인(𝛼 = 0) 대비 단어오류율이 3.8 % 감소하였다.

Table 1.

WER (%) of the UDA-based training method with decoder freezing using the data augmentation model for the WSJ database.

α 0 0.1 0.2 1 5 10
CER 10.0 10.4 10.1 9.8 9.4 9.6
WER 15.7 17.1 16.7 15.7 15.1 15.3

Fig. 5는 60 epoch 까지는 베이스라인 음성인식 모델을, 60 epoch 이후로는 비교사 데이터 증강의 학습 손실을 보여주는 그래프이다. 이때 𝛼 = 5에서 그래프를 그렸다. 그래프를 보면 비교사 데이터 증강의 추가 학습이 시작될 때 새로운 손실이 추가되면서 전체 손실 그래프가 베이스라인 대비 커지는 것을 볼 수 있다. 또한 비교사 데이터 증강 학습이 시작되면서 다시 손실이 줄어드는 것을 볼 수 있다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F5.jpg
Fig. 5.

(Color available online) Loss graph of the baseline model and UDA model.

𝛼 = 1에서 𝛼 = 5에서와 비슷한 경향의 그래프를 확인하였으며 전반적으로 𝛼 = 5 보다 손실값이 더 커지는 것을 확인하였다. 베이스라인에서 학습 손실의 최소값은 7.19, 𝛼 = 1에서의 비교사 데이터 증강 학습에서는 6.61로 베이스라인 대비 8.1 %의 손실 감소가 있었다. 𝛼 = 5에서의 비교사 데이터 증강 학습에서는 6.42로 베이스라인 대비 10.7 %의 손실 감소가 있었다. 즉, 𝛼 = 5에서 𝛼 = 1 보다 손실값이 더 작으며, 학습이 잘 되었다고 볼 수 있다.

Table 2는 기존의 트랜스포머 기반 음성인식기에 제안한 증강모델과 비교사 데이터 증강 학습 방법을 순차적으로 적용하여 LibriSpeech 데이터베이스의 WER 성능을 측정한 표이다. M1은 기존의 음성인식기인 베이스라인 모델이다. M2는 학습된 증강모델을 추가하여 음성인식기를 재학습한 모델이다. M3는 학습된 증가모델 및 음성인식모델을 비교사 데이터 증강 (𝛼 = 1)으로 학습한 모델이다. M4는 M3에 디코더 고정을 적용하여 비교사 데이터 증강 학습한 모델이다. M5는 학습된 증가모델 및 음성인식모델을 비교사 데이터 증강 (𝛼 = 5)로 학습한 모델이다. M6는 M5에 디코더 고정을 적용하여 비교사 데이터 증강 학습한 모델이다.

Table 2.

WER (%) of the UDA-based training method with decoder freezing using the data augmentation model for the LibriSpeech database.

Model Test-clean Dev-clean
Baseline (M1)
+VAE (M2)
+UDA (α = 1) (M3)
+Freezing (M4)
+UDA (α = 5) (M5)
+Freezing (M6)
14.9
14.5
14.1
13.9
14.0
13.9
15.1
14.8
14.6
14.2
14.4
14.1

M1과 M2를 통해서 제안된 증강모델의 성능개선 효과를 확인할 수 있다. M1과 M2는 100 h의 레이블된 학습데이터를 사용하였다. M2의 결과는 베이스라인 M1 대비 상대적으로 2.9 %의 단어오류율 감소를 보였다. 변분 오토인코더로부터 생성되는 음성은 입력 음성과 유사하지만, 기존과 다른 왜곡된 음성데이터가 된다. M2의 실험 결과에 의하면, 이러한 음성을 추가하여 더 많은 데이터로 학습하는 것이 성능향상에 도움이 된다는 것을 확인할 수 있다. M3와 M4는 제안된 비교사 데이터 증강 학습방법의 성능개선 효과를 확인할 수 있다. M3와 M4는 100 h의 레이블된 데이터 및 360 h의 레이블 없는 데이터를 사용하였다. M3는 학습된 베이스라인 및 증강모델을 활용하여 비교사 데이터 증강 학습 시 성능이 개선됨을 보여준다. M3에 디코더 고정 학습을 추가한 M4는 단어오류율 13.9 %로 가장 좋은 성능을 보여준다. 이는 베이스라인 대비 상대적으로 6.7 %의 단어오류율 감소이다. 제안한 방법인 M2를 적용하고, 또다시 M4를 적용하여 제안한 방법이 음성인식 성능을 개선함을 볼 수 있다. 이는 디코더를 고정하는 학습방법이 음향모델의 역할을 하는 인코더를 집중적으로 학습하여 음향특성 더 잘 추출하게 학습된다는 기대에 부합한다. 마지막으로 M5, M6는 Table 1의 결과에서 찾은 최적의 𝛼 = 5에서 비교사 데이터 증강 실험을 수행한 결과이다. Table 1에서와 마찬가지로 𝛼 = 5에서 M3, M4보다 성능이 향상됨을 볼 수 있다.

Fig. 6은 실제 학습된 모델로부터 얻은 모델의 출력을 사용하여 얻은 것으로서, Fig. 6(a)는 원본 음성의 스펙트로그램, Fig. 6(b)는 변분 오토인코더 증강모델의 출력으로 얻어진 증강된 음성의 스펙트로그램이다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F6.jpg
Fig. 6.

(Color available online) (a) Spectrogram of the original speech data; (b) Spectrogram of the augmented speech data.

Fig. 6을 보면 증강된 데이터인 Fig. 6(b)가 원본 음성인 Fig. 6(a)보다 낮은 주파수 영역에서 대체적으로 에너지가 낮음을 볼 수 있다. 또한 전반적으로 증강된 데이터가 원본 음성보다 에너지가 낮아진 것을 볼 수 있다. 이는 변분 오토인코더 기반 증강모델이 기존의 음성의 특성을 조금씩 왜곡시키는 데이터 증강 기술에 부합함을 의미한다. 위의 실험을 통해서 왜곡된 데이터를 학습에 활용하면 성능 향상 가능성이 있음을 확인하였다.

Fig. 7은 원본 음성과 데이터 증강된 음성간의 데이터 분포를 그린 그림이다. Fig. 7(a)는 원본 음성과 기존 방법인 SpecAugment를 적용한 음성의 분포도를 나타내며, Fig. 7(b)Fig. 6(a)Fig. 6(b)에 주어진 원본 음성과 증강된 음성의 분포도를 나타낸다. 분포도를 그리기 위해서 t-SNE[16]를 사용하여 각 데이터의 차원을 축소하였다. Fig. 7(a)와 같이 SpecAugment는 마스크를 씌운 만큼 원본 데이터에서 벗어나서 뭉쳐지는 현상이 발생하는 반면, Fig. 7(b)와 같이 변분 오토인코더로부터 증강된 데이터는 원본 음성에서 크게 멀어지지 않고 그 주변에 머물며 음성을 왜곡시킨다. Fig. 7(b)의 결과를 보면 증강된 음성이 전반적으로 원본 음성의 주변에 머물고 있음을 볼 수 있다. 이는 원본 음성에 최대한 가깝게 분포하여 그 특성을 유지하면서 기존과는 조금씩 다른 데이터를 생성하는 Fig. 6의 결과에 부합한다.

https://static.apub.kr/journalsite/sites/ask/2021-040-06/N0660400606/images/ASK_40_06_06_F7.jpg
Fig. 7.

(Color available online) t-SNE scatter plot. (a)The original speech data and the speech data augmented by the proposed method, (b) the original speech data and the speech data augmented by the SpecAugment method.

V. 결 론

본 연구에서는 변분 오토인코더 기반 데이터 증강모델과 비교사 데이터 증강에 디코더 고정을 추가하여 학습하는 방법을 제안하였다. 증강모델 자체에서 더 많은 음성데이터를 생성시키기 위해서 생성모델인 변분 오토인코더를 사용하였으며, 음성인식 학습 시 음향특성을 잘 추출하기 위해서 디코더를 고정시켜 인코더가 잘 학습되도록 하였다. 최종적으로 학습된 변분 오토인코더와 음성인식 디코더 고정을 추가한 비교사 데이터 증강 학습을 적용한 경우에 가장 높은 성능을 보였다.

향후 연구로서, 최근에 제안된 잡음 학생 방법[8]과 변분 오토인코더 증강모델을 결합하거나, 변분 오토인코더 증강모델로부터 생성되는 데이터의 다양성을 증가시키기 위한 연구가 필요하다.

Acknowledgements

이 논문은 2019년도 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행된 연구임(2019-0-00004, 준지도학습형 언어지능 원천기술 및 이에 기반한 외국인 지원용 한국어 튜터링 서비스 개발).

References

1
F. Seide, G. Li, and D. Yu, "Conversational speech transcription using context-dependent deep neural networks," Proc. INTERSPEECH, 437-440 (2011). 10.21437/Interspeech.2011-169
2
W. Chan, N. Jaitly, Q. Le, and O. Vinyals, "Listen, attend and spell: A neural network for large vocabulary conversational speech recognition," Proc. ICASSP. 4960-4964 (2016). 10.1109/ICASSP.2016.7472621
3
A. Vaswami, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser, and I. Polosukhin, "Attention is all you need," Proc. NIPS. 5998-6008 (2017).
4
T. Hori, R. Astudillo, T. Hayashi, Y. Zhang, S. Watanabe, and J. L. Roux, "Cycle-consistency training for end-to-end speech recognition," Proc. ICASSP. 6271-6275 (2019). 10.1109/ICASSP.2019.8683307
5
M.-K. Baskar, S. Watanabe, R. Astudillo, T. Hori, L. Burget, and J. Cernocky, "Semi-supervised sequence- to-sequence ASR using unpaired speech and text," Proc. ICASSP. 3790-3794 (2019). 10.21437/Interspeech.2019-3167
6
Q. Xie, Z. Dai, E. Hovy, M. T. Luong, and Q. V. Le, "Unsupervised data augmentation for consistency training," arXiv:1904.12848 (2019).
7
J. Li, M. L. Seltzer, X. Wang, R. Zhao, and Y. Gong, "Large-scale domain adaptation via teacher-student learning," Proc. INTERSPEECH, 2386-2390 (2017). 10.21437/Interspeech.2017-519
8
Q. Xie, M.-T. Luong, E. Hovy, and Q. V. Le, "Self- training with noisy student improves ImageNet classification," Proc. CVPR. 10687-10698 (2020). 10.1109/CVPR42600.2020.01070
9
N. Jaitly and G. E. Hinton, "Vocal tract length perturbation (VTLP) improves speech recognition," Proc. ICML. 625-660 (2013).
10
D. S. Park, W. Chan, Y. Zhang, C.-C. Chiu, B. Zoph, E. D. Cubuk, and Q. V. Le, "SpecAugment: A simple data augmentation method for automatic speech recognition," Proc. INTERSPEECH, 2613-2617 (2019). 10.21437/Interspeech.2019-2680
11
X. Song, Z. Wu, Y. Huang, D. Su, and H. Meng, "SpecSwap: A simple data augmentation method for end-to-end speech recognition," Proc. INTERSPEECH, 581-585 (2020). 10.21437/Interspeech.2020-2275
12
D. P. Kingma and M. Welling, "Auto-encoding variational bayes," Proc. ICLR. 1-14 (2014).
13
D. B. Paul and J. M. Baker, "The design for the Wall Street Journal-based CSR corpus," Proc. ACL. 357-362 (1992). 10.3115/1075527.1075614
14
V. Panayotov, G. Chen, D. Povey, and S. Khudanpur, "LibriSpeech: An ASR corpus based on public domain audio books," Proc. ICASSP. 5206-5210 (2015). 10.1109/ICASSP.2015.7178964
15
S. Watanabe, T. Hori, S. Karita, T. Hayashi, J. Nishitoba, Y. Unno, N. E. Y. Soplin, J. Heymann, M. Wiesner, N. Chen, A. Renduchintala, and T. Ochiai, "ESPnet: End- to-end speech processing toolkit," Proc. INTERSPEECH, 2207-2211 (2018). 10.21437/Interspeech.2018-145629730221
16
L. V. D. Maaten and G. Hinton, "Visualizing data using t-SNE," J. Mach. Learn. Res. 9, 2579-2605 (2008).
페이지 상단으로 이동하기