I. 서 론
PTT(Push-To-Talk)는 인스턴트 음성 메시지를 전달하는 반이중통신 방식으로 개인 또는 그룹의 사용자가 유용하게 사용할 수 있는 통신 서비스 이다. PTT는 별도의 네트워크 구성 없이 현존하는 통신 네트워크를 기반으로 이용 가능하며 일반 통화와는 다르게 대기 시간이 없기 때문에 최근에는 위급 상황에서의 실시간 통신을 대상으로 PTT에 대한 가치가 재정의 되고 있다. 실제의 위급상황에서는 다양한 배경 잡음이 동시 다발적으로 발생하므로 이러한 상황에서 PTT를 사용할 경우, 강인한 음성 통신을 보장하기 위해 음성 향상 방식이 필요하다.
기존의 단일 채널 음성 향상 방식들은 입력되는 오염된 신호에 STFT(Short-Time Fourier Transform)을 적용하여 시간 축의 신호를 시간-주파수축의 신호로 변환하여 처리하였다. Wiener 이득 값 적용방식, Bayesian STSA(Short-Time Spectral Amplitude) estimators[1] 등으로 대변되는 지난 수십 년간의 대표적인 단일 채널 음성 향상 방식들은 위상을 배제한 채 진폭만을 대상으로 수행되었다. 이러한 방식들은 정적 잡음에는 성공적으로 동작하는 반면 동적 잡음에는 약한 특성을 나타내는데, 실생활의 잡음 환경에는 정적 잡음과 동적 잡음이 혼재하므로 이러한 방식들로는 실제 환경의 잡음을 제거하는데 충분하지 않다는 한계가 있다.
이와 함께 최근에는 위상 추정에 대한 연구[2]를 통해 음성 신호에 대한 위상 추정이 음성 향상에서 중요한 역할을 한다는 사실이 밝혀졌다. 하지만 아직까지 단일 채널 음성 향상 방식에서는 진폭 추정과 위상 추정이 각각 독립적으로 적용되어 오고 있으며 이러한 방식들의 독립적인 적용으로는 다양한 잡음 환경에서 오염된 음성 신호에 대한 향상이 충분히 이루어지지 않는다는 한계가 존재한다.
이에 본 논문에서는 입력신호에 대한 음성 구간 검출을 기반으로 음성 존재 불확실성 계수를 반영한 적응적 Log-spectral 진폭 추정 방식(Adaptive Log-Spectral Amplitude estimation: ALSA) 과 위상 분해를 이용한 위상 추정방식을 함께 사용하여 낮은 연산량을 갖는 효과적인 단일 채널 음성 향상 방식을 제안한다.
II. 적응적 단일 채널 음성 향상 방식
Fig. 1은 본 논문에서 제안하는 단일 채널 음성 향상 방식의 전체 알고리즘을 나타낸다. 제안하는 알고리즘은 STFT 적용부, ALSA 기반의 진폭 추정부, 위상 분해를 이용한 위상 추정부, ISTFT(Inverse Short- Time Fourier Transform) 적용부로 구성된다.
제안한 방식에서, PTT 동작 여부에 관계없이 마이크는 언제나 켜져 있는 상태이다. PTT가 동작하지 않는 상태에서는 사용자의 주변 환경잡음이 선험적 잡음 신호로서 입력되며 PTT가 동작할 때는 잡음에 오염된 음성신호에 대해 음성 향상이 적용된다.
PTT가 동작할 때 입력되는 오염된 음성신호
는 음성신호
에 부가적 잡음
가 더해진 것으로 가정된다. 또한 이때의
는 앞서 입력된 선험적 잡음신호
와 유사하다고 가정할 수 있다.
그리고
에 대해 STFT를 적용하여 다음과 같이 나타낼 수 있다.
(1)
여기서
와
은 주파수와 프레임 인덱스를 나타내며,
은 각각 오염된 음성신호, 클린 음성신호, 잡음 신호의 진폭성분을 나타낸다.
은 오염된 음성신호, 클린 음성신호, 잡음 신호의 위상성분을 나타낸다.
PTT가 동작하지 않는 동안 입력되는 선험적 잡음신호는 계속해서 갱신되어 저장되며, 이는 PTT의 동작 시에 ALSA 기반의 진폭 추정부에 적용되어 진폭 추정 이득 값
을 구하는데 반영된다.
오염된 신호의 진폭 성분
에 진폭 추정 이득 값을 적용하여 다음과 같이 잡음이 제거된 음성 진폭 성분
을 얻을 수 있다.
(2)
이와 함께 잡음에 오염된 위상성분
에 대해 위상 분해를 적용한 뒤 위상의 시간적 평활화를 적용하여 향상된 위상성분
을 얻을 수 있다. 향상된 진폭성분과 위상성분에 대해 ISTFT를 적용하여 시간 축의 향상된 음성 신호
를 얻을 수 있다.
III. ALSA 방식 기반의 진폭 추정
Log-spectral 진폭 추정 방식(LSA)[3]은 인간의 청각적 지각 특성을 고려하여 기존의 MMSE(Minimum-Mean Square Error) STSA 추정 방식의 비용함수에 로그를 적용한 방식으로 기존의 방식보다 잡음 제거에 적합한 것으로 알려져 있다. 본 논문에서 제안하는 진폭 향상 과정에서는 약한 음성 성분을 보존하고 잔여 잡음을 더욱 효과적으로 제거하기 위해 음성 구간 검출을 기반으로 음성 존재 불확실성 계수
을 반영한 적응적 Log-spectral 진폭 추정 방식(ALSA)을 사용한다. ALSA방식의 이득함수
은 다음과 같이 정의된다.
(3)
(4)
여기서
은 잡음 진폭 스펙트럼,
은 a priori SNR(Signal-to-Noise Ratio),
는 a posteriori SNR를 나타낸다.
=-20 dB를 사용하며 스무딩 파라미터
는 0부터 1 사이의 값을 가진다.
사용자가 PTT를 작동시키지 않을 때에는 마이크를 통해 음성이 포함되지 않은 환경 잡음이 입력된다. 이때 입력되는 선험적 잡음신호는 계속해서 갱신되며 갱신된 선험적 잡음신호를
이라고 한다. 사용자가 PTT를 작동시켜 오염된 음성신호가 입력되면,
에 대해 전체 프레임에 대한 각 주파수 빈의 최소 진폭 값
와 평균 진폭 값
가 계산된다.
와 입력신호의 진폭 스펙트럼
을 이용하여 다음과 같이 코사인 유사도
을 계산한다.
(5)
은 입력신호와 선험적 잡음 신호의 프레임 별 유사도를 나타내며 입력신호에서 음성구간과 비음성구간을 판별하는데 사용된다.
을 기반으로 유사도 문턱값
을 이용해 다음과 같이 음성의 유무를 나타내는 표지함수
을 구할 수 있다.
(6)
(7)
여기서
는
번째 주파수 빈에서의
의 문턱값을 나타내며 시간-주파수 블록에서의 약한 음성 성분을 보존하기 위해
를 적용하였다.
을 기반으로 조건부 음성 존재 확률
은 다음과 같이 추정된다.
(8)
여기서
는 스무딩 파라미터를 나타낸다.
추정된
을 기반으로 다음과 같이 시변 평활화 변수
를 이용해 현재의 잡음 진폭 스펙트럼
을 추정할 수 있다.
(9)
(10)
여기서
은 노이즈 플로어를 나타낸다.
또한, Cohen[4]이 보인 것과 같이 주파수 도메인에서 지역적, 전역적 평균 윈도우를 적용하여
과
를 구할 수 있다. 이와 함께 앞서 구한
의 최소값
과 최대값
을 바탕으로
을 계산하여 음성 부재 확률
를 다음과 같이 도출할 수 있다.
(11)
(12)
유사도
을 이용해 도출한
을 적용함으로써 현재 잡음 환경에 적응적인 음성 부재 확률
의 추정이 가능하다.
음성 존재 불확실성 계수
는 다음과 같이 표현된다.
(13)
이때
의 시변 값에 대한 정확한 추정이 이뤄진다면 음성 신호의 추정을 더욱 원본에 가깝게 수행할 수 있다.
IV. 위상 분해 기반의 위상 향상
일반적으로 음성 신호는 진폭과 위상으로 구성된 하모닉스의 합으로 모델링 된다. 음성 신호가 잡음에 의해 오염될 때 위상 또한 오염되는데, 오염된 위상을 향상시키기 위해 본 논문에서는 위상 분해 방식을 사용한다. 제안하는 방식은 하모닉스에서의 위상 정보를 이용하며 입력 신호의 하모닉
에서의 위상을
으로 표시한다.
는 하모닉 인덱스
와
의 관계를 가진다. 하모닉스의 주파수가 두 주파수 빈 사이에 위치할 때
는
의 가중 합을 반환한다.
잡음에 오염된 유성음 프레임의 각 하모닉 위상은 음성 위상
과 포락선 위상
로 구성되며, 음성 위상은 다시 선형 위상
과 여기 위상
성분으로 구성된다.
(14)
최근, 음성 신호의 ZZT(Zeros of Z-Transform)에 대한 연구를 통해 유성음의 ZZT에 대해 별도의 패턴이 존재하는 것이 밝혀졌다. 따라서 다른 추가적인 모델링 없이 ZZT 분해 기반의 분리 알고리즘을 통한 위상 분해가 수행 될 수 있으므로, 본 논문에서는 먼저 ZZT[5]를 사용하여 입력 위상을 포락선 위상과 음성 위상으로 분해한다.
ZZT의 전극 모델 파라미터
(
)를 사용하여 포락선 위상을 다음과 같이 추정한다.
(15)
(16)
여기서
는 유성음 하모닉스의 개수,
는 보간 계수를 나타내며
는 보간 벡터의 크기를 나타낸다.
다음으로, 오염된 입력 위상에서 추정한 포락선 위상을 차감하여 음성 위상을 구할 수 있다.
(17)
음성 위상을 구성하는 선형 위상은 인접 프레임의 선형 위상과 프레임의 기본 주파수에 의존적이며 다음과 같이 표현된다.
, (18)
여기서
는
를 나타내고(
) 이는 이전 피치 주기
와 현재 피치 주기
사이의
로 구해지는 변화의 폭을 최소화하는 값으로 구해진다.
는 이전 프레임과 현재 프레임의 기본 주파수
의 가중 합으로 주어지며
은 샘플 단위의 프레임 시프트 크기를 나타낸다.
선형 위상은 프레임 간격과 하모닉 인덱스에 따른 wrapped 위상이며 음성 신호의 고유한 위상을 포함하는 반면 여기 위상은 unwrapped 위상으로 환경에 민감하게 반응하며 변화가 많은 성분이다. 음성신호가 잡음에 의해 오염될 때 여기 위상은 오염되며 이로 인해 여기 위상의 순간 위상 차 또한 왜곡된다. 따라서 이러한 위상 왜곡을 추정하여 평활화를 적용함으로써 변질된 여기 위상을 복원시킬 수 있다.
잡음에 오염된 음성 위상에서 선형 위상을 분리함으로써 잡음에 의해 변질된 여기 위상을 얻을 수 있다. 여기 위상 차, 즉 위상 왜곡
은 다음과 같이 계산된다.
(19)
(20)
여기서
는 유한 차분 연산차를 나타낸다.
계산한 여기 위상의 왜곡 성분에 대해 다음과 같이 위상 평활화 윈도우를 적용함으로써 왜곡이 향상된 여기 위상차
를 얻을 수 있다.
(21)
여기서
은 20 ms의 시간 간격에 들어가는 프레임의 개수를 의미하며
는 위상 평활화 윈도우를 나타낸다.
향상된 여기 위상 차, 추정된 선형 위상과 포락선 위상을 모두 합하여 음성 신호의 하모닉한 구조가 복원된 향상된 위상
을 얻을 수 있다. 향상된 위상은 STFT 도메인의 위상으로 변환된다.
(22)
(23)
이렇게 변환된 향상된 위상
은 ISTFT 적용부에서 향상된 진폭과 함께 적용되며 이를 통해 최종적으로 향상된 음성 신호가 출력된다.
V. 실험 결과
제안한 방식의 성능을 측정하기 위해서 단계별 음성 향상 실험을 진행하였다: 1) LSA: Ephraim과 Malah[3]가 제안한 LSA 방식; 2) ALSA: 음성 존재 불확실성 계수를 반영한 적응적 LSA방식; 3) ALSA-PE: 위상 향상 방식을 포함한 ALSA방식.
실험을 위해 TIMIT 데이터베이스에서 200개의 음성 데이터를 대상으로 NOISEX-92 데이터베이스에서 버블 잡음(BN), 레스토랑 잡음(RN), 공장 잡음(FN) 등 3개의 동적 잡음을 segmental SNR 0 dB부터 15 dB까지 5 dB의 간격으로 혼합하여 사용하였다. Segmental SNR은 다음과 같이 정의된다.
(24)
여기서
은 음성을 포함하는 프레임을 나타내고
은
의 개수를 의미한다.
실험에 사용된 음성과 잡음신호는 8 kHz의 샘플링 레이트, 16 bit의 해상도로 구성되었으며 고속 푸리에 변환 시 프레임 크기는 256개 샘플을 사용하였고 75 %의 오버래핑을 적용하였다. 본 논문에서 사용한 선험적 잡음은 PTT가 실행되지 않는 상태에서의 5 s의 잡음신호에 대해 수집하였다. 성능을 객관적으로 평가하기 위해 PESQ(Perceptual Evaluation of Speech Quality)를 사용하였다.
Table 1은 평균 PESQ 결과를 나타낸다. 실험 결과를 통해 ALSA 방식의 성능이 기존의 방식보다 뛰어나며, 본 논문에서 제안한 방식인 ALSA-PE가 가장 높은 성능을 보이는 것을 알 수 있다.
VI. 결 론
본 논문에서는 사용자 디바이스에 포함된 PTT의 단일 채널 음성 향상 방식에 대해 제안하였다. 제안한 방식은 기존의 단일 채널 음성 향상 방식과는 다르게 입력 신호에 대해 진폭 향상과 위상 향상을 각각 수행한 뒤 이를 결합함으로써 향상의 성능을 더욱 높이고자 하였다. 진폭 향상 과정에서는 Log-spectral 진폭 추정 방식을 기반으로 음성 존재 불확실성 계수를 반영한 ALSA 방식을 적용하였으며 이를 통해 현재의 잡음 환경을 반영하여 음성왜곡을 감소시키면서 효과적으로 잡음을 제거할 수 있었다. 또한 위상 분해 방식 기반의 위상 추정을 적용하여 위상 왜곡을 향상시키고 음성 신호의 고유한 하모닉 구조를 복원함으로써 더욱 명료한 음성 신호를 얻을 수 있었다. 향후 본 논문을 기반으로 실제 디바이스에서 사용가능한 PTT 어플리케이션에 대한 연구를 수행할 예정이다.




