The Journal of the Acoustical Society of Korea. 31 January 2013. 79-85
https://doi.org/10.7776/ASK.2013.32.1.079

ABSTRACT


MAIN

  • I. 서 론

  • II. CASA 시스템

  • III. 비모수적 상관 계수를 이용한 특징 추출

  • IV. 실험 및 고찰

  • V. 결론 및 향후계획

I. 서 론

인간만이 가지는 능력 중 여러 음성이 혼합하여 잡음처럼 들리더라도 목적하는 소리만 집중하여 청취할 수 있는 인지 능력을 자동 음성 인식 시스템이나 음성 통신 시스템에 접목하기 위해 다양한 연구가 진행되고 있으며 목적하는 소리를 자동으로 분리하거나 배경적 잡음의 간섭을 억제하는 시스템을 개발하기 위한 연구가 계속되고 있다.[1]

목적 음성 분리를 위해서는 음성 신호와 간섭 신호의 본질 속성이 고려되어야 하며 목적 음성의 본질 속성을 분석하기 위해 인간의 청각 기관 인지 특성을 반영한 청각 장면 분석(ASA: Auditory Scene Analysis)[2]이 제기되었다. 청각 장면 분석은 음향 심리학적인 용어로 음향  환경에 대한 인지과정을 시각 정보의 인지 과정으로 청각 신호 인지 장면(scene)을 시각화하였다.

CASA(Computational Auditory Scene Analysis)[3] 시스템은 목적 음성을 분리하기 위하여  청각신경  분석, 특징 추출, 세그먼테이션, 그룹화, 재합성 과정을 수행한다. CASA 시스템 과정 중 특징 추출 과정은 시간의 연속성과 채널 간 유사성을 이용한 청각 요소의 상관지도를 구성하여 사용한다. 채널 간 유사성을 교차 상관 계수를 이용하여 특징 추출을 하는  CASA 시스템은 상관성을 정량적으로 나타내기 위해 계산 량이 많은 단점이 있다.

따라서 본 논문에서는 특징 추출 시 계산 량을 줄이기 위한 방법으로 비모수적 상관 계수인 스피어만(spearman) 상관 계수를 이용한 특징 추출 방법을 제안하였으며 이를 CASA 시스템을 통하여 목적 음성 분리 실험을 수행하였다. 목적 음성의 분리 성능 평가를 위해 OHIO 주립대학 PNL에서 채집한 비음성 소리(non-speech sounds) 환경 잡음을 사용하여 깨끗한 음성과 혼합한 후 목적 음성 신호를 분리하여 신호 대 잡음비(SNR)를 측정한 결과  기존방법에 비해 평균 0.14 dB 증가로  제안한 방법이 기존방법에 비해  미세하나마  우수함을 보였다.

논문의 구성은 2장에서 CASA 시스템에 대해 설명하고 3장에서 비모수적 상관 계수인 스피어만 상관 계수를 이용한 특징 추출 방법을 설명하였다.  4장에서는 제안한 방법을 검증하기 위한 실험 환경과 실험 결과에 대해 기술하였으며 5장에서 결론 및 향후계획에 대하여 이야기한다.

II. CASA 시스템

CASA 시스템은 음향심리학(psychoacoustic)과 생물학(biology)적 발견을 컴퓨터에서 구현하여 인간의 청각 처리 구조를 이해하고 인간의 청각 시스템과 동일하게 동작하는 자동 기계를 구현하는데 목적이 있으며 이를 실현하기 위하여 이상적인 마스크(ideal binary mask)를 설계하려는 목표를 가지고 있다.

CASA 시스템은 추상화 단계에서 인간의 청각 기관 기능을 모방하고 음향 신호의 이해를 장면 분석으로 해석하는 방법이며 Fig. 1과 같이 처리 절차를 나타낸다.[4]

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC65CD.gif

Fig. 1. Schematic diagram of a typical CASA system.

청각 신경 분석(peripheral analysis)은 청각 기관을 모델링하는 과정이며 대역 통과 필터링, 프레임별 창 함수(windowing), 시간-주파수(T-F) 단위 표현을 거쳐 청각 장면으로 분해한다. 모델링에 이용되는 청각 기관은 외이(outer ear), 중이(middle ear), 내이(inner ear)로 세 부분으로 구분한다. 외이는 소리를 전달하는 관의 모양을 가지고 있으며 이를 통해 얻어진 음향 신호는 중이의 고막(tympanic membrane)을 진동 한다. 이 신호는 세 개의 뼈(malleus, incus, stapes)를 통해 증폭 과정을 거쳐 내이의 달팽이관(cochlea) 내에 있는 유모 세포(hair cell)로 전달된 후 청각 신경(auditory nerve)을 통해 뇌로 전달된다.

신호와 시스템의 관점에서 외이와 중이는 신호의 강도가 거의 선형성을 보이고 있고 이곳에서 일어나는 공명(resonances)은 간단한 선형 필터로 모델링이 가능하며 선형 필터의 형태인 전 강조(pre- emphasis) 고역 통과 필터(high-pass filter)를 식(1)과 같이 표현하였다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC662C.gif.

(1)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC664C.gif는 입력 신호를 나타내며 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC666C.gif는 시간의 인덱스를 나타나고 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC668D.gif는 출력을 나타낸다.

외이와 중이를 거친 소리는 달팽이관에 입력되어 달팽이관 내에 존재하는 유모 세포를 통해 특정 구간별로 주파수 응답 특성을 표현한다.  CASA 시스템에서는 이를 모델링하기 위하여 감마톤 필터(gamma tone filter)[5]채널을 가진 ERB 필터 뱅크(Equivalent Rectangular Bandwidth filter bank )[6]를 사용한다. 감마톤 필터는 시간 영역에서 식(2) 와 같이 임펄스 응답 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6788.gif로 정의된다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC67F6.gif.

(2)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC67F7.gif는 출력 이득을 나타내고 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6808.gif는 필터 대역폭을 나타내며 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6809.gif은 필터의 차수를 나타낸다. http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC680A.gif는 중심 주파수를 나타내며 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC681A.gif는 위상을 나타낸다. 감마톤 필터는 대역폭이 1.0109일 때와 필터 차수가 4일 때 청각 특성에 가장 잘 부합된다.

출력 이득 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC681B.gif는 중심 주파수에서 1로 설정하기 위하여 식(3)과 같이 변형하여 계산한다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC686A.gif.

(3)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC686B.gif 은 임펄스응답의 길이를 나타내고 감마톤 필터대역폭은 ERB 대역폭에 의해 결정된다. 필터의 주파수 응답http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC689B.gif와 최대 이득 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC68DB.gif이 주어졌을 때 ERB는 식(3)과 같이 나타낸다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6939.gif.

(4)

ERB는 일정한 이득http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6969.gif과 에너지를 갖는 사각(rectangular)필터의 대역폭과 감마톤 필터의 에너지가 같아지는 대역폭이다. ERB는 Glasberg와 Moore[7]의 제안을 따르고 있다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC69D8.gif.

(5)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC69F8.gif는 ERB 필터뱅크 개수를 나타내고 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC69F9.gif는 필터의 중심 주파수를 나타내며 각 중심주파수는 최저 주파수와 최고 주파수 사이에 필터뱅크 채널수에 따라 분포한다. 감마톤의 ERB 필터뱅크를 거친 신호는 달팽이관 내에 존재하는 유모 세포 신호를 모델링한다.

외이, 중이, 내이의 청각 기관을 모델링하여 T-F 단위 계수를 하나의 장면으로 나타낸 달팽이관지도(cochleargram)를 Fig. 2와  같이 표현한다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6A29.gif

Fig. 2. Cochleagram.

특징 추출 과정은 청각 기관을 모델링하여 얻은 달팽이관지도를 바탕으로 필터뱅크에 대한 주파수 응답 계수의 시간 축 상의 주기성(periodicity)과 주파수 축 상의 채널 간 주파수 유사성(similarity)을 얻는 과정이다.

세그먼테이션 과정은 특징 추출에서 얻은 상관지도를 바탕으로 T-F 단위를 세분화하는 과정이다. 세그먼트들은 신호들의 고유 속성을 표시(mark)하는 역할을 하고 이의 조합들은 신호를 마스킹(masking)하는 역할을 수행한다.

이후 동일 성격의 세그먼트들을 그룹화 과정과 재합성 과정을 거쳐 분리된 목적 음성을 얻는다.

III. 비모수적 상관 계수를 이용한 특징 추출

특징 추출은 필터뱅크에 대한 시간 축 상의 주기성과 채널 간 주파수 유사성을 얻기 위한 두 가지 과정으로 분리된다.

첫 번째 과정은 128채널에 대한 주파수 응답 계수의 시간 축 상의 주기성 특징을 찾는 방법으로  자기 상관 계수(autocorrelation)[8]함수(ACF)를 이용하며 식(6)과 같이 나타낸다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6AA7.gif.

(6)

식(7)은 식(6)에 대한 정규화된 응답을 나타낸다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B06.gif.

(7)

채널 주파수 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B16.gif에서 지연 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B17.gif에 사각 윈도우 함수 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B37.gif를 곱하여 연산하며 윈도우 크기는 20 ms를 10 ms 간격으로 계산하여 주기성을 표현하는 완성된 장면의 상관지도로 표현된다.

Fig. 3은 자기 상관 계수를 이용한 자기상관지도 구조와 장면을 나타낸다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B67.gif

Fig. 3. Structure of autocorrelation correlogram and scene.

두 번째 과정은  주파수 축 상의 채널 간 주파수 유사성 판단을 위해 교차 상관(cross correlation)[8] 계수를 이용하며 자기 상관의 입력으로 채널 간의 상관 정도를 계산하여 채널 간에 주기 패턴의 유사성을 판단한다. 식(8)은 채널의 중심 주파수 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B78.gif, http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6B79.gif의 상관도를 나타낸다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6C35.gif.

(8)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6C56.gif는  자기 상관 계수를 나타내고 계산된 계수는 정규화를 통해 0 ~ 1사이의 값을 갖는다. 채널의 주기 패턴에 대한 상관이 높으면 1에 가까운 값을 나타내고 상관이 낮으면 0에 가까운 값을 나타낸다.

교차 상관 계수를 이용하여 특징 추출을 하면 채널과 채널을 교차하여 비교하므로 비교 횟수에 따라  계산량이 결정되고 비교 횟수의 증가는 계산량의 증가로 나타난다. 따라서 비모수적 상관관계인 스피어만 상관 계수를 이용하여 채널별로 순위를 정하여 비교 횟수를 줄이는 방법을 사용하였다.

비모수적 상관인 스피어만의 로우http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6C66.gif(rho)[9]는  측정치 변수나 순서 형 변수들의 상관관계를  자료의 순위 값에 의하여 계산하는 방법으로 순서 형 변수들의 상관관계를 계산한다. 데이터의 값 대신 순위를 이용하는 상관 계수이며 데이터를 작은 것부터 차례로 순위를 정하여 서열 순서로 바꾸어  상관 계수를 구하는 방법이다. 두 채널간의 연관 관계가 있는지 없는지를 밝혀주며 데이터에 이상점이 있거나 표본 크기가 작을 때 유용하게 사용된다.  자기 상관 지도를 바탕으로  식(9)와 같이 유사도를 측정한다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D04.gif.

(9)

정렬을 통하여 순위를 얻은 채널 변수 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D05.gifhttp://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D06.gif번째 자기 상관 계수의 순위를 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D26.gif로 나타내고 관측한 채널 변수 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D36.gifhttp://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D37.gif번째 자기 상관 계수의 순위를 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D58.gif로 나타내며 전체 서열 순위는 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D59.gif에 의해 구해진 순위 값으로 결정된다. http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D5A.gif은 연산을 위한 전체 채널을 나타낸다. 두 채널 사이의 상관 계수 연산은 프레임별 각 채널의  자기 상관의 지연을 대상으로 하고 음성의 기본 주파수(http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6D6A.gif)가 존재하는 구간인 500 Hz 범위까지 수행한다.

IV. 실험 및 고찰

교차 상관 과  비모수상관의 특징 추출의 음성 분리성능 평가를 위하여 OHIO대학 PNL(Perception and Neurodynamics Laboratory)의 비음성 소리(non-speech sounds)[10] 와 깨끗한 음성인 ETRI 445 PBW  음성데이터베이스의 “가운데”, “과일”, “교양”, “금융”, “우주” 발성을 각각 혼합하였으며 혼합된 잡음은 신호 대 잡음비를 5dB로 고정하여 목적 음성 분리 실험을 수행하였다. Table 1에는 OHIO대학 PNL 잡음 유형중 실험에 사용한 잡음 유형을 나타내었다.

Table 1. Types of noise in PNL noises database.

No

Type

Description

1

Crown

N1-N17  

2

Machine

N18-N29  

3

Alarm and siren

N30-N43 

4

Traffic and car

N44-N46 

5

Animal

N47-N55 

6

Water

N56-N69 

7

Wind

N70-N78 

8

Bell

N79-N82 

9

Cough

N83-N85 

10

Clap

N86          

11

Snore

N87         

12

Click

N88         

13

Laugh

N89-N90  

14

Yawn

N91-N92  

15

Cry

N93         

16

Shower

N94        

17

Tooth brushing

N95          

18

Footsteps

N96-N97  

19

Door moving

N98          

20

Phone dialing

N99-N100 

교차상관과 비모수상관 특징추출에 대해 세그먼테이션을 수행하여 얻은 세그먼트들의 지도를 통하여 세그먼트들의 분리된 차이를  Fig. 4에 나타내었다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6DAA.JPG

Fig. 4. Comparison of cross correlation feature and non-parametric correlation feature in segmentation.

음성 신호 분리 성능 실험을 위하여 그룹화 과정을 수행하고 재합성을 통하여 얻어진 목적 음성 분리를 수행하여 Fig. 5에 나타내었다. Fig. 5에 표현된 신호는  목적음성 분리 후 “가운데” 발성의 교차상관과 비모수상관 특징 추출에 대한 비교를 위한 그림이다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6E57.gif

(a)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6EB5.gif

(b)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6F05.jpg

(c)

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC6FA2.jpg

(d)

Fig. 5. Comparison of cross correlation feature and non-parametric feature in speech  segregation (a) clean speech (b) noisy speech (c) segregated speech  using cross correlation (d) segregated speech  using  non-parametric correlation.

Fig. 5에서 표시되어진 4부분으로 구분하여 교차상관 특징 추출 방법과 비모수상관 특징 추출 방법을 시각과 청각을 이용하여 단순 비교한 결과 ‘ㅏ’, ‘ㅜ’에 해당하는 작은 원으로 표시된 부분에서는 교차상관 특징 추출 방법이 비모수상관 특징 추출 방법에 비해 분리 성능이 좀 더 우수하게 나타났으며  “가”에서 ‘ㄱ’에 해당하는  사각형으로 표시된 부분에서는 비모수상관 방법이 좀 더 우수한 분리 성능을 나타내었다.  “가운데” ‘ㄴ’에 해당하는 삼각형으로 표시된 부분에서는 교차상관과 비모수적 상관 특징 추출 모두 유사한 분리 성능을 나타내었으며 큰 원으로 표시된 부분에서는 교차상관 특징 추출 방법이 좀 더 우수한 분리 성능을 나타내었다.

단순 비교에 대한 신뢰성을 검증하기 위해 분리 성능 평가의 정량적 측정인 신호 대 잡음비[11]를 이용하여 성능 평가를 수행하였다.

http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC707E.gif.

(10)

정량적 측정을 위한 신호 대 잡음비를 식(10)에 나타내었으며 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC70BD.gif은 잡음과 혼합되기 전 깨끗한 음성을 나타내고 http://static.apub.kr/journalsite/sites/ask/2013-032-01/0660320109/images/PIC70DD.gif은 깨끗한 음성과 잡음이 혼합된 신호를 입력으로 얻어진 분리 음성을 나타낸다.

Table 2 와 Table 3은   목적음성 분리 후 “가운데”, “금융” 발성의 특징 추출에 따른  신호 대 잡음비의 성능 평가를  나타낸다.

Table 2. SNR comparison of the conventional method and the proposed method for the utterance “가운데”.

Noise

NO

cross 

correlation (a)

proposed correlation (b)

difference

(b)-(a)

SNR(dB)

SNR(dB)

SNR(dB)

1

13.82

14.27

0.45

2

11.55

11.95

0.40

3

15.95

15.78

-0.17

4

11.54

11.84

0.29

5

11.67

11.68

0.01

6

13.76

13.74

-0.02

7

11.33

11.35

0.02

8

20.77

20.20

-0.57

9

13.74

12.12

-1.62

10

15.76

16.12

0.35

11

10.96

11.89

0.92

12

15.01

16.50

1.49

13

17.42

16.51

-0.91

14

14.33

14.79

0.47

15

20.05

20.09

0.04

16

19.11

19.28

0.17

17

15.19

15.44

0.25

18

18.31

18.40

0.10

19

11.51

11.44

-0.07

20

19.31

19.73

0.41

average

15.05

15.15

0.10

Table 3. SNR comparison of the conventional method and the proposed method for the utterance “금융”.

Noise

NO

cross 

correlation (a)

proposed correlation (b)

difference

(b)-(a)

SNR(dB)

SNR(dB)

SNR(dB)

1

15.39

15.19

-0.20

2

12.79

12.79

0.00

3

15.80

16.05

0.25

4

12.51

12.73

0.22

5

15.86

15.89

0.04

6

14.08

14.06

-0.03

7

11.35

11.63

0.27

8

12.86

13.04

0.18

9

16.70

17.14

0.44

10

17.09

17.56

0.47

11

12.50

12.51

0.01

12

16.10

16.95

0.85

13

15.02

14.99

-0.03

14

18.11

18.46

0.35

15

19.46

19.37

-0.08

16

17.20

17.90

0.70

17

14.08

14.13

0.05

18

15.52

15.69

0.17

19

11.06

11.04

-0.02

20

9.45

9.45

0.00

average

14.65

14.83

0.18

Table 2, Table 3에서와 같은 방법으로 “과일”, “교양”, “우주” 발성의 특징 추출에 따른 신호 대 잡음비의 성능을 평가하기 위한 실험을 수행하였으며 그 결과를 Table 4에 나타내었다.

Table 4. Overall SNR comparison of the conventional method and the proposed method.

utterance

cross 

correlation (a)

proposed correlation (b)

difference

(b)-(a)

SNR(dB)

SNR(dB)

SNR(dB)

가운데

15.05

15.15

0.10

과일

15.15

15.26

0.11

교양

14.72

14.88

0.16

금융

14.65

14.83

0.18

우주

14.04

14.19

0.15

average

14.72

14.86

0.14

목적음성 분리 전  5 dB의 신호를 이용하여  분리실험을 수행한 후   교차 상관의  신호 대 잡음비 평균이 14.72 dB 로  9.72 dB  향상됨 을 보였고, 제안한 방법의  신호 대 잡음비 평균이 14.86 dB로 9.86 dB 향상됨을 보였다. 목적음성 분리 수행 후 두 방법 모두 신호 대 잡음비가 향상되었고 교차상관 과 제안한 방법의 특징추출을 비교한 결과  제안한 비모수상관 을 이용한 특징 추출 방법이 0.14 dB 향상을 보여 미세하나마 기존방식에 비해 우수함을 보였다.

V. 결론 및 향후계획

본 논문은 채널 간 유사성을 교차 상관 계수를 이용하여 특징 추출을 하는  CASA 시스템에서 계산 량을 줄이기 위한  방법으로 비모수적 상관 계수인 스피어만 상관 계수를 이용한 특징 추출 방법을 제안하여 이를  CASA 시스템을 통해 목적 음성 분리 실험을 수행하였다. 목적 음성의 분리 성능 평가를 위해 OHIO 주립대학  PNL 100  non-speech sounds 환경 잡음과 깨끗한 음성을 혼합한 후 목적 음성 신호를 분리하여 신호 대 잡음비를 측정 하였다. 실험 결과 제안한 비모수상관 특징 추출이 교차상관 특징 추출 보다 신호 대 잡음비가 0.14 dB 증가하여 제안한 방법을  통해 얻은  특징 추출이 목적 음성 분리 성능에서  미세하나마 더 우수함을 확인할 수 있었다. 향후 다양한 환경잡음과 음성, 다수화자 혼합 음성을 대상으로 제안하는 방법을 평가할 계획이다.

References

1
S. M. Naqvi, M. Yu and J. A. Chamber, "A mul-timodal approach to blind source separation of moving sources," IEEE Trans. Signal Process. 4, 895-910 (2010).
10.1109/JSTSP.2010.2057198
2
A. Bregman, Auditory Scene Analysis: The Perceptual Organization of Sound (Cambridge, MIT Press, USA: MA, 1990).
10.7551/mitpress/1486.001.0001
3
Y. Shao, S. Srinivasan, Z. Jin, and D. L. Wang, "A computational auditory scene analysis system for robust speech recognition," Comput. Speech Lang. 24, 77-93 (2010).
10.1016/j.csl.2008.03.004
4
P. Li, Y. Guan, B. Xu, and W. Liu "Monaural speech separation based on computational auditory analysis and objective quality assessment of speech," IEEE Trans. Audio Speech Lang. Process. 14, 2014-2022 (2006).
10.1109/TASL.2006.883258
5
A. P. Klapuri, "Multipitch analysis of polyphonic music and speech signals using an auditory model," IEEE Trans. Audio Speech Lang. Process. 16, 255-266 (2008).
10.1109/TASL.2007.908129
6
L. Lin and E. Ambikairajah, "Auditory filterbank inversion," in Proc. ISCAS 2001, 537-540 (2001).
7
B. R. Glasberg and B. C. J. Moore, "Derivation of auditory filter shapes from notched-noise data," Hearing Research 47, 103-138 (1990).
10.1016/0378-5955(90)90170-T
8
G. Hu, and D. L. Wang, "A tandem algorithm for pitch estimation and voiced speech segregation," IEEE Trans. Audio Speech Lang. Process. 18, 2067- 2079 (2010).
10.1109/TASL.2010.2041110
9
S. Y. Cho, D. M Sun and Z. D. Qiu, "A spearman correlation coefficient ranking for matching-score fusion on speaker recognition," in Proc. TENCON, 736-741 (2011).
10
G. Hu, Perception and Neurodynamics Laboratory, http://www.cse.ohio-state.edu/pnl/corpus/, 2010.
11
D. L. Wang and G. J. Brown, "Separation of speech from interfering sounds based on oscillatory cor-relation," IEEE Trans. Neural Networks 10, 684-697 (1999).
10.1109/72.76172718252568
페이지 상단으로 이동하기