Основні властивості звуку
Звук – це хвильові коливання густини середовища, коливання густини повітря. Звукові хвилі при допомозі мікрофона перетворюються в аналоговий змінний електричний сигнал. Для забезпечення масовості роботи із звуковим сигналом в комп’ютері, його потрібно перевести в цифрову форму, для чого використовується АЦП.
Точність передачі (запису) звуку на комп’ютер, яка пов’язана із якістю перетворення звуку на АЦП, залежить від частоти дискретизації – кількості вимірів за сек.
Частотний діапазон звукових хвиль, який може сприйматися вухом людини, лежить в межах 20 Гц – 20 000 Гц. Звідси виходить, що f дискретизації повинна бути більшою 20 тис. вимірювань за сек. Для якісного звучання зазвичай використовуються частоти дискретизації 44.1 чи 48 КГц. При цьому рахується, що такою частотою досягається CD – звучання. Але іноді деякі мультимедійні – продукти з метою економії дискового простору застосовують менші частоти: 32,22 і навіть 11 КГц. Найкращі аудіоформати використовують частоту дискретизації 96 КГц.
Для характеристики точності вимірювань введено поняття розрядності дискретизації– кількість бітів, а натомість і пам’яті, що відводиться під 1 результат вимірювання.
Іноді використовують розрядність дискретизації у 8 бітів, але такої точності, зазвичай, недостатньо. У більшості випадків використовується розрядність у 16 бітів, які дозволяють закодувати 216=65 536 значеньамплітуди.
Де-факто, стандартом є частота дискретизації 44.1 КГц та розрядності дискретизації 16 бітів.
розд. дискретизації
Vзв=n*fg*rg*t – (час тривання звуку).
частота запису
кількість каналів
Підрахуємо скільки пам’яті займає 1 хв. звуку з використанням залежності (4.1):
Приклади: Монозапис: 44 100*2*60=5 292 000 байтів
Стереозапис: 44 100*2*60*2=10 584 000 байтів
Тобто, 1 хв. стандартного стереозвуку вимагає нажаль >10 MБ.
Це без стиснення (саме в такому виді звукова інформація зберігається в аудіо форматі WAV)...
Зараз застосовуються аудіоформати, які можуть зберігати звук у стиснутому стані без втрати якості (стиснення в 10÷14р.).
Основна ідея, що лежить в основі всіх алгоритмів звукового стиснення, - нехтування деталями, які лежать за межами чутності вуха людини:
1) Людське вухо практично не чує звуків, що знаходяться у тому ж частотному діапазоні, що і значно гучніший звук.
(якщо поряд з вами буде паровоз, то ви навряд чи почуєте, як тікає ваш годинник).
Цей ефект називається маскуючим ефектом і змінюється в залежності від частоти і гучності звуку);
2) Досить широко застосовується методика зменшення звукового файлу за рахунок зменшення розрядності дискретизації, допускаючи, що певних деталей слухах все рівно не почує чи для даної конкретної задачі допустиме зменшена якість звучання. Цей спосіб застосовується у залежності від виду звукового сигналу (може для нього і 8 бітів достатньо) і від того, для чого він призначений.
3) Більшість сучасних аудіоформатів здійснюється поділ частотної смуги на декілька під смуг, у кожній із яких виділяється найбільш гучне звучання частоти і враховується для неї ефект маскування. Деякі аудіоформати враховують вплив ефекту маскування сусідніх смуг, тобто дуже гучний звук на одній із них може вплинути на кодування звукового сигналу сусідніх підсмуг.
Всі аудіоформати, що стискають звуковий сигнал, враховують сприйняття звуку людиною, тому:
*із звукового потоку вилучаються звуки , які завідомо не сприймаються вухом людини;
*із більшою ретельністю та точністю кодуються звукові частоти, на які людина звертає свою основну увагу (діапазон 1000÷4000 Гц). Ці частоти кодуються із зменшеною якістю.
*крім того, враховується, що людина може визначати напрям звуку менше середньої f, інші звуки сприймаються людиною як фонові. У зв’язку з цим часто використовується механізм суміщеного стерео, в рамках якого середні f кодуються в стереосигнал, а фонові – в моносигнал.
Дата добавления: 2014-12-08; просмотров: 1488;