![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Энтропия и ее статистический смысл.
Энтропи́ я в естественных науках — мера беспорядка системы, состоящей из многих элементов. В частности, в статистической физике — мера вероятности осуществления какого-либо макроскопического состояния.
Статистическое определение энтропии. В 1877 году Людвиг Больцман установил связь энтропии с вероятностью данного состояния. Позднее эту связь представил в виде формулы Макс Планк: Рассмотрим, например, идеальный газ в сосуде. Микросостояние определено как позиции и импульсы (моменты движения) каждого составляющего систему атома. Связность предъявляет к нам требования рассматривать только те микросостояния, для которых: (I) месторасположения всех частей расположены в рамках сосуда, (II) для получения общей энергии газа кинетические энергии атомов суммируются. Согласно определению, энтропия является функцией состояния, то есть не зависит от способа достижения этого состояния, а определяется параметрами этого состояния. Так как Ω может быть только натуральным числом (1, 2, 3, …), то энтропия Больцмана должна быть неотрицательной — исходя из свойств логарифма.
|