Реферат з біології

Ентропійний і негентропійний принципи інформації в біології

Напрямок мимовільного протікання хімічних реакцій у живий та неживій
матерії визначається сукупною дією двох факторів: переходу системи у
стан з найменшою внутрішньою енергією і тенденцією, яка пов’язана з
досягненням найбільш можливого стану. Макроскопічний стан системи тим
ймовірніший, чим більшою кількістю мікроскопічних станів вона може
здійснюватись. Зазвичай кількість мікроскопічних станів, яка відповідає
певному макроскопічному, дуже велика і визначається не можливістю
здійснення цього макростану, а величиною, пропорційною її логарифму. Ця
величина називається ентропією і є однією з термодинамічних величин
(внутрішня енергія, ентальпія, ентропія і енергія Гіббса), за допомогою
яких можна виразити кількісно два вище зазначених фактори [1,2].

Кожна жива клітина уподібнюється найскладнішому хімічному заводу.
Управління процесами клітин-заводів здійснюється завдяки колосальним
генетично фіксованим інформаційним потокам. Інформація, яка міститься в
біологічних об’єктах, є такою великою, що може досягати значних величин
за шкалою ентропії. Тому слід очікувати, що інформаційний підхід
дозволить пояснити значні потоки теплоти, яка виділяється біологічними
об’єктами в навколишнє середовище, природу мутацій, диакінеза генів і
хромосом тощо. На початкових стадіях розвитку живих організмів тепловий
ефект, яким супроводжується «читання» генетичної інформації такий
великий, що його не можна не зафіксувати. Саме на цих стадіях у тварин
найбільш інтенсивно відбувається процес поділу клітин, причому
збільшення їх кількості іде за експоненційним законом. При цьому процесі
різко зростає кількість розподіленої інформації [3 — 5].

Поняття інформації можуть бути використані як основи єдиного підходу до
різноманітних зв’язків і взаємодій у природі. Живі істоти, наприклад, не
можуть існувати без ДНК, РНК сигналів і обміну. Будь-якому біологічному
об’єкту можна надати ймовірності, яка буде характеризувати частоту появи
його. Тому математичною основою теорії інформації, як відомо є теорія
ймовірності і математична логіка. Одиницею кількості інформації стає так
званий «біт» — кількість інформації, яка усуває невизначеність вибору
однієї можливості з двох рівноцінних

(1)    I=log2N,

де N — кількість можливих результатів, або

(2)    I=log2Pi.

У формулі (2) I — кількість інформації, яку отримуємо при здійсненні
i-тої події з N можливих при однакових їх ймовірностях, тобто Pi=1/ N і
формула (2) переходить в (1). У загальному випадку кількість інформації
визначається за формулою:

(3)? logPi,

де Pi — ймовірність здійснення i — тої події з N можливих. Формули (1) і
(2) є випадковими для формули (3) при існуванні подій, які є
рівноімовірними [5].

З теорії інформації відомо, що кількість інформації, яка вводиться до
певної системи, в результаті різних перетворень не збільшується, а може
або зменшуватись, або, у кращому випадку, залишатися незмінною. Це
пояснюється наявністю перешкод у каналах передачі інформації. Рівень їх
різко збільшується, якщо процеси неординарні. У біологічних об’єктах
незначні відхилення під час передачі інформації можуть істотно змінити
її зміст (якість).

Ентропія ізольованої біологічної системи пов’язана з ймовірністю її
стану. Якщо наданий стан біологічної системи може здійснитися N різними
засобами (наприклад, різним станом молекули), то зв’язок між ентропією S
і числом N може бути виражений формулою:

(4)    S = k lnN,

де k — постійна Больцмана.

Формули (4) і (1) збігаються щодо кількості інформації і це невипадково.

Візьмемо визначену фізичну систему з ентропією S, яка може здійснюватись
N різними способами. Введемо в цю систему таку кількість інформації I=
log2N, щоб із N різних способів здійснення стану системи реалізувався
лише один визначений (така система є системою реєстрації наданої
інформації). У такому разі в формулі (4) слід прийняти N=1, а це
означає, що в цьому випадку S=0, тобто одержуємо повністю упорядковану
систему. Таким чином, ентропія системи зменшилась до нуля і трапилось це
завдяки одержанню кількості інформації I= log2 N. Отже інформація несе в
собі негативну ентропію — «негентропію»(від англійського negative) і для
кількості інформації потрібно так вибрати одиниці виміру замість бітів,
щоб для випадку, який розглядаємо, було:

S — I = OE

(5)

або log2N (бітів)= k lnN = k log2 N ln2, звідки 1 біт = k ln2 = 0,956·10
— 23 Дж/К. Таким чином, кількість інформації, яка надана біологічній
системі, з’являється як негативний додаток повної ентропії — це і є
негентропійний принцип інформації. Встановлення негентропійного принципу
інформації довело, що збіг рівнянь (1) і (4) виражає об’єктивний зв’язок
між кількістю інформації і ентропією: обидві величини є мірою
організованості біологічної системи, яку розглядаємо.

Для підтвердження цих уявлень необхідно мати хоча б для одного випадку
очевидний взаємозв’язок між кількістю інформації та ентропією. У роботах
Л. Бриллюена [1] розглядаються процеси перетворення інформації в
негентропію і навпаки для різних випадків. Встановлено, що для того, щоб
прочитати інформацію, необхідно знову надати їй енергію. Додаткове
джерело енергії, необхідне для читання інформації, доставляє
негентропію, яка перетворюється у нову інформацію. Для одержання одного
біта інформації необхідно витратити енергію W = kT ln 2 = 0,956 10— 23 T
(Дж), яка буде виділятися у вигляді теплоти. Для ізольованого
біологічного об’єкта другий закон термодинаміки з урахуванням
негентропійного принципу інформації слід записати:

(6)     ?(S-I) ? 0.

У випадку, який розглядається, протягом розвитку біологічного об’єкта
величина I швидко зростає. Це означає, що в середовищі, яке оточує
біологічний об’єкт повинна збільшуватись і ентропія, причому таким
чином, щоб ?S>=?І, тобто біологічний об’єкт, який розвивається, повинен
виділяти, згідно з першим законом термодинаміки, теплоту ?Q=T?S>=T?I.
Запліднена яйцеклітина у структурі молекул ДНК містить програму розвитку
всього організму. Молекули ДНК — це «онтогенетичні телеграми», які
направлені від предків до нащадків. Процес зародкового розвитку
біологічного об’єкта є випадком загальної проблеми «читання» «мертвої»
інформації. Роль нагромадженої генетичної інформації виконує
послідовність чотирьох азотистих основ у молекулах ДНК, а роль
додаткового джерела енергії — це речовини з великою тепломісткістю. У
процесі «читання» «мертва» інформація, яка зафіксована спадковим кодом
організму, перетворюється в «живу» — структурну організацію живого
організму. Хімічним вмістом цього процесу є біосинтез білків і
реплікації нуклеїнових кислот. Виникає питання наскільки узгоджуються з
експериментальними даними розрахункові значення величини теплового
ефекту на початкових стадіях розвитку. Виявилось, якщо врахувати
декілька етапів синтезу білків і реплікації нуклеїнових кислот, високу
надійність процесів, то дані теорії інформації, термохімічні величини і
калориметричні експерименти з зародками, які розвиваються, дають
результати, що добре узгоджуються. За цими даними біосинтез одного грама
білка супроводжується виділенням теплоти, величина якої близька до
тисячі джоулів.

Інформаційний підхід дозволяє також пояснити велику віддачу теплоти
організмами в навколишнє середовище у стані фізичного спокою — інтерфазі
спокою (так званий основний енергетичний обмін). Ентропія здорового
об’єкта протягом тривалого часу практично не змінюється. У цьому випадку
можна вважати, що зростанню ентропії заважає обмін інформації
біологічного об’єкта і навколишнього середовища. Е. Шредінгер [6]
висунув гіпотезу, яка пояснює сталість енергії живого організму тим, що
він живиться негативною ентропією, використовуючи при цьому
«високоорганізовані» поживні речовини, які мають низьку ентропію і які
відводять у навколишнє середовище ці речовини у деградованій формі
(тобто з великою ентропією). Нині встановлений зв’язок теорії інформації
з термодинамікою. Виявилось, що у ролі негативної ентропії (негентропії)
може бути потік інформації не тільки у вигляді поживних речовин, але і в
інших формах.

Негентропійну роль інформації, стосовно до живих організмів, можна
пояснити так: завдяки інформаційним сигналам, що надходять у живу
систему і до апарату управління нею, встановлюються додаткові
функціональні зв’язки між елементами, з якими ці сигнали взаємодіють,
тобто зростає організованість системи і зменшується її ентропія.
Інформація, введена до біосистеми, є для неї негативною ентропією
-негентропією. Цей принцип — негентропійний принцип інформації —
дозволяє пояснити різні випадки виділення теплоти біологічними
об’єктами. Інформаційний підхід пояснює й інші особливості існування і
життєдіяльності біологічних об’єктів. Тому цілком закономірно, що в
останні роки сформувався і швидко розвивається новий науковий напрям —
біоінформатика.

Наводимо кількісний розрахунок параметрів механізму нюхання, розуміючи,
що всі клітини рецепторної тканини працюють невибірково. Будемо вважати,
що при рекомбінації радикалів зв’язується один електричний заряд і
виділяється один квант енергії. У такому разі через щільність імпульсу
j=evnoзнайдемо кількість noактів рекомбінації радикалів, які припадають
на одиницю рецепторної тканини. Для радикалів різного типу вона буде
дорівнювати no = (1,7 — 44,2)·1010 м-2 [4] Щільність потоку енергії
квантів знайдемо, як W= noh ?де h — постійна Планка, — частота кванта.
Результати обчислень щільності потоку енергії квантів, яка надходить на
одиницю поверхні рецепторної тканини в результаті рекомбінації
радикалів, W 109 Дж/м2 така:

(С6Н5)3С — С (С6Н5)3

1,3 — 3,3

Н — С2Н5

11,2 — 29,1

(СН3)3СО — ОС(СН3)3

4,42 — 10,9

С = С

12,0 — 31,1

С — О

6,1 — 15,9

Н — СН3

12,0 — 31,1

НО — ОН

6,4 — 16,2

Н — Н

12,2 — 31,7

С — С

7,4 — 19,3

О — Н

13,0 — 33,7

Н — С

9,44 — 24,5

Н — О2

13,7 — 35,6

Н — СН2

10,1 -26,2

С = О

13,8 — 36,0

Н — ОН2

10,4 — 27,1

О — О

13,9 — 36,2

Н — СН

10,5 — 27,4

N ? N

26,5 — 69,0

Для кількісної характеристики процесів у біологічному об’єкті введемо
коефіцієнт енергоінформаційного обміну J, який являє собою кількість
бітів інформації, що надходить на одиницю поверхні рецепторної тканини.
J = W/i, де i= kln?- енергетична оцінка біта інформації, ? — ймовірність
здійснення події (раніше було показано, що при двоїчній системі числення
?=2) для Т=36, 7° С = 310 К.

Коефіцієнти енергоінформаційного обміну рецепторної тканини нюхових
органів людини наведено нижче.

(С6Н5)3С — С (С6Н5)3

21,8

Н — С2Н5

222

(СН3)3СО — ОС(СН3)3

83,7

С = С

238

С — О

122

Н — СН3

238

НО — ОН

125

Н — Н

242

С — С

147

О — Н

257

Н — С

188

Н — О2

272

Н — СН2

199

С = О

275

Н — ОН2

209

О — О

277

Н — СН

209

N ? N

527

Поглиблене вивчення дискретності спадковості пов’язане з ймовірною
характеристикою хаотичних процесів у живій природі. Існує певний зв’язок
між теоремою про незростання кількості генетичної інформації і другим
законом термодинаміки. Зчитування генетичної інформації супроводжується
енергетичними витратами за певною шкалою ентропії. Інформаційний підхід
дозволяє поглибити розуміння руху енергії та стану ентропії в зв’язку з
обміном генів у поколіннях клітин та організмів.

Список літератури

Бионика. Под общ. ред. Решедько Л.В. — К.: Вища школа, 1978.—278 с.

Бриллюэн Л. Наука и теория информации. — М.: Физматгиз, 1960.— 392 с.

Волькенштейн М.В. Молекулярная биофизика. — М.: Наука, 1975.— 328 с.

Кучин В.Д., Трофименко А.Л., Теодорович И.В. Феноменология нюха
млекопитающих.

//Науковий вісник НАУ, 2003. Вип. 15.-С. 368-371

Улумбеков Э.Г., Чельшев Ю.А., Бойчук Н.В. и др. Гистология (введение в
патологию). -М.: ГЭОТАР,1997.-947 с.

Шредингер Э. Что такое жизнь с точки зрения физика. -М.: Атомиздат,
1972.-248 с.

Похожие записи