Вступ до сучасної логіки

§ 27. «Машина Тьюрінга». Вплив математичної теорії зв'язку на логіко-семантичні дослідження

Великий внесок у теорію логічних автоматів зробив англійський вчений А. М. Тьюрінг (1912— 1954), який у 1937 р. довів, що універсальна обчислювальна машина теоретично можлива і їй під силу розв'язання практично необмеженого числа різних задач. Придуманий ним гіпотетичний пристрій, названий потім «універсальною машиною Тьюрінга», рухаючись вперед і назад по стрічці, на якій записані дані та програма, щось зчитує й щось переписує доти, доки не виникає відповідь.

За словами Д. Мічі, особисті спроби Тьюрінга побудувати машину закінчилися безрезультатно, та його ідея про те, як це зробити, виявилася неперевершеною.

«Машина Тьюрінга» — це не машина у власному значенні слова, а тільки її теорія. Згідно з цією теорією обчислювальна машина має містити кінцевий автомат, з'єднаний з головкою, що читає та пише. Ця головка може записувати символи на паперовій стрічці й зчитувати їх. Стрічка поділена на комірки, де зафіксовано відповідні символи (наприклад: «0» і «1»), і виступає вданій «машині» як запам'ятовувальний пристрій.

Слід підкреслити, що пам'ять є найважливішою частиною будь-якого комп'ютера, її можна використовувати для зберігання команд, завдяки чому комп'ютер має можливість працювати сам із собою. Послідовність команд утворює те, що називається програмою.

Кілька тисяч однакових регістрів (комірок) утворюють внутрішню пам'ять машини. Регістри — це електронні схеми, в яких зберігаються числа, оскільки у себе всередині машина має справу виключно з числами.

У пам'яті машини записуються команди й дані, з якими ця машина має працювати. Оскільки зовні такі команди й дані однакові (для машини кожна команда, як і дані, є числом), перед машиною стоїть завдання стежити затим, де записані команди, аде — дані. Розв'язання цієї задачі здійснюється за допомогою лічильника команд. Лічильник містить адресу команди.

Закодовані у вигляді чисел команди утворюють машинні коди. Взагалі програми для машин можна складати прямо в машинних кодах, але ця робота є дуже трудомісткою й надзвичайно складною для програміста. Тому було винайдено машинні мови, в яких вирази природної мови представлені машинним кодом за допомогою окремої програми, записаної у пам'яті машини.

Найпоширеніші мови програмування містять багато слів природної мови. Наприклад, у мові АЛГОЛ використовуються слова «почати», «кінець», «для», «поки», «якщо», «то», «інакше». Деякі з цих слів містять також мови ФОРТРАН і БЕЙСІК. Машинні мови, що містять такі слова, істотно полегшують задачу програмування.

Теоретично «машина Тьюрінга» може розв'язувати задачі якої завгодно складності, але практичне застосування автоматів, побудованих за схемою цієї «машини», недоцільне, оскільки число кроків, потрібних для розв'язування складних задач, надто велике. Теорія «машини Тьюрінга» має велике значення для з'ясування таких важливих питань, як існування алгоритму розв'язання того чи іншого класу задач і визначення, які функції можуть, а які не можуть виконуватися автоматично.

Існує тісний зв'язок між теорією автоматів і теорією інформації. Остання своєю появою на світ зобов'язана американському інженеру й математику К. Шеннону, який у 1948 р. сформулював у загальному вигляді математичну теорію зв'язку, котру іноді називають теорією інформації. Це пояснюється тим, що теорія, яка виникла з вивчення електричного зв'язку, не обмежується сферою фізики: завдяки абстрактній математичній формі вона має широку сферу застосування. Однак не слід перебільшувати її можливості. Корисно мати на увазі, що не здійснились надії тих, хто без усяких уточнень намагався застосувати теорію інформації, не турбуючись про відповідність методу предметові вивчення.

І все ж таки між поняттями «інформація» і «знання» (знання як зміст людської свідомості) було поставлено знак приблизної рівності. Виникла потреба з'ясувати, чи це насправді так.

Зауваження Шеннона про те, шо смисл повідомлень не має ніякого відношення до його математичної теорії інформації, не зупинило дослідників, а, навпаки, сприяло зародженню семантичної теорії інформації.

Відомі західні вчені Р. Карнап (1891— 1970) і Й. Бар-Хіллел запропонували міру для інформаційного аспекту мови й назвали її семантичною інформацією. Ці вчені дали означення кількісній стороні смислу, що міститься в якомусь реченні. При цьому головна ставка робилась на використання методу екстенціоналу (екстенсіоналу) та інтен-ціоналу (інтенсіоналу).

Даний метод розробив Карнап, спробувавши поширити семантичну концепцію Фреге на всі мовні вирази. При цьому було здійснено певне коригування базисних понять концепції Фреге. Замість поняття «значення» (Ве-deutung) Карнап увів поняття «екстенціонал», а замість поняття «смисл» (Sinn) — поняття «інтенціонал», яким у логіці Арістотеля відповідають поняття «обсяг» і «зміст».

Семантична концепція Карнапа зумовлена спробами побудувати такі абстрактні об'єкти, які могли б відповідати смислу й значенню та не здавалися б чимось потойбічним для мови логіки. Інакше кажучи, будується в думках уявний ідеальний об'єкт, який можна охарактеризувати як екстенціонал (значення) або як інтенціонал (смисл) відповідного мовного виразу.