Согласно общепринятому определению, ноль - это число, отделяющее положительные числа от отрицательных на числовой прямой. Ноль - это самое проблематичное место в математике, которое не подчиняется логике, а все математические действия с нулём основаны не на логике, а на общепринятых определениях.
Первый пример проблематичности нуля - это натуральные числа. В русских школах ноль не является натуральным числом, в других школах ноль является натуральным числом. Поскольку понятие "натуральные числа" - это искусственное отделение некоторых чисел от всех остальных чисел по определённым признакам, то математического доказательства натуральности или не натуральности нуля быть не может. Ноль считается нейтральным элементом по отношению операций сложения и вычитания.
Ноль считается целым, беззнаковым числом. Также ноль считается чётным числом, поскольку при делении нуля на 2 получается целое число ноль.
Ноль является первой цифрой во всех стандартных системах счисления. В позиционных системах счисления, к которым принадлежит привычная нам десятичная система счисления, цифрой ноль обозначают отсутствие значения данного разряда при записи числа. Индейцы майя использовали ноль в принятой у них двенадцатиричной системе счисления за тысячу лет до индийских математиков. С нулевого дня в календаре майя начинался каждый месяц. Интересно, что тем же самым знаком ноль математики майя обозначали и бесконечность - вторую проблему современной математики.
Слово "ноль" в арабском языке звучит как "сыфр". От арабского слова ноль (сыфр) произошло слово "цифра".
Как правильно пишется - ноль или нуль? Слова ноль и нуль совпадают в значении, но различаются употреблением. Как правило, ноль употребляется в обиходной речи и в ряде устойчивых сочетаний, нуль - в терминологии, в научной речи. Правильными будут оба варианта написания этого слова. Например: Деление на ноль. Ноль целых. Ноль внимания. Ноль без палочки. Абсолютный нуль. Ноль целых пять десятых.
В грамматике производные слова от слов ноль и нуль пишутся так: нолевой или нулевой, нолик или нулик, ноля или нуля, нулевой или реже встречающееся нолевой, ноль-ноль. Например: Ниже нуля. Равно нулю. Свести к нулю. Нулевой мередиан. Нулевой пробег. В двенадцать ноль-ноль.
В математических действиях с нулем на сегодняшний день определены следующие результаты:
сложение - если к любому числу прибавить ноль, число останется неизменным; если к нулю прибавить любое число результатом сложения будет то же самое любое число:
a + 0 = a
0 + a = a
вычитание - если из любого числа вычесть ноль, число останется неизменным; если из нуля вычесть любое число в результате получится то же самое любое число с противоположным знаком:
a - 0 = a
0 - a = -a
умножение - если любое число умножить на ноль, результатом будет ноль; если ноль умножить на любое число в результате получится ноль:
a х 0 = 0
0 х a = 0
деление - деление на ноль запрещено, поскольку результат не существует; общепринятый взгляд на проблему деления на ноль изложен в работе Александра Сергеева «Почему нельзя делить на ноль?»; для любознательных написана другая статья, в которой рассматривается возможность деления на ноль:
a : 0 = делить на ноль запрещено, при этом а не равно нулю
ноль разделить на ноль - выражение не имеет смысла, так как не может быть определено:
0 : 0 = выражение не имеет смысла
ноль разделить на число - если ноль разделить на число в результате всегда будет ноль, не зависимо от того, какое число находится в знаменателе (исключением из этого правила является число ноль, смотри выше):
0 : a = 0, при этом а не равно нулю
ноль в степени - ноль в любой степени равен нулю:
0a = 0, при этом а не равно нулю
возведение в степень - любое число в степени ноль равняется единице (число в степени 0):
a0 = 1, при этом а не равно нулю
ноль в степени ноль - выражение не имеет смысла, так как не может быть определено (ноль в нулевой степени, 0 в степени 0):
00 = выражение не имеет смысла
извлечение корня - корень любой степени из нуля равен нулю:
01/a = 0, при этом а не равно нулю
факториал - факториал нуля, или ноль факториал, равняется единице:
0! = 1
распределение цифр - при подсчете распределения цифр ноль считается незначащей цифрой. Изменение подхода в правилах подсчета распределения цифр, когда ноль считается ЗНАЧАЩЕЙ цифрой позволит получать более точные результаты распределения цифр во всех стандартных системах счисления, в том числе в двоичной системе счисления.
Кому интересен вопрос возникновения нуля, предлагаю прочесть статью «История нуля» Дж. Дж. О’Коннора и Е. Ф. Робертсона в переводе И. Ю. Осмоловского.
Компьютерная эра пришла в нашу жизнь сравнительно недавно. Буквально 100 лет назад люди не знали что такое компьютер, хотя самый его дальний предшественник – счеты, появился еще в древнем Вавилоне 3000 лет до н.э.
Первый человек, который придумал первую цифровую вычислительную машину, был Блез Паскаль в 1642 году. С этого открытия все и началось…
В геометрической прогрессии, человечество стремилось к компьютерной эре, создавало все новые и новые вычислительные машины, которые выполняли все более и более сложные функции. И в 1938 году была создана первая пробная механическая программируемая машина Z1, на основе которой в 1941 году тот же человек создает первую вычислительную машину Z3, обладающую всеми свойствами современного компьютера. Человеком, который создал этот первый механический компьютер, был немецкий инженер Конрад Цузе.
А кто придумал первый электронный компьютер?
В 1942 году американский физик Джон Атанасов и его аспирант Клиффорд Берри разработали и начали монтировать первый электронный компьютер. Работа не была завершена, но оказала большое влияние на создателя первого электронного компьютера ЭНИАК. Тот человек, кто придумал компьютер ЭНИАК – первую электронно-вычислительную цифровую машину, был Джон Мокли, американский физик и инженер. Джон Мокли обобщил основные принципы построения ЭВМ на основе опыта разработки машин и в 1946 году миру предстал настоящий электронный компьютер ENIAC. Руководителем разработки был Джон фон Нейман, изложенные им принципы и структура ЭВМ в дальнейшем так и стали называться – фон-неймановскими.
Так что на вопросы о том, в каком году создали компьютер, где был создан первый компьютер и кто создал первый компьютер можно ответить по-разному. Если речь идет о механическом компьютере, то создателем первого компьютера можно считать Конрада Цузе, а страну, в которой изобрели первый компьютер – Германией. Если же считать первым компьютером ENIAC, то соответственно Джон Мокли, создал первую ЭВМ в США.
Первые компьютеры все же были далеки от тех, которыми мы сейчас пользуемся – персональными компьютерами. Первые компьютеры были огромны, занимали нередко большие площади, размером с трехкомнатную квартиру и весили до 28 тонн! Персональные компьютеры (ПК) появились значительно позже.
Кто создал первый персональный компьютер?
Создание первых персональных компьютеров стало возможно только в 1970-х годах. Некоторые люди стали в домашних условиях собирать компьютеры ради исследовательского интереса, так как полезного применения в домашних условиях компьютерам практически не было. И в 1975 году появился первый персональный компьютер Альтаир 8800, который стал коммерчески успешным первым ПК. Создателем первого персонального компьютера стал американский инженер Генри Эдвард Робертс, который так же был основателем и президентом компании Micro Instrumentation and Telemetry Systems, которая начала выпуск первого ПК. Альтаир 8800 явился «начальником» бума компьютеризации населения.
И те ученые, инженеры и физики, все те кто придумал компьютер, кто создал первый персональный компьютер и кто внес хоть какой-нибудь вклад в информационные технологии, перевели всех нас на новый, современный и невероятно перспективный жизненный этап этим талантливым людям.
всё! =) ильдус футболист, мансур теннесист, алмаз шахматист и рамиль велосипедист