М
Молодежь
К
Компьютеры-и-электроника
Д
Дом-и-сад
С
Стиль-и-уход-за-собой
П
Праздники-и-традиции
Т
Транспорт
П
Путешествия
С
Семейная-жизнь
Ф
Философия-и-религия
Б
Без категории
М
Мир-работы
Х
Хобби-и-рукоделие
И
Искусство-и-развлечения
В
Взаимоотношения
З
Здоровье
К
Кулинария-и-гостеприимство
Ф
Финансы-и-бизнес
П
Питомцы-и-животные
О
Образование
О
Образование-и-коммуникации
POPKA1kemping
POPKA1kemping
06.06.2022 14:13 •  Химия

Короче, у меня час ночи, я устал, ничего не соображаю. хелп тестовое определите массовую долю воды в горькой соли mgso4*7h2o варианты ответов: 1) 0,512 2) 0,488 3) 0,546 4) 0,454

👇
Ответ:
Horvatskiy
Horvatskiy
06.06.2022
M(H2O)/M(соли)*100%
7*(2+16)/((24+32+16*4)+7*(2+16))=0,51... 
ответ: 1
4,6(61 оценок)
Открыть все ответы
Ответ:
kurokislip
kurokislip
06.06.2022

Численное значение валентности определяется количеством неспаренных электронов и наличием свободных атомных орбиталей на внешнем энергетическом уровне.У атома азота на внешнем уровне три неспаренных электрона,значит одна из валентностей,которую проявляет этот атом равна трем. Также он имеет четыре валентных атомных орбитали,за счет которых и может проявлять валентность,равную четырем.Таким образом атом азота пятивалентным быть не может из-за ограниченного числа АО на втором энергетическом уровне. В катионе аммония NH4(+) атом азота имеет степень окисления (-3),а валентность его четыре,так как четвертая ковалентная связь образована по донорно-акцепторному механизму.

4,5(9 оценок)
Ответ:
vikagalcenko4
vikagalcenko4
06.06.2022

Энтропия — мера неопределенности случайного состояния некоторой системы. Мы рассматриваем информационные системы, т.е. системы, воспринимающие, хранящие, перерабатывающие и использующие информацию. Нормальное функционирование подобных систем — это прием-передача информационных сообщений. При получении сообщения неопределенность, т.е. мера «незнания», уменьшается или вовсе устраняется. Таким образом, энтропия может служить информационной характеристикой количества информации, устраненной при получении сообщения.

Для целей теории информации мы определим энтропию как среднее количество информации, приходящееся на одно сообщение в ансамбле сообщений (или на один символ в отдельном сообщении). Иначе говоря, энтропия — это математическое ожидание количества информации в сообщении.

Пусть информационная система может порождать ансамбль (алфавит) сообщений аг, а2, ..., ат. Вероятности каждого сообщения следующие: Р(а{), Р(а2), ..., Р(аш). Так как вероятности сообщений не одинаковы, то они несут разное количество информации, определяемое формулой Шеннона:

Среднее количество информации (математическое ожидание количества информации) ансамбля сообщений вычисляется по известной формуле:

Совершенно аналогично вводится энтропия сообщений:

Энтропия не зависит от конкретного сообщения. Это характеристика информационной системы (источника, приемника сообщений или канала передачи сообщений). Энтропия в таком виде является априорной характеристикой и может быть вычислена до эксперимента, если известны вероятностные характеристики сообщений. Энтропия характеризует неопределенность ситуации до передачи сообщения, поскольку заранее неизвестно, какое сообщение из ансамбля будет передано. Чем больше энтропия, тем сильнее неопределенность и тем большую информацию в среднем несет одно сообщение источника. Сравнивая формулы (2.8) и (2.6) видим, что / = п • Я.

4,4(35 оценок)
Это интересно:
Новые ответы от MOGZ: Химия
logo
Вход Регистрация
Что ты хочешь узнать?
Спроси Mozg
Открыть лучший ответ