Период дискретизации сигнала можно определить с помощью формулы:
T = 1 / (2 * f_max),
где T – период дискретизации, f_max – максимальная частота сигнала. В данном случае максимальная частота сигнала равна f2 = 100 кГц, поэтому:
T = 1 / (2 * 100 кГц) = 5 мкс.
Размер файла, полученного после преобразования за один период сигнала, можно определить, зная глубину кодирования (8 бит), период дискретизации (5 мкс) и количество отсчетов в одном периоде (количество значений амплитуды сигнала за один период).
Количество отсчетов за один период можно найти, зная частоту сигнала и период дискретизации:
N = f_max * T.
В данном случае частота сигнала равна f2 = 100 кГц, а период дискретизации равен 5 мкс, поэтому количество отсчетов за один период:
N = 100 кГц * 5 мкс = 500.
Размер файла можно найти, умножив количество отсчетов в одном периоде на глубину кодирования:
Размер файла = N * глубина кодирования = 500 * 8 бит = 4000 бит = 500 байт.
Таким образом, после преобразования за один период сигнала получается файл размером 500 байт.