Точность (информатика) - Precision (computer science)
Эта статья нужны дополнительные цитаты для проверка.Март 2007 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
В Информатика, то точность числовой величины - это мера детализации, в которой величина выражается. Обычно это измеряется в битах, но иногда и в десятичных цифрах. Это связано с точность в математике, который описывает количество цифр, которые используются для выражения значения.
Некоторые из стандартных форматов точности:
- Формат с плавающей запятой половинной точности
- Формат с плавающей запятой одинарной точности
- Формат с плавающей запятой двойной точности
- Формат с плавающей запятой с четвертой точностью
- Формат с плавающей запятой с восьмеричной точностью
Из них формат восьмеричной точности используется редко. Форматы одинарной и двойной точности наиболее широко используются и поддерживаются почти на всех платформах. Использование формата половинной точности увеличивается, особенно в области машинное обучение поскольку многие алгоритмы машинного обучения по своей природе устойчивы к ошибкам.[1]
Ошибка округления
Точность часто является источником ошибки округления в вычисление. Количество битов, используемых для хранения числа, часто вызывает некоторую потерю точности. Примером может служить сохранение «sin (0.1)» в стандарте IEEE с плавающей запятой одинарной точности. Затем ошибка часто увеличивается, поскольку последующие вычисления производятся с использованием данных (хотя ее также можно уменьшить).
Смотрите также
- Арифметика произвольной точности
- Повышенная точность
- IEEE754 (Стандарт IEEE с плавающей запятой)
- Целое число (информатика)
- Значимые фигуры
- Усечение
- Приблизительный расчет
Рекомендации
- ^ Миттал, Спарш (май 2016 г.). «Обзор методов приближенных вычислений». ACM Comput. Surv. ACM. 48 (4): 62:1–62:33. Дои:10.1145/2893356.