Цитата:
Сообщение от Pakman
В чём заключается неточность определения положения? Меняется ли она от измерения к измерению в одной точке?
|
Очень сильно меняется!
Напоминаю: определение положения в пространстве осуществляется относительно положения спутников, которые находятся на расстоянии в несколько тысяч километров.
При этом - чем ближе спутники к зениту - тем короче путь радиосигнала и меньше влияние атмосферных флуктуаций, искривляющих путь радиоволны в атмосфере. Зато при этом возрастают геометрические погрешности (связанные с тригонометрическими преобразованиями для малых углов) - так называемый фактор HDOP.
Если спутники ближе к горизонту - геометрически точность улучшается, но флуктуации задержек сигнала усиливаются многократно. Есть и другие факторы, влияющие на точность.
Одночастотный приемник в связи с действием этих факторов не может иметь точность лучше чем 8-10 метров. Причем его показания имеют разброс в данных пределах в любой момент замера!
Двухчастотный приемник имеет возможность получить сигнал со спутника на двух разных частотах - и поскольку атмосферные флуктуации действуют на разные частоты неодинаково - вычислить поправку, компенсирующую основную часть погрешности.
Двухчастотный приемник может работать с погрешностью от полуметра до полусантиметра - но требует для этого статического положения в пространстве (неподвижности или равномерного прямолинейного движения) на протяжении от нескольких минут до часа. Максимальная точность достигается за счет того, что распроложение спутников в небе меняется - и это позволяет усреднять погрешности от тригонометрических преобразований.
Извиняюсь, что так подробно, я не только водитель мегана и логана, я еще и директор кадастрового центра

))
Так вот.... для замера скорости мы должны взять отрезок времени и отрезок расстояния.
Время приемник измеряет очень точно - с этим проблем нет. Но вот растояние... приемник каждый замер выдает АБСОЛЮТНЫЕ координаты в пространстве (даже если речь идет о "дифференциальном" режиме определения координат) - поэтому высокая точность в процентах не означает высокой точности при вычислении отрезка между двумя последовательными точками.
Например: на скорости в 100 км/ч каждую секунду мы проезжаем 27,8 м. На одночастотном (обычном, не за 15 кб) приемнике мы можем получить разброс по 8 метров в каждую сторону - на двух соседних точках. Это означает погрешность определения мгновенной скорости примерно в 50%!!!!!
Следуя закону усреднения погрешности, кажется гласящему, что при случайных флуктуациях точность улучшается пропорционально квадратному корню из числа замеров, получаем - для точности в 5% нужно усреднять 100 замеров! А это - период времени в 100 секунд!
Если мы будем производить более частые по времени замеры... ну например, десять раз в секунду - нас это не спасет. Потому что абсолютная погрезность в каждом замере останется той же, а длина отрезка для замера скорости меньшится вдесятеро - и во столько же раз вырастет ошибка! С 50% до 500%!
И наоборот - можно сделать два замера с интервалом в 100 секунд и получить ту же точность в 5% - поскольку пройденный отрезок увеличится до 2780 м...
Впрочем... точность в 5% меня устроить не может. А для точности в 1-2% при скорости порядка 100 км/ч и использовании одночастотного приемника - нужно ехать равномерно хотя бы минуты три...
Напоследок привожу пару скриншотов - трек моего прохождения скоростного поворота (точнее разгона на выходе из него). Тут хорошо видно, как неровно выдаются показания приемника...
