Pregunta:
Puntuación de la calidad del código Morse "puño"?
hotpaw2
2014-02-20 08:34:11 UTC
view on stackexchange narkive permalink

Al aprender, enseñarse a sí mismo o capacitar a una clase en el envío de código Morse usando una tecla de mano, ¿cómo se puede calificar una calidad aceptable (aparte de que las letras sean términos correctos de la secuencia de puntos y guiones)? Hay una gran diferencia entre los puntos que son un poco más cortos que los dahs con WPM muy variables entre caracteres y palabras, y una sincronización perfecta y agradable de 3: 1 con 13 palabras por minuto exactas, etc. ¿Qué métrica objetiva debe usarse para determinar una "puntuación de aprobación? "?

(Se solicitó una métrica objetiva porque muchos humanos son demasiado buenos para" escuchar "el mensaje esperado, incluso si hubo errores o casi errores en la codificación. Y no es difícil medir los tiempos de apertura / cierre de claves para precisión de milisegundos para su uso en cualquier algoritmo de puntuación objetivo.)

¿Se utilizaba una métrica para la calidad de aceptabilidad en algún país cuando se probó el envío del código Morse como parte requerida de un examen de licencia?

Puedo idear una serie de métricas que uno podría usar, pero como en realidad no escucho morse, no creo que mis pensamientos sean particularmente perspicaces. He escuchado a algunos elmers quejarse de la "sensación" del código morse generado por computadora y yámbico, y no puedo evitar verlo como el debate entre tubos de audiófilos y semiconductores. Si bien una señal de código morse perfectamente sincronizada se puede copiar fácilmente, ¿cómo se * siente * al recibirla? ¿Hay algo que pueda medirse para calificar esto? ¿Vale la pena investigar * agregar * jitter, etc. a los keyers yámbicos y de computadora para hacer CW más placentero?
@AdamDavisKD8OAS: Observación muy interesante. Similar a la forma en que agregar un poco de variación de tiempo "swing" o "groove" a un sintetizador de batería hace que una pista de percusión sea mucho menos aburrida. Pero no demasiado, o simplemente suena como una batería realmente mala.
Lo encuentro fascinante y también me encantaría una respuesta completa a esta pregunta.
Dos respuestas:
Phil Frost - W8II
2014-02-20 18:51:57 UTC
view on stackexchange narkive permalink

Una cuantificación sería medir el jitter. El código Morse ideal está sincronizado con un reloj de dits. Wikipedia describe (el énfasis es mío):

La duración de un guión es tres veces la duración de un punto. Cada punto o guión va seguido de un breve silencio, igual a la duración del punto. Las letras de una palabra están separadas por un espacio igual a tres puntos (un guión) y las palabras están separadas por un espacio igual a siete puntos. La duración del punto es la unidad básica de medida de tiempo en la transmisión de código.

Un decodificador de computadora podría entonces recuperar un reloj de este ritmo. Cuando se detecta una transición entre encendido y apagado, se compara con el reloj. Cualquier error se retroalimenta al algoritmo de sincronización del reloj y, además, se registra la magnitud del error.

Entonces se pueden tomar todos estos errores y analizarlos a través de cualquier número de medios estadísticos. Sugeriría la desviación estándar como una cifra general de mérito.

Si rompe el jitter en error durante el tipo de unidad rítmica, puede especificar qué aspectos de la el ritmo es malo. Por ejemplo, el jitter en los espacios de palabras no es tan malo como el jitter en dit timing. Puede ajustar su métrica de puntuación en consecuencia.

Dado que el decodificador también rastrea la velocidad de envío, puede analizar eso estadísticamente para determinar en qué medida el remitente aumentó o disminuyó la velocidad, mientras posiblemente mantiene un buen ritmo.

Como dije en mi pregunta, medir y calcular un montón de estadísticas de relación no es el problema (mis aplicaciones iOS y Mac OS X Morse Decoder ya lo hacen). El problema es determinar qué usar (o qué se usó históricamente) como la (s) línea (s) divisoria entre las estadísticas "buenas" y las estadísticas fallidas, ya que todos los humanos (del puño bueno al terrible) mostrarán variaciones distintas de cero en su tiempo.
@hotpaw2 "Sugeriría la desviación estándar [de jitter] como una figura general de mérito".
¿Y qué valores de esta cifra de mérito de desviación estándar podrían considerarse aceptables frente a inaceptables en una situación de examen?
@hotpaw2 eso depende completamente de usted. Si bien el jitter puede ser una medida objetiva, los umbrales arbitrarios de "suficientemente bueno" y "suficientemente malo" establecidos en un rango continuo e infinito de posibilidades no lo son.
Joe Cotton
2016-09-21 23:04:36 UTC
view on stackexchange narkive permalink

Esto es exactamente una cuestión de la medida CW del "peso". Con esta medida de peso, los dahs son más cortos o más largos. Un dah más largo significa un peso más pesado. El peso es ajustable en la mayoría de los keyers electrónicos o Bugs. Personalmente, me gusta un dah más largo, un peso más pesado para mi envío. Solo uso una llave recta. Las personas que están acostumbradas a un peso más pesado se quejarán de un peso más ligero y viceversa. Los dits suelen ser menos variables, y por lo general no es tan importante si los dits son más cortos de lo normal, pero sí importa si los dits son tan largos que comienzan a confundirse con dahs. En mi humilde opinión.

"... Hay una gran diferencia entre que los puntos sean un poco más cortos que los dahs en WPM muy variables ..."



Esta pregunta y respuesta fue traducida automáticamente del idioma inglés.El contenido original está disponible en stackexchange, a quien agradecemos la licencia cc by-sa 3.0 bajo la que se distribuye.
Loading...