Información

¿Cuál es el equivalente a una red Hamming en la NEF?

¿Cuál es el equivalente a una red Hamming en la NEF?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Después de investigar un poco, estoy un poco convencido de que las redes Hamming son redes que clasifican, pero solo producen un único resultado, a diferencia de otras redes que generan múltiples resultados. En este caso, ¿el equivalente en términos de la NEF es un clasificador (que mide la similitud con un producto escalar entre dos vectores) seguido de una memoria asociativa?


Una memoria asociativa es un clasificador y es equivalente a una red Hamming.

Para obtener documentación sobre la memoria asociativa de NEF, consulte esta documentación práctica de Nengo y el artículo "Una memoria de limpieza biológicamente realista: autoasociación en neuronas en punta". Básicamente, cada conjunto de una memoria asociativa calcula la medida de similitud del patrón de disparo de entrada con un patrón de disparo dado. Luego, se usa la inhibición mutua entre los nodos para encontrar la entrada más similar, de modo que solo el conjunto con la entrada más similar emita una señal. En forma asociativa, esta señal de similitud de salida se usa para mapear el patrón de entrada a un nuevo patrón de salida.

Una red de Hamming es un clasificador que recibe patrones con nodos de entrada que también detectan similitudes. Sin embargo, a diferencia de la memoria asociativa, tiene una salida binaria que usa inhibición mutua. Dicho esto, sería fácil agregar un conjunto de umbral a la salida de la memoria asociativa para lograr esto.

En conclusión, una Memoria Asociativa es básicamente una Red Hamming implementada usando el NEF.


3 respuestas 3

De hecho, la resolución de frecuencia de una DFT se ve significativamente afectada por la elección de la ventana. Dos parámetros clave a considerar al seleccionar una ventana son la resolución de frecuencia y el rango dinámico. La resolución de frecuencia es la capacidad de discernir dos frecuencias estrechamente espaciadas a niveles de potencia similares (por lo tanto, una métrica de cuál es ese espaciado sería la resolución de frecuencia), mientras que el rango dinámico es la capacidad de discernir dos señales a diferentes frecuencias y niveles de potencia significativamente diferentes. específicamente la capacidad de ver una señal de bajo nivel en presencia de una señal mucho más fuerte (por lo tanto, una métrica de cuál es esta diferencia de potencia sería el rango dinámico). Por lo general, se logra un rango dinámico más alto mediante el uso de ventanas adecuadas a expensas de la resolución de frecuencia. La resolución de frecuencia más alta que se puede lograr es con una ventana rectangular (y la pérdida más baja de cualquier otra ventana también introducirá una pérdida de procesamiento).

El ancho de banda de ruido equivalente (ENBW) es una métrica de uso común para la resolución de frecuencia. El ENBW es el ancho de banda (a menudo dado en contenedores FFT) de un filtro de pared de ladrillo que daría como resultado la misma potencia de ruido que el "filtro" DFT para ruido blanco (el DFT puede describirse como un banco de filtros). Para la ventana rectangular, el ENBW es un contenedor, pero el rango dinámico más pobre (lóbulos laterales con picos que se desvanecen a una tasa de $ 1 / f $ en magnitud. Cualquier otro sistema de ventanas utilizado tendría un ENBW más alto.

Para una función de ventana de longitud N dada $ w [n] $, el ENBW en bins se calcula de la siguiente manera:

Vea este artículo clásico de Fred Harris tabulando la ENBW, así como otros parámetros de muchas ventanas de uso común. Fred Harris Windowing

A continuación se muestra una diapositiva que muestra con más detalle el ENBW para una ventana rectangular:

A continuación se compara una ventana rectangular N = 30 (denotada como el núcleo de Dirichlet) con una ventana de Blackman de la misma longitud. La disminución en el nivel que se muestra de -7.83 dB es la ganancia coherente para esta ventana en particular utilizada. La ganancia coherente es simplemente el promedio de los pesos de las ventanas. El resultado a continuación es consistente con la ganancia coherente de 0.42 como se indica para la ventana de Blackman tabulada en la referencia de fred harris dada $ 20Log_ <10> (0.42) = -7.54 $ dB. Lo que queda muy claro en esta imagen es el aumento significativo tanto en el rango dinámico como en la resolución de frecuencia.

La razón por la que no coincide exactamente con los resultados tabulados es la longitud de la ventana. A medida que la longitud de la ventana se acerca al infinito, el resultado físico se acerca al tabulado, como se muestra en la figura siguiente para obtener una ganancia coherente. Por esta razón, se debe tener cuidado al utilizar los resultados tabulados para ventanas de menor longitud.


1 respuesta 1

Desafortunadamente, la vida no es tan buena. Tome la bola de Hamming $ B_R $ de radio $ R = beta n $ (donde $ beta $ es pequeña pero positiva) centrada en $ (0,0, dots, 0) $ y tome la unión de las bolas de Hamming de radio $ r ll n $ centrado en los puntos de esa bola. No es sorprendente que obtenga la bola Hamming de radio $ R + r $ y ese es el peor de los casos para las bolas completas. Ahora observe que si toma un punto $ x en B_R $ con al menos $ Rr approx beta n $ unos en él y trata de invertir $ r $ entradas aleatorias, en el caso típico, invertirá $ beta r $ unos y solo $ (1- beta) r $ ceros, por lo que al menos la mitad de la bola Hamming de radio $ r $ centrada en $ x $ se encuentra dentro de la bola Hamming centrada en el origen del radio $ R + ( 1-2 beta) r $, que tiene un volumen aproximadamente $ left ( frac <1- beta> beta right) ^ <2 beta r> $ veces más pequeño que la bola de radio $ R + r $ y ese factor es exponencial en $ n $ si $ r $ es un pequeño múltiplo de $ n $.

Editar Para responder a la pregunta modificada, replanteémosla de la siguiente manera. Suponga que un conjunto $ F $ tiene medida ($ 2 ^ <-n> $ multiplicado por el número de puntos) $ mu (F) le e ^ <-sn> $. Considere $ r = frac <1-t> <1 + t> n $ con $ t in (0,1) $. Entonces el conjunto $ G $ de puntos $ x $ tal que $ mu (V_r (x) cap F) ge a mu (V_r (x)) $ tiene medida $ mu (G) le e ^ < -c (s, t) n> mu (F) $.

Para demostrarlo, considere la convolución de la función característica $ f $ del conjunto $ F $ con el núcleo $ K_t (x) = prod_^ n (1 + tx_j) $ (Supongo que el cubo es $ <- 1,1 > ^ n $ y la convolución es multiplicativa y está asociada a la estructura de grupo natural en el cubo dada por la multiplicación por coordenadas) . Este núcleo tiene una masa total $ 1 $ de la cual una parte notable ($ 1 / (n + 1) $ con seguridad, pero son posibles límites mucho mejores) se encuentra en el límite de $ V_r ( pmb 1) $ (por eso elegimos una parametrización tan extraña para $ r / n $). Dado que ese límite también es donde se alcanza $ min K_t $ en $ V_r ( pmb 1) $, concluimos que $ g = f * K_t ge frac an $ en $ G $.

Por otro lado, esta convolución corresponde al multiplicador $ t ^ <| S |> $ en la representación de Fourier-Walsh. Entonces, si $ f = sum_^ n f_k $ es la descomposición ortogonal de Fourier-Walsh, tenemos $ g = sum_k t ^ k f_k $. Ahora observe que $ | f_k | _ infty le mu (F) $, que está por debajo de $ e ^ <- sn / 2> ll frac an $ para $ k le gamma (s, t) n $. Por lo tanto, los valores grandes de $ g $ en $ G $ se deben a la cola. Sin embargo, la norma $ L ^ 2 $ de esa cola es exponencialmente pequeña en comparación con la norma $ L ^ 2 $ de $ f $ y el resultado deseado es el siguiente.

Por supuesto, puede intentar elegir un kernel mejor para obtener límites más nítidos, aunque en ese caso el cálculo del multiplicador correspondiente será más difícil. Sin embargo, no sé si este enfoque simple puede darle un límite asintóticamente agudo.


¿Por qué se usaría una ventana de Hann o Bartlett?

Suponga que estamos diseñando un filtro FIR de paso bajo y quiero usar una de estas tres ventanas: Bartlett, Hann o Hamming. De Oppenheim y amp Schafer's Procesamiento de señales en tiempo discreto, 2.a ed., pag. 471:>

Los tres proporcionan el mismo ancho de banda de transición: $ Delta omega = frac <8 pi>$ donde $ N $ es el orden del filtro y se supone que es lo suficientemente grande.

Sin embargo, el sobreimpulso (llamémoslo $ delta $) es diferente para cada ventana, y se cumple la siguiente desigualdad:

Entonces, si usamos una ventana de Hamming, obtenemos el sobreimpulso más pequeño y una banda de transición con ancho $ Delta omega $. Si usamos una de las otras dos ventanas, el ancho de la banda de transición es el mismo, pero el sobreimpulso aumenta.

Esto me lleva a pensar que no existe ningún caso en el que se utilice una ventana de Hann o una de Bartlett, ya que la de Hamming es mejor que ellas: mejora un aspecto ($ delta $), permanece igual en otro ($ Delta omega $).

La pregunta es: ¿por qué alguien elegiría una ventana Hann o Bartlett si siempre se puede usar una Hamming?


1 respuesta 1

Antes de responder a su pregunta, no todos los códigos de Hamming son equivalentes a algún código cíclico. Por ejemplo, el código ternario $ [4,2,3] _3 $ Hamming (también conocido como tetracódigo) no es equivalente a ningún código cíclico.

Pero es cierto que todos los códigos binarios de Hamming pueden verse como códigos cíclicos. De hecho, el código $ [2 ^ r-1,2 ^ r-r, 3] $ Hamming es el código BCH primitivo de sentido estrecho de longitud $ n = 2 ^ r-1 $. De manera más general, el $ q $ -ary $ [ frac, frac-r, 3] _q $ El código de Hamming con $ gcd (r, q-1) = 1 $ es el código BCH de sentido estrecho con su conjunto definitorio siendo el $ q $ -ciclotomic coset $ C_1 $ de $ 1 $ módulo $ n $.

Por lo tanto, si desea un polinomio generador del código $ [15,11,3] $ Hamming, tome la clase lateral ciclotómica $ 2 $ $ C_1 = <1,2,4,8 > $ de $ 1 $ módulo $ 15 PS El polinomio generador $ p (x) $ que desea es el polinomio mínimo correspondiente

donde $ alpha $ es una primitiva $ 15 $ ésima raíz de la unidad en $ mathbb_<2^4>$.

Por ejemplo, tome el polinomio irreducible $ x ^ 4 + x + 1 $ sobre $ mathbb_2 $. Si considera $ mathbb_ <16> $ como $ mathbb_2 [x] / (x ^ 4 + x + 1) $, el elemento $ x $ es una raíz primitiva $ 15 $ ésima de la unidad. Escribiendo este elemento como $ alpha $, su $ p (x) $ es

Si desea la prueba de que el $ [ frac, frac-r, 3] _q $ El código de Hamming con $ gcd (r, q-1) = 1 $ es el código BCH de sentido estrecho con el conjunto de definición $ C_1 $, suponga que $ gcd (r, q-1) = 1 $. Sea $ alpha $ un elemento primitivo de $ mathbb_$, donde $ alpha ^$ es una raíz primitiva $ n $ ésima de unidad. Construya un código cíclico (en realidad, el código BCH de sentido estrecho) de longitud $ n = frac$ tomando el polinomio mínimo $ M _ < alpha ^> (x) $ de $ alpha ^$ como su polinomio generador. Los elementos distintos de cero del subcampo $ mathbb_q $ en $ mathbb_$ son potencias de $ alpha $, donde la potencia es un divisor de $ n $. Dado que $ gcd (r, q-1) = 1 $, el único elemento que puede ser una potencia de $ alpha ^$ es la identidad. Por lo tanto, escribir los elementos de $ mathbb_$ como $ r $ -tuplas en $ mathbb_^ r $, no $ r $ -tuplas correspondientes a $ alpha ^ 0, alpha ^, dots, alpha ^ <(q-1) (n-1)> $ son múltiplos de otro usando solo elementos de $ mathbb_q $, lo que significa que estos son simplemente los puntos en la geometría proyectiva $ operatorname(r-1, q) $. Por lo tanto, la matriz $ r times n $ $ H $ en la que las columnas son las tuplas $ r $ correspondientes a $ alpha ^ 0, alpha ^, dots, alpha ^ <(q-1) (n-1)> $ es la matriz de verificación de paridad de $ [ frac, frac-r, 3] _q $ Código Hamming.


3. Implementación

Una de las preguntas más difíciles para los defensores de la marca comunitaria es cómo determinar si un sistema físico dado es una implementación de un cálculo formal. Tenga en cuenta que la informática no ofrece ninguna teoría de implementación, y la visión intuitiva de que uno puede decidir si un sistema implementa un cálculo al encontrar una correspondencia uno a uno entre los estados físicos y los estados de un cálculo puede conducir a serios problemas. A continuación, esbozaré algunas objeciones a la objetividad de la noción de computación, formulada por John Searle e Hilary Putnam, y examinaré varias respuestas a sus objeciones.

Una. Putnam y Searle contra CTM

La objeción de Putnam y Searle se puede resumir de la siguiente manera. No hay nada objetivo en el cálculo físico. Los observadores humanos atribuyen el cálculo a los sistemas físicos simplemente por conveniencia. Por esta razón, no existen explicaciones computacionales genuinas. Huelga decir que tal objeción invalida la mayoría de las investigaciones que se han realizado en ciencia cognitiva.

En particular, Putnam (1991, 121-125) ha construido una prueba de que cualquier sistema físico abierto implementa cualquier autómata finito (que es un modelo de computación que tiene menor poder computacional que una máquina de Turing, tenga en cuenta que la prueba puede extenderse fácilmente a Turing máquinas también). El propósito del argumento de Putnam es demostrar que el funcionalismo, si fuera cierto, implicaría conductismo para el funcionalismo, la estructura interna es completamente irrelevante para decidir qué función se realiza realmente. La idea de la demostración es la siguiente. Cualquier sistema físico tiene al menos un estado. Este estado se mantiene durante algún tiempo y la duración puede medirse mediante un reloj externo. Apelando al reloj, se pueden identificar tantos estados como se desee, especialmente si los estados pueden construirse mediante operaciones de teoría de conjuntos (o su equivalente lógico, que es el operador de disyunción). Por esta razón, siempre se pueden encontrar tantos estados en el sistema físico como requiera la máquina finita (después de todo, tiene un número finito de estados). Además, su evolución en el tiempo puede mapearse fácilmente en un sistema físico gracias a las disyunciones y al reloj. Por esta razón, no hay nada explicativo sobre la noción de computación.

El argumento de Searle es similar. Sostiene que ser una computadora digital es una cuestión de atribuir ceros y unos a un sistema físico, y que para cualquier programa y cualquier objeto suficientemente complejo hay una descripción del objeto bajo el cual realiza el programa (Searle 1992, 207-208 ). Desde este punto de vista, incluso una pared ordinaria sería una computadora. En esencia, ambas objeciones son similares al señalar que, dada la suficiente libertad, siempre se pueden mapear estados físicos —cuyo número se puede ajustar por medios lógicos o simplemente haciendo más mediciones— al sistema formal. Si hablamos de ambos sistemas en términos de conjuntos, entonces todo lo que importa es la cardinalidad de ambos conjuntos (en esencia, estos argumentos son similares a la objeción que se hizo una vez contra el estructuralismo de Russell, compárese (Newman 1928)). Como los argumentos son similares, las respuestas a estas objeciones suelen abordar ambas al mismo tiempo y tratan de limitar las formas admisibles de tallar la realidad física. La opinión es que, de alguna manera, la realidad debe ser tallada en sus articulaciones y luego hacer que se corresponda con el modelo formal.

B. Cuenta semántica

La explicación semántica de la implementación es, con mucho, la más popular entre los filósofos. Simplemente requiere que no haya computación sin representación (Fodor 1975). Pero la explicación semántica parece plantear la cuestión, dado que algunos modelos computacionales no requieren representación, especialmente en el conexionismo. Además, otras objeciones a la CTM (en particular los argumentos basados ​​en el experimento Chinese Room cuestionan la suposición de que los programas de computadora alguna vez representan algo por sí mismos. Por esta razón, al menos en este debate, solo se puede suponer que los programas representan solo porque son atribuido significado por observadores externos. Pero en tal caso, el observador puede fácilmente atribuir significado a una pared. Por lo tanto, la explicación semántica no tiene recursos para lidiar con estas objeciones.

No pretendo sugerir que la explicación semántica sea completamente incorrecta, de hecho, el atractivo intuitivo de CTM se basa en sus estrechos vínculos con RTM. Sin embargo, la suposición de que la computación siempre representa ha sido cuestionada repetidamente (Fresco 2010 Piccinini 2006 Miłkowski 2013). Por ejemplo, parece que una puerta lógica ordinaria (la entidad computacional que corresponde a un conectivo lógico), por ejemplo una puerta AND, no representa nada. Al menos, no parece referirse a nada. Sin embargo, es un dispositivo computacional simple.

C. Cuenta causal

La explicación causal requiere que los estados físicos considerados para corresponder a la descripción matemática de la computación sean causalmente vinculado (Chalmers 2011). Esto significa que debe haber dependencias contrafácticas que satisfacer (este requisito ha sido propuesto por (Copeland 1996), pero sin requerir que los estados sean causalmente relevantes) y que deben seguirse los principios metodológicos de las explicaciones causales. Incluyen la parsimonia teórica (utilizada ya por Fodor en sus limitaciones de su explicación semántica de la computación) y la condición causal de Markov. En particular, los estados que no están relacionados causalmente, ya sea en el muro de Searle o en las construcciones lógicas de Putnam, se descartan automáticamente.

Sin embargo, hay dos preguntas abiertas para la explicación causal. Primero, para cualquier sistema causal, habrá una descripción computacional correspondiente. Esto significa que incluso si ya no es cierto que todos los sistemas físicos implementan todos los cálculos posibles, aún implementan al menos un cálculo (si hay múltiples modelos causales de un sistema dado, el número de cálculos correspondientes, por supuesto, crece). Los teóricos causales generalmente muerden la bala respondiendo que esto no invalida la explicación computacional, solo permite una forma débil de pancomputacionalismo (que es la afirmación de que todo es computacional (Müller 2009 Piccinini 2007a)). La segunda pregunta es cómo se trazarán los límites de los sistemas causales. ¿Deberíamos intentar modelar las causas distales de una computadora (incluidas las operaciones en el sitio de producción de sus componentes electrónicos) en el modelo causal que se corresponde con el modelo formal de computación? Esto parece absurdo, pero no hay una respuesta explícita a este problema en la explicación causal.

D. Cuenta mecanicista

El relato mecanicista es una versión específica del relato causal, defendido por Piccinini y Miłkowski. El primer paso de ambos es tener en cuenta solo los mecanismos funcionales, lo que excluye los pancomputacionalismos débiles. (El requisito de que los sistemas deben tener la función —en cierto sentido robusto— de la computación también ha sido defendido por otros autores, comparar (Lycan 1987 Sterelny 1990)). Otra es argumentar que los sistemas computacionales deben entenderse como sistemas multinivel, lo que encaja naturalmente con la explicación mecanicista de la explicación computacional. Tenga en cuenta que los mecanicistas de la filosofía de la ciencia ya se han enfrentado a la difícil cuestión de cómo trazar un límite alrededor de los sistemas, por ejemplo, al incluir solo componentes constitutivamente relevantes para la capacidad del mecanismo de comparación (Craver 2007). Por esta razón, se supone que la explicación mecanicista ofrece un enfoque satisfactorio para delinear los mecanismos computacionales de su entorno.

Otra característica específica de la explicación mecanicista de la computación es que deja claro cómo la explicación formal de la computación corresponde al mecanismo físico. Es decir, se supone que el nivel aislado del mecanismo (nivel 0, véase la sección 2.c anterior) se describe mediante un modelo de cálculo mecánicamente adecuado. La descripción del modelo generalmente consta de dos partes: (1) una especificación abstracta de un cálculo, que debe incluir todas las variables causalmente relevantes (un modelo formal del mecanismo) (2) un plano completo del mecanismo en este nivel de su organización.

Incluso si uno permanece escéptico sobre la causalidad o los mecanismos físicos, las objeciones de Putnam y Searle pueden rechazarse en la explicación mecanicista de la implementación, en la medida en que estas posturas teóricas sean admisibles en ciencias especiales. Lo que queda claro de esta discusión es que la implementación no es una cuestión de un simple mapeo, sino de satisfacer una serie de restricciones adicionales que generalmente requieren el modelado causal en la ciencia.


Referencias

Breiger, R.L. Boorman, S.A. y Arabie, P. (1975). `` Un algoritmo para agrupar datos relacionales con aplicaciones para el análisis de redes sociales y la comparación con el escalado multidimensional ''. Revista de psicología matemática, 12, 328-383.

Burt, R.S. (1976). `` Posiciones en redes ''. Fuerzas sociales, 55, 93-122.

Wasserman, S. y Faust, K. Análisis de redes sociales: métodos y aplicaciones. Cambridge: Cambridge University Press.


Otros archivos y enlaces

  • APA
  • Autor
  • BIBTEX
  • Harvard
  • Estándar
  • RIS
  • Vancouver

En: Neural Networks, vol. 8, núm. 4, 01.01.1995, pág. 605-618.

Resultado de la investigación: Contribución a la revista ›Artículo› revisión por pares

T2: un modelo ART 1 de aprendizaje rápido sin necesidad de buscar

N2: este artículo presenta una arquitectura de red neuronal denominada red Hamming adaptativa para el aprendizaje de categorías de reconocimiento. Este modelo permite agregar nuevos prototipos a un conjunto existente de prototipos memorizados sin tener que volver a capacitar a toda la red. Bajo algunas hipótesis modelo, el comportamiento funcional de la red Hamming adaptativa es equivalente al de una red ART 1 de aprendizaje rápido, por lo que algunas propiedades útiles de ART I pueden aplicarse a la red Hamming adaptativa. Además, la red propuesta encuentra la categoría apropiada de manera más eficiente que ART 1: para las mismas secuencias de entrada, la red de Hamming adaptativa obtiene las mismas categorías de reconocimiento que ART 1 sin ninguna búsqueda. La red Hamming adaptable no solo reduce el tiempo de entrenamiento de ART 1, sino que también es más fácil de implementar. La red de Hamming adaptativa se limita a la agrupación de patrones binarios, pero puede extenderse al caso de los vectores de entrada analógica mediante la incorporación de técnicas de lógica difusa.

AB: este artículo presenta una arquitectura de red neuronal denominada red Hamming adaptativa para el aprendizaje de categorías de reconocimiento. Este modelo permite agregar nuevos prototipos a un conjunto existente de prototipos memorizados sin tener que volver a capacitar a toda la red. Bajo algunas hipótesis modelo, el comportamiento funcional de la red Hamming adaptativa es equivalente al de una red ART 1 de aprendizaje rápido, por lo que algunas propiedades útiles de ART I pueden aplicarse a la red Hamming adaptativa. Además, la red propuesta encuentra la categoría apropiada de manera más eficiente que ART 1: para las mismas secuencias de entrada, la red de Hamming adaptativa obtiene las mismas categorías de reconocimiento que ART 1 sin ninguna búsqueda. La red Hamming adaptable no solo reduce el tiempo de entrenamiento de ART 1, sino que también es más fácil de implementar. La red de Hamming adaptativa se limita a la agrupación de patrones binarios, pero puede extenderse al caso de los vectores de entrada analógica mediante la incorporación de técnicas de lógica difusa.


Radio de primordialidad y distancia de Hamming

Esta pregunta es un seguimiento de la conjetura de About Goldbach, cuyo contenido relevante copio y pego a continuación para que sea autónomo:

& quot; consideremos un número natural compuesto $ n $ mayor o igual a $ 4 $. La conjetura de Goldbach es equivalente a la siguiente afirmación: & quothay al menos un número natural $ r $ como $ (n-r) $ y $ (n + r) $ son ambos primos & quot. Por razones obvias $ r leq n-3 $. Dicho número $ r $ se denominará un & quot radio de primacía & quot de $ n $.

Ahora definamos el número $ ord_(n) $, que depende de $ n $, de la siguiente manera: $ ord_C (n): = pi ( sqrt <2n-3>) $, donde $ pi (x) $ es el número de primos menor o igual a $ x $. $ (n + r) $ es primo solo si para todos los primos $ p $ menores o iguales a $ sqrt <2n-3> $, $ p $ no divide $ (n + r) $. Hay exactamente $ ord_(n) $ tales números primos. El número $ ord_(n) $ se denominará & quot; orden de configuración natural & quot de $ n $. Ahora definamos la & quot $ k $ -order configuration & quot de un entero $ m $, denotado $ C_(n) $, como la secuencia $ (m mod 2, m mod 3. m mod p_PS Por ejemplo $ C_ <4> (10) = (10 mod 2, 10 mod 3, 10 mod 5, 10 mod 7) = (0,1,0,3) $. Llamo $ C_<>(n)> (n) $ la & quot configuración natural & quot de $ n $.

Una condición suficiente para hacer que $ r $ sea un radio de primalidad de $ n $ es que para todo entero $ i $ tal que $ 1 leq i leq ord_(n) $, $ (n-r) mod p_$ difiere de $ y $ (n + r) mod p_$ difiere de $. Si esta afirmación es verdadera, $ r $ se llamará un & quot radio de primalidad típico potencial & quot de $ n $. Además, si $ r leq n-3 $, entonces $ r $ se llamará un & quot radio de primalidad típico & quot de $ n $.

Ahora definamos $ N_ <1> (n) $ como el número de radios de primalidad típicos potenciales de $ n $ menores que $ P_<>(n)> $, donde $ P_<>(n)> = 2 veces 3 veces. times p_<>(n)> $, $ N_ <2> (n) $ como el número de radios de primalidad típicos de $ n $ y $ alpha_$ por la siguiente igualdad:

Es bastante fácil dar una expresión exacta de $ N_ <1> (n) $ y demostrar que:

Entonces, viendo las configuraciones del pedido $ l = ord_(n) $ de los enteros $ n $ y $ r $ como cadenas de longitud $ l $, se puede deducir fácilmente que $ r $ es un radio de primalidad típico potencial de $ n $ iff $ d_(r, n) = d_(r, P_-n) = l $, donde $ d_$ es la distancia de Hamming. Por lo tanto, los radios de primalidad típicos potenciales de $ n $ son, en cierto sentido, los más alejados de $ n $ y $ n ': = P_-n $ y están ubicados en una especie de bisectriz perpendicular del segmento formado por $ n $ y $ n '$, así como en un círculo de centro $ n $ o $ n' $. O bien, se puede decir que esos números $ r $ se encuentran en un círculo que a su vez se encuentra en el plano bisector perpendicular del segmento formado por $ n $ y $ n '$.

Además, considerando la & quot; secuencia radioprimal de $ n $ & quot ($ RPS (n) $ para abreviar) definida como la secuencia de radios de primalidad típicos potenciales de $ n $ en orden creciente y la secuencia radioprimal reducida de $ n $ como $ RPS ( n) $ módulo reducido $ n $ y denotado como $ RPS '(n) $, se obtiene que $ N_ <1> (n) -N_ <2> (n) = d_(RPS (n), RPS '(n)) $.

¿Pueden estas consideraciones ayudar a dar un límite inferior de $ N_ <2> (n) $ en términos de $ n $, que se seguiría de un límite superior de la última distancia de Hamming?

Editar: aquí viene una posible heurística:

Sea $ s $ una secuencia de enteros consecutivos cuyo primer y último elemento son primos y se denotan por $ B _ < mathbb

> (s) $ la & quot binarización principal de $ s $ & quot donde cada elemento $ m $ de $ s $ es reemplazado por $ 1 _ < mathbb

> (m) $. $ s $ corresponde a una constelación principal sif el peso de Hamming de su binarización principal es máximo. Por otro lado, el peso de Hamming de la binarización prima de una secuencia de números enteros compuestos consecutivos se desvanece y, por lo tanto, es mínimo. Por lo tanto, se puede esperar mostrar que la función de peso de Hamming alcanza su máximo y mínimo infinitamente a menudo cuando se recorren las secuencias binarizadas principales de una longitud determinada.

De esa forma, si las secuencias $ J (n): = (n-r_(n) -1>, n-r_(n) -2> cdots, n + r_(n) -2>, n + r_(n) -1>) $ y $ I (n): = (n-r_(n) -1>, n-r_(n) -2>, cdots, n + r_(n) -2>, n + r_(n) -1>) $, donde $ (r_ <0> (n), r_ <1> (n), cdots) = RPS (n) $ son constelaciones principales, entonces el peso de Hamming de $ I (n ) $, denotado por $ w_(I (n)) $, es máximo y, por tanto, positivo, y por tanto también lo es $ N_ <2> (n) $.

Tenga en cuenta que esto solo puede ocurrir en el siguiente caso: configuración $ k_ <0> (n): = pi (n + r_ <0> (n)) - pi (n-r_ <0> (n)) $ y más generalmente $ k_(n): = pi (n + r_(n)) - pi (n-r_(n)) $, digamos que $ n $ es & quot central de la orden $ k $ & quot si para todo leq i leq k-1 $, $ k_(n) = 2i + 1 $ y $ i geq k $ implica $ k_(n) & gt2i + 1 $. Entonces $ I (n) $ es una constelación principal solo si $ n $ es el centro del orden al menos $ N_ <2> (n) $. También se puede definir el intervalo $ I_(n): = (n-r_(n), cdots, n + r_(n)) $ que es una constelación principal solo si $ n $ es central de orden al menos $ k $.


1 respuesta 1

Si necesita cambios de cuatro bits para cambiar de A a B, entonces puede hacer dos cambios de bits de A a algo de A 'seguidos de dos cambios de bits más de A' a B. Si recibe A ', entonces no sabe si es un error de doble bit procedente de A, o un error de doble bit procedente de B. Por lo tanto, no puede corregir errores de doble bit.

Dado que se necesitan errores de cuatro bits para pasar de un código válido a otro, puede detectar errores de doble bit.

También tiene la opción de corregir errores de bit único y detectar errores de bit doble al mismo tiempo (asumiendo que no habrá errores de bit triple) o detectar errores de bit triple. No puede corregir errores de un solo bit y detectar errores de triple bit, ya que puedo obtener el mismo resultado cambiando un solo bit en A y cambiando tres bits en B.


Ver el vídeo: Ιστολόγια στο ΠΣΔ - 07 - Κατηγορίες u0026 Μενού (Junio 2022).