무질서 접촉 과정(disordered contact process; DCP)은 접촉 과정을 변형시킨 겁니다. 접촉 과정을 다시 소개하면, 격자 위의 각 자리에는 입자가 있거나(A) 없거나(0) 둘 중 하나의 상태를 갖습니다. 랜덤하게 선택된 A는 1의 전이율(rate; 시간 당 변화율)로 사라지고(0으로 변하고), 옆 자리가 비어(0) 있을 경우 λ의 전이율로 자신을 복제(즉, A0→AA)합니다.

무질서 접촉 과정은 공간적인 무질서가 도입된 접촉 과정이고, 무질서는 다양한 방식으로 도입될 수 있습니다. 여기서는 많이 쓰는 방법 중의 하나를 썼는데요, λ가 어디서나 똑같은 게 아니라 어디에서는 c * λ로 놓고, 복제율이 cλ인 자리의 비율을 p로 둡니다. 여기서 p와 c 모두 0과 1 사이의 실수입니다. c가 1이면 그냥 접촉 과정이 되고요, c가 작아질수록 무질서의 정도가 커집니다.

'무질서한 접촉 과정에 관한 시나리오'라는 글에서 썼듯이, 두 가지 시나리오가 존재합니다. 호이베앍스(Hooyberghs) 등은 약한 무질서에서는 연속으로 변하는 임계지수, 강한 무질서에서는 무한 무질서 고정점(IRFP)이 나타난다고 했고, 보이타(T. Vojta) 등은 무질서가 조금이라도 있으면 IRFP가 나타난다고 했지요. 즉, 약한 무질서인 경우에서 의견 차이가 있습니다. 누구도 이론적으로 엄밀하게 얘기는 못하니까 시늉내기 결과만 갖고 논란을 벌이고 있는데요, 무질서가 있는 시스템은 시늉내기하는 것도 금방 끝나는, 쉬운 일이 아니어서 논란이 쉽게 끝나지는 않을 것 같습니다.

DCP에 관한 여러 연구들이 있는데요, 지난 번에 소개하기도 했던 팔러트(Fallert) 등이 쓴 논문에 있는 대로 시늉내기를 해본 결과를 올립니다. 물론 그 논문대로 다 했다가는 시간이 너무 많이 걸리므로, 격자의 크기 16, 32, 64, 128 각각에 대해 p=0.3인 경우, c=0.2인 경우(아래 그림의 왼쪽 열)와 0.8인 경우(아래 그림의 오른쪽 열)에 대해서만 돌렸습니다. 논문에서는 10000개 이상의 서로 다른 무질서 초기조건에 대해 10억 시간(time step)까지 돌린 결과를 정리했는데요, 저는 그렇게까지 많이 못하니까 많아야 500개의 서로 다른 무질서 초기조건에 대해 100만 시간까지 돌린 결과를 봤습니다(아래 그림).


맨 위의 두 그림은 모멘트 비율(moment ratio) r_211을 λ에 따라 측정한 겁니다. 이 값은 시스템 크기에 상관없이 한 점에서 만난다고 하는데요, 이 그림으로부터 λ의 임계점 즉, λ_c를 결정합니다. c=0.8인 경우(약한 무질서)에는 비교적 쉽게 λ_c를 정할 수 있는데(팰러트의 논문 결과와 잘 맞습니다), c=0.2인 경우(강한 무질서)에는 정하기가 쉽지 않습니다(팰러트의 논문 결과와 좀 다릅니다).

중간은 넘어가고, 위 그림의 아래 두 줄(즉 넷째줄과 마지막줄)은 지속시간(lifetime) τ의 누적분포(cumulative distribution)를 두 가지 방식으로 그린 겁니다. 이 지속시간은 흡수상태로 빨려들어가기 전에 얼마나 오래 활성상태에 머물러 있는지를 측정한 겁니다. τ는 시스템 크기 L과 거듭제곱 관계에 있다고 알려져 있죠: τ ~ L^z 여기서 z는 동적 지수(dynamic exponent)입니다. 그런데 이런 관습적인 눈금잡기(conventional scaling)는 무질서에 의해 더이상 맞지 않고, 새로운 '활성화된 눈금잡기(activated scaling)'로 대체된다고 얘기한 적이 있습니다.

활성화된 눈금잡기에서는 τ ~ L^z 대신에 ln τ ~ L^Ψ 와 같은 형태로 쓸 수 있다고 했죠. 위 그림의 넷째줄은 관습적인 눈금잡기로 맞춰본 거고요, 마지막줄은 같은 데이터를 활성화된 눈금잡기로 맞춰본 겁니다. 약한 무질서(c=0.8)에서는 관습적인 눈금잡기 방법이 데이터를 더 잘 설명한다는 걸 알 수 있죠(즉 넷째줄 오른쪽 그림에서 적절한 z를 이용하면 τ ~ L^z에 의해 여러 크기의 데이터가 하나의 곡선 위에 모입니다). 강한 무질서(c=0.2)에서는 얼핏 관습적인 눈금잡기가 더 잘 맞는 것 같은데, 팰러트 등의 논문 결과에서는 활성화된 눈금잡기로 더 깔끔하게 맞춰집니다. 제 데이터는 팰러트 등의 논문보다 훨씬 적게 돌린 결과라서 제 결과에 대해서는 확신하지 못합니다;;;

뭔가 찝찝한데요... 일단 해봤다.라는데 의의를 두고...라고 하기에는 찝찝함이 가시지를 않네요. 제가 돌린 것의 20000배(즉 팰러트 논문의 수준)를 돌리려면 제 개인용 컴퓨터로는 몇 년이 걸릴지도 모른다는 계산이 나옵니다. 아무리 개인 컴퓨터가 좋아졌다고 해도, 프로그램을 획기적으로 개선하거나 몇 백대씩 맞물려 있는 클러스터를 이용하거나 하지 않으면 안되나봐요.;;;

말이 길어졌네요.