ファインマンさんの肩に乗って晴耕雨読の日々

ファインマンを読んで気付いた事そして日常生活の記録

式(12.17)$\sim$式(12. 20) の導出

式(12.17)が成立するのは明らかである ( 同形な積分の$n$個の掛け合わせとなるので, 各々の積分変数を全て $t_i=s$ とすればよい ): $ \def\ket#1{|#1\rangle} \def\bra#1{\langle#1|} \def\BK#1#2{\langle #1|#2\rangle} \def\BraKet#1#2#3{\langle#1|#2|#3\rangle} \def\ppdiff#1#2{\frac{\partial #1}{\partial #2}} \def\odiff#1{\frac{d}{d #1}} \def\pdiff#1{\frac{\partial}{\partial #1}} \def\Bppdiff#1#2{\frac{\partial^{2}#1}{\partial #2^{2}}} \def\Bpdiff#1{\frac{\partial^{2}}{\partial #1^{2}}} \def\mb#1{\mathbf{#1}} \def\ds#1{\mbox{${\displaystyle\strut #1}$}} $

\begin{align} \Phi[k(t)]&=\int_0^{T}\frac{dt_1}{T}\int_0^{T}\frac{dt_2}{T}\dotsb \int_0^{T}\frac{dt_n}{T}\, \exp\left[i\sum_{j=1}^{n}\int_{-\infty}^{\infty}dt\,k(t)g(t-t_j)\right]\notag\\ &=\int_0^{T}\frac{dt_1}{T}\exp\left\{i\int_{-\infty}^{\infty} dt\,k(t)\,g(t-t_1)\right\}\dotsb \int_0^{T}\frac{dt_n}{T}\exp\left\{i\int_{-\infty}^{\infty} dt\,k(t)\,g(t-t_n)\right\}\notag\\ &=\left[\int_0^{T}\frac{ds}{T}\exp\left\{i\int_{-\infty}^{\infty} dt\,k(t)\,g(t-s)\right\}\right]^{n} \equiv A^{n} \tag{12.17} \end{align}

このとき, 指数部の積分は, 重み関数 $k(t)$ とした前述のインパルス応答に相当する形になっていることに注意する.

式(12.19)は次のような式変形により得られる:

\begin{align} \Phi[k(t)]&=\sum_{n=0}^{\infty} A^{n} e^{-\overline{n}} \frac{\overline{n}^{n}}{n!} =e^{-\overline{n}} \sum_{n=0}^{\infty} \frac{(A\,\overline{n})^{n}}{n!} =e^{-\overline{n}}\,e^{A\,\overline{n}}=e^{-(1-A)\overline{n}}=e^{-(1-A)\mu T}\notag\\ &=\exp\Bigl\{-\mu T(1-A)\Bigr\}=\exp\left[-\mu T\left\{1-\int_0^{T}\frac{ds}{T} \exp\left(i\int dt\,k(t)g(t-s)\right)\right\}\right]\notag\\ &=\exp\left[-\mu T\int_0^{T}ds + \mu\int_0^{T}ds\,\exp\left(i\int dt\,k(t)g(t-s)\right)\right]\notag\\ &=\exp\left[-\mu\int_0^{T} ds\,\left\{1-\exp\left(i\int dt\,k(t)g(t-s)\right)\right\}\right] \tag{12.19} \end{align}

式(12.20)の前に「パルスが非常に弱く, 単位時間当たりのパルス数の期待値 $\mu$ が大きい場合を考えよう」とある.すると関数 $g(t)$ は小さな量と見做せるから, 指数関数部分を冪級数で展開出来る.また, 多発するパルスに対するインパルス応答の形はほぼ同じであろうから「 $g(t-s)$ は $t$ には殆ど依存せず, 時間 $s$ の位置だけの関数と見做せる」であろう!?.よって次のように近似してしまおう!:

\begin{align} &1-\exp\left(i\int_0^{T} dt\, k(t)g(t-s)\right)\approx 1-\left(1+i\int_0^{T}dt\,k(t)g(t-s)\right)\notag\\ &\quad =-i\int_0^{T}dt\,k(t)g(t-s),\tag{1}\\ &g(t-s)\approx g(s)\approx g(s-t) \tag{2} \end{align}

従って,

\begin{align} 1-\exp\left(i\int_0^{T} dt\, k(t)g(t-s)\right)&\approx -i\int_0^{T}dt\,k(t)g(t-s)\notag\\ &\approx -ig(s)\int_0^{T}dt\,k(t) \tag{3} \end{align}

これを式(12.19)に代入すれば一応, 式(12.20)を得ることが出来る:

\begin{align} \Phi[k(t)]&=\exp\left[-\mu\int_0^{T} ds\, \left\{1-\exp\left(i\int dt\,k(t)g(t-s)\right)\right\}\right]\notag\\ &=\exp\left[i\mu\int_0^{T}ds\,g(s)\int_0^{T}dt\,k(t)\right] =\exp\left[i\mu G\int_0^{T}dt\,k(t)\right] \tag{12.20} \end{align}

ただし, \displaystyle G=\int_0^{T} ds\,g(s) である.

定常過程について

以下は, 斎藤慶一:「工科系のための確率と確率過程」の§ 3. 2 からの抜粋である.

確率過程 $X(t)$ を $n$ 個の任意の時点 $t_1,\,t_2,\dotsb,\,t_n$ で観測したとき, 得られる確率変数 $X(t_1),\,X(t_2),\dotsb\,X(t_n)$ の統計的性質が, 任意の $h(>0)$ だけズラした時点で観測したとき得られるもの, $X(t_1+h),\,X(t_2+h),\dotsb,\,X(t_n+h)$ の統計的性質と同じ場合がある.このとき, 確率過程 $X(t)$ は「定常である」(stationary)という.言い換えれば, 定常な確率過程 $X(t)$ に於いては, その統計的性質は観測開始時刻の選び方には無関係である.特に, 平均値 $E[X(t)]$ が $t$ には無関係に一定値をとり, 2時点相関関数 $\Gamma(t_1,t_2)$ が時間差 \theta=t_2-t_1 のみの関数である場合が多い.この性質を持つ確率過程は「弱い定常性がある」(weak stationarity)という.

相関関数と相互相関関数について

以下は, 森下巌, 小畑秀文:「信号処理」の§ 3.5 からの抜粋である.

以下では不規則信号は全て定常性がありエルゴード性であるとする.更に, 平均値はゼロとする.

$x(t)$ の「自己相関関数」(auto-correlation function) は次で定義される:

\begin{equation} \phi_{xx}(\theta)\equiv \overline{x(t)\,x(t+\theta)} =\lim_{T\to\infty} \frac{1}{2T}\int_{-T}^{T} x(t)\,x(t+\theta)\,dt \tag{4} \end{equation}
自己相関関数は時刻 $t$ の信号値 $x(t)$ とそれから \theta だけ後の信号値 x(t+\theta) の間にどれだけの相関があるかを与える.自己相関関数の主要な性質を列挙すると以下である:

(1) $\phi_{xx}(0)$ は信号の分散すなわちパワーを与える:$\phi_{xx}(0)=\overline{x(t)^{2}}$ .自己相関関数は \theta=0 に於いて最大値をとる.

(2) 自己相関関数は \theta の偶関数である.

\begin{equation} \phi_{xx}(\theta)=\overline{x(t)\,x(t+\theta)}=\overline{x(t-\theta)\,x(t)}=\overline{x(t)\,x(t-\theta)}=\phi_{xx}(-\theta) \tag{5} \end{equation}
不規則信号 $x(t)$ と $y(t)$ の間の相関関数は「相互相関関数」(cross-correlation function)と呼ばれ, 次によって定義される:
\begin{equation} \phi_{xy}(\theta)\equiv \overline{x(t)y(t+\theta)}=\lim_{T\to\infty}\frac{1}{2T} \int_{-T}^{T} x(t)\,y(t+\theta)\,dt \tag{6} \end{equation}
これは, ある時刻の $x(t)$ の信号値とそれから \theta だけ後の $y(t)$ の信号値の間にどれだけ相関があるかを示す.相互相関関数は一般には偶関数ではない.ただし, \phi_{yx}(\theta)=\overline{y(t)x(t+\theta)} を考えると次が成り立つ:
\begin{equation} \phi_{yx}(\theta)=\overline{y(t)\,x(t+\theta)}=\overline{y(t-\theta)\,x(t)}=\overline{x(t)\,y(t-\theta)}=\phi_{xy}(-\theta) \tag{7} \end{equation}

従って, 本文の式(12.22)は信号 $g(t)$ の (規格化されていないので)自己相関関数の類似物と言えよう?!:

\begin{equation} \lambda(\theta)=\int dt\,g(t)\,g(t+\theta)=\int dt\,g(t-\theta)\,g(t) =\int dt\,g(t)\,g(t-\theta)=\lambda(-\theta) \tag{8} \end{equation}

また前述した本質的な式は, 積分区間が$[-\infty,\infty]$であるならば (規格化されていないので)「相互相関関数」の類似物と見做すことも出来ると思われる.よって次が言えよう?!:

\begin{equation} \int_{-\infty}^{\infty} dt\,k(t)\,g(t-s) =\int_{-\infty}^{\infty} dt\,k(t+s)\,g(t) \tag{9} \end{equation}

これは実は, 変数変換  t-s\to\theta により簡単に示すことが出来る事柄である.

しかし, 本文の場合の積分区間は$[0,T]$としてあるので, このときの両者は等価とは言えない?!!.よって, この本文の場合は「現実に議論する区間は$[0,T]$であるが, 数式変形するときは区間を$[-\infty,\infty]$と見做して処理してよい」とファインマンは考えているのであろう. 「デジタル信号処理」の理論に於いても, 現実には無限大数の信号を処理することは出来ないので大きな信号数$N$を無限大と見做して処理している. またこのことは, 式(12.25)に於ける量 $q$ に於ける積分範囲をファインマンは $[-\infty,\infty]$ と書いていることからも推察されることである:

\begin{equation} q=\mu\int_{-\infty}^{\infty} \lambda(\theta)\,d\theta \tag{10} \end{equation}

従って, 最終的な結論としては「原書と訳書とで表現が違うが, 実は何方でもよい」ということになるようだ.