ν‘œλ₯Ό 톡해 보간 ν•¨μˆ˜λ₯Ό κ΅¬ν•˜λŠ” 방법. λΌκ·Έλž‘μ£Ό 보간법과 μ‰¬μš΄λ° μ •ν™•νžˆ 같은 κ²°κ³Όλ₯Ό μ€λ‹ˆλ‹€!

6 minute read

μˆ˜ν•™κ³Ό λ³΅μˆ˜μ „κ³΅μ„ μœ„ν•΄ μ‘Έμ—… λ§ˆμ§€λ§‰ 학기에 β€œμˆ˜μΉ˜ν•΄μ„κ°œλ‘ β€ μˆ˜μ—…μ„ λ“£κ²Œ λ˜μ—ˆμŠ΅λ‹ˆλ‹€. μˆ˜ν•™κ³Ό μ‘Έμ—…μ‹œν—˜λ„ 겸사겸사 μ€€λΉ„ν•  κ²Έ ν™”μ΄νŒ… ν•΄λ΄…μ‹œλ‹€!! 전체 ν¬μŠ€νŠΈλŠ” β€œNumerical Analysisβ€œμ—μ„œ 확인할 수 μžˆμŠ΅λ‹ˆλ‹€.

Divided Differences

λ‰΄ν„΄μ˜ 방법을 μ•ŒκΈ° 전에 κΈ°λ³Έ μž¬λ£Œκ°€ λ˜λŠ” β€œλ‚˜λˆ—μ…ˆ μ°¨λΆ„(Divided Difference)”을 λ¨Όμ € μ•Œμ•„μ•Ό ν•©λ‹ˆλ‹€. μ£Όμ–΄μ§„ μ—¬λŸ¬ 점듀을 μ΄μš©ν•΄μ„œ ν•¨μˆ˜μ˜ λ³€ν™” 양상을 κ³„μ‚°ν•˜λŠ” 방법 μž…λ‹ˆλ‹€.

\[c_0 = f[x_0] = f(x_0)\]
  • 0μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„
    • 말 κ·ΈλŒ€λ‘œ ν•¨μˆ˜μ˜ κ°’ μž…λ‹ˆλ‹€.
    • κ³„μˆ˜ $c_0$에 ν•΄λ‹Ή


\[c_1 = f[x_0, x_1] = \frac{f(x_1) - f(x_0)}{x_1 - x_0}\]
  • 1μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„
    • 두 점 μ‚¬μ΄μ˜ 기울기(평균 λ³€ν™”μœ¨) μž…λ‹ˆλ‹€.


\[c_2 = f[x_0, x_1, x_2] = \frac{f[x_1, x_2] - f[x_0, x_1]}{x_2 - x_0}\]
  • 2μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„
    • 기울기의 λ³€ν™”μœ¨ μž…λ‹ˆλ‹€.
    • 두 1μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„μ˜ κ°’μœΌλ‘œ κ³„μ‚°ν•œ λ‚˜λˆ—μ…ˆ μ°¨λΆ„ μž…λ‹ˆλ‹€.


\[c_i= f[x_0, \cdots, x_i] = \frac{f[x_1, \cdots, x_i] - f[x_0, \cdots, x_{i-1}]}{x_i - x_0}\]
  • $i$μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„
    • 두 $(i-1)$μ°¨ λ‚˜λˆ—μ…ˆ μ°¨λΆ„μ˜ κ°’μœΌλ‘œ κ³„μ‚°ν•œ λ‚˜λˆ—μ…ˆ μ°¨λΆ„ μž…λ‹ˆλ‹€.

0λΆ€ν„° $i$μ°¨ λ‚˜λˆ—μ…ˆ 차뢄을 μ‚΄νŽ΄λ³΄λ©΄, κ·Έ μ •μ˜μ— λͺ¨λ‘ ν•˜μœ„ μ°¨λΆ„μ˜ 값을 ν•„μš”λ‘œ ν•©λ‹ˆλ‹€. 즉, μž¬κ·€μ (Recursive)으둜 λ‚˜λˆ—μ…ˆ μ°¨λΆ„μ˜ 값을 κ³„μ‚°ν•˜κ²Œ λ©λ‹ˆλ‹€.

Newton’s Divided Difference

뉴턴은 μœ„μ—μ„œ μ •μ˜ν•œ λ‚˜λˆ—μ…ˆ μ°¨λΆ„μœΌλ‘œ $n$개 점을 λ³΄κ°„ν•˜λŠ” 방법을 κ³ μ•ˆν•©λ‹ˆλ‹€. 방법은 μ•„λž˜μ™€ κ°™μŠ΅λ‹ˆλ‹€.

\[\begin{aligned} I_n f(x) = f[x_1] &+ f[x_1, x_2](x-x_1) \\ &+ f[x_1, x_2, x_3](x-x_1)(x-x_2) \\ &+ \cdots \\ &+ f[x_1, \dots, x_n] \prod_{i=1}^{n} (x - x_i) \end{aligned}\]

λ‚˜λˆ—μ…ˆ μ°¨λΆ„ λΆ€λΆ„λ§Œ κ³„μˆ˜ $c_k$둜 ν‘œν˜„ν•˜λ©΄ μ•„λž˜μ™€ κ°™μŠ΅λ‹ˆλ‹€.

\[\begin{aligned} I_n f(x) &= c_0 + c_1(x-x_1) + c_2(x-x_1)(x-x_2) + \cdots + c_{n-1} \prod_{i=0}^{n-1} (x - x_i) \\ \text{where} \quad c_k &= f[x_1, \dots, x_k] \end{aligned}\]

The divided difference table

β€˜Dr. Will Woodβ€™μ˜ μ˜μƒμ—μ„œλŠ” λ‚˜λˆ—μ…ˆ 차뢄을 μ‰½κ²Œ κ³„μ‚°ν•˜κΈ° μœ„ν•œ ν…Œμ΄λΈ”μ„ μ œμ‹œ ν•©λ‹ˆλ‹€.

Dr. Will Wood

μ†μœΌλ‘œ λ‚˜λˆ—μ…ˆ 차뢄을 ꡬ해야 ν•œλ‹€λ©΄, μ΄λ ‡κ²Œ ν…Œμ΄λΈ”μ„ λ§Œλ“€μ–΄μ„œ κ³„μ‚°ν•˜λŠ”κ²Œ μ‹€μˆ˜ν•˜μ§€ μ•ŠλŠ” 방법일 것 κ°™μŠ΅λ‹ˆλ‹€. 그리고 λ‚˜λˆ—μ…ˆ 차뢄이 μž¬κ·€μ— μ˜ν•΄ μœ λ„λœλ‹€λŠ” 것도 μ‹œκ°μ μœΌλ‘œ 확인할 수 μžˆμŠ΅λ‹ˆλ‹€.

Dr. Will Wood

각 λ‹¨κ³„μ˜ λ‚˜λˆ—μ…ˆ 차뢄을 λͺ¨λ‘ κ³„μ‚°ν–ˆλ‹€λ©΄, λ‚˜λˆ—μ…ˆ μ°¨λΆ„μ˜ 맨 μœ— λΆ€λΆ„λ“€λ§Œ λͺ¨μ•„μ„œ μ΅œμ’… ν˜•νƒœλ₯Ό μœ λ„ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

How interpolation works

$p_n(x)$λ₯Ό $0$λΆ€ν„° $n$κΉŒμ§€μ˜ 점듀을 μ‚¬μš©ν•΄ λ³΄κ°„ν•œ ν•¨μˆ˜λΌκ³  ν•˜κ³ ,
$q_n(x)$λ₯Ό $1$λΆ€ν„° $n+1$κΉŒμ§€μ˜ 점듀을 μ‚¬μš©ν•΄ λ³΄κ°„ν•œ ν•¨μˆ˜λΌκ³  ν•©λ‹ˆλ‹€.

두 ν•¨μˆ˜λ₯Ό μ‹œκ°μ μœΌλ‘œ ν‘œν˜„ν•˜λ©΄ μ•„λž˜μ™€ κ°™μŠ΅λ‹ˆλ‹€.

Dr. Will Wood

이제 두 ν•¨μˆ˜λ₯Ό μ‘°ν•©ν•˜μ—¬ ν™•μž₯ν•œ ν•¨μˆ˜ $p_{n+1}(x)$λ₯Ό μ •μ˜ ν•©λ‹ˆλ‹€.

Dr. Will Wood

이 ν•¨μˆ˜λŠ” $0$λΆ€ν„° $n+1$κΉŒμ§€ λͺ¨λ“  점을 μ§€λ‚˜κ°‘λ‹ˆλ‹€. κ·ΈλŸ¬λ‚˜ 이것이 정말 사싀인지 μ—„λ°€ν•˜κ²Œ μ‚΄νŽ΄λ΄μ•Ό ν•©λ‹ˆλ‹€.

μ–‘ 끝점 $x_0$κ³Ό $x_{n+1}$μ—μ„œ ν•¨μˆ˜λŠ” 각각 $p_n(x)$와 $q_n(x)$처럼 행동 ν•©λ‹ˆλ‹€. λ”°λΌμ„œ, $p_{n+1}(x)$ ν•¨μˆ˜λŠ” $x_0$κ³Ό $x_{n+1}$λ₯Ό μ§€λ‚˜κ°‘λ‹ˆλ‹€.

Dr. Will Wood

μ–‘ 끝점의 사이에 μžˆλŠ” $x_k$에 λŒ€ν•΄μ„œλ„ 확인해보아야 ν•©λ‹ˆλ‹€. 식을 잘 μ •λ¦¬ν•˜λ©΄, $x_k$μ—μ„œ ν™•μž₯ ν•¨μˆ˜κ°€ $p_n(x_k)$의 값을 가짐을 보일 수 μžˆμŠ΅λ‹ˆλ‹€.

Dr. Will Wood

Proof of Theorem

TODO

vs. Langrage Interpolation

μƒˆλ‘œμš΄ 데이터 λ…Έλ“œκ°€ 좔가될 λ•Œ, 두 λ°©λ²•μ˜ λŒ€μ‘ 방식이 λ‹€λ¦…λ‹ˆλ‹€.

  • λΌκ·Έλž‘μ£Ό 보간법
    • 각 μ λ§ˆλ‹€ μƒˆλ‘œμš΄ 닀항식 항이 μƒκΉλ‹ˆλ‹€.
    • κ·Έλž˜μ„œ μƒˆλ‘œμš΄ 데이터 λ…Έλ“œκ°€ μΆ”κ°€λ˜λ©΄, 보간식을 μ²˜μŒλΆ€ν„° λ‹€μ‹œ 계산해야 ν•©λ‹ˆλ‹€.
    • λ”°λΌμ„œ, 점이 μΆ”κ°€λ˜λŠ” μƒν™©μ—μ„œλŠ” μ•„μ£Ό λΉ„νš¨μœ¨μ μž…λ‹ˆλ‹€.
  • λΆ„ν•  μ°¨λΆ„ 보간법
    • 이전에 κ³„μ‚°λœ 값듀을 κ·ΈλŒ€λ‘œ ν™œμš©ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
    • μƒˆλ‘œμš΄ 데이터 λ…Έλ“œκ°€ λ“€μ–΄μ˜€λ©΄, μƒˆλ‘œμš΄ ν•­ ν•˜λ‚˜λ§Œ κ³„μ‚°ν•˜λ©΄ λ©λ‹ˆλ‹€.
    • κ·Έλž˜μ„œ 보간 ν•¨μˆ˜μ˜ β€œμ‹€μ‹œκ°„ μ—…λ°μ΄νŠΈβ€κ°€ κ°€λŠ₯ ν•©λ‹ˆλ‹€.

Property

No matter the data points orders

For any permutation $\sigma$ on $\left\{ 1, \dots, n \right\}$,

\[f[x_1, \dots, x_n] = f[x_{\sigma(1)}, \dots, x_{\sigma(n)}]\]

λΆ„ν•  μ°¨λΆ„ 방법은 μž…λ ₯된 $x$λ“€μ˜ μˆœμ„œμ— μ „ν˜€ 영ν–₯을 λ°›μ§€ μ•ŠλŠ”λ‹€λŠ” μ„±μ§ˆ μž…λ‹ˆλ‹€. κ·Έλž˜μ„œ λΆ„ν•  차뢄을 κ³„μ‚°ν•˜κ±°λ‚˜ ν‘œν˜„ν•  λ•Œ, λ°μ΄ν„°μ˜ μˆœμ„œμ—μ„œ μžμœ λ‘­μŠ΅λ‹ˆλ‹€.

Connection between Divided Difference and Function’s Differential

Given divided difference $f[x_1, \dots, x_n]$, it can be derived from the $(n-1)$-th derivatives like

\[f[x_1, \dots, x_n] = \frac{f^{(n-1)}(\xi)}{(n-1)!}\]

where $\xi \in \left(\min(\left\{ x_i \right\}), \max(\left\{ x_i \right\})\right)$

κ°€μž₯ κ°„λ‹¨ν•œ μ˜ˆμ œλŠ” 1μ°¨ λΆ„ν•  μ°¨λΆ„ $f[x_1, x_2]$ μž…λ‹ˆλ‹€. 이것은

\[f[x_1, x_2] = \frac{f(x_2) - f(x_1)}{x_2 - x_1}\]

λ₯Ό λ§Œμ‘±ν•˜λŠ”λ°, μ΄λ•Œ, β€œν‰κ· κ°’ 정리”에 μ˜ν•΄

\[f[x_1, x_2] = \frac{f(x_2) - f(x_1)}{x_2 - x_1} = f'(\xi)\]

λ₯Ό λ§Œμ‘±ν•˜λŠ” $\xi$κ°€ $\xi \in (x_1, x_2)$ λ²”μœ„ 내에 μ‘΄μž¬ν•©λ‹ˆλ‹€. κ·Έλž˜μ„œ 이 μ„±μ§ˆμ„ β€œκ³ μ°¨ 평균값 정리(Generalized Mean Value Theorem)β€œμ΄λΌκ³ λ„ ν•©λ‹ˆλ‹€.

Proof: TODO

Finite Differences

\[\Delta f(x) = \frac{f(x+h) - f(x)}{h}\]

μš”κ±΄ 곁닀리 λ‚΄μš©μΈλ°μš”! β€œμœ ν•œ μ°¨λΆ„(finite difference)β€λΌλŠ” 것도 μžˆμŠ΅λ‹ˆλ‹€. λΆ„ν•  μ°¨λΆ„κ³Ό μœ ν•œ μ°¨λΆ„μ˜ μ°¨μ΄λŠ” 등간격 μ—¬λΆ€ μž…λ‹ˆλ‹€! μœ ν•œ 차뢄은 각 데이터 λ…Έλ“œμ˜ 간격이 일정해야 ν•©λ‹ˆλ‹€. 반면, λΆ„ν•  차뢄은 데이터 λ…Έλ“œμ˜ 간격에 λŒ€ν•œ μ œμ•½ 쑰건이 μ—†μŠ΅λ‹ˆλ‹€.

μœ ν•œ 차뢄도 2μ°¨, 3μ°¨ 차뢄을 μ •μ˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€!

\[\Delta^2 f(x) = \Delta (\Delta f(x)) = f(x+2h) - 2f(x+h) + f(x)\]

참고자료