Bài viết

7.7E: Phương pháp Frobenius II (Bài tập) - Toán học


Q7.6.1

Ở trong Bài tập 7.6.1-7.6.11 tìm một bộ giải pháp Frobenius cơ bản. Theo tùy chọn, viết một chương trình máy tính để triển khai các công thức lặp lại áp dụng và lấy (N> 7 ).

1. (x ^ 2y '' - x (1-x) y '+ (1-x ^ 2) y = 0 )

2. (x ^ 2 (1 + x + 2x ^ 2) y '+ x (3 + 6x + 7x ^ 2) y' + (1 + 6x-3x ^ 2) y = 0 )

3. (x ^ 2 (1 + 2x + x ^ 2) y '' + x (1 + 3x + 4x ^ 2) y'-x (1-2x) y = 0 )

4. (4x ^ 2 (1 + x + x ^ 2) y '' + 12x ^ 2 (1 + x) y '+ (1 + 3x + 3x ^ 2) y = 0 )

5. (x ^ 2 (1 + x + x ^ 2) y '' - x (1-4x-2x ^ 2) y '+ y = 0 )

6. (9x ^ 2y '' + 3x (5 + 3x-2x ^ 2) y '+ (1 + 12x-14x ^ 2) y = 0 )

7. (x ^ 2y '' + x (1 + x + x ^ 2) y '+ x (2-x) y = 0 )

8. (x ^ 2 (1 + 2x) y '' + x (5 + 14x + 3x ^ 2) y '+ (4 + 18x + 12x ^ 2) y = 0 )

9. (4x ^ 2y '' + 2x (4 + x + x ^ 2) y '+ (1 + 5x + 3x ^ 2) y = 0 )

10. (16x ^ 2y '' + 4x (6 + x + 2x ^ 2) y '+ (1 + 5x + 18x ^ 2) y = 0 )

11. (9x ^ 2 (1 + x) y '' + 3x (5 + 11x-x ^ 2) y '+ (1 + 16x-7x ^ 2) y = 0 )

Q7.6.2

Ở trong Bài tập 7.6.12-7.6.22 tìm một bộ giải pháp Frobenius cơ bản. Đưa ra công thức rõ ràng cho các hệ số.

12. (4x ^ 2y '' + (1 + 4x) y = 0 )

13. (36x ^ 2 (1-2x) y '' + 24x (1-9x) y '+ (1-70x) y = 0 )

14. (x ^ 2 (1 + x) y '' - x (3-x) y '+ 4y = 0 )

15. (x ^ 2 (1-2x) y '' - x (5-4x) y '+ (9-4x) y = 0 )

16. (25x ^ 2y '' + x (15 + x) y '+ (1 + x) y = 0 )

17. (2x ^ 2 (2 + x) y '' + x ^ 2y '+ (1-x) y = 0 )

18. (x ^ 2 (9 + 4x) y '' + 3xy '+ (1 + x) y = 0 )

19. (x ^ 2y '' - x (3-2x) y '+ (4 + 3x) y = 0 )

20. (x ^ 2 (1-4x) y '' + 3x (1-6x) y '+ (1-12x) y = 0 )

21. (x ^ 2 (1 + 2x) y '' + x (3 + 5x) y '+ (1-2x) y = 0 )

22. (2x ^ 2 (1 + x) y '' - x (6-x) y '+ (8-x) y = 0 )

Q7.6.3

Ở trong Bài tập 7.6.23-7.6.27 tìm một bộ giải pháp Frobenius cơ bản. So sánh các thuật ngữ liên quan đến (x ^ {n + r_ {1}} ), trong đó (0 leq n leq N ) ( (N ) ít nhất (7 )) và (r_ { 1} ) là gốc của phương trình chỉ số. Theo tùy chọn, viết một chương trình máy tính để triển khai các công thức lặp lại áp dụng và lấy (N> 7 ).

23. (x ^ 2 (1 + 2x) y '' + x (5 + 9x) y '+ (4 + 3x) y = 0 )

24. (x ^ 2 (1-2x) y '' - x (5 + 4x) y '+ (9 + 4x) y = 0 )

25. (x ^ 2 (1 + 4x) y '' - x (1-4x) y '+ (1 + x) y = 0 )

26. (x ^ 2 (1 + x) y '' + x (1 + 2x) y '+ xy = 0 )

27. (x ^ 2 (1-x) y '' + x (7 + x) y '+ (9-x) y = 0 )

Q7.6.4

Ở trong Bài tập 7.6.28-7.6.38 tìm một bộ giải pháp Frobenius cơ bản. Đưa ra công thức rõ ràng cho các hệ số.

28. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

29. (x ^ 2 (1 + x ^ 2) y '' - 3x (1-x ^ 2) y '+ 4y = 0 )

30. (4x ^ 2y '' + 2x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

31. (x ^ 2 (1 + x ^ 2) y '' - x (1-2x ^ 2) y '+ y = 0 )

32. (2x ^ 2 (2 + x ^ 2) y '' + 7x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

33. (x ^ 2 (1 + x ^ 2) y '' - x (1-4x ^ 2) y '+ (1 + 2x ^ 2) y = 0 )

34. (4x ^ 2 (4 + x ^ 2) y '' + 3x (8 + 3x ^ 2) y '+ (1-9x ^ 2) y = 0 )

35. (3x ^ 2 (3 + x ^ 2) y '' + x (3 + 11x ^ 2) y '+ (1 + 5x ^ 2) y = 0 )

36. (4x ^ 2 (1 + 4x ^ 2) y '' + 32x ^ 3y '+ y = 0 )

37. (9x ^ 2y '' - 3x (7-2x ^ 2) y '+ (25 + 2x ^ 2) y = 0 )

38. (x ^ 2 (1 + 2x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1-3x ^ 2) y = 0 )

Q7.6.5

Ở trong Bài tập 7.6.39-7.6.43 tìm một bộ giải pháp Frobenius cơ bản. Tính toán các điều khoản liên quan đến (x ^ {2m + r_ {1}} ), trong đó (0 ≤ m ≤ M ) ( (M ) ít nhất (3 )) và (r_ {1} ) là gốc của phương trình chỉ thị. Theo tùy chọn, viết một chương trình máy tính để triển khai các công thức lặp lại áp dụng và lấy (M> 3 ).

39. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 8x ^ 2) y '+ (1 + 12x ^ 2) y )

40. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

41. (x ^ 2 (1-2x ^ 2) y '' + x (5-9x ^ 2) y '+ (4-3x ^ 2) y = 0 )

42. (x ^ 2 (2 + x ^ 2) y '' + x (14-x ^ 2) y '+ 2 (9 + x ^ 2) y = 0 )

43. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1 + 8x ^ 2) y = 0 )

Q7.6.6

Ở trong Bài tập 7.6.44-7.6.52 tìm một bộ giải pháp Frobenius cơ bản. Đưa ra công thức rõ ràng cho các hệ số.

44. (x ^ 2 (1-2x) y '' + 3xy '+ (1 + 4x) y = 0 )

45. (x (1 + x) y '' + (1-x) y '+ y = 0 )

46. ​​ (x ^ 2 (1-x) y '' + x (3-2x) y '+ (1 + 2x) y = 0 )

47. (4x ^ 2 (1 + x) y '' - 4x ^ 2y '+ (1-5x) y = 0 )

48. (x ^ 2 (1-x) y '' - x (3-5x) y '+ (4-5x) y = 0 )

49. (x ^ 2 (1 + x ^ 2) y '' - x (1 + 9x ^ 2) y '+ (1 + 25x ^ 2) y = 0 )

50. (9x ^ 2y '' + 3x (1-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

51. (x (1 + x ^ 2) y '' + (1-x ^ 2) y'-8xy = 0 )

52. (4x ^ 2y '' + 2x (4-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

Q7.6.7

53. Theo giả thiết của Định lý 7.6.2, giả sử chuỗi lũy thừa

[ sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {và} quad sum_ {n = 1} ^ infty a_n '(r_1) x ^ n nonumber ]

hội tụ về ((- rho, rho) ).

  1. Chứng tỏ rằng [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {và} quad y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n nonumber ] độc lập tuyến tính trên ((0, rho) ). GỢI Ý: Chứng tỏ rằng nếu (c_ {1} ) và (c_ {2} ) là các hằng sao cho (c_ {1} y_ {1} + c_ {2} y_ {2} ≡0 ) trên ((0, rho) ), sau đó [(c_ {1} + c_ {2} ln x) sum_ {n = 0} ^ { infty} a_ {n} (r_ {1}) x ^ {n} + c_ {2} sum_ {n = 1} ^ { infty} a_ {n} '(r_ {1}) x ^ {n} = 0, quad 0
  2. Sử dụng kết quả của (a) để hoàn thành việc chứng minh Định lý 7.6.2.

54. Để

[Ly = x ^ 2 ( alpha_0 + alpha_1x) y '' + x ( beta_0 + beta_1x) y '+ ( gamma_0 + gamma_1x) y nonumber ]

và xác định

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {và} quad p_1 (r) = alpha_1r (r-1) + beta_1r + gamma_1. nonumber ]

Định lý 7.6.1 và Bài tập 7.5.55a

ngụ ý rằng nếu

[y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n nonumber ]

ở đâu

[a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {p_1 (j + r-1) over p_0 (j + r)}, nonumber ]

sau đó

[Ly (x, r) = p_0 (r) x ^ r. Nonumber ]

Bây giờ, giả sử (p_0 (r) = alpha_0 (r-r_1) ^ 2 ) và (p_1 (k + r_1) ne0 ) nếu (k ) là một số nguyên không âm.

  1. Chứng tỏ rằng (Ly = 0 ) có nghiệm [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n, nonumber ] trong đó [a_n (r_1) = {(- 1) ^ n over alpha_0 ^ n (n!) ^ 2} prod_ {j = 1} ^ np_1 (j + r_1-1). Nonumber ]
  2. Chứng tỏ rằng (Ly = 0 ) có nghiệm thứ hai [y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n (r_1) J_nx ^ n, nonumber ] ở đâu [J_n = sum_ {j = 1} ^ n {p_1 '(j + r_1-1) over p_1 (j + r_1-1)} - 2 sum_ {j = 1} ^ n {1 over j }.không có số]
  3. Kết luận từ (a) và (b) rằng nếu ( gamma_1 ne0 ) thì [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty {(-1) ^ n over (n !) ^ 2} left ( gamma_1 over alpha_0 right) ^ nx ^ n nonumber ] và [y_2 = y_1 ln x-2x ^ {r_1} sum_ {n = 1} ^ infty {(-1) ^ n over (n!) ^ 2} left ( gamma_1 over alpha_0 right) ^ n left ( sum_ {j = 1} ^ n {1 over j} right ) x ^ n nonumber ] là nghiệm của [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_1x) y = 0. nonumber ] (Kết luận cũng hợp lệ nếu ( gamma_1 = 0 ). Tại sao?)

55. Để

[Ly = x ^ 2 ( alpha_0 + alpha_qx ^ q) y '' + x ( beta_0 + beta_qx ^ q) y '+ ( gamma_0 + gamma_qx ^ q) y nonumber ]

trong đó (q ) là một số nguyên dương và xác định

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {và} quad p_q (r) = alpha_qr (r-1) + beta_qr + gamma_q. nonumber ]

Cho rằng

[p_0 (r) = alpha_0 (r-r_1) ^ 2 quad mbox {và} quad p_q (r) not equiv0. nonumber ]

  1. Nhớ lại từ Bài tập 7.5.59 (Ly ~ = 0 ) có nghiệm [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty a_ {qm} (r_1) x ^ {qm}, nonumber ] trong đó [a_ {qm} (r_1) = {(- 1) ^ m over (q ^ 2 alpha_0) ^ m (m!) ^ 2} prod_ {j = 1} ^ mp_q left (q (j- 1) + r_1 right). Nonumber ]
  2. Chứng tỏ rằng (Ly = 0 ) có nghiệm thứ hai [y_2 = y_1 ln x + x ^ {r_1} sum_ {m = 1} ^ infty a_ {qm} '(r_1) J_mx ^ {qm} , nonumber ] trong đó [J_m = sum_ {j = 1} ^ m {p_q ' left (q (j-1) + r_1 right) over p_q left (q (j-1) + r_1 right)} - ​​{2 over q} sum_ {j = 1} ^ m {1 over j}. nonumber ]
  3. Kết luận từ (a) và (b) rằng nếu ( gamma_q ne0 ) thì [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty {(-1) ^ m over (m !) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ mx ^ {qm} nonumber ] và [y_2 = y_1 ln x- {2 over q} x ^ {r_1 } sum_ {m = 1} ^ infty {(-1) ^ m over (m!) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ m left ( sum_ { j = 1} ^ m {1 over j} right) x ^ {qm} nonumber ] là nghiệm của [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_qx ^ q) y = 0. nonumber ]

56. Phương trình

[xy '' + y '+ xy = 0 nonumber ]

Phương trình bậc 0 của Bessel. (Nhìn thấy Bài tập 7.5.53.) Tìm hai nghiệm Frobenius độc lập tuyến tính của phương trình này.

57. Giả sử các giả định về Bài tập 7.5.53 giữ, ngoại trừ điều đó

[p_0 (r) = alpha_0 (r-r_1) ^ 2. nonumber ]

Cho thấy

[y_1 = {x ^ {r_1} over alpha_0 + alpha_1x + alpha_2x ^ 2} quad mbox {và} quad y_2 = {x ^ {r_1} ln x over alpha_0 + alpha_1x + alpha_2x ^ 2} nonumber ]

là các giải pháp Frobenius độc lập tuyến tính của

[x ^ 2 ( alpha_0 + alpha_1x + alpha_2 x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0 nonumber ]

trên bất kỳ khoảng nào ((0, rho) ) mà ( alpha_0 + alpha_1x + alpha_2x ^ 2 ) không có số 0.

Q7.6.8

58. (4x ^ 2 (1 + x) y '' + 8x ^ 2y '+ (1 + x) y = 0 )

59. (9x ^ 2 (3 + x) y '' + 3x (3 + 7x) y '+ (3 + 4x) y = 0 )

60. (x ^ 2 (2-x ^ 2) y '' - x (2 + 3x ^ 2) y '+ (2-x ^ 2) y = 0 )

61. (16x ^ 2 (1 + x ^ 2) y '' + 8x (1 + 9x ^ 2) y '+ (1 + 49x ^ 2) y = 0 )

62. (x ^ 2 (4 + 3x) y '' - x (4-3x) y '+ 4y = 0 )

63. (4x ^ 2 (1 + 3x + x ^ 2) y '' + 8x ^ 2 (3 + 2x) y '+ (1 + 3x + 9x ^ 2) y = 0 )

64. (x ^ 2 (1-x) ^ 2y '' - x (1 + 2x-3x ^ 2) y '+ (1 + x ^ 2) y = 0 )

65. (9x ^ 2 (1 + x + x ^ 2) y '' + 3x (1 + 7x + 13x ^ 2) y '+ (1 + 4x + 25x ^ 2) y = 0 )

Q7.6.9

66.

  1. Hãy để (L ) và (y (x, r) ) giống như trong Bài tập 7.5.577.5.58. Mở rộng Định lý 7.6.1 bằng cách chỉ ra rằng [L left ({ một phần y over một phần r} (x, r) right) = p'_0 (r) x ^ r + x ^ rp_0 (r) ln x. nonumber ]
  2. Chứng tỏ rằng nếu [p_0 (r) = alpha_0 (r-r_1) ^ 2 nonumber ] thì [y_1 = y (x, r_1) quad text {và} quad y_2 = { một phần y over part r} (x, r_1) nonumber ] là nghiệm của (Ly = 0 ).

7.7E: Phương pháp Frobenius II (Bài tập) - Toán học

Sách hướng dẫn giải toán 7e James Stewart [PDF]

Giải tích siêu việt sớm (Lời giải 7E) của James Stewart

MathSchoolinternational chứa hơn 5000 sách PDF miễn phí về Toán và Sách PDF miễn phí về Vật lý. Trong đó bao gồm hầu hết các chủ đề dành cho sinh viên Toán học, Vật lý và Kỹ thuật. Đây là danh sách thú vị của sách điện tử Giải tích. Chúng tôi hy vọng học sinh và giáo viên thích những cuốn sách giáo khoa, ghi chú và hướng dẫn giải pháp.

Là một sinh viên kỹ thuật, kinh tế, toán học hoặc vật lý, bạn cần phải tham gia khóa học giải tích. mathschoolinternational cung cấp bộ sưu tập toàn diện các sách giáo khoa hay nhất sau đây, sách hướng dẫn giải tốt nhất và các ghi chú đã giải sẽ hữu ích cho bạn và tăng hiệu quả của bạn.
• 10 công cụ giải tích một biến tốt nhất
• Top 10 phép tính có thể thay đổi tốt nhất
• Top 5 Máy tính AP tốt nhất
• Top 7 Giải tích Tốt nhất với Hình học Giải tích
• Phép tính siêu việt sớm
• Top 25 Giải tích Tốt nhất
• Top 50 máy tính tiến tiến tốt nhất

Xin chúc mừng, liên kết có sẵn để tải xuống miễn phí.

Làm thế nào để Tải xuống Sách ?,. Cần giúp đỡ?

Về cuốn sách này :-
Giải tích siêu việt sớm (7E) do James Stewart viết.
Thành công trong khóa học giải tích của bạn bắt đầu từ đây! James Stewart's CALCULUS: SÀI GÒN CÁC BÀI VIẾT VĂN BẢN là sách bán chạy nhất trên toàn thế giới vì một lý do: chúng rõ ràng, chính xác và chứa đầy các ví dụ thực tế có liên quan. Với CALCULUS: EARLY TRANSCENDENTALS, EARLY Edition, Stewart không chỉ truyền tải tiện ích của phép tính toán để giúp bạn phát triển năng lực kỹ thuật mà còn mang đến cho bạn sự đánh giá cao về vẻ đẹp nội tại của môn học. Các ví dụ về bệnh nhân và công cụ hỗ trợ học tập tích hợp của anh ấy sẽ giúp bạn xây dựng sự tự tin về toán học và đạt được mục tiêu của mình trong khóa học

Chi tiết Sách: -
Chức vụ: Phép tính siêu việt sớm (Lời giải)
Phiên bản: thứ 7
(Các) tác giả: James Stewart
Nhà xuất bản: Brooks / Cole
Hàng loạt:
Năm: 2015
Các trang: 1778
Thể loại: PDF
Ngôn ngữ: tiếng Anh
ISBN: 1285741552,978-1-285-74155-0,978-1-305-27235-4
Quốc gia: Canada
Nhận cuốn sách này từ Amazon

Về tác giả :-
Phép tính siêu việt sớm (Lời giải 7E) do James Stewart viết.
Ông nhận bằng M. S. (thạc sĩ khoa học) tại Đại học Stanford và bằng Tiến sĩ. (tiến sĩ triết học) từ Đại học Toronto.
Ông làm nghiên cứu sinh sau tiến sĩ tại Đại học London, nơi nghiên cứu của ông tập trung vào phân tích hài và hàm. Stewart gần đây nhất là Giáo sư Toán học tại Đại học McMaster, và lĩnh vực nghiên cứu của ông là phân tích sóng hài. Stewart là tác giả của bộ sách giáo khoa về giải tích hay nhất được xuất bản bởi Cengage Learning, bao gồm Giải tích, Giải tích: Siêu việt sơ khai và Giải tích: Khái niệm và khung cảnh, cũng như một loạt các văn bản tính toán trước.

Tham gia cập nhật mới của chúng tôi, cảnh báo: -
Để có các bản cập nhật và cảnh báo mới, hãy tham gia Nhóm WhatsApp và Nhóm Telegram của chúng tôi (bạn cũng có thể hỏi bất kỳ sách hướng dẫn sử dụng [pdf] nào / ghi chú / giải pháp).
Tham gia nhóm WhatsApp
Tham gia nhóm Telegram

Nội dung sách: -
Phép tính siêu việt sớm (Lời giải 7E) được viết bởi James Stewart bao gồm các chủ đề sau. 1. CHỨC NĂNG VÀ MÔ HÌNH.
Bốn cách để biểu diễn một chức năng. Mô hình toán học: Danh mục các hàm cần thiết. Các chức năng mới từ các chức năng cũ. Vẽ đồ thị Máy tính và Máy tính. Nguyên tắc giải quyết vấn đề.
2. GIỚI HẠN.
Vấn đề Tiếp tuyến và Vận tốc. Giới hạn của một chức năng. Tính toán giới hạn bằng cách sử dụng luật giới hạn. Định nghĩa chính xác của một giới hạn. Liên tục.
3. CÁC KHOẢNG CÁCH.
Các công cụ phái sinh và tỷ lệ thay đổi. Dự án viết: Phương pháp tìm tiếp tuyến ban đầu. Đạo hàm dưới dạng một hàm. Công thức phân biệt. Dự án ứng dụng: Xây dựng tàu lượn siêu tốc tốt hơn. Đạo hàm của các hàm lượng giác. Quy tắc Chuỗi. Dự án Ứng dụng: Nên bắt đầu từ đâu một thí điểm? Sự khác biệt hóa rõ ràng. Tỷ lệ thay đổi trong Khoa học Tự nhiên và Xã hội. Tỷ giá liên quan. Xấp xỉ tuyến tính và vi phân. Dự án Phòng thí nghiệm: Đa thức Taylor.
4. ỨNG DỤNG CỦA SỰ KHÁC BIỆT.
Giá trị tối đa và tối thiểu. Dự án ứng dụng: Máy tính cầu vồng. Định lý Giá trị Trung bình. Đạo hàm ảnh hưởng đến hình dạng của đồ thị như thế nào. Các giới hạn ở Asymptotes ngang Vô cực. Sơ lược về phác thảo đường cong. Vẽ đồ thị với Máy tính và Máy tính. Các vấn đề về tối ưu hóa. Dự án ứng dụng: Hình dạng của một cái lon. Phương pháp Newton. Chất diệt khuẩn.
5. TÍCH HỢP.
Khu vực và Khoảng cách. Tích phân xác định. Dự án Khám phá: Chức năng Khu vực. Định lý Cơ bản của Giải tích. Tích phân không xác định và Định lý thay đổi ròng. Dự án viết: Newton, Leibniz, và phát minh ra máy tính. Quy tắc thay thế.
6. ỨNG DỤNG CỦA HỘI NHẬP.
Khu vực giữa các Đường cong. Âm lượng. Khối lượng bằng Vỏ hình trụ. Công việc. Giá trị trung bình của một hàm.
7. CHỨC NĂNG ĐẦU TƯ:
CÁC CHỨC NĂNG TRIGONOMETRIC MỞ RỘNG, LOGARITHMIC VÀ ĐẦU TƯ. Chức năng nghịch đảo. (Người hướng dẫn có thể bao gồm Phần 7.2-7.4 hoặc Phần 7.2 * -7.4 *). Các hàm số mũ và các đạo hàm của chúng. Hàm Logarit. Đạo hàm của hàm lôgarit. * Hàm Logarit tự nhiên. * Hàm số mũ tự nhiên. * Hàm Logarit tổng quát và hàm mũ. Tăng trưởng và suy giảm theo cấp số nhân. Hàm lượng giác nghịch đảo. Dự án ứng dụng: Ngồi ở đâu khi xem phim. Hàm Hyperbolic. Dạng không xác định và Quy tắc L'Hospital. Viết dự án: Nguồn gốc của Quy tắc L'Hospital.
8. KỸ THUẬT TÍCH HỢP.
Tích hợp theo các bộ phận. Tích phân lượng giác. Phép thế lượng giác. Tích hợp các hàm hợp lý theo phân số từng phần. Chiến lược hội nhập. Tích hợp Sử dụng Bảng và Hệ thống Đại số Máy tính. Dự án Khám phá: Các mẫu trong Tích phân. Tích hợp gần đúng. Tích phân không phù hợp.
9. CÁC ỨNG DỤNG THÊM CỦA TÍCH HỢP.
Chiều dài hồ quang. Dự án Khám phá: Cuộc thi Độ dài Vòng cung. Khu vực của một bề mặt của cuộc cách mạng. Dự án Khám phá: Xoay nghiêng. Ứng dụng vào Vật lý và Kỹ thuật. Dự án Khám phá: Những tách cà phê bổ sung. Ứng dụng vào Kinh tế và Sinh học. Tính xác suất.
10. CÁC YẾU TỐ KHÁC NHAU.
Mô hình hóa với các phương trình vi phân. Trường hướng và phương pháp của Euler. Phương trình tách biệt. Dự án ứng dụng: Cái nào nhanh hơn, đi lên hay sắp xuống? Mô hình tăng trưởng dân số. Dự án ứng dụng: Giải tích và bóng chày. Các phương trình tuyến tính. Hệ thống Predator-Con mồi. Phương trình PARAMETRIC và Tọa độ Cực.
Đường cong được xác định bởi phương trình tham số. Dự án Phòng thí nghiệm: Họ Hypocycloids. Giải tích với đường cong tham số. Dự án Phòng thí nghiệm: Bezier Curves. Tọa độ cực. Diện tích và Độ dài trong Tọa độ Cực. Phần Conic. Phần Conic trong Phối hợp Cực.
11. CÁC DÒNG VÀ DÒNG INFINITE.
Trình tự. Dự án Phòng thí nghiệm: Chuỗi hậu cần. Hàng loạt. Kiểm tra Tích phân và Ước tính Tổng. Các bài kiểm tra so sánh. Loạt luân phiên. Hội tụ tuyệt đối và kiểm tra tỷ lệ và gốc. Chiến lược cho chuỗi thử nghiệm. Dòng điện. Biểu diễn các chức năng dưới dạng chuỗi nguồn. Dòng Taylor và Maclaurin. Dự án viết: Cách Newton khám phá ra chuỗi nhị thức. Các ứng dụng của Đa thức Taylor. Dự án ứng dụng: Bức xạ từ các vì sao.
12. vectơ VÀ HÌNH HỌC CỦA KHÔNG GIAN.
Hệ tọa độ ba chiều. Vectơ. Sản phẩm Chấm. Sản phẩm Thập tự giá. Dự án Khám phá: Hình học của một tứ diện. Phương trình của Đường và Máy bay. Xi lanh và bề mặt Quadric.
13. CÁC CHỨC NĂNG CỦA VECTƠ.
Hàm Vector và Đường cong Không gian. Đạo hàm và Tích phân của Hàm Vector. Độ dài và độ cong của vòng cung. Chuyển động trong không gian: Vận tốc và Gia tốc. Dự án ứng dụng: Kepler's Laws.
14. CÁC KHOẢNG CÁCH BÊN TRONG.
Chức năng của một số biến. Giới hạn và Tính liên tục. Dẫn một phần. Mặt phẳng tiếp tuyến và phép gần đúng tuyến tính. Quy tắc Chuỗi. Đạo hàm hướng và Vector Gradient. Giá trị tối đa và tối thiểu. Dự án ứng dụng: Thiết kế một Dumpster. Dự án Khám phá: Phép gần đúng bậc hai và điểm tới hạn. Các nhân đấu Lagrange. Dự án ứng dụng: Khoa học tên lửa. Dự án ứng dụng: Tối ưu hóa tua bin thủy điện.
15. HỘI NHẬP NHIỀU LẦN.
Tích phân kép trên Hình chữ nhật. Tích phân được lặp lại. Tích phân kép trên các khu vực chung. Tích phân kép trong Tọa độ Cực. Các ứng dụng của Tích phân kép. Tích phân ba. Dự án Khám phá: Khối lượng Hyperspheres. Tích phân ba trong hình trụ. Dự án Khám phá: Giao điểm của ba xi lanh. Tích phân ba trong Tọa độ Hình cầu. Dự án ứng dụng: Roller Derby. Thay đổi các biến trong nhiều tích phân. 17. TÍNH TOÁN VECTOR. Trường Vector. Tích phân dòng. Định lý cơ bản cho tích phân đường. Định lý Green. Curl và Divergence. Các bề mặt tham số và các khu vực của chúng. Tích phân bề mặt. Định lý Stokes. Dự án viết: Ba người đàn ông và hai định lý. Định lý Phân kỳ. Bản tóm tắt.
16. TÍNH TOÁN VECTOR
Trường vectơ, Tích phân đường, Định lý cơ bản cho Tích phân đường, Định lý Green, Đường cong và Phân kỳ, Bề mặt tham số và Diện tích của chúng, Tích phân bề mặt, Định lý Stokes, Dự án Viết • Ba người và hai định lý, Định lý phân kỳ
17. CÁC YẾU TỐ KHÁC BIỆT LỆNH THỨ HAI.
Phương trình tuyến tính bậc hai. Phương trình tuyến tính không thuần nhất. Các ứng dụng của phương trình vi phân bậc hai. Giải pháp hàng loạt.
Phụ lục.
A: Khoảng, bất bình đẳng và giá trị tuyệt đối. B: Tọa độ Hình học và Đường thẳng. C: Đồ thị của phương trình bậc hai. D: Lượng giác. E: Ký hiệu Sigma. F: Chứng minh Định lý. G. Số phức. H: Đáp án các bài tập về số lẻ.

Chúng tôi không phải là chủ sở hữu của cuốn sách / ghi chú này. Chúng tôi cung cấp nó mà đã có sẵn trên internet. Đối với bất kỳ câu hỏi nào khác, xin vui lòng liên hệ với chúng tôi. Chúng tôi không bao giờ HỖ TRỢ PIRACY. Bản sao này được cung cấp cho những sinh viên gặp khó khăn về tài chính nhưng muốn chăm chỉ học hỏi. Nếu Bạn cho rằng Tài liệu này Hữu ích, Vui lòng lấy nó một cách hợp pháp từ NHÀ XUẤT BẢN. Cảm ơn bạn.


Mã tuyến tính

MinJia Shi ,. Patrick Sole, trong Codes and Rings, 2017

5.2 Độc lập về mô-đun

Nói chung, trên một vành bán nguyệt hữu hạn, một dạng ma trận đơn giản như trong phần trước không tồn tại. Một dạng chuẩn, sử dụng CRT, được định nghĩa trong [5] cho trường hợp các vòng Z m, và được tổng quát hóa thành PIR hữu hạn trong [1]. Các cuộc triển lãm của chúng tôi sau [1].

Bài tập 5.6

Cho R = Z 4 [x] / (x 2). Cho thấy NS là Frobenius địa phương nhưng không phải là một vòng dây chuyền.

Đầu tiên, xác định độc lập mô-đun qua một chiếc nhẫn Frobenius địa phương NS, với lý tưởng tối đa NS. Một gia đình của NS vectơ w 1,…, w s được cho là độc lập theo mô-đun nếu có bất kỳ quan hệ kết hợp tuyến tính nào

Chúng tôi xác định một nền tảng của một mã trên một vòng Frobenius hữu hạn như một hệ thống các vectơ độc lập, không phụ thuộc vào mô-đun và bao trùm. Như đã lưu ý trong [1, Chú thích 2], hai thuộc tính độc lập và độc lập mô-đun là độc lập về mặt logic.

Bài tập 5.7

Cho R = Z 12, và w 1 = (11, 7), w 2 = (3, 9). Chứng tỏ rằng hệ thống là độc lập theo mô-đun, nhưng không độc lập.

Bài tập 5.8

Cho R = Z 12, và w 1 = (4, 0), w 2 = (0, 3). Chứng tỏ rằng hệ thống là độc lập, nhưng không độc lập theo mô-đun.

Kết quả sau đây được rút ra từ [4, Th. 25.4.6.B] và [4, Th. 25.3.3] trong [1, Th. 4,4].

Nếu C là mã có độ dài n trên PIR R hữu hạn, thì tồn tại một tháp các iđêan (d 1) ⊆ (d 2) ⊆ ⋯ ⊆ (d r) , sao cho chúng ta có tính đẳng cấu của mô-đun R

Biểu thị sự đẳng cấu ở trên là ϕ, và bằng cách gọi là ảnh của cơ sở chính tắc của R r, trong tích trực tiếp R / (d 1) × ⋯ × R / (d r), chúng ta có kết quả tồn tại sau cho một cơ sở.

Định lý 5.10

[1, Th. 4,6] Cho phép v i = ϕ - 1 (e i) i = 1,…, r . Hệ thống v 1,…, v r là một cơ sở của C.


Sách liên quan

Các khía cạnh của lý thuyết trường lượng tử trong không thời gian cong

Lý thuyết trường lượng tử là gì?

Lời giới thiệu đầu tiên dành cho các nhà toán học

Lý thuyết trường lượng tử cho các nhà toán học

Các Solitons tôpô và phi tôpô trong các lý thuyết trường vô hướng

Tôpô, Hình học và Lý thuyết Trường Lượng tử

Kỷ yếu Hội nghị chuyên đề Oxford năm 2002 để vinh danh 60 năm ngày sinh của Graeme Segal

Chỉ đường mới trong Hopf Algebras


(Các) tác giả

Tiểu sử

Kenneth B. Howell đã có bằng cử nhân về cả toán học và vật lý từ Học viện Công nghệ Rose-Hulman, cũng như các bằng thạc sĩ và tiến sĩ về toán học của Đại học Indiana. Trong hơn ba mươi năm, ông là giáo sư Khoa Toán học của Đại học Alabama ở Huntsville (nghỉ hưu năm 2014). Trong sự nghiệp học tập của mình, Tiến sĩ Howell đã xuất bản nhiều bài báo nghiên cứu về toán học ứng dụng và lý thuyết trên các tạp chí có uy tín, từng là nhà khoa học nghiên cứu tư vấn cho các công ty và cơ quan liên bang khác nhau trong lĩnh vực không gian và công nghiệp quốc phòng, đồng thời nhận được giải thưởng từ các trường Cao đẳng và Đại học vì giảng bài. Ông cũng là tác giả của Nguyên tắc Phân tích Fourier (Chapman & amp Hall / CRC, 2001).


7.7E: Phương pháp Frobenius II (Bài tập) - Toán học

logic toán học phần II, Rene cori, daniel lascar [pdf]

Logic Toán học: Một khóa học với các bài tập Phần II của Rene Cori, Daniel Lascar, Donald H. Pelletier

MathSchoolinternational chứa hơn 5000 sách PDF miễn phí về Toán và Sách PDF miễn phí về Vật lý. Trong đó bao gồm hầu hết các chủ đề dành cho sinh viên Toán học, Vật lý và Kỹ thuật. Đây là danh sách thú vị của sách điện tử Toán học Cơ bản. Chúng tôi hy vọng học sinh và giáo viên thích những cuốn sách giáo khoa, ghi chú và hướng dẫn giải pháp.

Xin chúc mừng, liên kết có sẵn để tải xuống miễn phí.

Làm thế nào để Tải xuống Sách ?,. Cần giúp đỡ?

Về cuốn sách này :-
Logic Toán học: Một khóa học với các bài tập Phần II được viết bởi Rene Cori, Daniel Lascar, Donald H. Pelletier
Cuốn sách này dựa trên kinh nghiệm nhiều năm giảng dạy logic tại UFR Toán học của Đại học Paris 7, ở cấp độ đầu tiên sau đại học cũng như trong DEA về Logic và Nền tảng của Khoa học Máy tính. Ngay khi tác giả bắt đầu chuẩn bị những bài giảng đầu tiên của chúng tôi, ông ấy nhận ra rằng sẽ rất khó để giới thiệu cho học sinh của chúng tôi những tác phẩm chung về logic được viết bằng (hoặc thậm chí dịch sang) tiếng Pháp. Do đó, các tác giả quyết định tận dụng cơ hội này để sửa chữa tình hình. Do đó, các phiên bản đầu tiên của tám chương mà bạn sắp đọc đã được soạn thảo cùng lúc với nội dung của chúng đang được giảng dạy. Các tác giả nhấn mạnh rằng xin chân thành cảm ơn tất cả các sinh viên, những người đã đóng góp vào việc cải thiện đáng kể phần trình bày ban đầu.
Logic hình thành nền tảng của toán học, và do đó là một phần cơ bản của bất kỳ khóa học toán học nào. Nó là một yếu tố chính trong khoa học máy tính lý thuyết và đã trải qua một cuộc hồi sinh to lớn với tầm quan trọng ngày càng tăng của khoa học máy tính. Văn bản này dựa trên một khóa học dành cho sinh viên chưa tốt nghiệp và cung cấp một lời giới thiệu rõ ràng và dễ tiếp cận về logic toán học. Khái niệm về mô hình cung cấp chủ đề cơ bản, tạo cho văn bản một sự mạch lạc về mặt lý thuyết trong khi vẫn bao gồm một phạm vi rộng lớn của logic. Các nền tảng đã được đặt trong "Phần I", cuốn sách này bắt đầu với lý thuyết đệ quy, một chủ đề cần thiết cho các nhà khoa học hoàn chỉnh. Sau đó tuân theo các định lý không đầy đủ của Godel và lý thuyết tập tiên đề. Chương 8 giới thiệu về lý thuyết mô hình. Có các ví dụ trong mỗi phần và lựa chọn đa dạng các bài tập ở cuối. Đáp án cho các bài tập được đưa ra trong phần phụ lục.
Rene Cori và Daniel Lascar, Equipe de Logique Mathematique, Universite Paris VII, Bản dịch của Donald H. Pelletier, Đại học York, Toronto

Chi tiết Sách: -
Chức vụ: Logic Toán học: Một khóa học với các bài tập Phần II
Phiên bản:
(Các) tác giả: Rene Cori, Daniel Lascar, Donald H. Pelletier
Nhà xuất bản: Nhà xuất bản Đại học Oxford
Hàng loạt:
Năm: 2001
Các trang: 347
Thể loại: PDF
Ngôn ngữ: tiếng Anh
ISBN: 0198500505,9780198500506
Quốc gia: CHÚNG TA
Nhận Sách này từ Amazon

Về tác giả :-
Tác giả Rene Cori là nhà toán học người Pháp.

Tham gia cập nhật mới của chúng tôi, cảnh báo: -
Để có các thông báo và cập nhật mới, hãy tham gia Nhóm WhatsApp và Nhóm Telegram của chúng tôi (bạn cũng có thể hỏi bất kỳ sách hướng dẫn sử dụng [pdf] nào / ghi chú / giải pháp).
Tham gia nhóm WhatsApp
Tham gia nhóm Telegram

Nội dung sách: - Logic Toán học: Một khóa học với các bài tập Phần II được viết bởi Rene Cori, Daniel Lascar, Donald H. Pelletier bao gồm các chủ đề sau.
Giới thiệu
Phần I
1. Phép tính mệnh đề
2. Đại số Boolean
3. Phép tính vị ngữ
4. Các định lý về tính đầy đủ
Giải các bài tập của Phần I
Phần II
5. Lý thuyết đệ quy
6. Hình thức hóa số học, định lý Godel
7. Lý thuyết tập hợp
8. Một số lý thuyết mô hình
Giải các bài tập của Phần II
Thư mục
Mục lục

Chúng tôi không phải là chủ sở hữu của cuốn sách / ghi chú này. Chúng tôi cung cấp nó đã có sẵn trên internet. Đối với bất kỳ câu hỏi nào khác, xin vui lòng liên hệ với chúng tôi. Chúng tôi không bao giờ HỖ TRỢ PIRACY. Bản sao này được cung cấp cho những sinh viên gặp khó khăn về tài chính nhưng muốn chăm chỉ học hỏi. Nếu Bạn cho rằng Tài liệu này Hữu ích, Vui lòng lấy nó một cách hợp pháp từ NHÀ XUẤT BẢN. Cảm ơn bạn.


7.7E: Phương pháp Frobenius II (Bài tập) - Toán học

LÝ THUYẾT LÃNH THỔ

Các dự án trong bộ sưu tập này liên quan đến các mô hình từ nhiều lĩnh vực khác nhau là một phần mục đích của chúng, để chỉ ra rằng đại số tuyến tính là một nhánh toán học có thể áp dụng rộng rãi. Nếu người ta xem xét chúng một cách tổng thể, chúng có một vài đặc điểm toán học chung: các giá trị riêng rất hữu ích và các ma trận được nghiên cứu hầu như đều không âm (tất cả các mục trong chúng bằng 0 hoặc lớn hơn). Nói chính xác hơn một chút về giá trị trước đây, nó thường chỉ là giá trị riêng lớn nhất hoặc chi phối mà chúng ta cần biết.

Điều này làm cho cuộc sống dễ dàng hơn nhiều. Tính toán tất cả các giá trị riêng của một ma trận có thể là một nhiệm vụ khó khăn. Đối với ma trận 10x10 từ mô hình dân số, Maple thường gặp khó khăn khi tính toán tất cả chúng. Tuy nhiên, chúng tôi chỉ cần một trong 10 và các phương pháp được hiển thị trong Dự án số 10 hoạt động đáng tin cậy.

Câu hỏi toán học mà tất cả những điều này đặt ra là: làm thế nào để chúng ta biết liệu giá trị riêng chi phối của một ma trận là dương? Một câu hỏi khác là: có bao giờ có thể có các giá trị riêng âm và dương có cùng kích thước không? Nếu vậy, hành vi của hệ thống liên kết có thể hoàn toàn khác. Câu trả lời cho câu hỏi này là có, như được trình bày trong vấn đề 3 của Dự án số 10

Cả hai câu hỏi này đều được trả lời bởi Định lý Perron-Frobenius cho các ma trận không âm. Kết quả của định lý phụ thuộc vào loại ma trận không âm mà một trong đó có. Loại đầu tiên mà chúng ta xem xét được gọi là không thể điều khiển được.

ĐỊNH NGHĨA Một ma trận không âm nxn A được cho là bất khả quy nếu không có hoán vị của các tọa độ sao cho

trong đó P là một ma trận hoán vị nxn (mỗi hàng và mỗi cột có đúng một mục nhập và tất cả các mục khác 0), A 11 là rxr và A 22 là (n-r) x (n-r). Đây không phải là một định nghĩa đặc biệt đầy cảm hứng khi xét về thực tế, nó chỉ cho chúng ta biết điều KHÔNG thể suy đoán được. Về điều duy nhất chúng ta biết chắc chắn là một ma trận với tất cả các mục nhập dương là không thể điều chỉnh được.

Để làm rõ khái niệm bất khả quy, chúng tôi xem xét nó trong ba bối cảnh khác nhau:

1. Markov Chains. Giả sử A là ma trận chuyển tiếp của một chuỗi Markov. Sau đó, nó không phải là âm và giả sử nó được thiết lập thêm để

a ij = xác suất đi từ trạng thái j đến trạng thái i

Nếu người ta nhìn vào hàng thứ tư của A, thì người ta sẽ thấy xác suất của việc đi từ trạng thái 4 đến các trạng thái khác (cũng như ở lại trạng thái 4). Bất kỳ mục nhập nào bằng 0 chỉ ra rằng người ta không thể đi đến trạng thái đó từ trạng thái 4, ít nhất là trong một bước.

Bây giờ, nếu A có thể rút gọn,

thì chúng ta có thể thấy rằng có thể đi từ trạng thái 1,2 hoặc 3 đến bất kỳ trạng thái nào nhưng chỉ từ trạng thái 4 hoặc 5 đến chính chúng. Tất nhiên, đây là định nghĩa truyền thống của các trạng thái & quotabsorbing & quot trong Chuỗi Markov. Ma trận hoán vị P được đề cập ở trên chỉ đơn giản là gán nhãn các trạng thái để các trạng thái hấp thụ là cuối cùng.

2. Các đồ thị. Nếu chúng ta coi các đồ thị có hướng thì mỗi đồ thị đã liên kết với nó một ma trận không âm với tất cả các mục 0 hoặc 1 với

a ij = 1 nếu có một cung từ đỉnh i đến đỉnh j.

Nếu ma trận liên kết là bất khả quy thì người ta có thể đi từ đỉnh bất kỳ đến đỉnh bất kỳ khác (có thể trong một số bước) trong khi nếu nó có thể rút gọn thì (như trường hợp Chuỗi Markov), có những đỉnh mà từ đó người ta không thể đi đến tất cả các đỉnh khác.

Trường hợp trước đây, trong lĩnh vực lý thuyết đồ thị, được gọi là đồ thị & quot được kết nối chặt chẽ & quot.

3. Hệ thống Động lực học. Giả sử, như trong trường hợp dân số, chúng ta có một hệ thống có dạng

và rằng A có thể rút gọn như trong định nghĩa ở trên. Sau đó, theo cách thức của ma trận được phân vùng, người ta có thể viết lại hệ thống này dưới dạng

trong đó Y có r thành phần đầu tiên của X và Z có n-r cuối cùng để chúng cùng nhau bao gồm vectơ ban đầu X. (Người đọc chưa từng làm việc với ma trận phân vùng hoặc không hiểu về chủ đề này được khuyến khích phác thảo các chi tiết ở cấp độ thành phần và xác minh nó, kết quả sẽ theo một cách đơn giản.) Mặc dù điều này thoạt nhìn có vẻ không hữu ích. , điều đó có nghĩa là giải pháp cho Z có thể nhận được trước tiên, không liên quan đến hệ thống quản lý Y, và sau đó giải pháp cho Y thu được từ hệ thống (không thuần nhất) xử lý Z như đã biết. Trong ngôn ngữ ban đầu của một vấn đề như vậy, hệ thống ban đầu đã được & quot; giảm & quot thành hai hệ thống đơn giản hơn. Đối với các nhà vật lý, nó đã được tách ra một phần.

Do đó, khi nói rằng ma trận A là bất khả quy có nghĩa là hệ thống không thể giảm đi, nó phải được coi như một tổng thể trong việc nghiên cứu hành vi của nó.

Mặc dù thảo luận ở trên có thể làm rõ khái niệm về ma trận bất khả quy, nhưng nó không giúp ích nhiều trong việc xác minh rằng một ma trận đã cho thực sự là bất khả quy. Ví dụ, nó không hiển nhiên rõ ràng rằng trong hai ma trận sau

cái sau là không thể thay đổi được trong khi cái trước thì không. Nếu chúng ta đi đúng định nghĩa, chúng ta sẽ phải tiếp tục thử các phép hoán vị và tìm kiếm số 0 quan trọng xuất hiện. Nhưng đối với một ma trận nxn, tất nhiên, có n! Những ma trận P có thể có như vậy tạo ra rất nhiều công việc (nếu A là 10 x 10 thì có hơn 3 triệu khả năng xảy ra!).

Do đó, định lý sau đây khá trực tiếp và hữu ích.

LÝ THUYẾT. A là một ma trận nxn bất khả quy không âm nếu và chỉ khi

(I n + A) n-1 & gt 0. (xem [12], tr.6 để biết chi tiết và bằng chứng)

Chúng ta lưu ý rằng lũy ​​thừa trong biểu thức trên chứa n giống với kích thước của ma trận. Vì phần mềm máy tính có sẵn để tính lũy thừa ma trận, nên có thể dễ dàng kiểm tra những điều trên. Lưu ý rằng kết quả cũng là một ma trận nxn, và nếu bất kỳ mục nhập nào bằng 0, thì tích lũy thừa của định lý cho biết A là có thể rút gọn. Đề cập đến hai ma trận trên, chúng tôi thấy rằng bằng cách tính trực tiếp

Tại thời điểm này, có vẻ thích hợp để cuối cùng nêu

LÝ THUYẾT HOÀN HẢO CHO CÁC MẶT NẠ IRREDUCIBLE

Nếu A là nxn, không âm, bất khả quy thì

1. một trong các giá trị riêng của nó là dương và lớn hơn hoặc bằng (theo giá trị tuyệt đối) tất cả các giá trị riêng khác

2. có một eigenvector dương tương ứng với eigenvalue đó

và 3. giá trị riêng đó là căn đơn giản của phương trình đặc trưng của A.

Giá trị eigen như vậy được gọi là & quotdominant eigenvalue & quot của A và chúng tôi giả sử sau đây chúng ta đã đánh số các giá trị eigen nên nó là giá trị đầu tiên. Chúng ta nên chỉ ra rằng các giá trị riêng khác có thể dương, âm hoặc phức tạp (và nếu chúng phức tạp thì theo giá trị & quotabsolute & quot, chúng tôi có nghĩa là mô-đun, hoặc khoảng cách trong mặt phẳng phức tính từ gốc). Complex eigenvalues are a real possibility as only symmetric matrices are guaranteed to not have them, and very few of the matrices we have been discussing, in application, will be symmetric with the notable exception of undirected graphs. Part 3 of the theorem also merits brief comment. One ramification of it is that the dominant eigenvalue cannot be a multiple root. One will not be left with the classic situation of having more roots than corresponding linearly independent eigenvectors and hence having to worry about or calculate generalized eigenvectors and/or work with Jordan blocks. The same may not be said for the other eigenvalues of A but in the models here, they do not concern us.

Primitive Matrices and the Perron-Frobenius Theorem

Irreducible matrices are not the only nonnegative matrices of possible interest in the models we have looked at. Suppose we have a dynamical system of the form

(this matrix, while containing many suspicious looking zeroes, is indeed irreducible. The easiest way to see this is to construct the associated graph for it and check that you can get from any vertex to any other vertex.)We calculate that its dominant eigenvalue is 1.653 and that an associated eigenvector is (.29,.48,.29,.35,.5,.48) t so based upon the above discussion, we believe the long term behavior of the system to be of the form:

x (k) = c 1 (1.653) k (.29,.48,.29,.35,.5,.48) t (c 1 determined from initial conditions)

Simulation of the system is, of course, quite easy as one just needs to keep multiplying the current solution by A to get the solution one time period later. However, in this case, doing so does not seem to validate the predicted behavior and in fact does not even seem to show any sort of limit at all! (the reader is encouraged to fire up some software, pick an initial condition and see this behavior).

So what went wrong? If one calculates all of the eigenvalues for the matrix, they turn out to be: 1.653,0,0,+- .856i and -1.653. The latter is where the limit problem arises since we are taking integral powers of the eigenvalues, we get an algebraic "flip-flop" effect:

x (k) = c 1 (1.653) k e 1 + . + c 6 (-1.653) k e 6

(It is, by the way, a known result that an irreducible matrix cannot have two independent eigenvectors that are both nonnegative see [16], chapter 2. Thus e 6 in the above expansion has components of mixed sign.)

Thus 1.653 did not turn out to be as neatly "dominant" as we would have liked. If we look back at the statement of the Perron-Frobenius Theorem, we see it guaranteed a positive eigenvalue (with positive eigenvector) with absolute value greater than or equal to that of any other eigenvalue. In the example just considered, the equality was met.

So the question comes up: what stronger condition than irreducibility should one impose so that a nonnegative matrix has a truly dominant eigenvalue strictly greater in absolute value than any other eigenvalue? The answer is that the matrix needs to be "primitive". While there are several possible definitions of "primitive", most of which have a graphical context in terms of cycles, we will state a more general, algebraic definition as the models we may wish to look at are from a diverse group.

DEFINITION An nxn nonnegative matrix A is primitive iff A k > 0 for some power k.

We note the strict inequality all n 2 entries of A k have to be positive for some power. Such a condition, again considering the availability of computer software and ease of use, is easy to check. If one experiments with the 6x6 from the last example, one never finds a power where all 36 entries are positive. The question might come up: how many powers

of A does one have to look at before concluding it is not primitive? If A is primitive then the power which should have all positive entries is less than or equal to n 2 -2n +2 (this is due to Wielandt in 1950, see [ 17 ]). Also, it can be easily shown that if A is primitive than A is irreducible. Thus the class of primitive matrices has as a subset the class of irreducible matrices. Finally, primitive matrices indeed have the desired property in terms of a dominant eigenvalue:

PERRON-FROBENIUS THEOREM FOR PRIMITIVE MATRICES

If A is an nxn nonnegative primitive matrix then

1. one of its eigenvalues is positive and greater than (in absolute value) all other eigenvalues

2. there is a positive eigenvector corresponding to that eigenvalue

3. that eigenvalue is a simple root of the characteristic equation of A.

In addition to the various projects, some other applications which involve the Perron Frobenious Theorem desire mention:

Application #1: Ranking of Football Teams.

James P. Keener has developed several models of schemes for ranking college football teams which may be found in [6].

In general, it should be remarked that graph theory and nonnegative matrices have a very strong relationship and that the Perron-Frobenius Theorem is often a powerful tool in graph theory. The interested reader is referred to, for example, the excellent books by Minc and Varga for an in depth discussion.

As stated above, a graph (directed or not) has associated with it a nonnegative, "adjacency" matrix whose entries are 0s and 1s. A fundamental result about lengths of cycles in the graph may be obtained by determining whether the matrix is primitive or not. The very elegant result which occurs with the help of the Perron-Frobenius Theorem is this:

* if the matrix is primitive (hence a dominant eigenvalue with absolute value strictly greater than that of all other eigenvalues) then the greatest common divisor (gcd) of the lengths of all cycles is 1

* if the matrix is irreducible but not primitive then the greatest common divisor of the lengths of all cycles is the same as the number of eigenvalues with magnitude the same as the dominant eigenvalue (and including it).

It is common to refer to graphs with matrices which are irreducible but not primitive, naturally, as imprimitive and aforementioned gcd. as the index of the graph. It should also be mentioned that the collection of such eigenvalues lie equally spaced in the complex plane on a circle of radius equaling the dominant eigenvalue.

The interested reader is encouraged to examine the following pair of graphs in light of this result:

In the case of the first graph, the eigenvalues are 1,i,-i, and -1 while in the second graph they are 1.221, -.248 +/-1.034i, and -.724, consistent with the gcd of paths for graph 1 being 4 and the gcd of paths for graph 2 being 1.

The Perron-Frobenius Theorem has proven to be a consistently powerful result for examining certain nonnegative matrices arising in discrete models. It has been shown that careful consideration need be given to what hypothesis is used depending on whether one has an irreducible or primitive matrix. In applications, knowledge of the dominant eigenvalue and eigenvector is very helpful and also attainable while knowledge of the rest of the "spectrum" is both unnecessary and computationally extensive.

The author wishes to thank Dr. Kenneth Lane of KDLLabs, Satellite Beach, Florida, for many inspiring insights and conversations concerning the power and richness of the Perron-Frobenius Theorem.

1. Berman, A. and Plemmons R. 1979. Nonnegative Matrices in the Mathematical Sciences. New York: Academic Press.

2. Chartrand, G. 1977. Graphs as Mathematical Models . Boston: Prindle, Weber and Schmidt.

3. Gould, Peter. 1967. The Geographic Interpretation of Eigenvalues. Transactions of the Institute of British Geographers 42: 53-85.

4. Goulet, J. 1982. Mathematical Systems Analysis - A Course. The UMAP Journal 3 (4):395-406.

6. Keener, James P., 1993. The Perron-Frobenius Theorem and the Ranking of Football Teams. SIAM Review 35 (1): 80-93.

7. Kemeny, John and Snell, Laurie. 1960. Finite Markov Chains . New York: Van Nostrand Reinhold.

8. Lane,Kenneth D.. 1983. Computing the Index of a Graph .Congressus Numerantium, 40 ,143-154

9. Luenberger, D.G. 1979. Dynamic Systems . New York: John Wiley.

11. Maki, D.P. and Thompson, M. 1973. Mathematical Models and Applications . Englewood Cliffs, New Jersey: Prentice-Hall.

12. Minc, Henryk.1988. Nonnegative Matrices . New York: John Wiley and Sons.

14. Straffin, Philip D. 1980. Linear Algebra in Geography: Eigenvectors of Networks. Mathematics Magazine 53 (5): 269-276.

16. Varga, Richard S. 1962. Matrix Iterative Analysis . Englewood Cliffs N.J.: Prentice-Hall.

17. Wielandt,H. 1950. "Unzerlegbare nicht negativen Matrizen" Math. Z . 52 , 642-648.


Table of Contents

Nội dung
Preface
Chapter I. Introduction To Partial Differential Equations
1. Introduction
2. The One-Dimensional Wave Equation
3. Method Of Separation Of Variables
4. The Two-Dimensional Wave Equation
5. Three-Dimensional Wave Equation
6. The Wave Equation In Plane And Cylindrical Polar Coordinates
A. Plane Polars
B. Cylindrical Polars
7. The Wave Equation In Spherical Polar Coordinates
8. Laplace's Equation In Two Dimensions
A. Cartesian Coordinates
B. Polar Coordinates
9. Laplace's Equation In Three Dimensions
10. The Diffusion Or Heat Flow Equation
10.1. Neutron Diffusion
11. A Fourth Order Partial Differential Equation
12. The Bending Of An Elastic Plate — The Biharmonic Equation
13. Characteristics
13.1. Cauchy's Problem
13.2. Reduction Of (13.1.1) To The Standard Form
13.3. Riemann's Method Of Solution Of (13.1.1)
13.4. Numerical Integration Of Hyperbolic Differential Equations
Problems
General References
Chapter II. Ordinary Differential Equations: Frobenius' And Other Methods Of Solution
1. Introduction
2. Solution In Series By The Method Of Frobenius
3. Bessel's Equation
4. Legendre's Equation
5. Hyper Geometric Equation
6. Series Solution About A Point Other Than The Origin
6.1. The Transformation X = (1 - ξ)/2
7. Series Solution In Descending Powers Of X
8. Confluent Hypergeometric Equation
8.1. Laguerre Polynomials
8.2. Hermite Polynomials
9. Asymptotic Or Semi-Convergent Series
10. Change Of Dependent Variable
11. Change Of The Independent Variable
12. Exact Equations
13. The Inhomogeneous Linear Equation
14. Perturbation Theory For Non-Linear Differential Equations
14.1. The Perturbation Method
14.2. Periodic Solutions
Problems
General References
Chapter III. Bessel And Legendre Functions
1. Definition Of Special Functions 127
2. Jn(X), The Bessel Function Of The First Kind Of Order N
2.1. Recurrence Relations: Jn(X)
3. Bessel Function Of The Second Kind Of Order N, Yn(X)
4. Equations Reducible To Bessel's Equation
5. Applications
6. Modified Bessel Functions: In(X), Kn(X)
6.1. Recurrence Relations For In(X) And Kn(X)
6.2. Equations Reducible To Bessel's Modified Equation
6.3. Bessel Functions Of The Third Kind (Hankel Functions)
7. Illustrations Involving Modified Bessel Functions
8. Orthogonal Properties
8.1. Expansion Of F(X) In Terms Of Jn(ξix)
8.2. Jn(X) As An Integral (Where N Is Zero Or An Integer)
8.3. Other Important Integrals
9. Integrals Involving The Modified Bessel Functions
10. Zeros Of The Bessel Functions
11. A Generating Function For The Legendre Polynomials
11.1. Recurrence Relations
11.2. Orthogonality Relations For The Legendre Polynomials
11.3. Associated Legendre Functions
12. Applications From Electromagnetism
13. Spherical Harmonics
14. The Addition Theorem For Spherical Harmonics
Problems
General References
Chapter IV. The Laplace And Other Transforms
1. Introduction
2. Laplace Transforms And Some General Properties
3. Solution Of Linear Differential Equations With Constant Coefficients
4. Further Theorems And Their Application
5. Solution Of The Equation Φ(D)x(t) = F(t) By Means Of The Convolution Theorem
6. Application To Partial Differential Equations
7. The Finite Sine Transform
8. The Simply Supported Rectangular Plate
9. Free Oscillations Of A Rectangular Plate
10. Plate Subject To Combined Lateral Load And A Uniform Compression
11. The Fourier Transform
Problems
Chapter V. Matrices
1. Introduction
1.1. Definitions
2. Determinants
2.1. Evaluation Of Determinants
3. Reciprocal Of A Square Matrix
3.1. Determinant Of The Adjoint Matrix
4. Solution Of Simultaneous Linear Equations
4.1. Choleski-Turing Method
4.2. A Special Case: The Matrix A Is Symmetric
5. Eigenvalues (Latent Roots)
5.1. The Cayley-Hamilton Theorem
5.2. Iterative Method For Determination Of Eigenvalues
5.3. Evaluation Of Subdominant Eigenvalue
6. Special Types Of Matrices
6.1. Orthogonal Matrix
6.2. Hermitian Matrix
7. Simultaneous Diagonalization Of Two Symmetric Matrices
Problems
General References
Chapter VI. Analytical Methods In Classical And Wave Mechanics
1. Introduction
2. Definitions
3. Lagrange's Equations Of Motion For Holonomic Systems
3.1. Derivation Of The Equations
3.2. Conservative Forces
3.3. Illustrative Examples
3.4. Energy Equation
3.5. Orbital Motion
3.6. The Symmetrical Top
3.7. The Two-Body Problem
3.8. Velocity-Dependent Potentials
3.9. The Relativistic Lagrangian
4. Hamilton's Equations Of Motion
5. Motion Of A Charged Particle In An Electromagnetic Field
6. The Solution Of The Schrödinger Equation
6.1. The Linear Harmonic Oscillator
6.2. Spherically Symmetric Potentials In Three Dimensions
6.3. Two-Body Problems
Problems
General References
Chapter VII. Calculus Of Variations
1. Introduction
2. The Fundamental Problem: Fixed End-Points
2.1. Special Cases
2.2. Variable End-Points
2.3. A Generalization Of The Fixed End-Point Problem
2.4. One Independent, Several Dependent Variables
2.5. One Dependent And Several Independent Variables
3. Isoperimetric Problems
4. Rayleigh-Ritz Method
4.1. Sturm-Liouville Theory For Fourth-Order Equations
5. Torsion And Viscous Flow Problems
5.1. Torsional Rigidity
5.2. Trefftz Method
5.3. Generalization To Three Dimensions
6. Variational Approach To Elastic Plate Problems
6.1. Boundary Conditions
6.2. Buckling Of Plates
7. Binding Energy Of The He4 Nucleus
8. The Approximate Solution Of Differential Equations
Problems
General References
Chapter VIII. Complex Variable Theory And Conformal Transformations
1. The Argand Diagram
2. Definitions Of Fundamental Operations
3. Function Of A Complex Variable
3.1. Cauchy-Riemann Equations
4. Geometry Of Complex Plane
5. Complex Potential
5.1. Uniform Stream
5.2. Source, Sink And Vortex
5.3. Doublet (Dipole)
5.4. Uniform Flow + Doublet -F Vortex. Flow Past A Cylinder
5.5. A Torsion Problem In Elasticity
6. Conformal Transformation
6.1. Bilinear (Möbius) Transformation
7. Schwarz-Christoffel Transformation
7.1. Các ứng dụng
7.2. The Kirchhoff Plane
8. Transformation Of A Circle Into An Aerofoil
Problems
General References
Chapter IX. The Calculus Of Residues
1. Definition Of Integration
2. Cauchy's Theorem
3. Cauchy's Integral
3.1. Differentiation
4. Series Expansions
4.1. Laurent's Theorem
5. Zeros And Singularities
5.1. Residues
6. Cauchy Residue Theorem
6.1. Application Of Cauchy's Theorem
6.2. Flow Round A Cylinder
6.3. Definite Integrals. Integration Round Unit Circle
6.4. Infinite Integrals
6.5. Jordan's Lemma
6.6. Another Type Of Infinite Integral
7. Harnack's Theorem And Applications
7.1. The Schwarz And Poisson Formulas
7.2. Application Of Conformai Transformation To Solution Of A Torsion Problem
8. Location Of Zeros Of f(z)
8.1. Nyquist Stability Criterion
9. Summation Of Series By Contour Integration
10. Representation Of Functions By Contour Integrals
10.1. Gamma Function
10.2. Bessel Functions
10.3. Legendre's Function As A Contour Integral
11. Asymptotic Expansions
12. Saddle-Point Method
Problems
General References
Chapter X. Transform Theory
1. Introduction
1.1. Complex Fourier Transform
1.2. Laplace Transform
1.3. Hilbert Transform
1.4. Hankel Transform
1.5. Mellin Transform.
2. Fourier's Integral Theorem
3. Inversion Formulas
3.1. Complex Fourier Transform
3.2. Fourier Sine And Cosine Transforms
3.3. Convolution Theorems For Fourier Transforms
4. Laplace Transform
4.1. The Inversion Integral On The Infinite Circle
4.2. Exercises In The Use Of The Laplace Transform
4.3. Linear Approximation To Axially Symmetrical Supersonic Flow
4.4. Supersonic Flow Round A Slender Body Of Revolution
5. Mixed Transforms
5.1. Linearized Supersonic Flow Past Rectangular Symmetrical Aerofoil
5.2. Heat Conduction In A Wedge
6. Integral Equations
6.1. The Solution Of A Certain Type Of Integral Equation Of The First Kind
6.2. Poisson's Integral Equation
6.3. Abel's Integral Equation
7. Hilbert Transforms
7.1. Infinite Hilbert Transform
7.2. Finite Hilbert Transform
7.3. Alternative Forms Of The Finite Hilbert Transform
Problems
General References
Chapter XI. Numerical Methods
1. Introduction
1.1. Finite Difference Operators
2. Interpolation And Extrapolation
2.1. Linear Interpolation
2.2. Everett's And Bessel's Interpolation Formulas
2.3. Inverse Interpolation
2.4. Lagrange Interpolation Formula
2.5. Formulas Involving Forward Or Backward Differences
3. Some Basic Expansions
4. Numerical Differentiation
5. Numerical Evaluation Of Integrals
5.1. Note On Limits Of Integration
5.2. Evaluation Of Double Integrals
6. Euler-Maclaurin Integration Formula
6.1. Summation Of Series
7. Solution Of Ordinary Differential Equations By Means Of Taylor Series
8. Step-By-Step Method Of Integration For First-Order Equations
8.1. Simultaneous First-Order Equations And Second-Order Equations With The First Derivative Present
8.2. The Second-Order Equation y" = f(x,y)
8.3. Alternative Method For The Linear Equation y" = g(x)y + h(x)
9. Boundary Value Problems For Ordinary Differential Equations Of The Second Order
9.1. Approximate Solution Of Eigenvalue Problems By Finite Differences
9.2. Numerical Solution Of Eigenvalue Equations
10. Linear Difference Equations With Constant Coefficients
11. Finite Differences In Two Dimensions
Problems
General References
Chapter XII. Integral Equations
1. Introduction
1.1. Types Of Integral Equations
1.2. Some Simple Examples Of Linear Integral Equations
2. Volterra Integral Equation Form For A Differential Equation
2.1. Higher Order Equations
3. Fredholm Integral Equation Form For Sturm-Liouville Differential Equations
3.1. The Modified Green's Function
3.2. Green's Function For Fourth-Order Differential Equations
4. Numerical Solution
4.1. The Numerical Solution Of The Homogeneous Equation
4.2. The Volterra Equation
4.3. Iteration Method Of Solution
5. The Variation-Iteration Method For Eigenvalue Problems
Problems
General References
Appendix
1. Δ2Φ In Spherical And Cylindrical Polar Coordinates
1.1. Plane Polar Coordinates
1.2. Cylindrical Polar Coordinates
1.3. Spherical Polar Coordinates
2. Partial Fractions
3. Sequences, Series, And Products
3.1. Sequences
3.2. Series
3.3. Infinite Products
4. Maxima And Minima For Functions Of Two Variables
4.1. Euler's Theorem Of Homogeneous Functions
4.2. The Expansion Of (Sinh aU/)/(Sinh U) In Powers Of 2 Sinh (½)
5. Integration
5.1. Uniform Convergence Of Infinite Integrals
5.2. Change Of Variables In A Double Integral
5.3. Special Integrals
5.4. Elliptic Integrals
6. Principal Valued Integrals
7. Vector Algebra And Calculus
7.1. Curvilinear Coordinates
7.2. The Equation Of Heat Conduction
7.3. Components Of Velocity And Acceleration In Plane Polar Coordinates
7.4. Vectors, Dyads And Tensors
8. Legendre Functions Of Non-Integral Order
8.1. The Value Of Pv(0)
9. An Equivalent Form For F(a,bcx)
10. Integrals Involving Ln(k)(x)
Problems
General References
Solutions Of Problems
Chapter I
Chapter II
Chapter III
Chapter IV
Chapter V
Chapter VI
Chapter VII
Chapter VIII
Chapter IX
Chapter X
Chapter XI
Chapter XII
Appendix
Subject Index


Handbook of the Geometry of Banach Spaces

5 Invariant subspaces of positive operators

In this section we will discuss the Invariant Subspace Problem for operators that are either positive or closely associated with positive operators. The general theory concerning the invariant subspace problem will be presented in a separate article prepared for this volume by Enflo and Lomonosov.

The invariant subspace problem . Does a continuous linear operator T : XX on a Banach space have a non-trivial closed invariant subspace?

A vector subspace is “non-trivial” if it is different from <0>and X. A subspace V of XT-invariant nếu như NS(V) ⊆ V. Nếu như V is invariant under every continuous operator that commutes with NS, sau đó V is called T-hyperinvariant.

Nếu như X is a finite dimensional complex Banach space of dimension greater than one, then each non-zero operator NS has a non-trivial closed invariant subspace. On the other hand, if X is non-separable, then the closed vector subspace generated by the orbit < x , T x , T 2 x , … >of any non-zero vector NS is a non-trivial closed NS-invariant subspace. Thus, the “invariant subspace problem” is of substance only when X is an infinite dimensional separable Banach space. Accordingly, without any further mentioning, all Banach spaces under consideration in this section will be assumed to be infinite dimensional separable real or complex Banach spaces. The only exception will be made while discussing the Perron–Frobenius Theorem.

In 1976, Enflo [ 56 ] was the first to construct an example of a continuous operator on a separable Banach space without a non-trivial closed invariant subspace, and thus he demonstrated that in this general form the invariant subspace problem has a negative answer. Subsequently, Read [ 115–117 ] has constructed a class of bounded operators on ℓ1 without invariant subspaces. For operators on a Hilbert space, the existence of an invariant subspace is still unknown and is one of the famous unsolved problems of modern mathematics. Due to the above counterexamples, the present study of the invariant subspace problem for operators on Banach spaces has been focused on various classes of operators for which one can expect the existence of an invariant subspace.

We start our invariant subspace results with a version of the classical Perron–Frobenius theorem for positive matrices. As usual, we denote by NS(NS) the spectral radius of an operator NS.

If A is a non-negative n × n matrix such that for some k ≥ 1 the matrix A k has strictly positive entries, then the spectral radius of A is a strictly positive eigenvalue of multiplicity one having a strictly positive eigenvector.

The proof of this theorem, discovered by Frobenius [ 60 ] and Perron [ 108 ], is available in practically every book treating non-negative matrices, for instance in [ 33,35,98 ]. One more proof of the Perron–Frobenius theorem as well as many interesting generalizations can be found in [ 112 ]. If all entries of MỘT are strictly positive, then the sequence < 1 [ r ( A ) ] k A k u >converges to a unique strictly positive eigenvector corresponding to the eigenvalue NS(MỘT), no matter which initial vector u > 0 is chosen. This fact has numerous applications. A major step in extending the Perron–Frobenius Theorem to infinite dimensional settings was done by Krein and Rutman [ 82 ] who proved the following theorem.

For any positive operator T : XX on a Banach lattice r(NS) ∈ σ(NS), i.e., the spectral radius of T belongs to the spectrum of T. Furthermore, if T is also compact and r(NS) > 0, then there exists some x > 0 such that T x = NS(NS)NS.

Proof . We will sketch a proof. The inclusion NS(NS) ∈ σ(NS) is caused merely by the positivity of NS. Indeed, if we denote by NS(λ) the resolvent operator of NS, then clearly NS(λ) > 0 for each λ > NS(NS), Also for each λ with |λ| & gt NS(NS) the inequality || R ( | λ | ) || ≥ || R ( λ ) || holds. Therefore, for λ n = r ( T ) + 1 n we have || R ( λ n ) || → ∞ , whence NS(NS) ∈ σ(NS).

Assume further that NS is compact and NS(NS) > 0. There exist unit vectors yNSX+ such that || R ( λ n ) y n || → ∞ . Using the vectors yNS, we introduce the unit vectors x n = R ( λ n ) y n / || R ( λ n ) y n || ∈ X + . Từ NS is compact we can assume that TxNSNSX+. Finally, using the identities

The conclusion of the previous theorem remains valid if we replace the compactness of NS by the compactness of some power of NS. Indeed, assume that T k is compact for some k. Since r ( T k ) = [ r ( T ) ] k > 0 the previous theorem implies that there is a vector NS > 0 such that T k x = [ r ( T ) ] k x . It remains to verify that the non-zero positive vector y = ∑ i = 0 k − 1 r i T k − 1 − i x is an eigenvector of NS corresponding to the eigenvalue NS(NS).

The reader is referred to [ 121,123,144 ] for complete proofs and many pertinent results concerning the Krein–Rutman theorem. Some relevant results can be found in [ 4 ]. Note that the Krein–Rutman theorem holds not only for Banach lattices but for ordered Banach spaces as well. There is an interesting approach allowing to relax the compactness assumption. Namely, as shown by Zabre i ⌣ ko and Smickih [ 146 ] and independently by Nussbaum [ 102 ], instead of the compactness of NS it is enough to assume only that the essential spectral radius NSe(NS) is strictly less than the spectral radius NS(NS). A different type of relaxation is considered in [ 121 ], where the restriction of NS to X+ is assumed to be compact, that is, NS maps the positive part of the unit ball into a precompact set. A version of this result, given in terms of NSe(NS), can be found in [ 102 ].

Another classical result by M. Krein [ 82 , Theorem 6.3] is the following.

Let T : C(Ω) → C(Ω) be a positive operator, where Ω is a compact Hausdorff space. Then T * , the adjoint of T, has a positive eigenvector corresponding to a non-negative eigenvalue.

Proof . Consider the set G = < f ∈ C ( Ω ) + * : f ( 1 ) = 1 >, where 1 denotes the constant function one on Ω. Clearly, NS is a nonempty, convex, and w * -compact subset of C(Ω) * . Next, define the mapping F : NSNS qua

A proof of Theorem 34 that does not use fixed point theorems can be found in [ 77 ].

Every positive operator on a C(Ω)-space (ở đâu Ω is Hausdorff, compact and not a singleton) which is not a multiple of the identity has a non-trivial hyperinvariant closed subspace.

Proof . Cho phép NS : C(Ω) → C(Ω) be a positive operator which is not a multiple of the identity. By Theorem 34 the adjoint operator NS * has a positive eigenvector. If λ. denotes the corresponding eigenvalue, then the subspace ( T − λ I ) ( x ) ¯ has the desired properties.

Recall that a continuous operator NS : XX on a Banach space is said to be quasinilpotent if its spectral radius is zero. It is well known that NS is quasinilpotent if and only if lim n → ∞ || T n x || 1 / n = 0 for each NSX. It can happen that a continuous operator NS : XX is not quasinilpotent but, nevertheless, lim n → ∞ || T n x || 1 / n = 0 for some NS ≠ 0. In this case we say that NSlocally quasinilpotent tại NS. This property was introduced in [ 6 ], where it was found to be useful in the study of the invariant subspace problem. The set of points at which NS is quasinilpotent is denoted by Q NS, i.e., Q T = < x ∈ X : lim n → ∞ || T n x || 1 / n = 0 >.

It is easy to prove that the set Q NS là một NS-hyperinvariant vector subspace. We formulate below a few simple properties of the vector space Q NS.

The operator NS is quasinilpotent if and only if Q NS = X.

NS NS = <0>is possible — every isometry NS satisfies Q NS = <0>. Notice also that even a compact positive operator can fail to be locally quasinilpotent at every non-zero vector. For instance, consider the compact positive operator NS : ℓ2 → ℓ2 defined by T ( x 1 , x 2 , … ) = ( x 1 , x 2 2 , x 3 3 , ⋯ ) . For each non-zero NS ∈ ℓ2 pick some k for which NSk ≠ 0 and note that || T n x || 1 / n ≥ 1 k | x k | 1 / n for each NS, from which it follows that NS is not quasinilpotent at NS.

NS NS can be dense without being equal to X. For instance, the left shift NS: ℓ2 → ℓ2, defined by S ( x 1 , x 2 , x 3 , … ) = ( x 2 , x 3 , … ) , has this property.

If Q NS ≠ <0>and Q T ¯ ≠ X , then Q T ¯ is a non-trivial closed NS-hyperinvariant subspace of X.

The above properties show that as far as the invariant subspace problem is concerned, we need only consider the two extreme cases: Q NS = <0>and Q T ¯ = X .

We are now ready to state the main result about the existence of invariant subspaces of positive operators on ℓP-spaces. It implies, in particular, that if a positive operator is quasinilpotent at a non-zero positive vector, then the operator has an invariant subspace. This is an improvement of the main result in [ 6 ].

Cho phép T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) be a continuous operator with modulus. If there exists a non-zero positive operator S : ℓP → ℓP which is quasinilpotent at a non-zero positive vector and S|NS| ≤ |NS|NS, then T has a non-trivial closed invariant ideal.

We do not know presently if an analogue of the previous result is true if the inequality NS|NS| ≤ |NS|NS is replaced by NS|NS| ≥ |NS|NS. However, if we assume additionally that NS is quasinilpotent (rather than just being locally quasinilpotent), then such an analogue is true.

We now state several immediate consequences of the preceding results.

Assume that a positive matrix A = [mộtij] defines an operator on anP-space (1 ≤ P < ∞) which is locally quasinilpotent at some non-zero positive vector. Nếu như w = < w i j : i , j = 1 , 2 , … >is an arbitrary bounded double sequence of complex numbers, then the continuous operator defined by the weighted matrix A w = [ w i j a i j ] has a non-trivial closed invariant subspace. Moreover, all these operators Aw have a common non-trivial closed invariant subspace.

Bằng chứng. By Theorem 36 , the operator MỘT has a non-trivial closed invariant ideal NS. Now if NS = [NSij] is a matrix such that |NS| ≤ cA, then from | B x | ≤ | B | ( | x | ) ≤ c A ( | x | ) it follows that BxNS for each NSNS, i.e., NSNS-invariant. It remains to let NS = MỘTw.

It is worth mentioning that in the preceding corollary our assumption that the weights are bounded is not necessary. It suffices to assume only that the modulus of the matrix MỘTw defines an operator on ℓP.

If the modulus of a bounded operator T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) exists and is locally quasinilpotent at a non-zero positive vector, then T has a non-trivial closed invariant subspace.

Every positive operator on anP-space (1 ≤ P < ∞) which is locally quasinilpotent at a non-zero positive vector has a non-trivial closed invariant subspace.

For quasinilpotent positive operators on ℓ2, Corollary 39 was also obtained in [ 48 ]. Although Theorem 36 and its corollaries are new even for a quasinilpotent operator on ℓP, their main attractiveness is due to the fact that we do not really need to know that a positive operator NS : ℓP → ℓP is quasinilpotent. The only thing needed is the existence of a single vector NS0 > 0 for which || T n x 0 || 1 / n → 0 . This alone implies that NS has a non-trivial closed invariant subspace of a simple geometric form. In view of this, the following important question arises. How can we recognize by “looking at” a matrix [NSij] defining a positive operator NS : ℓP → ℓP if the set of positive vectors at which NS is locally quasinilpotent is non-trivial? This question is addressed in [ 9 ].

A very interesting open problem related to Corollary 39 is whether or not each positive operator on ℓ1 has a nontrivial closed invariant subspace. Since each continuous operator on ℓ1 has a modulus (see Theorem 10 ), a natural candidate to test this problem is the modulus of any operator on ℓ1 without a nontrivial closed invariant subspace. In particular, each operator on ℓ1 without invariant subspace constructed by Read [ 115,117 ] is such a candidate. Troitsky [ 131 ] has recently managed to handle the case of the quasinilpotent operator NS constructed by Read in [ 117 ]. Not only does |NS| have a nontrivial closed invariant subspace, but |NS| also has a positive eigenvector.

In our previous discussion, we were considering only operators on ℓP-spaces. However, we only used the discreteness of ℓP-spaces, the above results remain true for operators on arbitrary discrete Banach lattices, 3 in particular, for operators on Lorentz and Orlicz sequence spaces. For instance, the following analogue of Theorem 36 is true.

Let T : XX be a continuous operator with modulus, where X is a discrete Banach lattice. If there exists a non-zero positive operator S: XX which is locally quasinilpotent at a non-zero positive vector and S|NS| ≤ |NS|NS (in particular this holds if S commutes with |NS|), then T has a non-trivial closed invariant subspace.

Generalizing the approach developed in [ 5–7 ] for individual operators, Drnovšek [ 53 ] and Jahandideh [ 69 ] considered various collections of positive operators (for instance semigroups of operators) and proved the existence of common invariant subspaces for such collections. The main result in [ 53 ] is given next.

Let S be a (multiplicative or additive) semigroup of positive operators on a Banach lattice X. If there exists a discrete element x0X such that each operator in NS is locally quasinilpotent at x0, sau đó NS has a common non-trivial closed invariant ideal.

We refer to [ 8 ] for generalizations of some of the results in this section to Banach spaces with a Schauder basis. The situation with non-discrete spaces is considerably more complicated and will be discussed in the next section.


Frobenius Splitting Methods in Geometry and Representation Theory

The theory of Frobenius splittings has made a significant impact in the study of the geometry of flag varieties and representation theory. This work, unique in book literature, systematically develops the theory and covers all its major developments.

* Concise, efficient exposition unfolds from basic introductory material on Frobenius splittings—definitions, properties and examples—to cutting edge research

* Studies in detail the geometry of Schubert varieties, their syzygies, equivariant embeddings of reductive groups, Hilbert Schemes, canonical splittings, good filtrations, among other topics

* Applies Frobenius splitting methods to algebraic geometry and various problems in representation theory

* Many examples, exercises, and open problems suggested throughout

* Comprehensive bibliography and index

This book will be an excellent resource for mathematicians and graduate students in algebraic geometry and representation theory of algebraic groups.