Sơ đồ nối đất


1. Sơ đồ TT: 

Trung tính-đất, vỏ kim loại-đất (vỏ kim loại nối thẳng xuống đất): nó thích hợp cho lưới có sự kiểm tra hạn chế or lưới có thể mở rộng hoặc cải tạo vì sơ đồ này đơn giản cho lưới công cộng hoặc khách hàng. tuy nhiên do sử dụng 2 điện cực nối đất riêng biệt nên cần lưu ý bảo vệ quá áp, và đòi hỏi phải đặt bộ chống sét, và cũng phải có RCD với dòng >500mA để chống hỏa hoạn.


2. Sơ đồ TN-C: 

Dây trung tính và dây bảo vệ nối đất được dùng chung và gọi là PEN. Mạng này ko cho phép sử dụng cho các dây <10mm2 với Cu và <16mm2 với AL và thiết bị xách tay.TN-C đòi hỏi phải có lưới đẳng áp hiệu quả và chức năng bảo vệ của dây PEN được đặt lên hàng đầu. Hệ này ko được dùng nơi có khả năng cháy nổ cao (vì khi nối các vật dẫn của tòa nhà với dây PEN sẽ tạo nên dòng chạy trong công trình gây hiẻm họa cháy và nhiễu điện từ).

3. Sơ đồ TN-S:
Đây là hệ 3 pha 5 dây quen thuộc, dây bảo vệ và dây trung tính là riên biệt. Hệ này là bắt buộc với mạch có tiết diện nhỏ hơn 10mm2 (dây Cu) và 16mm2 (với dây Al) và các thiết bị di động.

4. Sơ đồ TN-C-S
hai sơ đồ TN-C và TN-S có thể dùng chung trong một lưới. Cần lưu ý là TN-C (hệ 4 dây) ko bao giờ được sử dụng sau sơ đồ TN-S. Có thể sử dụng sơ đồ TN-C-S như sau: phía nguồn (có thể là cáp tổng từ MBA đến trước tủ tổng) sử dụng TN-C còn phía sau khi vào thiết bị sử dụng TN-S; điểm phân dây PE tách hỏi dây PEN thường là điểm đầu của lưới.

5. Sơ đồ IT
Đây là sơ đồ trung tính cách ly or nối đất qua điện trở. ở hệ này cách điện thiết bị phải chịu được điện áp dây nên tốn kém về kinh tế. IT được dùng khi có yêu cầu bức thiết về liên tục cung cấp điện. Nhưng nó đòi hỏi phải nghiên cứu kỹ lưỡng và cầ tổ chức thử nghiệm quá áp và dòng dung rò.
Trong thực tế ko có sơ đồ nào là đa dụng cả và vì vậy sự lựa chọn tốt nhất thường bao gồm nhiều sơ đồ nối đất khác nhau cho các phần khác nhau của lưới (như các bạn đã thấy trong thực tế). Để chọn sử dụng sơ đồ nào thì cần nghiên cứu tính toán, phân tích kỹ lưỡng và phải tuân theo các tiêu chẩn quy phạm một các nghiêm ngặt (tiêu chuẩn quốc gia, hoặc IEC,...) và thường đưa ra các tiêu chí lựa chọn và so sánh như:
- Khả năng bảo vệ chống điện giật;
- Chống hỏa hoạn;
- Cung cấp điện liên tục;
- Bảo vệ chống quá áp;
- Khả năng mở rộng và cải tạo lưới...
- Bảo vệ chống nhiễu điện từ.
Việc tính toán dây nối đất và dây trung tính cũng được quy định rất chặt chẽ và cụ thể trong IEC

Đường cong ROC - receiver operating characteristic

Trong lý thuyết phát hiện tín hiệu, một receiver operating characteristic (ROC), còn gọi là receiver operating curve (đường cong đặc trưng hoạt động của bộ thu nhận - để xác định là có tín hiệu hay chỉ là do nhiễu), là một đồ thị một trục là Độ nhạy, trục còn lại là (1 - Đặc trưng) cho một hệ thống phân loại nhị phân khi mà ngưỡng phân loại của nó bị thay đổi (giá trị của ngưỡng -cutpoint- là nằm trên trục hoành, đường thẳng đứng cho thấy sự phân tách: phần bên trái được xem là không có thuộc tính cần kiểm tra, phần bên phải được xem là có thuộc tính cần kiểm tra) (xem hình).
Giá trị của ngưỡng sẽ quyết định số lượng: true positivestrue negativesfalse positivesfalse negatives (xem trong phân loại nhị phân).
Đường cong ROC cũng có thể được biểu diễn bằng một dạng tương đương bằng cách vẽ phần true positive (TP) theo phần false positive (FP).
  • Hiệu của (1 - Đặc trưng) bằng false positive (FP), ví dụ: đặc trưng=0,9 thì FP=0,1.
  • Ứng mỗi ngưỡng, sẽ cho ta một điểm (true positive, false positive).
  • Như vậy với nhiều lựa chọn ngưỡng khác nhau, sẽ cho ta một tập hợp các điểm trên đồ thị TP-FP.
  • Tập các điểm này sẽ tạo thành đường cong ROC.

Đường cong ROC dùng để đánh giá các kết quả của một dự đoán và ứng dụng đầu tiên của nó là cho việc nghiên cứu các hệ thống nhận diện trong việc phát hiện các tín hiệu radio khi có sự hiện diện của nhiễu vào thập niên 1940, sau sự kiến cuộc tấn công Trân Châu Cảng. Công trình nghiên cứu đầu tiên nhằm mục đích xác định lí do vì sao mà các "bộ hoạt động thu nhận" (receiver operators) của rađa của quân đội Mỹ lại bỏ qua tín hiệu của các máy bay Nhật.
Vào thập niên 1960 chúng bắt đầu được sử dụng trong lĩnh vực tâm vật lí (tiếng Anh:psychophysics), để ước định khả năng phát hiện của con người (và thường là của động vật) đối với các tín hiệu yếu. Chúng còn chứng tỏ cho thấy tính hữu hiệu trong việc đánh giá các kết quả của máy học, như việc đánh giá các động cơ tìm kiếm trên Internet. Chúng còn được sử dụng mạnh mẽ trong dịch tễ học (epidemiology) và nghiên cứu y khoa và thường được sử dụng trong điều trị bệnh dựa trên triệu chứng (dựa vào một loạt các triệu chứng để quyết định là một người có bệnh hay không).
Phương pháp dự đoán tốt nhất có thể sẽ cho ra đồ thị là một điểm ở góc trên bên trái của không gian ROC, ví dụ: 100% Độ nhạy (mọi true positives đều được tìm thấy) và 100%Đặc trưng (không có false positives nào cả). Bộ dự đoán ngẫu nhiên sẽ cho kết quả là một đường thẳng tạo một góc 45 độ với trục hoành, tính từ phía dưới bên trái đến phía trên bên phái: điều này là vì, khi ngưỡng tăng, sẽ có cùng số lượng true positives và false positives giảm đi.

Tính chất:
  1. Đường cong càng đi dọc theo biên trái và rồi đi dọc theo biên phía trên của không gian ROC, thì chứng tỏ kết quả kiểm tra càng chính xác.
  2. Đường cong càng tiến tới thành đường chéo 45 độ trong không gian ROC, thì độ chính xác của kiểm tra càng kém.
  3. Hệ số góc của đường thẳng tiếp tuyến tại một điểm cutpoint cho ta tỉ lệ likelihood ratio (LR) của giá trị cutpoint đó của bài kiểm tra.
  4. Diện tích phía dưới đường cong, giới hạn trong không gian ROC, là thước đo cho độ chính xác của bài kiểm tra, chẳng hạn: 1 là tối ưu, 0.5 là kém. Phần diện tích này có ý nghĩa là thước đo cho khả năng phận biệt (discrimination) tốt hay xấu.
Để có thể tính được phần diện tích này, có 2 phương pháp thường dùng (không dùng tham số -non-parametric và có dùng tham số -parametric) và chúng thường được hiện thực thành các chương trình máy tính. Kết quả cho ra là diện tích và sai số chuẩn (standard error) dùng để có thể so sánh giữa các phép kiểm tra khác nhau, hay trong cùng một phép kiểm tra nhưng với số cá thể khác nhau.

Ứng dụng:
Đôi khi, đường cong ROC dùng để khởi tạo thống kê tóm tắt. Ba dạng chính hay dùng:
  • giao của đường cong ROC với đường thẳng vuông góc 90 độ với đường chéo (no-discrimination line)
  • diện tích của vùng tạo bởi đường cong ROC và đường chéo (no-discrimination line)
  • diện tích phía dưới đường cong ROC, thường gọi AUC
  • d ' (tiếng Anh phát âm là "d-prime"), được tình bằng khoảng cách giữa giá trị trung bình của phân bố của hoạt động trong hệ thống dưới điều kiện chỉ có nhiễu và phân bố của nó dưới điều kiện tín hiệu kèm nhiễu, chia cho độ lệch chuẩn của chúng, với giả thiết là cả hai phân bố này là chuẩn với cùng độ lệch chuẩn.
Đường cong ROC của ba hệ thống dự đoán epitope
Tuy nhiên, nếu cố gắng qui đường cong ROC thành một giá trị số đơn thì sẽ mất đi thông tin về the pattern of tradeoffs of the particular discriminator algorithm.
Trong kĩ thuật, diện tích giữa đường cong ROC và đường thẳng trục hoành là thống kê thường hay dùng nhất, vì những tính chất toán học hữu ích của nó trong thống kê không tham số (non-parametric statistic.) Diện tích này thường được gọi đơn giản là phần khác biệt (discrimination.) Trong ngành psychophysicsd ' là thước đo hay dùng nhất.
Hình minh họa bên cho thấy việc sử dụng đồ thị ROC để biểu diễn phần khác biệt giữa mức độ khác biệt của các giải thuật dự đoánepitope khác nhau. Bạn muốn phát hiện ít nhất 60% lượng epitopes trong protein của một virus, bạn có thể đọc từ đồ thị để biết rằng khoảng 1/3 dữ liệu ra được đánh dấu nhầm chúng là một epitope. Thông tin không hiển thị ở đây là người dùng giải thuật biết giá trị ngưỡng nào thì sẽ cho một điểm cụ thể trên đồ thị ROC.

Tổng quan về Mạng Neuron (Neural Network)


Mạng Neuron nhân tạo (Artificial Neural Network- ANN) là mô hình xử lý thông tin được mô phỏng dựa trên hoạt động của hệ thống thần kinh của sinh vật, bao gồm số lượng lớn các Neuron được gắn kết để xử lý thông tin. ANN giống như bộ não con người, được học bởi kinh nghiệm (thông qua huấn luyện), có khả năng lưu giữ những kinh nghiệm hiểu biết (tri thức) và sử dụng những tri thức đó trong việc dự đoán các dữ liệu chưa biết (unseen data).

Các ứng dụng của mạng Neuron được sử dụng trong rất nhiều lĩnh vực như điện, điện tử, kinh tế, quân sự,… để giải quyết các bài toán có độ phức tạp và đòi hỏi có độ chính xác cao như điều khiển tự động, khai phá dữ liệu, nhận dạng,…

Kiến trúc tổng quát của một ANN như sau



Processing Elements (PE): Các PE của ANN gọi là Neuron, mỗi Nueron nhận các dữ liệu vào (Inputs) xử lý chúng và cho ra một kết quả (output) duy nhất. Kết quả xử lý của một Neuron có thể làm Input cho các Neuron khác


Kiến trúc chung của một ANN gồm 3 thành phần đó là Input Layer, Hidden Layer vàOutput Layer (Xem hình trên)


Trong đó, lớp ẩn (Hidden Layer) gồm các Neuron, nhận dữ liệu input từ các Nueron ở lớp (Layer) trước đó và chuyển đổi các input này cho các lớp xử lý tiếp theo. Trong một ANN có thể có nhiều Hidden Layer.


Quá trình xử lý thông tin của một ANN



Inputs: Mỗi Input tương ứng với 1 thuộc tính (attribute) của dữ liệu (patterns). Ví dụ như trong ứng dụng của ngân hàng xem xét có chấp nhận cho khách hàng vay tiền hay không thì mỗi Input là một thuộc tính của khách hàng như thu nhập, nghề nghiệp, tuổi, số con,…


Output: Kết quả của một ANN là một giải pháp cho một vấn đề, ví dụ như với bài toán xem xét chấp nhận cho khách hàng vay tiền hay không thì output là yes (cho vay) hoặc no (không cho vay).


Connection Weights (Trọng số liên kết) : Đây là thành phần rất quan trọng của một ANN, nó thể hiện mức độ quan trọng (độ mạnh) của dữ liệu đầu vào đối với quá trình xử lý thông tin (quá trình chuyển đổi dữ liệu từ Layer này sang layer khác). Quá trình học (Learning Processing) của ANN thực ra là quá trình điều chỉnh các trọng số (Weight) của các input data để có được kết quả mong muốn.


Summation Function (Hàm tổng): Tính tổng trọng số của tất cả các input được đưa vào mỗi Neuron (phần tử xử lý PE). Hàm tổng của một Neuron đối với n input được tính theo công thức sau:



Hàm tổng đối với nhiều Neurons trong cùng một Layer (Xem hình b):






Transformation (Transfer) Function (Hàm chuyển đổi)


Hàm tổng (Summation Function) của một Neuron cho biết khả năng kích hoạt (Activation) của neuron đó còn gọi là kích hoạt bên trong (internal activation). Các Nueron này có thể sinh ra một output hoặc không trong ANN (nói cách khác rằng có thể output của 1 Neuron có thể được chuyển đến layer tiếp trong mạng Neuron theo hoặc không). Mối quan hệ giữa Internal Activation và kết quả (output) được thể hiện bằng hàm chuyển đổi (Transfer Function).



Việc lựa chọn Transfer Function có tác động lớn đến kết quả của ANN. Hàm chuyển đổi phi tuyến được sử dụng phổ biến trong ANN là sigmoid (logical activation) function.



Trong đó :

YT: Hàm chuyển đổi

Y: Hàm tổng


Kết quả của Sigmoid Function thuộc khoảng [0,1] nên còn gọi là hàm chuẩn hóa (Normalized Function).


Kết quả xử lý tại các Neuron (Output) đôi khi rất lớn, vì vậy transfer function được sử dụng để xử lý output này trước khi chuyển đến layer tiếp theo. Đôi khi thay vì sử dụng Transfer Function người ta sử dụng giá trị ngưỡng (Threshold value) để kiểm soát các output của các neuron tại một layer nào đó trước khi chuyển các output này đến các Layer tiếp theo. Nếu output của một neuron nào đó nhỏ hơn Threshold thì nó sẻ không được chuyển đến Layer tiếp theo.

Một số kiến trúc của ANN












Quá trình học (Learning Processing) của ANN

ANN được huấn luyện (Training) hay được học (Learning) theo 2 kỹ thuật cơ bản đó là học có giám sát (Supervised Learning) và học không giám sát (Unsupervised Learning).

Supervised learning: Quá trình Training được lặp lại cho đến kết quả (output) của ANN đạt được giá trị mong muốn (Desired value) đã biết. Điển hình cho kỹ thuật này là mạng Neuron lan truyền ngược (Backpropagation).

Unsupervised learning: Không sử dụng tri thức bên ngoài trong quá trình học (Learning), nên còn gọi là tự tổ chức (Self – Organizing). Mạng Neuron điển hình được huấn luyện theo kiểu Unsupervised là Sefl – Organizing Map (SOM).


Sau đây là phân loại các thuật toán Learning và kiến trúc của ANN




Nguyên tắc huấn luyện (Training protocols)


Mạng Neuron có 3 cách huấn luyện chính đó là batch training, stochastic training vàon-line training. Đối với on-line training thì các trọng số của mạng (weights) được cập nhật ngay lập tức sau khi một input pattern được đưa vào mạng. Stohastic trainingcũng giống như on-line training nhưng việc chọn các input patterns để đưa vào mạng từ training set được thực hiện ngẫu nhiên (random). Batch training thì tất cả các input patterns được đưa vào mạng cùng lúc và sau đó cập nhật các trọng số mạng đồng thời. Ưu điểm của on-line training là tiết kiệm bộ nhớ vì không cần lưu lại số lượng lớn các input patterns trong bộ nhớ.


Trong quá trình huấn luyện mạng, thuật ngữ “epoch” được dùng để mô tả quá trình khi tất cả các input patterns của training set được đưa để huấn luyện mạng. Nói cách khách 1 epoch được hoàn thành khi tất cả các dữ liệu trong training set được đưa vào huấn luyện mạng. Vì vậy số lượng “epoch” xác định số lần mạng được huấn luyện (hay số lần đưa tất cả các dữ liệu trong training set vào mạng).

Bài viết này chủ yếu giới thiệu về quá trình huấn luyện ANN theo kỹ thuật Supervised learning.

Quá trình học của Supervised ANN được mô tả như sau:

1.Tính giá trị output .
2. So sánh output với giá trị mong muốn (desired value).
3. Nếu chưa đạt được giá trị mong muốn thì hiệu chỉnh trọng số (weights) và tính lại output




Giả sử sau khi tính toán từ các input value đã cho, ta có output là Y. Giá trị mong muốn (Desired) là Z đã biết trước. Sự chênh lệch giữa Y và kết quả mong muốn Z được biểu diễn bởi tham số delta (gọi là lỗi) = Z-Y. Mục đích của việc Learning là làm sao cho delta càng nhỏ càng tốt (Nếu delta =0 là hoàn hảo nhất) bằng cách điều chỉnh trọng số (weights) của các dữ liệu vào.



Để dễ hình dung, sau đây minh họa việc huấn luyện một ANN đơn giản gồm 1 Neuron học để thực hiện phép toán Logic OR giữa 2 input là 2 toán hạng X1 và X2. Nếu một trong 2 input là positive (1) thì kết quả là Positive. Kiến trúc ANN như sau :






Các Input patterns và Desired value như sau:


Neuron phải được huấn luyện để nhận biết các dữ liệu vào (input pattern) ở đây là một bộ gồm 2 giá trị X1 và X2 (trong ví dụ trên có 4 bộ dữ liệu ) và phân loại chúng vào các kết quả đã biết (Desired Results)


Quá trình học được diễn ra như sau:


4 Input patterns được lần lượt đưa vào Neuron, các trọng số ban đầu được khởi tạo ngẫu nhiên và được điều chỉnh sau mỗi vòng lặp. Bước này lặp lại cho đến khi các trọng số hội tụ đến tập các giá trị cho phép ANN phân loại chính xác 4 input patterns. Kết quả của quá trình Training ANN được minh họa bằng Excel như dưới đây (Download File Excel tại đây):




Trong ví dụ này giá trị ngưỡng (Threshold) để đánh giá hàm tổng của các input là 0.5. Sau khi tính toán các output (Y), và sử dụng Desired Result (Z) để tính toán lỗi delta và delta được sử dụng để cập nhật trọng số của các input: delta = Zj-Yj 


Hiệu chỉnh trọng số: Wi(final) = Wi(initial) + alpha*delta*Xi

Trong đó alpha là tham số kiểm soát tốc độ học của ANN gọi là Learning rate. Việc chọn tham số Learning rate phù hợp (làm tăng độ chính xác) là vấn đề rất quan trọng khi triển khai ANN.

Các công thức thực hiện trong Excel:

Tính giá trị Output (Y) =IF((B3*E3+C3*F3)>0.5,1,0)

Tính lỗi (delta) =D3-G3

Cập nhật trọng số W1 =E3+0.2*H3*B3

Cập nhật trọng số W2 =F3+0.2*C3*H3

Trong ví dụ này, quá trình huấn luyện ANN lặp lại 4 lần thì các trọng số hội tụ và ANN phân loại chính xác các input patterns tương ứng với phép toán Logic OR.

Tác giả: Nguyễn Văn Chức – chucnv@ud.edu.vn