粒子群算法是一種基于鳥類覓食開發(fā)出來的優(yōu)化算法,它是從隨機解出發(fā),通過迭代尋找最優(yōu)解,通過適應(yīng)度來評價解的品質(zhì)。
![](http://img.jbzj.com/file_images/article/202102/202121491726944.png?202111491735)
PSO算法的搜索性能取決于其全局探索和局部細化的平衡,這在很大程度上依賴于算法的控制參數(shù),包括粒子群初始化、慣性因子w、最大飛翔速度和加速常數(shù)與等。
PSO算法具有以下優(yōu)點:
不依賴于問題信息,采用實數(shù)求解,算法通用性強。
需要調(diào)整的參數(shù)少,原理簡單,容易實現(xiàn),這是PSO算法的最大優(yōu)點。
協(xié)同搜索,同時利用個體局部信息和群體全局信息指導(dǎo)搜索。
收斂速度快, 算法對計算機內(nèi)存和CPU要求不高。
更容易飛越局部最優(yōu)信息。對于目標函數(shù)僅能提供極少搜索最優(yōu)值的信息,在其他算法無法辨別搜索方向的情況下,PSO算法的粒子具有飛越性的特點使其能夠跨過搜索平面上信息嚴重不足的障礙,飛抵全局最優(yōu)目標值。比如Generalized Rosenbrock函數(shù)全局最小值在原占附近.但是此函數(shù)全局最優(yōu)值與可到達的局部最優(yōu)值之間右一條獨長的山路,曲面山谷中點的最速下降方向幾乎與到函數(shù)最小值的最佳方向垂直,找到全局最小值的可能性微乎其微, 但是PSO算法完全有可能找到全局最優(yōu)值。
同時, PSO算法的缺點也是顯而易見的:
算法局部搜索能力較差,搜索精度不夠高。
算法不能絕對保證搜索到全局最優(yōu)解。
PSO算法設(shè)計的具體步驟如下:
- 初始化粒子群(速度和位置)、慣性因子、加速常數(shù)、最大迭代次數(shù)、算法終止的最小允許誤差。
- 評價每個粒子的初始適應(yīng)值。
- 將初始適應(yīng)值作為當前每個粒子的局部最優(yōu)值,并將各適應(yīng)值對應(yīng)的位置作為每個粒子的局部最優(yōu)值所在的位置。
- 將最佳初始適應(yīng)值作為當前全局最優(yōu)值,并將最佳適應(yīng)值對應(yīng)的位置作為全局最優(yōu)值所在的位置。
- 依據(jù)公式更新每個粒子當前的飛翔速度。
- 對每個粒子的飛翔速度進行限幅處理,使之不能超過設(shè)定的最大飛翔速度。
- 依據(jù)公式更新每個粒子當前所在的位置。
- 比較當前每個粒子的適應(yīng)值是否比歷史局部最優(yōu)值好,如果好,則將當前粒子適應(yīng)值作為粒子的局部最優(yōu)值,其對應(yīng)的位置作為每個粒子的局部最優(yōu)值所在的位置。
- 在當前群中找出全局最優(yōu)值,并將當前全局最優(yōu)值對應(yīng)的位置作為粒子群的全局最優(yōu)值所在的位置。
- 重復(fù)步驟(5)~(9),直到滿足設(shè)定的最小誤差或最大迭代次數(shù)
- 輸出粒子群的全局最優(yōu)值和其對應(yīng)的位置以及每個粒子的局部最優(yōu)值和其對應(yīng)的位置。
本文中我們假設(shè)要求解一個維度為10的向量,這里的適應(yīng)度函數(shù)采用簡單的線性誤差求和。
#基本粒子群算法
#vi+1 = w*vi+c1*r1*(pi-xi)+c2*r2*(pg-xi) 速度更新公式
#xi+1 = xi + a*vi+1 位置更新公式(一般a=1)
#w = wmax -(wmax-wmin)*iter/Iter 權(quán)重更新公式
#iter當前迭代次數(shù) Iter最大迭代次數(shù) c1、c2學習因子 r1、r2隨機數(shù) pi粒子當前最優(yōu)位置 pg粒子群全局最優(yōu)
#初始化 wmax=0.9 wmin=0.4 通常c1=c2=2 Iter對于小規(guī)模問題(10,20)對于大規(guī)模(100,200)
#算法優(yōu)劣取決于w、c1和c2,迭代結(jié)束的條件是適應(yīng)度函數(shù)的值符合具體問題的要求
#初始化粒子群,包括尺寸、速度和位置
#本算法假設(shè)想要的輸出是長度為10的矩陣,y=[1.7]*10,適應(yīng)度函數(shù)f(x)= |x-y| =0.001符合要求
import numpy as np
swarmsize = 500
partlen = 10
wmax,wmin = 0.9,0.4
c1 = c2 = 2
Iter = 400
def getwgh(iter):
w = wmax - (wmax-wmin)*iter/Iter
return w
def getrange():
randompv = (np.random.rand()-0.5)*2
return randompv
def initswarm():
vswarm,pswarm = np.zeros((swarmsize,partlen)),np.zeros((swarmsize,partlen))
for i in range(swarmsize):
for j in range(partlen):
vswarm[i][j] = getrange()
pswarm[i][j] = getrange()
return vswarm,pswarm
def getfitness(pswarm):
pbest = np.zeros(partlen)
fitness = np.zeros(swarmsize)
for i in range(partlen):
pbest[i] = 1.7
for i in range(swarmsize):
yloss = pswarm[i] - pbest
for j in range(partlen):
fitness[i] += abs(yloss[j])
return fitness
def getpgfit(fitness,pswarm):
pgfitness = fitness.min()
pg = pswarm[fitness.argmin()].copy()
return pg,pgfitness
vswarm,pswarm = initswarm()
fitness = getfitness(pswarm)
pg,pgfit = getpgfit(fitness,pswarm)
pi,pifit = pswarm.copy(),fitness.copy()
for iter in range(Iter):
if pgfit = 0.001:
break
#更新速度和位置
weight = getwgh(iter)
for i in range(swarmsize):
for j in range(partlen):
vswarm[i][j] = weight*vswarm[i][j] + c1*np.random.rand()*(pi[i][j]-pswarm[i][j]) + c2*np.random.rand()*(pg[j]-pswarm[i][j])
pswarm[i][j] = pswarm[i][j] + vswarm[i][j]
#更新適應(yīng)值
fitness = getfitness(pswarm)
#更新全局最優(yōu)粒子
pg,pgfit = getpgfit(fitness,pswarm)
#更新局部最優(yōu)粒子
for i in range(swarmsize):
if fitness[i] pifit[i]:
pifit[i] = fitness[i].copy()
pi[i] = pswarm[i].copy()
for j in range(swarmsize):
if pifit[j] pgfit:
pgfit = pifit[j].copy()
pg = pi[j].copy()
print(pg)
print(pgfit)
下面的結(jié)果分別是迭代300次和400次的結(jié)果。
![](http://img.jbzj.com/file_images/article/202102/202121491839668.png?202111491850)
可以看到400次迭代雖然適應(yīng)度沒有達到預(yù)期,得到的向量已經(jīng)很接近期望的結(jié)果了。
寫在最后:粒子群算法最重要的參數(shù)就是慣性權(quán)重和學習因子,針對這兩個參數(shù)有了新的優(yōu)化粒子群算法(IPSO)。還有初始化粒子群時速度和位置范圍的確定,包括種群的大小和迭代次數(shù)的選擇,這些都是‘摸著石頭過河',沒有標準答案。
以上就是Python實現(xiàn)粒子群算法的示例的詳細內(nèi)容,更多關(guān)于Python 粒子群算法的資料請關(guān)注腳本之家其它相關(guān)文章!
您可能感興趣的文章:- python實現(xiàn)粒子群算法
- python3實現(xiàn)單目標粒子群算法
- Python編程實現(xiàn)粒子群算法(PSO)詳解
- Python代碼實現(xiàn)粒子群算法圖文詳解