2016-01-20 23 views
6

Julia'da bir Matlab fmincon optimizasyon işlevini yeniden yazmaya çalışıyorum. İşte Julia Optimizasyon için Matlab: JuMP @SetNLObjective işlevi

Matlab kodudur:

function [x,fval] = example3() 

    x0 = [0; 0; 0; 0; 0; 0; 0; 0]; 
    A = [];       
    b = []; 
    Ae = [1000 1000 1000 1000 -1000 -1000 -1000 -1000]; 
    be = [100];      
    lb = [0; 0; 0; 0; 0; 0; 0; 0]; 
    ub = [1; 1; 1; 1; 1; 1; 1; 1]; 
    noncon = [];     

    options = optimset('fmincon'); 
    options.Algorithm = 'interior-point'; 

    [x,fval] = fmincon(@objfcn,x0,A,b,Ae,be,lb,ub,@noncon,options); 

end 

function f = objfcn(x) 

    % user inputs 
    Cr = [ 0.0064 0.00408 0.00192 0; 
     0.00408 0.0289 0.0204 0.0119; 
     0.00192 0.0204 0.0576 0.0336; 
     0 0.0119 0.0336 0.1225 ]; 

    w0 = [ 0.3; 0.3; 0.2; 0.1 ]; 
    Er = [0.05; 0.1; 0.12; 0.18]; 

    % calculate objective function 
    w = w0+x(1:4)-x(5:8); 
    Er_p = w'*Er; 
    Sr_p = sqrt(w'*Cr*w); 

    % f = objective function 
    f = -Er_p/Sr_p; 

end 

ve burada benim Julia kodu: Ben açıkça @setNLObjective amaç fonksiyonu tanımlarken

using JuMP 
using Ipopt 

m = Model(solver=IpoptSolver()) 

# INPUT DATA 
w0 = [ 0.3; 0.3; 0.2; 0.1 ] 
Er = [0.05; 0.1; 0.12; 0.18] 
Cr = [ 0.0064 0.00408 0.00192 0; 
    0.00408 0.0289 0.0204 0.0119; 
    0.00192 0.0204 0.0576 0.0336; 
    0 0.0119 0.0336 0.1225 ] 

# VARIABLES 
@defVar(m, 0 <= x[i=1:8] <= 1, start = 0.0) 
@defNLExpr(w, w0+x[1:4]-x[5:8]) 
@defNLExpr(Er_p, w'*Er) 
@defNLExpr(Sr_p, w'*Cr*w) 
@defNLExpr(f, Er_p/Sr_p) 

# OBJECTIVE 
@setNLObjective(m, Min, f) 

# CONSTRAINTS 
@addConstraint(m, 1000*x[1] + 1000*x[2] + 1000*x[3] + 1000*x[4] - 
1000*x[5] - 1000*x[6] - 1000*x[7] - 1000*x[8] == 100) 

# SOLVE 
status = solve(m) 

# DISPLAY RESULTS 
println("x = ", round(getValue(x),4)) 
println("f = ", round(getObjectiveValue(m),4)) 

Julia optimizasyonu çalışır ancak bu kadar uygun değildir Kullanıcının girişi, nesnel işlevin nasıl oluşturulduğunu görebileceğiniz farklı bir amaç işleviyle sonuçlanabilir.

Tüm ifadeler basit skaler işlemleri olmalıdır:

konu amaç fonksiyonu @setNLObjective argüman girilebilir nasıl atlayış sınırlama gibi görünüyor. Nokta, matris-vektör ürünleri, vektör dilimleri, vb. Kullanamazsınız. Vektör işlemlerini açıkça toplamı {} işlemlere dönüştürün.

Bunun bir yolu var mı? Veya Julia'da bunu çözen başka herhangi bir paket var, akılda tutulursa bende jacobian ya da kendir yok.

Çok teşekkürler.

+2

'NLopt' paketinin bu sınırlaması yoktur. Herhangi bir işlev veya anonim işlev iletebilirsiniz. –

+0

NLopt'a bir baktım ve sonra ne olduğumu görüyorum ama örneklerin olmaması benim ilerlememi durduruyor. Bana NLopt kullanarak basit bir örnek verebilir misiniz? veya NLopt'ta bile işlevim. Teşekkürler – kulsuri

+2

'NLopt' hakkında SO hakkında bir soru sordum. [Burada] (http://stackoverflow.com/questions/34755612/unexpected-behaviour-of-ftol-abs-and-ftol-rel-in-nlopt) bağlantıdır. Makinenizde çalışıyor olduğundan emin olun, daha sonra hala sorun yaşıyorsanız, bana geri dönün ve daha fazla yardım sağlayabilir miyim göreceğim. –

cevap

4

Julia ve NLopt optimizasyon paketini kullanarak Matlab kodunun çalışma örneği.

using NLopt 

function objective_function(x::Vector{Float64}, grad::Vector{Float64}) 

    w0 = [ 0.3; 0.3; 0.2; 0.1 ] 
    Er = [0.05; 0.1; 0.12; 0.18] 
    Cr = [ 0.0064 0.00408 0.00192 0; 
      0.00408 0.0289 0.0204 0.0119; 
      0.00192 0.0204 0.0576 0.0336; 
      0 0.0119 0.0336 0.1225 ] 

    w = w0 + x[1:4] - x[5:8] 

    Er_p = w' * Er 

    Sr_p = sqrt(w' * Cr * w) 

    f = -Er_p/Sr_p 

    obj_func_value = f[1] 

    return(obj_func_value) 
end 

function constraint_function(x::Vector, grad::Vector) 

    constraintValue = 1000*x[1] + 1000*x[2] + 1000*x[3] + 1000*x[4] - 
1000*x[5] - 1000*x[6] - 1000*x[7] - 1000*x[8] - 100   

return constraintValue 
end 

opt1 = Opt(:LN_COBYLA, 8) 

lower_bounds!(opt1, [0, 0, 0, 0, 0, 0, 0, 0]) 
upper_bounds!(opt1, [1, 1, 1, 1, 1, 1, 1, 1]) 

#ftol_rel!(opt1, 0.5) 
#ftol_abs!(opt1, 0.5) 

min_objective!(opt1, objective_function) 
equality_constraint!(opt1, constraint_function) 

(fObjOpt, xOpt, flag) = optimize(opt1, [0, 0, 0, 0, 0, 0, 0, 0])