
-
1科研工作
-
2獲得的榮譽(yù)
-
3主持的項(xiàng)目:
-
4主要代表作:
-
5Contact Me
常小凱,男,1984年10月生,甘肅通渭人,2022年獲得甘肅省杰出青年基金,2024年入選甘肅省隴原青年英才。2019年12月博士畢業(yè)于西安電子科技大學(xué)應(yīng)用數(shù)學(xué)專業(yè)?,F(xiàn)為蘭州理工大學(xué)理學(xué)院數(shù)學(xué)系副教授,碩士研究生導(dǎo)師。
郵箱:xkchang@lut.edu.cn 辦公室地址:蘭州理工大學(xué)(西校區(qū))文理樓544
主要從事交替方向乘子法(ADMM),原始-對(duì)偶混合梯度法(PDHG)和算子分裂(Operator Splitting)算法及其應(yīng)用的研究。突破經(jīng)典分裂算法使用Polyak 和Nesterov 等開創(chuàng)的外推技術(shù),利用序列凸組合提出了原始對(duì)偶分裂算法的新范式:“凸組合+大步長”,取得了系列卓越成果。在《SIAM Journal on Optimization》、《Journal of Scientific Computing》、 《Journal of Optimization Theory and Applications》、 《Numerical Algorithms》《Calcolo》、 《Journal of Computational and Applied Mathematics》、 《Optimization》、 《Optimization Methods and Software》、 《計(jì)算數(shù)學(xué)》等國際頂級(jí)和知名學(xué)術(shù)期刊上發(fā)表高水平學(xué)術(shù)論文20余篇,所設(shè)計(jì)的算法在圖像處理上的應(yīng)用獲得 2017 年陜西省第三屆研究生創(chuàng)新成果一等獎(jiǎng)。
(1)2024年,入選省級(jí)人才計(jì)劃:甘肅省隴原青年英才;
(2)2023年,蘭州理工大學(xué)教學(xué)質(zhì)量卓越獎(jiǎng)(二層次);
(1)國家自然科學(xué)基金項(xiàng)目(33萬,編號(hào)12161053),基于序列凸組合技術(shù)的新型原始-對(duì)偶混合梯度算法及其應(yīng)用研究,時(shí)間2022年1月——2025年12月;
(2)甘肅省杰出青年基金項(xiàng)目(40萬,編號(hào)22JR5RA223),極小極大問題的黃金比率算法及應(yīng)用,時(shí)間2022年10月——2025年9月;
(3)甘肅省教育廳科研項(xiàng)目(2.5萬,編號(hào)2020A022),多分塊交替方向乘子法及其大數(shù)據(jù)應(yīng)用研究, 時(shí)間2020年1月——2021年12月。
(4)蘭州理工大學(xué)博士科研啟動(dòng)經(jīng)費(fèi)(10萬);
[1] X. Chang(常小凱), J. Yang, and H. Zhang. Golden ratio primal-dual algorithm with linesearch. SIAM Journal on Optimization,Vol. 32, No. 3, pp. 1584—1613, 2022.
[2] X. Chang(常小凱) , J. Yang. GRPDA Revisited: Relaxed Condition and Connection to Chambolle-Pock’s Primal-Dual Algorithm, Journal of Scientific Computing, (2022) 93:70.
[3] X. Chang(常小凱) , J. Yang. A golden ratio primal-dual algorithm for structured convex optimization. Journal of Scientific Computing, (2021) 87:47.
[4] X. Chang(常小凱), L. Xu, and J. Cao. A splitting preconditioned primal-dual algorithm with interpolation and extrapolation for bilinear saddle point problem. Numerical Algorithms, 2024.
[5] X. Chang(常小凱) , J. Bai. A projected extrapolated gradient method with larger step size for monotone variational inequalities. Journal of Optimization Theory and Applications, 190, 602—627 (2021).
[6] X. Chang(常小凱) , J. Bai, D. Song, S. Liu. Linearized symmetric multi-block ADMM with indefinite proximal regularization and optimal proximal parameter. Calcolo, 2020.
[7] X. Chang(常小凱), S. Liu, P. Zhao, X. Li. Convergent prediction-correction-based ADMM for multi-block separable convex programming. Journal of Computational and Applied Mathematics, 2018.
已發(fā)表文章中使用的部分code分享在網(wǎng)址:https://github.com/cxk9369010 請(qǐng)下載測試并提出寶貴意見。