嘉实事件驱动股票垃圾
嘉实事件驱动股票型基金是分级基金b吗我想知道嘉实事件驱动股票型...
展开全部嘉实事件驱动目前最多亏损20%吧,应该不算最多的。
面对这只基金,你现在有三种选择方案:第一,做一个长线持有人,一直拿着,像2008年买入基金被套的投资者一样,一直等待到下一轮牛市成功解套离场;第二,如果看好市场会反弹,那么,等待基金亏损幅度缩小后,就赎回基金,也别想着能完全回本,挣回多少算多少;第三,觉得市场仍会延续下跌,把资金赎回,等待更低的点位进场。
但这存在一些交易成本和机会成本。
...
【001416基金】嘉实事件驱动基金怎么样(001416),急求,好的话...
OPPC模型瓶颈 传统服务器模型如Apache为每一个请求生成一个子进程。
当用户连接到服务器的一个子进程就产生,并处理连接。
每个连接获得一个单独的线程和子进程。
当用户请求数据返回时,子进程开始等待数据库操作返回。
如果此时另一个用户也请求返回数据,这时就产生了阻塞。
这种模式在非常小的工作负荷是表现良好,当请求的数量变得太大是服务器会压力过于巨大。
当Apache达到进程的最大数量,所有进程都变得缓慢。
每个请求都有自己的线程,如果服务代码使用PHP编写时,每个进程所需要的内存量是相当大的[1]。
fork()操作延时 事实上,基于OPPC的网络并不如想象中的高效。
首先新建进程的性能很大程度上依赖于操作系统对fork()的实现,然而不同操作系统的处理并非都理想。
如图为各操作系统fork()的延迟时间对比。
操作系统fork操作只是简单的拷贝分页映射。
动态链接为共享库和全局偏移表中的ELF(Executable and Linking Format)部分创建太多的分页映射。
虽然静态的链接fork会是的性能大幅度提升,但是延时依然不乐观。
图 1 fork延时 进程调度 Linux每10毫秒(Alpha是1毫秒,该值为已编译常量)中断一次在运行态的进程,查看是否要切换别的进程执行。
进程调度的任务就是决定下一个应该执行的进程,而其难度就在于如何公平的分配CPU资源。
一个好的调度算法应该给每一个进程都分享公平的CPU资源,而且不应该出现饥饿进程。
Unix系统采用多级反馈队列调度算法。
使用多个不同优先级的就绪队列,使用Heap保持队列按优先级顺序排序。
Linux 2.6版本提供了一个复杂度O(1)的调度算法,将进程调度延时降至最小。
但是进程调度的频率是100Hz,意味着10毫秒会中止一个进程而判断是否需要切换到另一个进程。
如果切换过多,会让CPU忙于切换,导致降低吞吐量。
内存占用与线程 创建多进程会带来另外一个问题:内存消耗。
每一个创建的进程都会占用内存,在Linux 2.6中的测试结果,400个左右的连接后fork()的性能要超过pthread_create()的性能。
IBM对Linux做过优化后,一个进程可以处理10万个连接。
fork()在每一个连接时都fork()一次成本太高,多线程在于需要考虑线程安全(thread-safe)与死锁(deadlock),以及内存泄露问题这些问题。
可靠性 该模型具有可靠性问题。
一个配置不当的服务器,很容易遭受拒绝服务攻击(DoS)。
当大量并发请求的服务器资源时,负载均衡配置不当时服务器会很快耗尽源而奔溃。
同步阻塞 I/O 在这个模型中,应用程序执行一个系统调用,这会导致应用程序阻塞。
这意味着应用程序会一直阻塞,直到系统调用完成为止(数据传输完成或发生错误)。
调用应用程序处于一种不再占用CPU,而只是简单等待响应的状态,但是该进程依然占用着资源。
当大量并发I/O请求到达时,则会产生I/O阻塞,造成服务器瓶颈。
事件驱动模型服务器 通过上诉分析与实验说明,事实上,操作系统并不是设计来处理服务器工作负载。
传统的线程模型是基于运行应用程序是的一些密集型操作的需要。
操作系统的设计是让用户执行的多线程程序,使后台文件写入和UI操作同时进行,而并不是设计于处理大量并发请求连接。
Fork和多线程是相当费资源的操作,创建线程需要分配一个全新的内存堆栈。
此外,上下文切换也是一项开销的,CPU调度模型是并不太适合一个传统的Web服务器。
因此,OPPC模型面临着多进程多线程的延迟已经内存消耗的问题。
要用OPPC模型解决C10K问题显得十分复杂。
为解决C10K问题,一些新的服务器呈现出来。
下列是解决C10K问题的Web服务器: nginx:一个基于事件驱动的处理请求架构反向代理服务器。
Cherokee:Twitter使用的开源Web服务器。
Tornado:一个Python语言实现的非阻塞式Web服务器框架。
Facebook的FriendFeed模块使用此框架完成。
Node.js:异步非阻塞Web服务器,运行于Google V8 JavaScript引擎。
显然以上解决C10K问题的服务器都有着共同特点:事件驱动,异步非阻塞技术。
由于网络负载工作包括大量的等待。
比如 Apache服务器,产生大量的子进程,需要消耗大量内存。
但大多数子进程占用大量内存资源却只是在等待一个阻塞任务结束。
由于这一特点,新模型抛弃了对每个请求生成子进程的想法。
所有的请求和事物操作只使用一个单独的线程管理,此线程被称之为事件循环。
事件循环将异步的管理所有用户连接与文件存储或数据库服务器。
当请求到达时,使用poll或者select唤醒操作系统对其请求做相应处理。
解决了很多问题。
这样以来处理的并发请求不再是紧紧围绕在阻塞资源。
当然,这样也有一定的开销,如保持一个始终打开的TCP连接的列表,但内存并不会由于大量并发请求而急速上升,因为这个列表只占内存堆上很小的一部分。
Node.js和Nginx的都用这种方法来构建应用程序的规模超级大的连接数。
一切操作都由一个事件循环管理,并很好地处理多个连接[4](图3)。
目前最为流行的事件驱动的异步非阻塞式I/O的Web服务器Node.js,称其会在内存占用上更为高效,而且由于不是传统OPPC模式,也不...